- 目录 总述: 1. Word2Vec的两种网络结构 1.1 输入层 1.2 映射层 1.3 输出层 1.4 神经网络的权重 2. Word2Vec与LDA的区别和联系 2.1 主题模型与词嵌入方法 总述: Word2Vec是2013年谷歌提出来目前最为常用的词嵌入模型之一。 Word2Vec是一种浅层的神经网络模型,包含有两种网络结构:CBOW(Co... 目录 总述: 1. Word2Vec的两种网络结构 1.1 输入层 1.2 映射层 1.3 输出层 1.4 神经网络的权重 2. Word2Vec与LDA的区别和联系 2.1 主题模型与词嵌入方法 总述: Word2Vec是2013年谷歌提出来目前最为常用的词嵌入模型之一。 Word2Vec是一种浅层的神经网络模型,包含有两种网络结构:CBOW(Co...
- 今天无意间学习东西看到了GNN,所以将最近感觉不错的进行总结,后续再补充吧 图神经网络论文收集GitHub https://github.com/PeijiYang/GNNPapers 几种图神经网络方法总结(Graph Neural Network) https://blog.csdn.net/r1254/article/details/88343349 斯坦福的... 今天无意间学习东西看到了GNN,所以将最近感觉不错的进行总结,后续再补充吧 图神经网络论文收集GitHub https://github.com/PeijiYang/GNNPapers 几种图神经网络方法总结(Graph Neural Network) https://blog.csdn.net/r1254/article/details/88343349 斯坦福的...
- 机器学习是人工智能AI研究发展到一定阶段的必然产物! 二十世纪五十年代~七十年代初,“推理期”:机器的只能体现在具有逻辑推理能力。 二十世纪七十年代中期开始,AI进入“知识期”,希望机器能够自己学习! 其实,图灵1950年就曾提到过机器学习的可能 五十年代中后期,基于神经网络的“连接主义”学习开始,比如:感知机 六七十年代,基于逻辑表示的“ ”符号主义学习发展, ... 机器学习是人工智能AI研究发展到一定阶段的必然产物! 二十世纪五十年代~七十年代初,“推理期”:机器的只能体现在具有逻辑推理能力。 二十世纪七十年代中期开始,AI进入“知识期”,希望机器能够自己学习! 其实,图灵1950年就曾提到过机器学习的可能 五十年代中后期,基于神经网络的“连接主义”学习开始,比如:感知机 六七十年代,基于逻辑表示的“ ”符号主义学习发展, ...
- 我正在参与CSDN200进20,希望得到您的支持,扫码续投票5次。感谢您! (为表示感谢,您投票后私信我,我把我总结的人工智能手推笔记和思维导图发送给您,感谢!) 新一代人工智能院士高峰论坛2019年12月在鹏程实验室召开,有幸参与其中学习。对部分内容进行总结 部分内容参考网络,本文为学习笔记 记录。 中国科学院院士、美国科学院外籍院士蒲慕明带来了主题为《脑科学... 我正在参与CSDN200进20,希望得到您的支持,扫码续投票5次。感谢您! (为表示感谢,您投票后私信我,我把我总结的人工智能手推笔记和思维导图发送给您,感谢!) 新一代人工智能院士高峰论坛2019年12月在鹏程实验室召开,有幸参与其中学习。对部分内容进行总结 部分内容参考网络,本文为学习笔记 记录。 中国科学院院士、美国科学院外籍院士蒲慕明带来了主题为《脑科学...
- Classification Densely Connected Convolutional Networks [Paper] Gao Huang, Zhuang Liu, Laurens van der Maaten, Kilian Q. Weinberger, arXiv:1608.06993. Microsoft (Deep Residual Learning)... Classification Densely Connected Convolutional Networks [Paper] Gao Huang, Zhuang Liu, Laurens van der Maaten, Kilian Q. Weinberger, arXiv:1608.06993. Microsoft (Deep Residual Learning)...
- 项目链接: https://github.com/Prodicode/ann-visualizer?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more A python library for visualizing Artificial Neural Networks (ANN) 如何安装 Fro... 项目链接: https://github.com/Prodicode/ann-visualizer?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more A python library for visualizing Artificial Neural Networks (ANN) 如何安装 Fro...
- 说说早期目标检测---------ssd那些事 前言论文地址githubssd的优点学习前言a[::-1]ssd---anchor SSD代码讲解1.预测部分获得预测结果预测框解码 2.训练部分真实框编码loss值计算 总结 前言 在2015年的时候,ssd作为一匹黑马杀出,他的贡献给深度学习one-stage开辟新纪元。今天我来讲解下我半... 说说早期目标检测---------ssd那些事 前言论文地址githubssd的优点学习前言a[::-1]ssd---anchor SSD代码讲解1.预测部分获得预测结果预测框解码 2.训练部分真实框编码loss值计算 总结 前言 在2015年的时候,ssd作为一匹黑马杀出,他的贡献给深度学习one-stage开辟新纪元。今天我来讲解下我半...
- 浅谈注意力机制的作用 前言什么是注意力机制空间注意力对于时间步的注意力机制1.数据集的制作2.建立注意力模型3.建立整体神经网络4.完整代码5.实验效果 通道注意力机制 前言 Attention机制是很好的一个东西,Attention机制在近几年来在图像,自然语言处理和cv等领域中都取得了重要的突破,被证明有益于提高模型的性能。让我们一起来了解下注意... 浅谈注意力机制的作用 前言什么是注意力机制空间注意力对于时间步的注意力机制1.数据集的制作2.建立注意力模型3.建立整体神经网络4.完整代码5.实验效果 通道注意力机制 前言 Attention机制是很好的一个东西,Attention机制在近几年来在图像,自然语言处理和cv等领域中都取得了重要的突破,被证明有益于提高模型的性能。让我们一起来了解下注意...
- 浅谈神经网络改进小技巧----学习率衰减 前言github地址什么是学习率衰减分段常数衰减指数衰减自然指数衰减多项式衰减余弦衰减余弦退火衰减余弦退火衰减更新版 前言 今天我们来谈下学习率衰减,利用学习率衰减来的到我更好的预测效果。简单实现了几个。 github地址 https://github.com/yanjingke/learn_rate 什么... 浅谈神经网络改进小技巧----学习率衰减 前言github地址什么是学习率衰减分段常数衰减指数衰减自然指数衰减多项式衰减余弦衰减余弦退火衰减余弦退火衰减更新版 前言 今天我们来谈下学习率衰减,利用学习率衰减来的到我更好的预测效果。简单实现了几个。 github地址 https://github.com/yanjingke/learn_rate 什么...
- 好玩的实例分割-------------mask-rcnn 学习前言什么是mask-rcnn?mask-rcnn的优点githubmaskrcnn 实现思路获得Proposal建议框Proposal建议框的解码Roi Align 层建立classifier模型建立mask模型loss值计算 学习前言 有几天没写博客了,今天解读我以前阅读的一篇论文mask... 好玩的实例分割-------------mask-rcnn 学习前言什么是mask-rcnn?mask-rcnn的优点githubmaskrcnn 实现思路获得Proposal建议框Proposal建议框的解码Roi Align 层建立classifier模型建立mask模型loss值计算 学习前言 有几天没写博客了,今天解读我以前阅读的一篇论文mask...
- 前馈神经网络 首先我先寻找了知乎中的一个介绍进行学习:https://www.zhihu.com/question/22553761/answer/126474394 来自知乎学者YJango的回答:https://www.zhihu.com/people/YJango,以及其它... 前馈神经网络 首先我先寻找了知乎中的一个介绍进行学习:https://www.zhihu.com/question/22553761/answer/126474394 来自知乎学者YJango的回答:https://www.zhihu.com/people/YJango,以及其它...
- 两个博客:关于机器学习和神经网络的: 博主: 计算机的潜意识 链接: https://www.cnblogs.com/subconscious/p/5058741.html https://www.cnblogs.com/subconscious/p/4107357.html#first 一、机器学习: 依据... 两个博客:关于机器学习和神经网络的: 博主: 计算机的潜意识 链接: https://www.cnblogs.com/subconscious/p/5058741.html https://www.cnblogs.com/subconscious/p/4107357.html#first 一、机器学习: 依据...
- 说说pspnet经典语义分割那些事 前言原论文地址github代码预备知识1.FCN2.深度可分离卷积3. mobilenetv2 什么是pspnet?代码讲解主干网络金字塔池化psp模块获得预测结果loss计算 前言 今天我们来解析下pspnet代码和论文里面所提到重要部分,pspnet虽然没有deeplabv3那样强的语义效果,但是deepl... 说说pspnet经典语义分割那些事 前言原论文地址github代码预备知识1.FCN2.深度可分离卷积3. mobilenetv2 什么是pspnet?代码讲解主干网络金字塔池化psp模块获得预测结果loss计算 前言 今天我们来解析下pspnet代码和论文里面所提到重要部分,pspnet虽然没有deeplabv3那样强的语义效果,但是deepl...
- 一、自编码器 自编码器(Autoencoder)是一种旨在将它们的输入复制到的输出的神经网络。他们通过将输入压缩成一种隐藏空间表示(latent-space representation),然后这种重构这种表示的输出进行工作。这种网络由两部分组成: 编码器:将输入压缩为潜在空间表示。可以用编码函数h = f(x)表示。 解码器:这部分旨在重构来自隐藏空间表示的输入。... 一、自编码器 自编码器(Autoencoder)是一种旨在将它们的输入复制到的输出的神经网络。他们通过将输入压缩成一种隐藏空间表示(latent-space representation),然后这种重构这种表示的输出进行工作。这种网络由两部分组成: 编码器:将输入压缩为潜在空间表示。可以用编码函数h = f(x)表示。 解码器:这部分旨在重构来自隐藏空间表示的输入。...
- 说说优秀的目标检测retinanet那些事 前言论文地址github地址预备知识1.tf.where()2. retinanet---anchor解读3.retinanet---focalloss解读 retinanet 代码讲解1.预测部分主干特征提取resnet50特征金字塔构建,获得预测结果预测结果的解码 2.训练部分真实框的编码loss值计算 ... 说说优秀的目标检测retinanet那些事 前言论文地址github地址预备知识1.tf.where()2. retinanet---anchor解读3.retinanet---focalloss解读 retinanet 代码讲解1.预测部分主干特征提取resnet50特征金字塔构建,获得预测结果预测结果的解码 2.训练部分真实框的编码loss值计算 ...
上滑加载中
推荐直播
-
香橙派AIpro的远程推理框架与实验案例
2025/07/04 周五 19:00-20:00
郝家胜 -华为开发者布道师-高校教师
AiR推理框架创新采用将模型推理与模型应用相分离的机制,把香橙派封装为AI推理黑盒服务,构建了分布式远程推理框架,并提供多种输入模态、多种输出方式以及多线程支持的高度复用框架,解决了开发板环境配置复杂上手困难、缺乏可视化体验和资源稀缺课程受限等痛点问题,真正做到开箱即用,并支持多种笔记本电脑环境、多种不同编程语言,10行代码即可体验图像分割迁移案例。
回顾中 -
鸿蒙端云一体化应用开发
2025/07/10 周四 19:00-20:00
倪红军 华为开发者布道师-高校教师
基于鸿蒙平台终端设备的应用场景越来越多、使用范围越来越广。本课程以云数据库服务为例,介绍云侧项目应用的创建、新建对象类型、新增存储区及向对象类型中添加数据对象的方法,端侧(HarmonyOS平台)一体化工程项目的创建、云数据资源的关联方法及对云侧数据的增删改查等操作方法,为开发端云一体化应用打下坚实基础。
即将直播
热门标签