- 跟博士请教,分组卷积可以合并,如果是独立卷积,bn是通道的bn,可能不能合并? 1. 为什么要合并BN层 在训练深度网络模型时,BN(Batch Normalization)层能够加速网络收敛,并且能够控制过拟合,一般放在卷积层之后。BN 层将数据归一化后,能够有效解决梯度消失与梯度爆炸问题。虽然 BN 层在训练时起到了积极作用,然而,在网络前向推断时多了一些... 跟博士请教,分组卷积可以合并,如果是独立卷积,bn是通道的bn,可能不能合并? 1. 为什么要合并BN层 在训练深度网络模型时,BN(Batch Normalization)层能够加速网络收敛,并且能够控制过拟合,一般放在卷积层之后。BN 层将数据归一化后,能够有效解决梯度消失与梯度爆炸问题。虽然 BN 层在训练时起到了积极作用,然而,在网络前向推断时多了一些...
- 空间金字塔池化(Spatial Pyramid Pooling, SPP)原理和代码实现(Pytorch) 一、为什么需要SPP 首先需要知道为什么需要SPP。 我们都知道卷积神经网络(CNN)由卷积层和全连接层组成,其中卷积层对于输入数据的大小并没有要求,唯一对数据大小有要求的则是第一个全连接层,因此基本上所有的CNN都要求输入数据固定大小,例如著名的VG... 空间金字塔池化(Spatial Pyramid Pooling, SPP)原理和代码实现(Pytorch) 一、为什么需要SPP 首先需要知道为什么需要SPP。 我们都知道卷积神经网络(CNN)由卷积层和全连接层组成,其中卷积层对于输入数据的大小并没有要求,唯一对数据大小有要求的则是第一个全连接层,因此基本上所有的CNN都要求输入数据固定大小,例如著名的VG...
- VGG中根据卷积核大小和卷积层数目的不同,可分为A,A-LRN,B,C,D,E共6个配置(ConvNet Configuration),其中以D,E两种配置较为常用,分别称为VGG16和VGG19 上图中,每一列对应一种结构配置。例如,图中绿色部分即指明了VGG16所采用的结构。 我们针对VGG16进行具体分析发现,VGG16共包含: ... VGG中根据卷积核大小和卷积层数目的不同,可分为A,A-LRN,B,C,D,E共6个配置(ConvNet Configuration),其中以D,E两种配置较为常用,分别称为VGG16和VGG19 上图中,每一列对应一种结构配置。例如,图中绿色部分即指明了VGG16所采用的结构。 我们针对VGG16进行具体分析发现,VGG16共包含: ...
- 代码:https://github.com/4uiiurz1/pytorch-deform-conv-v2 https://github.com/msracver/Deformable-ConvNets. 卷积神经网络(CNNs)由于其固定的几何结构而固有地局限于模型几何变换。 在这项工作中,我们引入两个新的模块来增强CNN的变换建模能力... 代码:https://github.com/4uiiurz1/pytorch-deform-conv-v2 https://github.com/msracver/Deformable-ConvNets. 卷积神经网络(CNNs)由于其固定的几何结构而固有地局限于模型几何变换。 在这项工作中,我们引入两个新的模块来增强CNN的变换建模能力...
- BP神经网络与卷积神经网络(CNN) 1、BP神经网络 1.1 神经网络基础 神经网络的基本组成单元是神经元。神经元的通用模型如图 1所示,其中常用的激活函数有阈值函数、sigmoid函数和双曲正切函数。 图 1 神经元模型 神经元的输出为: 神经网络是将多个神经元按一定规则联... BP神经网络与卷积神经网络(CNN) 1、BP神经网络 1.1 神经网络基础 神经网络的基本组成单元是神经元。神经元的通用模型如图 1所示,其中常用的激活函数有阈值函数、sigmoid函数和双曲正切函数。 图 1 神经元模型 神经元的输出为: 神经网络是将多个神经元按一定规则联...
- 太感谢知乎的大牛了,看了他们聪明的解释之后,心里豁然开朗了, 原文:https://www.zhihu.com/question/22298352 从数学上讲,卷积就是一种运算,和加、减、乘、除一样,只是更抽象一点 卷积的重要的物理意义是:一个函数(如:单位响应)在另一个函数(如:输入信号)上的 太感谢知乎的大牛了,看了他们聪明的解释之后,心里豁然开朗了, 原文:https://www.zhihu.com/question/22298352 从数学上讲,卷积就是一种运算,和加、减、乘、除一样,只是更抽象一点 卷积的重要的物理意义是:一个函数(如:单位响应)在另一个函数(如:输入信号)上的
- 2、拉普拉斯金字塔融合 图像金字塔方法的原理是:将参加融合的的每幅图像分解为多尺度的金字塔图像序列,将低分辨率的图像在上层,高分辨率的图像在下层,上层图像的大小为前一层图像大小的1/4。层数为0,1,2……N。将所有图像的金字塔在相应层上以一定的规则融合,就可得到合成金字塔,再将该合成金字塔按照金字塔生成的逆过程进行重构,得到融合金字塔。这个总的思路就是一下所有基于... 2、拉普拉斯金字塔融合 图像金字塔方法的原理是:将参加融合的的每幅图像分解为多尺度的金字塔图像序列,将低分辨率的图像在上层,高分辨率的图像在下层,上层图像的大小为前一层图像大小的1/4。层数为0,1,2……N。将所有图像的金字塔在相应层上以一定的规则融合,就可得到合成金字塔,再将该合成金字塔按照金字塔生成的逆过程进行重构,得到融合金字塔。这个总的思路就是一下所有基于...
- MXNet之网络结构搭建 网络结构搭建 1.卷积层(Convolution) 2.BN层(Batch Normalization) 3.激活层(Activation) 4.池化层(Pooling) 5.全连接层(FullyConnected) 6. 损失函数层 7.通道合并层(concat) 8.逐点相加层(element-wise-sum) 1.卷积层(Co... MXNet之网络结构搭建 网络结构搭建 1.卷积层(Convolution) 2.BN层(Batch Normalization) 3.激活层(Activation) 4.池化层(Pooling) 5.全连接层(FullyConnected) 6. 损失函数层 7.通道合并层(concat) 8.逐点相加层(element-wise-sum) 1.卷积层(Co...
- 离散卷积的计算过程是模板翻转,然后在原图像上滑动模板,把对应位置上的元素相乘后加起来,得到最终的结果。 如果不考虑翻转,这个滑动-相乘-叠加的过程就是相关操作。事实上我也一直用相关来理解卷积。在时域内可以从两个角度来理解这样做的含义。 一种是滤波,比如最简单的高斯模板,就是把模板内像素乘以不同的权值然后加起来作为模板的中心像素值,如果模板取值全为1,就是滑动平... 离散卷积的计算过程是模板翻转,然后在原图像上滑动模板,把对应位置上的元素相乘后加起来,得到最终的结果。 如果不考虑翻转,这个滑动-相乘-叠加的过程就是相关操作。事实上我也一直用相关来理解卷积。在时域内可以从两个角度来理解这样做的含义。 一种是滤波,比如最简单的高斯模板,就是把模板内像素乘以不同的权值然后加起来作为模板的中心像素值,如果模板取值全为1,就是滑动平...
- 原文 | https://ai.googleblog.com/2019/04/morphnet-towards-faster-and-smaller.html 深度神经网络(DNN)在解决图像分类、文本识别和语音转录等实际难题方面显示出卓越的效能。但是,为给定问题设计合适的 DNN 架构依然是一项具有挑战性的任务。考虑到巨大的架构搜索空间,就计算资... 原文 | https://ai.googleblog.com/2019/04/morphnet-towards-faster-and-smaller.html 深度神经网络(DNN)在解决图像分类、文本识别和语音转录等实际难题方面显示出卓越的效能。但是,为给定问题设计合适的 DNN 架构依然是一项具有挑战性的任务。考虑到巨大的架构搜索空间,就计算资...
- GoogLeNetInceptionCNN深度学习卷积神经网络 2014年,GoogLeNet和VGG是当年ImageNet挑战赛(ILSVRC14)的双雄,GoogLeNet获得了第一名、VGG获得了第二名,这两类模型结构的共同特点是层次更深了。VGG继承了LeNet以及AlexNet的一些框架结构(详见 大话CNN经典模型:VGGN... GoogLeNetInceptionCNN深度学习卷积神经网络 2014年,GoogLeNet和VGG是当年ImageNet挑战赛(ILSVRC14)的双雄,GoogLeNet获得了第一名、VGG获得了第二名,这两类模型结构的共同特点是层次更深了。VGG继承了LeNet以及AlexNet的一些框架结构(详见 大话CNN经典模型:VGGN...
- https://github.com/HuiZeng/Image-Adaptive-3DLUT 该文是香港理工大学张磊老师及其学生在图像增强领域的又一颠覆性成果。它将深度学习技术与传统3DLUT图像增强技术结合,得到了一种更灵活、更高效的图像增强技术。所提方法能够以1.66ms的速度对4K分辨率图像进行增强(硬件平台:Titan RTX GP... https://github.com/HuiZeng/Image-Adaptive-3DLUT 该文是香港理工大学张磊老师及其学生在图像增强领域的又一颠覆性成果。它将深度学习技术与传统3DLUT图像增强技术结合,得到了一种更灵活、更高效的图像增强技术。所提方法能够以1.66ms的速度对4K分辨率图像进行增强(硬件平台:Titan RTX GP...
- 机器学习(一)——K-近邻(KNN)算法 最近在看《机器学习实战》这本书,因为自己本身很想深入的了解机器学习算法,加之想学python,就在朋友的推荐之下选择了这本书进行学习。 一 . K-近邻算法(KNN)概述 最简单最初级的分类器是将全部的训练数据所对应... 机器学习(一)——K-近邻(KNN)算法 最近在看《机器学习实战》这本书,因为自己本身很想深入的了解机器学习算法,加之想学python,就在朋友的推荐之下选择了这本书进行学习。 一 . K-近邻算法(KNN)概述 最简单最初级的分类器是将全部的训练数据所对应...
- 1.model size 就是模型的大小,我们一般使用参数量parameter来衡量,注意,它的单位是个。但是由于很多模型参数量太大,所以一般取一个更方便的单位:兆(M) 来衡量。比如ResNet-152的参数量可以达到60 million = 0.0006M。有些时候,model size在实际计算时除了包含参数量以外,还包括网络架构信息和优化器... 1.model size 就是模型的大小,我们一般使用参数量parameter来衡量,注意,它的单位是个。但是由于很多模型参数量太大,所以一般取一个更方便的单位:兆(M) 来衡量。比如ResNet-152的参数量可以达到60 million = 0.0006M。有些时候,model size在实际计算时除了包含参数量以外,还包括网络架构信息和优化器...
- 网络裁剪加速 Learning Efficient Convolutional Networks through Network Slimming ICCV2017 https://github.com/liuzhuang13/slimming CNN网络通道裁剪加速 Channel Pruning for Accelerating ... 网络裁剪加速 Learning Efficient Convolutional Networks through Network Slimming ICCV2017 https://github.com/liuzhuang13/slimming CNN网络通道裁剪加速 Channel Pruning for Accelerating ...
上滑加载中
推荐直播
-
华为云码道-玩转OpenClaw,在线养虾2026/03/11 周三 19:00-21:00
刘昱,华为云高级工程师/谈心,华为云技术专家/李海仑,上海圭卓智能科技有限公司CEO
OpenClaw 火爆开发者圈,华为云码道最新推出 Skill ——开发者只需输入一句口令,即可部署一个功能完整的「小龙虾」智能体。直播带你玩转华为云码道,玩转OpenClaw
回顾中 -
华为云码道-AI时代应用开发利器2026/03/18 周三 19:00-20:00
童得力,华为云开发者生态运营总监/姚圣伟,华为云HCDE开发者专家
本次直播由华为专家带你实战应用开发,看华为云码道(CodeArts)代码智能体如何在AI时代让你的创意应用快速落地。更有华为云HCDE开发者专家带你用码道玩转JiuwenClaw,让小艺成为你的AI助理。
回顾中 -
Skill 构建 × 智能创作:基于华为云码道的 AI 内容生产提效方案2026/03/25 周三 19:00-20:00
余伟,华为云软件研发工程师/万邵业(万少),华为云HCDE开发者专家
本次直播带来两大实战:华为云码道 Skill-Creator 手把手搭建专属知识库 Skill;如何用码道提效 OpenClaw 小说文本,打造从大纲到成稿的 AI 原创小说全链路。技术干货 + OPC创作思路,一次讲透!
回顾中
热门标签