- PyTorch分布式训练 PyTorch 是一个 Python 优先的深度学习框架,能够在强大的 GPU 加速基础上实现张量和动态神经网络。PyTorch的一大优势就是它的动态图计算特性。 License :MIT License 官网:http://pytorch.org/ GitHub: PyTorch分布式训练 PyTorch 是一个 Python 优先的深度学习框架,能够在强大的 GPU 加速基础上实现张量和动态神经网络。PyTorch的一大优势就是它的动态图计算特性。 License :MIT License 官网:http://pytorch.org/ GitHub:
- PyTorch提供了丰富的损失函数,而多分类任务用到最多的就是nn.CrossEntropyLoss和nn.NLLLoss了,不妨讨论一下。 nn.CrossEntropyLoss CrossEntropy顾名思义就是交叉熵,概念来自香农的信息论,用于度量两个概率分布间的差异性信息,可以认为是在给定的真实分布下,使用非真实分布的策略消除系统的不确定性所需要付出的努力的大小... PyTorch提供了丰富的损失函数,而多分类任务用到最多的就是nn.CrossEntropyLoss和nn.NLLLoss了,不妨讨论一下。 nn.CrossEntropyLoss CrossEntropy顾名思义就是交叉熵,概念来自香农的信息论,用于度量两个概率分布间的差异性信息,可以认为是在给定的真实分布下,使用非真实分布的策略消除系统的不确定性所需要付出的努力的大小...
- 机器学习中的常见问题——损失函数 一、分类算法中的损失函数 在分类算法中,损失函数通常可以表示成损失项和正则项的和,即有如下的形式: 其中,为损失项,为正则项。的具体形式如下: 对于损失项,主要的形式有: 0-1损失Log损失Hinge损失指... 机器学习中的常见问题——损失函数 一、分类算法中的损失函数 在分类算法中,损失函数通常可以表示成损失项和正则项的和,即有如下的形式: 其中,为损失项,为正则项。的具体形式如下: 对于损失项,主要的形式有: 0-1损失Log损失Hinge损失指...
- YOLOv5并量化压缩 下载源码和安装依赖库: 源码地址:https://github.com/ultralytics/yolov5 下载后解压,在目录内打开cmd并激活环境: 安装依赖库: pip install -r requirements.txt 5. 数据标注: 数据标注我们要用labelimg,使用pip即可安装: pip install labe... YOLOv5并量化压缩 下载源码和安装依赖库: 源码地址:https://github.com/ultralytics/yolov5 下载后解压,在目录内打开cmd并激活环境: 安装依赖库: pip install -r requirements.txt 5. 数据标注: 数据标注我们要用labelimg,使用pip即可安装: pip install labe...
- GoogLeNetInceptionCNN深度学习卷积神经网络 2014年,GoogLeNet和VGG是当年ImageNet挑战赛(ILSVRC14)的双雄,GoogLeNet获得了第一名、VGG获得了第二名,这两类模型结构的共同特点是层次更深了。VGG继承了LeNet以及AlexNet的一些框架结构(详见 大话CNN经典模型:VGGN... GoogLeNetInceptionCNN深度学习卷积神经网络 2014年,GoogLeNet和VGG是当年ImageNet挑战赛(ILSVRC14)的双雄,GoogLeNet获得了第一名、VGG获得了第二名,这两类模型结构的共同特点是层次更深了。VGG继承了LeNet以及AlexNet的一些框架结构(详见 大话CNN经典模型:VGGN...
- Region Proposal Network RPN的实现方式:在conv5-3的卷积feature map上用一个n*n的滑窗(论文中作者选用了n=3,即3*3的滑窗)生成一个长度为256(对应于ZF网络)或512(对应于VGG网络)维长度的全连接特征.然后在这个256维或512维的特征后产生两个分支的全连接层: (1)reg-layer,用于预测proposal的... Region Proposal Network RPN的实现方式:在conv5-3的卷积feature map上用一个n*n的滑窗(论文中作者选用了n=3,即3*3的滑窗)生成一个长度为256(对应于ZF网络)或512(对应于VGG网络)维长度的全连接特征.然后在这个256维或512维的特征后产生两个分支的全连接层: (1)reg-layer,用于预测proposal的...
- 从数学上看,如果向量v与变换A满足 Av=λv 则称向量v是变换A的一个特征向量,λ是相应的特征值。其中是将变换作用于v得到的向量。这一等式被称作“特征值方程”。 特征值和特征向量的几何和物理意义 摘自《线性代数的几何意义》 我们知道,矩阵乘法对应了一个变换,是把任意一个向量变成另一个方向或长度都大多不同的新向量。在这个变换的过程中,原向量主要发生旋转、伸缩... 从数学上看,如果向量v与变换A满足 Av=λv 则称向量v是变换A的一个特征向量,λ是相应的特征值。其中是将变换作用于v得到的向量。这一等式被称作“特征值方程”。 特征值和特征向量的几何和物理意义 摘自《线性代数的几何意义》 我们知道,矩阵乘法对应了一个变换,是把任意一个向量变成另一个方向或长度都大多不同的新向量。在这个变换的过程中,原向量主要发生旋转、伸缩...
- epoch,iteration,batch,batch_size epoch:训练时,所有训练图像通过网络训练一次(一次前向传播+一次后向传播);测试时,所有测试图像通过网络一次(一次前向传播)。Caffe不用这个参数。 batch_size:1个batch包含的图像数目,通常设为2的n次幂,常用的包括64,128,256。 &... epoch,iteration,batch,batch_size epoch:训练时,所有训练图像通过网络训练一次(一次前向传播+一次后向传播);测试时,所有测试图像通过网络一次(一次前向传播)。Caffe不用这个参数。 batch_size:1个batch包含的图像数目,通常设为2的n次幂,常用的包括64,128,256。 &...
- 机器学习(一)——K-近邻(KNN)算法 最近在看《机器学习实战》这本书,因为自己本身很想深入的了解机器学习算法,加之想学python,就在朋友的推荐之下选择了这本书进行学习。 一 . K-近邻算法(KNN)概述 最简单最初级的分类器是将全部的训练数据所对应... 机器学习(一)——K-近邻(KNN)算法 最近在看《机器学习实战》这本书,因为自己本身很想深入的了解机器学习算法,加之想学python,就在朋友的推荐之下选择了这本书进行学习。 一 . K-近邻算法(KNN)概述 最简单最初级的分类器是将全部的训练数据所对应...
- 思想 一般化的跟踪问题可以分解成如下几步: 1. 在帧中,在当前位置附近采样,训练一个回归器。这个回归器能计算一个小窗口采样的响应。 2. 在帧中,在前一帧位置附近采样,用前述回归器判断每个采样的响应。 3. 响应最强的采样作为本帧位置。 循环矩阵表示图像块 在图像中,循环位移操作可以用来近似采样窗口的位移。 训练时,围绕着当前位置进行的一系列位移采样可以用二维... 思想 一般化的跟踪问题可以分解成如下几步: 1. 在帧中,在当前位置附近采样,训练一个回归器。这个回归器能计算一个小窗口采样的响应。 2. 在帧中,在前一帧位置附近采样,用前述回归器判断每个采样的响应。 3. 响应最强的采样作为本帧位置。 循环矩阵表示图像块 在图像中,循环位移操作可以用来近似采样窗口的位移。 训练时,围绕着当前位置进行的一系列位移采样可以用二维...
- pix2pixHD是pix2pix的重要升级,可以实现高分辨率图像生成和图片的语义编辑。对于一个生成对抗网络(GAN),学习的关键就是理解生成器、判别器和损失函数这三部分。pix2pixHD的生成器和判别器都是多尺度的,单一尺度的生成器和判别器的结构和pix2pix是一样的。损失函数由GAN loss、Feature matching loss和Content loss组成。... pix2pixHD是pix2pix的重要升级,可以实现高分辨率图像生成和图片的语义编辑。对于一个生成对抗网络(GAN),学习的关键就是理解生成器、判别器和损失函数这三部分。pix2pixHD的生成器和判别器都是多尺度的,单一尺度的生成器和判别器的结构和pix2pix是一样的。损失函数由GAN loss、Feature matching loss和Content loss组成。...
- 证明relu6能比leaky relu有更好的效果,收敛也更快。 pelee mouse 测试集 map 94.57 训练集 ? yolov3 测试集map 95 训练集99% 卷积层得来的特征: 输入是416*416: 13*13 一个特征点代表32*32像素的图像,检测大目标,最小检测32*32的图像,基于1280是96*96的图... 证明relu6能比leaky relu有更好的效果,收敛也更快。 pelee mouse 测试集 map 94.57 训练集 ? yolov3 测试集map 95 训练集99% 卷积层得来的特征: 输入是416*416: 13*13 一个特征点代表32*32像素的图像,检测大目标,最小检测32*32的图像,基于1280是96*96的图...
- 本文提出一种训练速度更快、参数量更少的卷积神经网络EfficientNetV2。我们采用了训练感知NAS与缩放技术对训练速度与参数量进行联合优化,NAS的搜索空间采用了新的op(比如Fused-MBConv)进行扩充。实验表明:相比其他SOTA方案,所提EfficientNetV2收敛速度更快,模型更小(6.8x)。 在训练过程中,我们可以通过逐步提升图像大... 本文提出一种训练速度更快、参数量更少的卷积神经网络EfficientNetV2。我们采用了训练感知NAS与缩放技术对训练速度与参数量进行联合优化,NAS的搜索空间采用了新的op(比如Fused-MBConv)进行扩充。实验表明:相比其他SOTA方案,所提EfficientNetV2收敛速度更快,模型更小(6.8x)。 在训练过程中,我们可以通过逐步提升图像大...
- 梯度中心化(gradient centralization,GC) 开源实现: https://github.com/Yonghongwei/Gradient-Centralization/blob/31caa1d49e7760e62a64a54eabc8f2403fddf38a/GC_code/Fine-grained_classification/SG... 梯度中心化(gradient centralization,GC) 开源实现: https://github.com/Yonghongwei/Gradient-Centralization/blob/31caa1d49e7760e62a64a54eabc8f2403fddf38a/GC_code/Fine-grained_classification/SG...
- pytorch 多gpu训练: # -*- coding:utf-8 -*- from __future__ import division import datetime import torch import torch.nn as nn import torch.nn.functional as F from torch.autograd pytorch 多gpu训练: # -*- coding:utf-8 -*- from __future__ import division import datetime import torch import torch.nn as nn import torch.nn.functional as F from torch.autograd
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签