- @Author:Runsen 本文博客目标:了解自动编码器的基本知识 参考文献 https://blog.keras.io/building-autoencoders-in-keras.html https://medium.com/@curiousily/credit-card-fraud-detection-using-autoencoders-in... @Author:Runsen 本文博客目标:了解自动编码器的基本知识 参考文献 https://blog.keras.io/building-autoencoders-in-keras.html https://medium.com/@curiousily/credit-card-fraud-detection-using-autoencoders-in...
- 一,model文件解释 yolov5的模型配置文件如下: # parametersnc: 80 # number of classesdepth_multiple: 1.0 # model depth multiplewidth_multiple: 1.0 # layer channel multiple # anchorsanchors: - [10,13,... 一,model文件解释 yolov5的模型配置文件如下: # parametersnc: 80 # number of classesdepth_multiple: 1.0 # model depth multiplewidth_multiple: 1.0 # layer channel multiple # anchorsanchors: - [10,13,...
- 系列内容深度学习CNN 文章目录 CNN网络架构图展示的卷积神经网络:卷积神经网络的层结构和全连接神经网络的层结构不同:卷积计算池化全连接 CNN网络架构 一个卷积神经网络由若干卷积层、Pooling层、全连接层组成。你可以构建各种不同的卷积神经网络,它的常用架构模式 INPUT -> [[CONV]*N -> POOL?]*M ... 系列内容深度学习CNN 文章目录 CNN网络架构图展示的卷积神经网络:卷积神经网络的层结构和全连接神经网络的层结构不同:卷积计算池化全连接 CNN网络架构 一个卷积神经网络由若干卷积层、Pooling层、全连接层组成。你可以构建各种不同的卷积神经网络,它的常用架构模式 INPUT -> [[CONV]*N -> POOL?]*M ...
- 原文:深度学习技术前沿 【CV中的Attention机制】基于SENet的改进-SKNet https://github.com/pppLang/SKNet/blob/master/sknet.py 论文地址:https://arxiv.org/abs/1903.06586 caffe: 代码地址:https://github.com/impl... 原文:深度学习技术前沿 【CV中的Attention机制】基于SENet的改进-SKNet https://github.com/pppLang/SKNet/blob/master/sknet.py 论文地址:https://arxiv.org/abs/1903.06586 caffe: 代码地址:https://github.com/impl...
- cnn中关于平均池化和最大池化的理解 接触到pooling主要是在用于图像处理的卷积神经网络中,但随着深层神经网络的发展,pooling相关技术在其他领域,其他结构的神经网络中也越来越受关注。一个典型的卷积神经网络结构图,其中的卷积层是对图像的一个邻域进行卷积得到图像的邻域特征,亚采样层就是使用pooling技术将小邻域内的特征点整合得到新的特征。 &nb... cnn中关于平均池化和最大池化的理解 接触到pooling主要是在用于图像处理的卷积神经网络中,但随着深层神经网络的发展,pooling相关技术在其他领域,其他结构的神经网络中也越来越受关注。一个典型的卷积神经网络结构图,其中的卷积层是对图像的一个邻域进行卷积得到图像的邻域特征,亚采样层就是使用pooling技术将小邻域内的特征点整合得到新的特征。 &nb...
- 原文地址: RetinaFace: Single-stage Dense Face Localisation in the Wildarxiv.org 源码地址: https://github.com/deepinsight/insightface/tree/master/RetinaFace 参考代码 https://github... 原文地址: RetinaFace: Single-stage Dense Face Localisation in the Wildarxiv.org 源码地址: https://github.com/deepinsight/insightface/tree/master/RetinaFace 参考代码 https://github...
- 整体嵌套的边缘检测: Holistically-Nested Edge Detection vgg16: https://github.com/harsimrat-eyeem/holy-edge c++版的: https://github.com/harsimrat-eyeem/hed ... 整体嵌套的边缘检测: Holistically-Nested Edge Detection vgg16: https://github.com/harsimrat-eyeem/holy-edge c++版的: https://github.com/harsimrat-eyeem/hed ...
- darknet:网络挺快,但是权重比较大,占用内存比较多 darknet53 512 p100 gpu 15ms ShuffleNetV2 512 p100 gpu 15ms,但是权重比较小,占用内存小。 dla_34 p100 512 512 23ms 训练比较慢 if __n... darknet:网络挺快,但是权重比较大,占用内存比较多 darknet53 512 p100 gpu 15ms ShuffleNetV2 512 p100 gpu 15ms,但是权重比较小,占用内存小。 dla_34 p100 512 512 23ms 训练比较慢 if __n...
- 结果分布:左边是正样本,右边是负样本。 正负loss要均衡,负样本开始略站优势 左边是正样本,右边是负样本 正确姿势: 先调小学习率,再慢慢加大,因为负样本多,慢慢找正样本。 开始负样本可以在0.8-1之间,占比0.003以内,网络好的话后面就没有了。 先负样本收敛,再正样本收敛 学习率太大的表现: 正负样本两边... 结果分布:左边是正样本,右边是负样本。 正负loss要均衡,负样本开始略站优势 左边是正样本,右边是负样本 正确姿势: 先调小学习率,再慢慢加大,因为负样本多,慢慢找正样本。 开始负样本可以在0.8-1之间,占比0.003以内,网络好的话后面就没有了。 先负样本收敛,再正样本收敛 学习率太大的表现: 正负样本两边...
- https://www.maixj.net/ict/float16-32-64-19912 float16/32/64对神经网络计算的影响 神经网络的计算,或者说深度学习的计算,全都是浮点数。浮点数的类型分16/32/64(128位的不再考虑范围内,numpy和python最大只到float64),选择哪一种浮点数类型,对神经网络的计算有不同的影响。以下是... https://www.maixj.net/ict/float16-32-64-19912 float16/32/64对神经网络计算的影响 神经网络的计算,或者说深度学习的计算,全都是浮点数。浮点数的类型分16/32/64(128位的不再考虑范围内,numpy和python最大只到float64),选择哪一种浮点数类型,对神经网络的计算有不同的影响。以下是...
- opencv 调onnx https://github.com/Star-Clouds/CenterFace/blob/master/prj-python/centerface.py ncnn调,比如: https://github.com/moli232777144/mtcnn_ncnn/tree/master/src opencv 调onnx https://github.com/Star-Clouds/CenterFace/blob/master/prj-python/centerface.py ncnn调,比如: https://github.com/moli232777144/mtcnn_ncnn/tree/master/src
- 你的模型到底有多少参数,每秒的浮点运算到底有多少,这些你都知道吗?近日,GitHub 开源了一个小工具,它可以统计 PyTorch 模型的参数量与每秒浮点运算数(FLOPs)。有了这两种信息,模型大小控制也就更合理了。 其实模型的参数量好算,但浮点运算数并不好确定,我们一般也就根据参数量直接估计计算量了。但是像卷积之类的运算,它的参数量比较小,但是运算量非常... 你的模型到底有多少参数,每秒的浮点运算到底有多少,这些你都知道吗?近日,GitHub 开源了一个小工具,它可以统计 PyTorch 模型的参数量与每秒浮点运算数(FLOPs)。有了这两种信息,模型大小控制也就更合理了。 其实模型的参数量好算,但浮点运算数并不好确定,我们一般也就根据参数量直接估计计算量了。但是像卷积之类的运算,它的参数量比较小,但是运算量非常...
- KNN、MOG2和GMG 好像能判断物体移开,花屏效果不好,mouse也不能检测。 mog2: # coding:utf-8 import cv2 # 获取摄像头对象cap = cv2.VideoCapture(0)# 背景分割器对象mog = cv2.createBackgroundSubtractorMOG2() while True: ret, f... KNN、MOG2和GMG 好像能判断物体移开,花屏效果不好,mouse也不能检测。 mog2: # coding:utf-8 import cv2 # 获取摄像头对象cap = cv2.VideoCapture(0)# 背景分割器对象mog = cv2.createBackgroundSubtractorMOG2() while True: ret, f...
- 64*64的分类网络,比pelee收敛慢很多 这个网络用的relue,初步测试relue6好像没有relu效果好 LeakyReLU开始效果也不是特别好 很感谢这个作者,写的很好 https://zhuanlan.zhihu.com/p/76491446 5个月之前更新了:用的vgg16 vgg16 1070上 batch:4 时间3ms htt... 64*64的分类网络,比pelee收敛慢很多 这个网络用的relue,初步测试relue6好像没有relu效果好 LeakyReLU开始效果也不是特别好 很感谢这个作者,写的很好 https://zhuanlan.zhihu.com/p/76491446 5个月之前更新了:用的vgg16 vgg16 1070上 batch:4 时间3ms htt...
- 内积就是点乘,卷积先取反。 import numpy as np bb=[1,2]cc=[2,3] aa=np.dot(bb,cc) print(aa) dd= np.convolve([2,1],cc,'valid')print(dd) dd= np.convolve(bb,cc,'same')print(dd) dd= np.convolve(bb,cc,'ful... 内积就是点乘,卷积先取反。 import numpy as np bb=[1,2]cc=[2,3] aa=np.dot(bb,cc) print(aa) dd= np.convolve([2,1],cc,'valid')print(dd) dd= np.convolve(bb,cc,'same')print(dd) dd= np.convolve(bb,cc,'ful...
上滑加载中
推荐直播
-
香橙派AIpro的远程推理框架与实验案例
2025/07/04 周五 19:00-20:00
郝家胜 -华为开发者布道师-高校教师
AiR推理框架创新采用将模型推理与模型应用相分离的机制,把香橙派封装为AI推理黑盒服务,构建了分布式远程推理框架,并提供多种输入模态、多种输出方式以及多线程支持的高度复用框架,解决了开发板环境配置复杂上手困难、缺乏可视化体验和资源稀缺课程受限等痛点问题,真正做到开箱即用,并支持多种笔记本电脑环境、多种不同编程语言,10行代码即可体验图像分割迁移案例。
回顾中 -
鸿蒙端云一体化应用开发
2025/07/10 周四 19:00-20:00
倪红军 华为开发者布道师-高校教师
基于鸿蒙平台终端设备的应用场景越来越多、使用范围越来越广。本课程以云数据库服务为例,介绍云侧项目应用的创建、新建对象类型、新增存储区及向对象类型中添加数据对象的方法,端侧(HarmonyOS平台)一体化工程项目的创建、云数据资源的关联方法及对云侧数据的增删改查等操作方法,为开发端云一体化应用打下坚实基础。
即将直播
热门标签