- https://github.com/Michael-Jing/EfficientDet-pytorch/blob/master/efficientdet_pytorch/BiFPN.py 这里面的参数不可导, 训练集有map,但是测试集map全是0, 经过验证,不是bifpn的问题。 bifpn 动态参数和静态参数 改成可求导的参数后,准确率反而下... https://github.com/Michael-Jing/EfficientDet-pytorch/blob/master/efficientdet_pytorch/BiFPN.py 这里面的参数不可导, 训练集有map,但是测试集map全是0, 经过验证,不是bifpn的问题。 bifpn 动态参数和静态参数 改成可求导的参数后,准确率反而下...
- 11年it研发经验,从一个会计转行为算法工程师,学过C#,c++,java,android,php,go,js,python,CNN神经网络,四千多篇博文,三千多篇原创,只为与你分享,共同成长,一起进步,关注我,给你分享更多干货知识! 注意:73上map连续几天一直低,因为负样本loss由0.01改为了0.02 还要分析是分类的loss大,还是回归的los... 11年it研发经验,从一个会计转行为算法工程师,学过C#,c++,java,android,php,go,js,python,CNN神经网络,四千多篇博文,三千多篇原创,只为与你分享,共同成长,一起进步,关注我,给你分享更多干货知识! 注意:73上map连续几天一直低,因为负样本loss由0.01改为了0.02 还要分析是分类的loss大,还是回归的los...
- nn.Module中定义参数:不需要加cuda,可以求导,反向传播 class BiFPN(nn.Module): def __init__(self, fpn_sizes): self.w1 = nn.Parameter(torch.rand(1)) print("no--... nn.Module中定义参数:不需要加cuda,可以求导,反向传播 class BiFPN(nn.Module): def __init__(self, fpn_sizes): self.w1 = nn.Parameter(torch.rand(1)) print("no--...
- Hinge Loss 作者:陈雕 链接:https://www.zhihu.com/question/47746939/answer/286432586 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 我说一个前面没提到的,李航老师在他的《统计学习基础》中有提到, hinge 的中文意思是 “... Hinge Loss 作者:陈雕 链接:https://www.zhihu.com/question/47746939/answer/286432586 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 我说一个前面没提到的,李航老师在他的《统计学习基础》中有提到, hinge 的中文意思是 “...
- 最简单的: state_dict = torch.load(weight_path) self.load_state_dict(state_dict,strict=False) 加载cpu: model = IResNet(IBasicBlock, [2, 2, 2, 2]) a_path=r"ms1mv3_ar... 最简单的: state_dict = torch.load(weight_path) self.load_state_dict(state_dict,strict=False) 加载cpu: model = IResNet(IBasicBlock, [2, 2, 2, 2]) a_path=r"ms1mv3_ar...
- 感觉深度学习在移动端的全面开花就在这两年了,其实感觉已经开始开花了。 先说说量化是怎么一回事,目前我们在caffe, tensorflow等框架上训练模型(前向和反向)都是使用float 32的,与int 8相比,所需储存空间更大,但是精度更好。 量化目前来讲,有两种方式,一种是通过训练量化finetune原来的模型,另一种是直接对模型和计算进行量化。这篇... 感觉深度学习在移动端的全面开花就在这两年了,其实感觉已经开始开花了。 先说说量化是怎么一回事,目前我们在caffe, tensorflow等框架上训练模型(前向和反向)都是使用float 32的,与int 8相比,所需储存空间更大,但是精度更好。 量化目前来讲,有两种方式,一种是通过训练量化finetune原来的模型,另一种是直接对模型和计算进行量化。这篇...
- 基于相关滤波器的追踪(Correlation Filter-based Tracking)原理 基于相关滤波器的追踪算法,典型的算法有KCF,DSST,STC,SAMF等。这些算法的大致框架都是差不多的。 介绍 在视频的第一帧给定目标的初始位置,追踪的目标就是预测目标之后的位置。追踪受到很多因素影响,比如光照变化(illumination variations),... 基于相关滤波器的追踪(Correlation Filter-based Tracking)原理 基于相关滤波器的追踪算法,典型的算法有KCF,DSST,STC,SAMF等。这些算法的大致框架都是差不多的。 介绍 在视频的第一帧给定目标的初始位置,追踪的目标就是预测目标之后的位置。追踪受到很多因素影响,比如光照变化(illumination variations),...
- Surf算法学习心得(一)——算法原理 写在前面的话: Surf算法是对Sift算法的一种改进,主要是在算法的执行效率上,比Sift算法来讲运行更快!由于我也是初学者,刚刚才开始研究这个算法,然而网上对于Surf算法的资料又尤为极少,稍微介绍的明白一点的还是英文。所以在此想借这个机会把我所理解的部分介绍一下,对于后面准备学习Surf算法的朋友来说,希望有一点点... Surf算法学习心得(一)——算法原理 写在前面的话: Surf算法是对Sift算法的一种改进,主要是在算法的执行效率上,比Sift算法来讲运行更快!由于我也是初学者,刚刚才开始研究这个算法,然而网上对于Surf算法的资料又尤为极少,稍微介绍的明白一点的还是英文。所以在此想借这个机会把我所理解的部分介绍一下,对于后面准备学习Surf算法的朋友来说,希望有一点点...
- 反向传播算法(Backpropagation)是目前用来训练人工神经网络(Artificial Neural Network,ANN)的最常用且最有效的算法。其主要思想是: (1)将训练集数据输入到ANN的输入层,经过隐藏层,最后达到输出层并输出结果,这是ANN的前向传播过程; (2)由于ANN的输出结果与实际结果有误差,则计算估计值与实际值... 反向传播算法(Backpropagation)是目前用来训练人工神经网络(Artificial Neural Network,ANN)的最常用且最有效的算法。其主要思想是: (1)将训练集数据输入到ANN的输入层,经过隐藏层,最后达到输出层并输出结果,这是ANN的前向传播过程; (2)由于ANN的输出结果与实际结果有误差,则计算估计值与实际值...
- 多目标优化 目标优化问题一般地就是指通过一定的优化算法获得目标函数的最优化解。当优化的目标函数为一个时称之为单目标优化(Single-objective Optimization Problem, SOP)。当优化的目标函数有两个或两个以上时称为多目标优化(Multi-objective Optimization Problem, M... 多目标优化 目标优化问题一般地就是指通过一定的优化算法获得目标函数的最优化解。当优化的目标函数为一个时称之为单目标优化(Single-objective Optimization Problem, SOP)。当优化的目标函数有两个或两个以上时称为多目标优化(Multi-objective Optimization Problem, M...
- 原文:http://blog.163.com/renguangqian@126/blog/static/1624014002011711114526759/ FUCk,相见很晚,如果大学期间遇到这样的文章,线代必须90分以上!!!! 特征值和特征向量的几何和物理意义 摘自《线性代数的几何意义》 我们知道,矩阵乘法对应了一个变换,是把任意... 原文:http://blog.163.com/renguangqian@126/blog/static/1624014002011711114526759/ FUCk,相见很晚,如果大学期间遇到这样的文章,线代必须90分以上!!!! 特征值和特征向量的几何和物理意义 摘自《线性代数的几何意义》 我们知道,矩阵乘法对应了一个变换,是把任意...
- 原文:http://blog.sina.com.cn/s/blog_54d460e40101ec00.html 高斯混合模型--GMM(Gaussian Mixture Model) 统计学习的模型有两种,一种是概率模型,一种是非概率模型。 ... 原文:http://blog.sina.com.cn/s/blog_54d460e40101ec00.html 高斯混合模型--GMM(Gaussian Mixture Model) 统计学习的模型有两种,一种是概率模型,一种是非概率模型。 ...
- 极大似然估计,通俗理解来说,就是利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现的模型参数值! 换句话说,极大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。 可能有小伙伴就要说了,还是有点抽象呀。我们这样想,一当模型满足某个分布,它的参数值我通过极大似然估计法求出来的话。比如正态分布中公式如下: 如果我通过极大似然估... 极大似然估计,通俗理解来说,就是利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现的模型参数值! 换句话说,极大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。 可能有小伙伴就要说了,还是有点抽象呀。我们这样想,一当模型满足某个分布,它的参数值我通过极大似然估计法求出来的话。比如正态分布中公式如下: 如果我通过极大似然估...
- 海森矩阵及其应用 转载 2017年04月20日 09:59:48 标签:梯度下降算法 /微积分 /牛顿迭代法 原文参考链接 :here,原文讲得到很详细。 海森矩阵 在数学中, 海森矩阵(Hessian matrix或Hessian)是一个自变量为向量的实值函数的二阶偏导数组成的方块矩阵, 此函数如下: ... 海森矩阵及其应用 转载 2017年04月20日 09:59:48 标签:梯度下降算法 /微积分 /牛顿迭代法 原文参考链接 :here,原文讲得到很详细。 海森矩阵 在数学中, 海森矩阵(Hessian matrix或Hessian)是一个自变量为向量的实值函数的二阶偏导数组成的方块矩阵, 此函数如下: ...
- 机器学习:一步步教你理解反向传播方法 时间 2016-09-13 00:35:59 Yong Yuan's blog 原文 http://yongyuan.name/blog/back-propagtion.html 主题 数据挖掘 ... 机器学习:一步步教你理解反向传播方法 时间 2016-09-13 00:35:59 Yong Yuan's blog 原文 http://yongyuan.name/blog/back-propagtion.html 主题 数据挖掘 ...
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢
2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
基于华为云CodeArts的软件需求工程实践
2025/08/27 周三 19:00-20:30
马瑞新-华为开发者布道师-高校教师
基于华为云CodeArts的软件开发技术,深度体验>>智能化软件全流程
回顾中
热门标签