- 前言 声明:后期原力计划活动期间的博文都会转入到对应的收费专栏。 博主后续会不断更新该领域的知识: 人工智能AI实战系列代码全解析 手把手教你ML机器学习算法源码全解析 有需要的小伙伴赶紧订阅吧。 在工作中,相信很多小伙伴都遇到过过拟合的现象,创建了一个可以完美训练样本的机器学习模型,但对于需要预测的样本却给... 前言 声明:后期原力计划活动期间的博文都会转入到对应的收费专栏。 博主后续会不断更新该领域的知识: 人工智能AI实战系列代码全解析 手把手教你ML机器学习算法源码全解析 有需要的小伙伴赶紧订阅吧。 在工作中,相信很多小伙伴都遇到过过拟合的现象,创建了一个可以完美训练样本的机器学习模型,但对于需要预测的样本却给...
- 导读:机器学习的学习方式包括监督学习和无监督学习等。针对一个给定的任务,首先要准备一定规模的训练数据,这些训练数据需要和真实数据的分布一致,然后设定一个目标函数和优化方法,在训练数据上学习一个模型。此外,不同任务的模型往往都是从零开始来训练的,一切知识都需要从训练数据中得到。这也导致了每个任务都需要准备大量的训练数据。在实际应用中,我们... 导读:机器学习的学习方式包括监督学习和无监督学习等。针对一个给定的任务,首先要准备一定规模的训练数据,这些训练数据需要和真实数据的分布一致,然后设定一个目标函数和优化方法,在训练数据上学习一个模型。此外,不同任务的模型往往都是从零开始来训练的,一切知识都需要从训练数据中得到。这也导致了每个任务都需要准备大量的训练数据。在实际应用中,我们...
- 自从人们发现越大的模型性能越好后,神经网络模型的参数量就在越来越大的道路上一去不复返了。从XX-large到GPT3,再到5300亿参数的Megatron Turing-NLG,深度学习越来越像是只有财大气粗的大公司才能玩得起的玩具。如果,我们想要在实验室“简陋”的环境下,尝试更大的模型,有什么行之有效的方法呢? 最近,Faceb... 自从人们发现越大的模型性能越好后,神经网络模型的参数量就在越来越大的道路上一去不复返了。从XX-large到GPT3,再到5300亿参数的Megatron Turing-NLG,深度学习越来越像是只有财大气粗的大公司才能玩得起的玩具。如果,我们想要在实验室“简陋”的环境下,尝试更大的模型,有什么行之有效的方法呢? 最近,Faceb...
- 文章目录 前言 系列文章 5.1 匹配的概念 定义5.1 定义5.2 定义 5.3 结语 前言 H... 文章目录 前言 系列文章 5.1 匹配的概念 定义5.1 定义5.2 定义 5.3 结语 前言 H...
- 这里面有几个损失函数: GitHub - MichaelFan01/STDC-Seg: Source Code of our CVPR2021 paper "Rethinking BiSeNet For Real-time Semantic Segmentation" 损失函数代码: #!/usr/bin/py... 这里面有几个损失函数: GitHub - MichaelFan01/STDC-Seg: Source Code of our CVPR2021 paper "Rethinking BiSeNet For Real-time Semantic Segmentation" 损失函数代码: #!/usr/bin/py...
- 文章目录 前言 系列文章 3.1 连通度 定义3.1 :点断集 定义3.2 定理3.1 定理3.2 推论3.2.1 ... 文章目录 前言 系列文章 3.1 连通度 定义3.1 :点断集 定义3.2 定理3.1 定理3.2 推论3.2.1 ...
- pytorch 区间loss 损失函数 我们知道sigmoid可以把值转化为0-1之间。 tanh函数可以把值转化到[-1,1]之间, 但是在回归时,希望梯度是均匀的,有么有别的方法呢? 答案是肯定的, 解决方法1: data=torch.sin(data) 周期性函数,把值变到了0-1之间。 解决方法2: 比如要... pytorch 区间loss 损失函数 我们知道sigmoid可以把值转化为0-1之间。 tanh函数可以把值转化到[-1,1]之间, 但是在回归时,希望梯度是均匀的,有么有别的方法呢? 答案是肯定的, 解决方法1: data=torch.sin(data) 周期性函数,把值变到了0-1之间。 解决方法2: 比如要...
- 文章目录 前言 系列文章 2.2 有向图的连通性 定义2.5 定义2.6 定义2.7 定义2.8 定理2.2 推论... 文章目录 前言 系列文章 2.2 有向图的连通性 定义2.5 定义2.6 定义2.7 定义2.8 定理2.2 推论...
- 目录 前言 往期文章 5.3 方阵的幂级数 5.3.1 方阵级数收敛定义及判断 定义5.7 定义5.8 ... 目录 前言 往期文章 5.3 方阵的幂级数 5.3.1 方阵级数收敛定义及判断 定义5.7 定义5.8 ...
- 目录 前言 系列文章 1.3 图的矩阵表示 1.3.1 邻接矩阵 无向图的邻接矩阵 小结 有向图... 目录 前言 系列文章 1.3 图的矩阵表示 1.3.1 邻接矩阵 无向图的邻接矩阵 小结 有向图...
- 对于“程序设计”的工作,许多初学者的理解就是“写代码”。同样,新手们苦恼的问题是,他们只会“写代码”。当接到一个新的任务,不少人总是在第一时间就爬到键盘上去敲代码。敲着敲着,就把自己绕糊涂... 对于“程序设计”的工作,许多初学者的理解就是“写代码”。同样,新手们苦恼的问题是,他们只会“写代码”。当接到一个新的任务,不少人总是在第一时间就爬到键盘上去敲代码。敲着敲着,就把自己绕糊涂...
- 目录 前言 往期文章 4.1 向量范数及其性质 4.1.1 向量范数的概念及P-范数 定义4.1 向量的几种... 目录 前言 往期文章 4.1 向量范数及其性质 4.1.1 向量范数的概念及P-范数 定义4.1 向量的几种...
- 目录 前言 往期文章 4.2 矩阵的范数 4.2.1 矩阵范数的定义与性质 定义4.3 4.2.2... 目录 前言 往期文章 4.2 矩阵的范数 4.2.1 矩阵范数的定义与性质 定义4.3 4.2.2...
- 目录 前言 3.2 线性变换的矩阵表示 定义3.7 命题 定理3.2.1 结语 前言 Hello!小伙伴! 非... 目录 前言 3.2 线性变换的矩阵表示 定义3.7 命题 定理3.2.1 结语 前言 Hello!小伙伴! 非...
- 前言: 本专栏主要结合OpenCV4,来实现一些基本的图像处理操作、经典的机器学习算法(比如K-Means、KNN、SVM、决策树、贝叶斯分类器等),以及常用的深度学习算法。 系列文章,持续更新: ... 前言: 本专栏主要结合OpenCV4,来实现一些基本的图像处理操作、经典的机器学习算法(比如K-Means、KNN、SVM、决策树、贝叶斯分类器等),以及常用的深度学习算法。 系列文章,持续更新: ...
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢
2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考
2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本
2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
即将直播
热门标签