- 1 绪论 2 马尔科夫决策过程 2.4 习题1. Q:马尔科夫过程与马尔科夫决策过程的区别。A: 马尔科夫过程的定义:马尔科夫过程是一个二元组(S,P),且满足:S是有限状态集合,P是状态转移概率。状态转移概率矩阵为:下面我们以一个例子来进行阐述。如图2.2所示为一个学生的7种状态{娱乐,课程1,课程2,课程3,考过,睡觉,论文},每种状态之间的转换概率如图所示。则该生从课程1开始一天可能... 1 绪论 2 马尔科夫决策过程 2.4 习题1. Q:马尔科夫过程与马尔科夫决策过程的区别。A: 马尔科夫过程的定义:马尔科夫过程是一个二元组(S,P),且满足:S是有限状态集合,P是状态转移概率。状态转移概率矩阵为:下面我们以一个例子来进行阐述。如图2.2所示为一个学生的7种状态{娱乐,课程1,课程2,课程3,考过,睡觉,论文},每种状态之间的转换概率如图所示。则该生从课程1开始一天可能...
- 基于Atlas 200I DK A2的智能小车外观结构图原理:智能小车通过摄像头感知周围环境自主地进行运动控制,采集环境数据后在开发者套件上进行AI推理,根据推理结果发出指令控制小车的运动状态。小车运动状态的控制需要借助ESP32微控制器,使用Arduino平台可以对其进行嵌入式开发。主控与小车主体间控制指令的发出和数据的返回,需要通过串口协议进行双向通信。 智能小车从底层硬件到上层AI应用... 基于Atlas 200I DK A2的智能小车外观结构图原理:智能小车通过摄像头感知周围环境自主地进行运动控制,采集环境数据后在开发者套件上进行AI推理,根据推理结果发出指令控制小车的运动状态。小车运动状态的控制需要借助ESP32微控制器,使用Arduino平台可以对其进行嵌入式开发。主控与小车主体间控制指令的发出和数据的返回,需要通过串口协议进行双向通信。 智能小车从底层硬件到上层AI应用...
- 前言 相对于 L 2 ... 前言 相对于 L 2 ...
- 文章目录 前言设计前准备训练集,开发集,测试集上个时代的机器学习大数据时代 数据集不匹配没有测试集的情况 前言 接下来的更新是第二课的内容了: Improving Deep N... 文章目录 前言设计前准备训练集,开发集,测试集上个时代的机器学习大数据时代 数据集不匹配没有测试集的情况 前言 接下来的更新是第二课的内容了: Improving Deep N...
- 作者:牛力链接:https://www.zhihu.com/question/513765568/answer/2439885449来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 1 综述1.1 跨种类迁移深度学习模型的训练需要大量标注良好的训练样本,但是这种训练样本的获取成本非常高昂。现实世界中种类繁多,新种类也在源源不断地出现,因此不可能为所有种类收集大... 作者:牛力链接:https://www.zhihu.com/question/513765568/answer/2439885449来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 1 综述1.1 跨种类迁移深度学习模型的训练需要大量标注良好的训练样本,但是这种训练样本的获取成本非常高昂。现实世界中种类繁多,新种类也在源源不断地出现,因此不可能为所有种类收集大...
- 并行训练是一种重要的训练形式,本文介绍如何通过pytorch启动多节点并行训练任务。 并行训练是一种重要的训练形式,本文介绍如何通过pytorch启动多节点并行训练任务。
- 目录 第一阶段:JavaSE+MySql+Linux 第二阶段:Hadoop 与生态系统 第三阶段:Storm 与Spark 及其生态圈 第四阶段:Mahout 机器学习→ R 语言→Python 第五阶段:项目实战、技术综合运用 大数据开发学习可以按照以下内容进行学习: 第一阶段:JavaSE+MySql+Linux ... 目录 第一阶段:JavaSE+MySql+Linux 第二阶段:Hadoop 与生态系统 第三阶段:Storm 与Spark 及其生态圈 第四阶段:Mahout 机器学习→ R 语言→Python 第五阶段:项目实战、技术综合运用 大数据开发学习可以按照以下内容进行学习: 第一阶段:JavaSE+MySql+Linux ...
- 随机森林回归 回归问题指的是因变量或者被预测变量是连续性变量的情形,比如预测身高体重的具体数值是多少的情形。整个代码大致可以分为包、数据、模型、预测评估4个部分,接下来逐一解读。 1、包部分,也就是加载各类包,包括随机森林包randomForest,数据相关包tidyverse、skimr、DataExplorer,模型评估包car... 随机森林回归 回归问题指的是因变量或者被预测变量是连续性变量的情形,比如预测身高体重的具体数值是多少的情形。整个代码大致可以分为包、数据、模型、预测评估4个部分,接下来逐一解读。 1、包部分,也就是加载各类包,包括随机森林包randomForest,数据相关包tidyverse、skimr、DataExplorer,模型评估包car...
- 扩增方法:回译 将文本数据翻译成某种语言,然后再将其翻译回原始语言。回译可以生成带有不同单词的文本数据,同时保留文本数据的上下文。 一般情况下回译需要借助翻译API来完成,需要耗费一定的时间。 扩增方法:同义词替换 从句子中随机选择N个非停止词,随机选择的同义词替换这些单词。 替换前:This article&nbs... 扩增方法:回译 将文本数据翻译成某种语言,然后再将其翻译回原始语言。回译可以生成带有不同单词的文本数据,同时保留文本数据的上下文。 一般情况下回译需要借助翻译API来完成,需要耗费一定的时间。 扩增方法:同义词替换 从句子中随机选择N个非停止词,随机选择的同义词替换这些单词。 替换前:This article&nbs...
- from os import getcwd import os import json import glob wd = getcwd() "labelme标注的json 数据集转为keras 版yolov3的训练集" classes = ["aircraft","oiltank"] image_ids = glob.glob(r"L... from os import getcwd import os import json import glob wd = getcwd() "labelme标注的json 数据集转为keras 版yolov3的训练集" classes = ["aircraft","oiltank"] image_ids = glob.glob(r"L...
- 1. EM算法的导出为什么EM算法能近似实现对观测数据的极大似然估计呢?下面通过近似求解观测数据的对数似然函数的极大化问题来导出EM算法,由此可以清楚地看出EM算法的作用。我们面对一个含有隐变量的概率模型,目标是极大化观测数据(不完全数据)Y关于参数θ的对数似然函数,即极大化注意到这一极大化的主要困难是含有未观测数据并有包含和(或积分)的对数。利用Jensen不等式得到其下界:令则上式等价于... 1. EM算法的导出为什么EM算法能近似实现对观测数据的极大似然估计呢?下面通过近似求解观测数据的对数似然函数的极大化问题来导出EM算法,由此可以清楚地看出EM算法的作用。我们面对一个含有隐变量的概率模型,目标是极大化观测数据(不完全数据)Y关于参数θ的对数似然函数,即极大化注意到这一极大化的主要困难是含有未观测数据并有包含和(或积分)的对数。利用Jensen不等式得到其下界:令则上式等价于...
- EM算法是一种迭代算法,1977年由Dempster等人总结提出,用于含有隐变量的概率模型参数的极大似然估计,或极大后验概率估计。EM算法的每次迭代由两步组成:E步,求期望;M步,求极大。所以这一算法称为期望极大算法,简称EM算法。概率模型有时既含有观测变量,又含有隐含变量或潜在变量。如果概率模型的变量都是观测变量,那么给定数据,可以直接用极大似然估计法(可参见学习笔记|似然函数与极大似然估... EM算法是一种迭代算法,1977年由Dempster等人总结提出,用于含有隐变量的概率模型参数的极大似然估计,或极大后验概率估计。EM算法的每次迭代由两步组成:E步,求期望;M步,求极大。所以这一算法称为期望极大算法,简称EM算法。概率模型有时既含有观测变量,又含有隐含变量或潜在变量。如果概率模型的变量都是观测变量,那么给定数据,可以直接用极大似然估计法(可参见学习笔记|似然函数与极大似然估...
- 定理: AdaBoost算法是前向分步加法算法的特例。这时,模型是由基本分类器组成的加法模型,损失函数是指数函数。证明: 前向分步算法学习的是加法模型,当基函数为基本分类器时,该加法模型等价于AdaBoost的最终分类器时,其学习的具体操作等价于AdaBoost算法学习的具体操作。等价于(可参见学习笔记|AdaBoost的扩展之一——前向分步算法)对α求导并使导数为0得到(可参见学习笔记|A... 定理: AdaBoost算法是前向分步加法算法的特例。这时,模型是由基本分类器组成的加法模型,损失函数是指数函数。证明: 前向分步算法学习的是加法模型,当基函数为基本分类器时,该加法模型等价于AdaBoost的最终分类器时,其学习的具体操作等价于AdaBoost算法学习的具体操作。等价于(可参见学习笔记|AdaBoost的扩展之一——前向分步算法)对α求导并使导数为0得到(可参见学习笔记|A...
- AdaBoost最基本的性质是它能在学习过程中不断减少训练误差,即在训练数据集上的分类误差率。AdaBoost的训练误差界定理: AdaBoost算法最终分类器的训练误差界为这里因为所以二类分类问题AdaBoost的训练误差界定理:证明:因为所以至于不等式这表明在此条件下AdaBoost的训练误差是以指数速率下降的。这一性质当然是很有吸引力的。注意,AdaBoost算法不需要知道下界γ,这下... AdaBoost最基本的性质是它能在学习过程中不断减少训练误差,即在训练数据集上的分类误差率。AdaBoost的训练误差界定理: AdaBoost算法最终分类器的训练误差界为这里因为所以二类分类问题AdaBoost的训练误差界定理:证明:因为所以至于不等式这表明在此条件下AdaBoost的训练误差是以指数速率下降的。这一性质当然是很有吸引力的。注意,AdaBoost算法不需要知道下界γ,这下...
- 利用核技巧,可以将线性分类的学习方法应用到非线性分类问题中去。将线性支持向量机扩展到非线性支持向量机,只需将线性支持向量机对偶形式中的内积换成核函数。非线性支持向量机定义: 从非线性分类训练集,通过核函数与软间隔最大化,或凸二次规划,学习得到的分类决策函数称为非线性支持向量机,K(x,z)是正定核函数。非线性支持向量机学习算法:输出:分类决策函数。(1)选取适当的核函数K(x,z)和适当的参... 利用核技巧,可以将线性分类的学习方法应用到非线性分类问题中去。将线性支持向量机扩展到非线性支持向量机,只需将线性支持向量机对偶形式中的内积换成核函数。非线性支持向量机定义: 从非线性分类训练集,通过核函数与软间隔最大化,或凸二次规划,学习得到的分类决策函数称为非线性支持向量机,K(x,z)是正定核函数。非线性支持向量机学习算法:输出:分类决策函数。(1)选取适当的核函数K(x,z)和适当的参...
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢
2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
苏州工业园区“华为云杯”2025人工智能应用创新大赛赛中直播
2025/08/21 周四 16:00-17:00
Vz 华为云AIoT技术布道师
本期直播将与您一起探讨如何基于华为云IoT平台全场景云服务,结合AI、鸿蒙、大数据等技术,打造有创新性,有竞争力的方案和产品。
回顾中 -
深入解读架构师专业级培训认证
2025/08/22 周五 16:30-17:30
阿肯-华为云生态技术讲师
解决方案架构专业级是开发者认证中的顶端明珠。这门认证聊什么?值得学吗?怎么考、考什么、难不难?这门课程深入解答
回顾中
热门标签