- Cascade R-CNN:Delving into High Quality Object DetectionCascade R-CNN:一种致力于高质量目标检测的方法作者: Zhaowei Cai Nuno Vasconcelosi单位: UC San Diego发表会议及时间: CVPR 2018 研究背景 单阶段算法一次特征提取,同时对分类和检测的loss进行计算,反向传播更新参数 ... Cascade R-CNN:Delving into High Quality Object DetectionCascade R-CNN:一种致力于高质量目标检测的方法作者: Zhaowei Cai Nuno Vasconcelosi单位: UC San Diego发表会议及时间: CVPR 2018 研究背景 单阶段算法一次特征提取,同时对分类和检测的loss进行计算,反向传播更新参数 ...
- 雨神的作业是一定要做的。 雨神的作业是一定要做的。
- 本文介绍深度学习的框架指南,基本是免费和开源的。包括:Keras、PyTorch、TensorFlow、Theano、MXNet、Caffe2、CNTK、Chainer等。文章结构分为“目录版”和“简介版”。目录版1 Keras目前已经合并到TensorFlow2.x中,使用和之前一样便捷且高效。Keras - 一种高级神经网络 API,用 Python 编写,能够在 TensorFlow、... 本文介绍深度学习的框架指南,基本是免费和开源的。包括:Keras、PyTorch、TensorFlow、Theano、MXNet、Caffe2、CNTK、Chainer等。文章结构分为“目录版”和“简介版”。目录版1 Keras目前已经合并到TensorFlow2.x中,使用和之前一样便捷且高效。Keras - 一种高级神经网络 API,用 Python 编写,能够在 TensorFlow、...
- 前言本文使用深度卷积生成对抗网络(DCGAN)生成手写数字图片,代码使用Keras API与tf.GradientTape 编写的,其中tf.GradientTrape是训练模型时用到的。 本文用到imageio 库来生成gif图片,如果没有安装的,需要安装下:# 用于生成 GIF 图片pip install -q imageio一、什么是生成对抗网络?生成对抗网络(GAN),包含生成... 前言本文使用深度卷积生成对抗网络(DCGAN)生成手写数字图片,代码使用Keras API与tf.GradientTape 编写的,其中tf.GradientTrape是训练模型时用到的。 本文用到imageio 库来生成gif图片,如果没有安装的,需要安装下:# 用于生成 GIF 图片pip install -q imageio一、什么是生成对抗网络?生成对抗网络(GAN),包含生成...
- 深入理解RNN结构近年来,自然语言处理成为了人工智能界的一个热门话题, LSTM, Attention, Transformer 等模型结构大火,更基于这些理论衍生出了各种强大的预训练模型,如BERT,GPT3等.这些算法的共有的核心思想之一便是RNN (Recurrent Neural Network),本文将尽可能详细的介绍RNN的逻辑和实现原理(会包含核心公式,不会介绍具体训练过程的... 深入理解RNN结构近年来,自然语言处理成为了人工智能界的一个热门话题, LSTM, Attention, Transformer 等模型结构大火,更基于这些理论衍生出了各种强大的预训练模型,如BERT,GPT3等.这些算法的共有的核心思想之一便是RNN (Recurrent Neural Network),本文将尽可能详细的介绍RNN的逻辑和实现原理(会包含核心公式,不会介绍具体训练过程的...
- 了解kNN 算法背后的数学基础 在NumPy 中从头开始编写kNN 算法 使用scikit-learn实现以最少的代码量拟合 kNN 使用GridSearchCV找到最好的k近邻超参数 按k近邻到其最大性能使用装袋 了解kNN 算法背后的数学基础 在NumPy 中从头开始编写kNN 算法 使用scikit-learn实现以最少的代码量拟合 kNN 使用GridSearchCV找到最好的k近邻超参数 按k近邻到其最大性能使用装袋
- 什么是深度学习以及它与机器学习的区别 如何用 NumPy表示向量 什么是激活函数以及为什么在神经网络中使用它们 什么是反向传播算法以及它是如何工作的 如何训练神经网络并进行预测 什么是深度学习以及它与机器学习的区别 如何用 NumPy表示向量 什么是激活函数以及为什么在神经网络中使用它们 什么是反向传播算法以及它是如何工作的 如何训练神经网络并进行预测
- 梯度消失、梯度爆炸、ReLU单元消失、丢弃正则化 梯度消失、梯度爆炸、ReLU单元消失、丢弃正则化
- 神经网络; 神经网络;
- 越来越卷,教你使用Python实现卷积神经网络(CNN) 越来越卷,教你使用Python实现卷积神经网络(CNN)
- 近年来,Transformer模型在自然语言处理(NLP)领域中横扫千军,以BERT、GPT为代表的模型屡屡屠榜,目前已经成为了该领域的标准模型。同时,在计算机视觉等领域中,Transformer模型也逐渐得到了重视,越来越多的研究工作开始将这类模型引入到算法中。本文基于2017年Google发表的论文,介绍Transformer模型的原理。 近年来,Transformer模型在自然语言处理(NLP)领域中横扫千军,以BERT、GPT为代表的模型屡屡屠榜,目前已经成为了该领域的标准模型。同时,在计算机视觉等领域中,Transformer模型也逐渐得到了重视,越来越多的研究工作开始将这类模型引入到算法中。本文基于2017年Google发表的论文,介绍Transformer模型的原理。
- 语义分割为将原始图像分割为多个具有一定语义的区域块。本文详细介绍了高效语义分割模型Fast-SCNN的Learning to Down-sample、Global Feature Extractor等相关内容及技术,并对Fast-SCNN实验复现。 语义分割为将原始图像分割为多个具有一定语义的区域块。本文详细介绍了高效语义分割模型Fast-SCNN的Learning to Down-sample、Global Feature Extractor等相关内容及技术,并对Fast-SCNN实验复现。
- 现在的NAS基本都采用权重共享的supernet方案,但是其中原理几何,有什么局限,鲜有人提及,权重分配并没有理论保障,其影响也没有得到很好的研究,大部分同学都是用的爽就行,接下来从两篇同个实验室的论文来看看权重共享机制,到底怎么影响NAS搜索到的架构。 现在的NAS基本都采用权重共享的supernet方案,但是其中原理几何,有什么局限,鲜有人提及,权重分配并没有理论保障,其影响也没有得到很好的研究,大部分同学都是用的爽就行,接下来从两篇同个实验室的论文来看看权重共享机制,到底怎么影响NAS搜索到的架构。
- 性能超越BigNas、Once-for-all。对于two-stages的NAS来说,搜索阶段关注的是位于准确性和推理效率的帕累托前沿的网络集合,而训练阶段并不是为了改进帕累托前沿而进行的,对每个网络候选对象都同等重要,fair的,希望搜索的帕累托前沿是被训练到的帕累托前沿,不然会有相关性系数导致的误差 性能超越BigNas、Once-for-all。对于two-stages的NAS来说,搜索阶段关注的是位于准确性和推理效率的帕累托前沿的网络集合,而训练阶段并不是为了改进帕累托前沿而进行的,对每个网络候选对象都同等重要,fair的,希望搜索的帕累托前沿是被训练到的帕累托前沿,不然会有相关性系数导致的误差
- 本文简要介绍了图神经网络的相关背景、原理,并使用torch_geometric结合地震数据讨论了简要的实现过程。 本文简要介绍了图神经网络的相关背景、原理,并使用torch_geometric结合地震数据讨论了简要的实现过程。
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢
2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考
2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本
2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签