- DNS协议是一种明文传输协议,DNS隧道木马出于提高通信内容隐蔽性的需要,往往会对通信数据进行加密,因此把加密的DNS数据作为可疑的DNS隧道木马通信的一个特征。为了提高特征工程速度,我们可以使用信息熵作为是否存在加密的衡量标准。根据安全知识,正常DNS查询中的subdomain的编写规范通常符合RFC规范,以字母开始以字母或数字结尾,中间可以出现格式包括:小写字母 a-z,大写字母A-Z,... DNS协议是一种明文传输协议,DNS隧道木马出于提高通信内容隐蔽性的需要,往往会对通信数据进行加密,因此把加密的DNS数据作为可疑的DNS隧道木马通信的一个特征。为了提高特征工程速度,我们可以使用信息熵作为是否存在加密的衡量标准。根据安全知识,正常DNS查询中的subdomain的编写规范通常符合RFC规范,以字母开始以字母或数字结尾,中间可以出现格式包括:小写字母 a-z,大写字母A-Z,...
- KNN决策树探究泰坦尼克号幸存者问题 import pandas as pd from sklearn.tree import DecisionTreeClassifier, export_graphviz from sklearn.metrics import classification_report import graphviz #决策树可视... KNN决策树探究泰坦尼克号幸存者问题 import pandas as pd from sklearn.tree import DecisionTreeClassifier, export_graphviz from sklearn.metrics import classification_report import graphviz #决策树可视...
- 本节书摘来自华章计算机《AI安全之对抗样本入门》一书中的第1章,第1.3.8节,作者是兜哥。 本节书摘来自华章计算机《AI安全之对抗样本入门》一书中的第1章,第1.3.8节,作者是兜哥。
- 本节书摘来自华章计算机《AI安全之对抗样本入门》一书中的第1章,第1.3.6节,作者是兜哥。 本节书摘来自华章计算机《AI安全之对抗样本入门》一书中的第1章,第1.3.6节,作者是兜哥。
- 本文聚焦量子神经网络表达能力的理论内核与实践路径,跳出“量子并行性”的表层认知,深入剖析叠加态维度拓展与纠缠态关联强化的协同赋能机制。文章围绕量子电路架构设计、混合量子-经典系统构建、抗噪声机制优化三大核心方向展开,结合高频信号拟合、分子结构建模等具体场景,阐述层级化门操作组合、动态误差校准等关键策略的应用逻辑。 本文聚焦量子神经网络表达能力的理论内核与实践路径,跳出“量子并行性”的表层认知,深入剖析叠加态维度拓展与纠缠态关联强化的协同赋能机制。文章围绕量子电路架构设计、混合量子-经典系统构建、抗噪声机制优化三大核心方向展开,结合高频信号拟合、分子结构建模等具体场景,阐述层级化门操作组合、动态误差校准等关键策略的应用逻辑。
- 循环神经网络(RNN)是专为处理序列数据设计的深度学习模型,解决了传统神经网络无法捕捉序列依赖关系的核心问题。RNN通过记忆状态(Hidden State)实现短期记忆功能,在处理文本、时间序列等数据时能够保留前序信息。其核心结构包括输入层、循环单元和输出层,通过共享权重参数实现序列元素的连续处理。然而,传统RNN存在梯度消失/爆炸的缺陷,导致长序列处理能力受限。为此,LSTM和GRU等改进模型引 循环神经网络(RNN)是专为处理序列数据设计的深度学习模型,解决了传统神经网络无法捕捉序列依赖关系的核心问题。RNN通过记忆状态(Hidden State)实现短期记忆功能,在处理文本、时间序列等数据时能够保留前序信息。其核心结构包括输入层、循环单元和输出层,通过共享权重参数实现序列元素的连续处理。然而,传统RNN存在梯度消失/爆炸的缺陷,导致长序列处理能力受限。为此,LSTM和GRU等改进模型引
- 注意力机制 设计原理在解码器生成每一个词元时,不再依赖一个固定的上下文向量,而是允许它“回头看”一遍完整的输入序列,并根据当前解码的需求,自主地为输入序列的每个部分分配不同的注意力权重,然后基于这些权重将输入信息加权求和,生成一个动态的、专属当前时间步的上下文向量。通俗地理解为从“一言以蔽之”到“择其要者而观之”的转变 注意力机制详解 三部曲计算相似度使用解码器上一时刻的隐藏状态 ht−1... 注意力机制 设计原理在解码器生成每一个词元时,不再依赖一个固定的上下文向量,而是允许它“回头看”一遍完整的输入序列,并根据当前解码的需求,自主地为输入序列的每个部分分配不同的注意力权重,然后基于这些权重将输入信息加权求和,生成一个动态的、专属当前时间步的上下文向量。通俗地理解为从“一言以蔽之”到“择其要者而观之”的转变 注意力机制详解 三部曲计算相似度使用解码器上一时刻的隐藏状态 ht−1...
- Seq2Seq 架构RNN 和 LSTM 处理序列数据。这些模型在三类任务中表现出色多对一(Many-to-One):将整个序列信息压缩成一个特征向量,用于文本分类、情感分析等任务。多对多(Many-to-Many, Aligned):为输入序列的每一个词元(Token)都生成一个对应的输出,如词性标注、命名实体识别等。一对多(One-to-Many):从一个固定的输入(如一张图片、一个类... Seq2Seq 架构RNN 和 LSTM 处理序列数据。这些模型在三类任务中表现出色多对一(Many-to-One):将整个序列信息压缩成一个特征向量,用于文本分类、情感分析等任务。多对多(Many-to-Many, Aligned):为输入序列的每一个词元(Token)都生成一个对应的输出,如词性标注、命名实体识别等。一对多(One-to-Many):从一个固定的输入(如一张图片、一个类...
- 从零实现一个 RNN RNN 公式简化为了与后续的代码实现保持一致,此处采用一个不含偏置项(bias)的简化版 RNN,核心计算公式如下:ht=tanh(Uxt+Wht−1)h_t = \tanh(U x_t + W h_{t-1})ht=tanh(Uxt+Wht−1)其中, hth_tht 是当前时刻的隐藏状态, xtx_txt 是当前输入, ht−1h_{t-1}ht−1... 从零实现一个 RNN RNN 公式简化为了与后续的代码实现保持一致,此处采用一个不含偏置项(bias)的简化版 RNN,核心计算公式如下:ht=tanh(Uxt+Wht−1)h_t = \tanh(U x_t + W h_{t-1})ht=tanh(Uxt+Wht−1)其中, hth_tht 是当前时刻的隐藏状态, xtx_txt 是当前输入, ht−1h_{t-1}ht−1...
- 概述Word2Vec 通常被认为是一种浅层神经网络模型(Shallow Neural Network)。其"浅层"体现在网络结构的简单性上,它移除了传统神经概率语言模型(NNLM)中计算昂贵的非线性隐藏层,直接将投影层与输出层相连。这种简洁的设计使得 Word2Vec 的计算非常高效,从而能够在大规模语料库上进行训练。 目标与手段分离理解Word2Vec的关键在于区分其最终目标与实现手段。... 概述Word2Vec 通常被认为是一种浅层神经网络模型(Shallow Neural Network)。其"浅层"体现在网络结构的简单性上,它移除了传统神经概率语言模型(NNLM)中计算昂贵的非线性隐藏层,直接将投影层与输出层相连。这种简洁的设计使得 Word2Vec 的计算非常高效,从而能够在大规模语料库上进行训练。 目标与手段分离理解Word2Vec的关键在于区分其最终目标与实现手段。...
- 反向传播算法是神经网络中用于训练的核心算法,它通过计算损失函数相对于网络参数的梯度来更新参数,从而最小化损失函数。这个过程涉及到了复杂的数学运算,但其基本思想是利用链式法则来高效地计算这些梯度。通过反向传播,神经网络能够从输出层向输入层逐层调整权重,以提高模型的预测准确性。 反向传播算法的基本原理反向传播算法的执行可以分为两个主要阶段:前向传播和反向传播。前向传播:在这个阶段,输入数据被送入... 反向传播算法是神经网络中用于训练的核心算法,它通过计算损失函数相对于网络参数的梯度来更新参数,从而最小化损失函数。这个过程涉及到了复杂的数学运算,但其基本思想是利用链式法则来高效地计算这些梯度。通过反向传播,神经网络能够从输出层向输入层逐层调整权重,以提高模型的预测准确性。 反向传播算法的基本原理反向传播算法的执行可以分为两个主要阶段:前向传播和反向传播。前向传播:在这个阶段,输入数据被送入...
- 卷积操作(Convolution)在数学、信号处理、图像处理以及深度学习领域都有广泛的应用。它是一种数学运算,用于将两个函数或信号合并成一个新的函数或信号,表示其中一个函数如何修改另一个函数。在不同领域,卷积操作的具体实现和应用可能有所不同,但基本的数学原理是相通的。 定义和数学表达在数学上,两个实数函数 f 和 g 的卷积定义为:(f * g)(t) = ∫f(τ)g(t - τ)dτ,其... 卷积操作(Convolution)在数学、信号处理、图像处理以及深度学习领域都有广泛的应用。它是一种数学运算,用于将两个函数或信号合并成一个新的函数或信号,表示其中一个函数如何修改另一个函数。在不同领域,卷积操作的具体实现和应用可能有所不同,但基本的数学原理是相通的。 定义和数学表达在数学上,两个实数函数 f 和 g 的卷积定义为:(f * g)(t) = ∫f(τ)g(t - τ)dτ,其...
- 卷积神经网络是一种深度学习模型,它在处理具有网格拓扑结构的数据,如图像(2D网格)和音频(1D网格)时,表现出色。CNN 通过模仿生物视觉系统的工作原理,能够从图像中自动学习和提取有用的特征,这一能力使其成为视觉识别任务中的首选模型。 CNN 的关键构件卷积层:这是 CNN 的核心,负责从输入图像中提取特征。每个卷积层包含若干卷积核,这些卷积核通过在输入数据上滑动并计算核与数据的点积,从而产... 卷积神经网络是一种深度学习模型,它在处理具有网格拓扑结构的数据,如图像(2D网格)和音频(1D网格)时,表现出色。CNN 通过模仿生物视觉系统的工作原理,能够从图像中自动学习和提取有用的特征,这一能力使其成为视觉识别任务中的首选模型。 CNN 的关键构件卷积层:这是 CNN 的核心,负责从输入图像中提取特征。每个卷积层包含若干卷积核,这些卷积核通过在输入数据上滑动并计算核与数据的点积,从而产...
- 在深度学习中,尤其是在卷积神经网络(CNN)的结构里,池化层(Pooling Layer)扮演着重要的角色。池化层通常跟在卷积层之后,其主要目的是减少卷积层输出的特征图(Feature Maps)的空间大小,同时保留最重要的信息。这一过程不仅有助于减少计算量,还能提高模型的泛化能力,减少过拟合的风险。 池化层的工作原理池化层通过对输入特征图的每个小区域进行下采样(subsampling)或池... 在深度学习中,尤其是在卷积神经网络(CNN)的结构里,池化层(Pooling Layer)扮演着重要的角色。池化层通常跟在卷积层之后,其主要目的是减少卷积层输出的特征图(Feature Maps)的空间大小,同时保留最重要的信息。这一过程不仅有助于减少计算量,还能提高模型的泛化能力,减少过拟合的风险。 池化层的工作原理池化层通过对输入特征图的每个小区域进行下采样(subsampling)或池...
- 全连接层是深度学习中常见的一种网络层,特别是在卷积神经网络(CNN)中。在这个层中,神经元与前一层中的每一个神经元都有连接,因此称为全连接。全连接层的主要作用是对前面卷积层或池化层提取到的特征进行整合,并最终输出一个固定大小的向量。这个向量通常用于分类或回归任务的最终决策。 全连接层的工作机制全连接层的工作原理基于线性变换和激活函数。具体来说,它将输入特征向量与权重矩阵相乘,再加上一个偏置项... 全连接层是深度学习中常见的一种网络层,特别是在卷积神经网络(CNN)中。在这个层中,神经元与前一层中的每一个神经元都有连接,因此称为全连接。全连接层的主要作用是对前面卷积层或池化层提取到的特征进行整合,并最终输出一个固定大小的向量。这个向量通常用于分类或回归任务的最终决策。 全连接层的工作机制全连接层的工作原理基于线性变换和激活函数。具体来说,它将输入特征向量与权重矩阵相乘,再加上一个偏置项...
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签