小叶の博客
04
30
对抗攻击与防御 对抗攻击与防御
前言对抗攻击英文为adversarial attack,即对输入样本添加一些人无法察觉的细微改动,导致模型以高置信度输出一个错误的答案。在现实生活中,我们建立的系统很多时候会遇到干扰,甚至是人为的蓄意攻击,如垃圾邮件、恶意软件和网络入侵等。
27
自动微分 自动微分
在学习这节之前,我们需先了解一些基本的微积分知识,如导数、微分、偏导数及链式法则等。如果你对这些知识不太了解,请自行在网上找相关资料学习,这是因为求导是几乎所有深度学习优化算法的关键步骤。 有过算法实现经验的小伙伴可能有过这种体验,如果一个
26
基本线性代数运算 基本线性代数运算
在实现深度学习模型时,我们难免会对数据进行操作,因此我们需要部分线性代数相关的内容。这节我们将学习线性代数中的基本数学对象和运算,并通过相关代码来表现它们。 标量我们称仅包含一个数值的为标量,它可以由只有一个元素的张量表示。下面我们简单实例
25
数据预处理 数据预处理
这节我们将简要介绍使用pandas预处理原始数据,并将原始数据转换为张量格式的步骤。 读取数据集首先,我们简单创建一个人工数据集,并存储在csv文件./data/house_tiny.csv中。下面我们将数据集按行写入csv文件中 impo
20
HW3-CNN HW3-CNN
作业介绍作业的目标是使用卷积神经网络(我用的是VGG)解决图像分类问题,并用数据扩充的技术提高模型的性能。 使用的数据集是一个关于食物分类的dataset:food-11。如名字所示,食物的种类有11种,分别为面包、乳制品、甜点、鸡蛋、 油
19
HW1-Regression HW1-Regression
目标:用深度神经网络(DNN)解决一个回归问题,了解训练基础DNN的技巧 任务描述: 给定美国特定州过去三天有关COVID-19的调查,然后预测第3天新检测阳性病例的百分比 导入一些包# PyTorch import torch imp
17
BERT BERT
前言BERT的全称是Bidirectional Encoder Representations from Transformers(来自Transformers的双向编码器表示),BERT基于Transformer,Transformer在
11
Transformer Transformer
在前面我们学习过自注意力模型,自注意力模型拥有CNN并行运算和RNN挖掘序列中的关系两大优势。因此,使用自注意力模型来设计深度架构是很有吸引力的。对比之前仍然依赖RNN来实现输入表示的类似注意力模型,Transformer模型完全基于自注意
11
Seq2Seq代码实现 Seq2Seq代码实现
在这章节,我们将用RNN搭建一个seq2seq模型(sequences to sequences),实现英文到中文的翻译,数据集应用的是由Tatoeba项⽬的双语句⼦对114组成的“英-中文”数据集。 数据预处理原始语料需要进行预处理,所以
04
1 / 2