小叶の博客
WGAN_GP WGAN_GP
前言GAN是强大的生成模型,但是以难训练著称。前面一篇文章讲到的 WGAN 提升了 GAN 训练的稳定性,但有时候还是会产生不好的样本或收敛失败。在原始 WGAN 论文中,作者也提到了,这些问题主要是在判别器中使用 weight cli
WGAN WGAN
前言GAN以难训练而著称,在训练的过程中,模型没有收敛或者模型崩了是很常见的事。GAN通过生成器和判别器之间的对抗作用,使得生成器不断生成和原始数据概率分布相似的数据,从而达到以假乱真的目的。那怎样去学一个概率分布?从数学的角度就是
注意力增强卷积网络 注意力增强卷积网络
主要思想:作者将卷积得到的特征图与通过自注意力机制产生的一组特征图连接(concatenate)起来,通过这种自注意力机制来增强卷积算子,从而提升模型性能。 前言卷积神经网络(CNN)在许多计算机视觉应用中都取得了巨大的成功,特别是在图
Conformer-用卷积增强的Transformer做语音识别 Conformer-用卷积增强的Transformer做语音识别
今天学习一篇ASR-语言识别领域的文章,来自google的: 引言提到端到端自动语音识别(ASR)系统,你可能会想到循环神经网络(RNN),因为RNN可以有效地模拟音频序列中的时间依赖性;你可能也会想到基于self-attention的
基于GAN的多水库径流序列的随机生成 基于GAN的多水库径流序列的随机生成
基于GAN的多水库径流序列的随机生成 该文将DCGAN和WGAN结合起来组成一个新的方法DC-WGAN,并用于径流序列的随机生成。该方法可以同时捕捉径流序列在时间和空间维度上的相关性,解决了传统方法(如Copula等)在径流序列随机生成中
Seq2Seq Seq2Seq
写在前面:这个部分主要记录一些关于深度学习相关论文的阅读,由于个人还是刚接触深度学习不久,所以前面需要补充一些很早的论文以巩固自己知识的不足。今天记录最近学的一篇论文Sequence to Sequence Learning with Ne