4 个月前

卷积序列到序列学习

卷积序列到序列学习

摘要

当前序列到序列学习的主流方法是通过循环神经网络将输入序列映射到可变长度的输出序列。我们提出了一种完全基于卷积神经网络的架构。与循环模型相比,该架构在训练过程中可以对所有元素进行完全并行计算,优化也更为容易,因为非线性单元的数量是固定的,且与输入长度无关。我们使用门控线性单元(Gated Linear Units)来简化梯度传播,并为每个解码器层配备了一个独立的注意力模块。我们在WMT'14英德翻译和WMT'14英法翻译任务中,以快一个数量级的速度(无论是在GPU还是CPU上)超越了Wu等人(2016)提出的深度LSTM模型的准确性。

代码仓库

umeiko/mindspore-seq2seq
mindspore
GitHub 中提及
butsugiri/shape
pytorch
GitHub 中提及
IBM/pytorch-seq2seq
pytorch
GitHub 中提及
MiuGod0126/ConvS2S_Paddle
paddle
GitHub 中提及
Izecson/sockeye-1.16.6
tf
GitHub 中提及
lucylow/En_francais_si_vous_plait-
pytorch
GitHub 中提及
richinkabra/CoVe-BCN
pytorch
GitHub 中提及
YizhuLiu/sumlen
pytorch
GitHub 中提及
awslabs/sockeye
mxnet
GitHub 中提及
xingniu/sockeye
mxnet
GitHub 中提及
EdinburghNLP/XSum
pytorch
GitHub 中提及
bcmi220/esc4nmt
pytorch
GitHub 中提及
facebookresearch/ParlAI
pytorch
GitHub 中提及
Helsinki-NLP/OpenNMT-py
pytorch
GitHub 中提及
midobal/OpenNMT-py
pytorch
GitHub 中提及
albarji/neurowriter
tf
GitHub 中提及
Nick-Zhao-Engr/Machine-Translation
pytorch
GitHub 中提及
facebookresearch/fairseq
官方
pytorch
GitHub 中提及
shashiongithub/XSum
pytorch
GitHub 中提及
Deeksha96/Im2Latex
tf
GitHub 中提及
siyuofzhou/CNNSeqToSeq
pytorch
GitHub 中提及
memray/OpenNMT-kpg-release
pytorch
GitHub 中提及
ZurichNLP/sockeye
mxnet
GitHub 中提及
Izecson/saml-nmt
mxnet
GitHub 中提及
CKPOON0619/Kaggle2Sigma
GitHub 中提及
phanideepgampa/IM2LATEX
tf
GitHub 中提及
nrc-cnrc/sockeye-multisource
mxnet
GitHub 中提及
OpenNMT/OpenNMT-py
pytorch
GitHub 中提及
yinghao1019/NLP_and_DL_practice
pytorch
GitHub 中提及
oneTimePad/conv-nmt
tf
GitHub 中提及
cove-adml/adml-anon
pytorch
GitHub 中提及
Kakoedlinnoeslovo/fairseq
tf
GitHub 中提及
thinkwee/DPP_CNN_Summarization
pytorch
GitHub 中提及

基准测试

基准方法指标
bangla-spelling-error-correction-on-dpcspellConvSeq2Seq
Exact Match Accuracy: 78.85%
image-classification-on-mnistCNN Model by Som
Accuracy: 98.59
Percentage error: 1.41
machine-translation-on-iwslt2015-englishConvS2S
BLEU score: 26.73
machine-translation-on-iwslt2015-germanConvS2S
BLEU score: 32.31
machine-translation-on-wmt2014-english-frenchConvS2S (ensemble)
BLEU score: 41.3
Hardware Burden:
Operations per network pass:
machine-translation-on-wmt2014-english-frenchConvS2S
BLEU score: 40.46
Hardware Burden: 143G
Operations per network pass:
machine-translation-on-wmt2014-english-germanConvS2S
BLEU score: 25.16
Hardware Burden: 72G
Operations per network pass:
machine-translation-on-wmt2014-english-germanConvS2S (ensemble)
BLEU score: 26.4
Hardware Burden: 54G
Operations per network pass:
machine-translation-on-wmt2016-english-1ConvS2S BPE40k
BLEU score: 29.9

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
卷积序列到序列学习 | 论文 | HyperAI超神经