
摘要
当前序列到序列学习的主流方法是通过循环神经网络将输入序列映射到可变长度的输出序列。我们提出了一种完全基于卷积神经网络的架构。与循环模型相比,该架构在训练过程中可以对所有元素进行完全并行计算,优化也更为容易,因为非线性单元的数量是固定的,且与输入长度无关。我们使用门控线性单元(Gated Linear Units)来简化梯度传播,并为每个解码器层配备了一个独立的注意力模块。我们在WMT'14英德翻译和WMT'14英法翻译任务中,以快一个数量级的速度(无论是在GPU还是CPU上)超越了Wu等人(2016)提出的深度LSTM模型的准确性。
代码仓库
umeiko/mindspore-seq2seq
mindspore
GitHub 中提及
butsugiri/shape
pytorch
GitHub 中提及
IBM/pytorch-seq2seq
pytorch
GitHub 中提及
MiuGod0126/ConvS2S_Paddle
paddle
GitHub 中提及
Izecson/sockeye-1.16.6
tf
GitHub 中提及
lucylow/En_francais_si_vous_plait-
pytorch
GitHub 中提及
richinkabra/CoVe-BCN
pytorch
GitHub 中提及
YizhuLiu/sumlen
pytorch
GitHub 中提及
awslabs/sockeye
mxnet
GitHub 中提及
stefannatu/NLP-Translation-Models
tf
GitHub 中提及
xingniu/sockeye
mxnet
GitHub 中提及
EdinburghNLP/XSum
pytorch
GitHub 中提及
bcmi220/esc4nmt
pytorch
GitHub 中提及
facebookresearch/ParlAI
pytorch
GitHub 中提及
Helsinki-NLP/OpenNMT-py
pytorch
GitHub 中提及
midobal/OpenNMT-py
pytorch
GitHub 中提及
albarji/neurowriter
tf
GitHub 中提及
Nick-Zhao-Engr/Machine-Translation
pytorch
GitHub 中提及
facebookresearch/fairseq
官方
pytorch
GitHub 中提及
shashiongithub/XSum
pytorch
GitHub 中提及
Deeksha96/Im2Latex
tf
GitHub 中提及
siyuofzhou/CNNSeqToSeq
pytorch
GitHub 中提及
memray/OpenNMT-kpg-release
pytorch
GitHub 中提及
ZurichNLP/sockeye
mxnet
GitHub 中提及
Izecson/saml-nmt
mxnet
GitHub 中提及
CKPOON0619/Kaggle2Sigma
GitHub 中提及
phanideepgampa/IM2LATEX
tf
GitHub 中提及
nrc-cnrc/sockeye-multisource
mxnet
GitHub 中提及
OpenNMT/OpenNMT-py
pytorch
GitHub 中提及
yinghao1019/NLP_and_DL_practice
pytorch
GitHub 中提及
oneTimePad/conv-nmt
tf
GitHub 中提及
cove-adml/adml-anon
pytorch
GitHub 中提及
alisterta/Persian-text-to-speech
tf
GitHub 中提及
Kakoedlinnoeslovo/fairseq
tf
GitHub 中提及
thinkwee/DPP_CNN_Summarization
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| bangla-spelling-error-correction-on-dpcspell | ConvSeq2Seq | Exact Match Accuracy: 78.85% |
| image-classification-on-mnist | CNN Model by Som | Accuracy: 98.59 Percentage error: 1.41 |
| machine-translation-on-iwslt2015-english | ConvS2S | BLEU score: 26.73 |
| machine-translation-on-iwslt2015-german | ConvS2S | BLEU score: 32.31 |
| machine-translation-on-wmt2014-english-french | ConvS2S (ensemble) | BLEU score: 41.3 Hardware Burden: Operations per network pass: |
| machine-translation-on-wmt2014-english-french | ConvS2S | BLEU score: 40.46 Hardware Burden: 143G Operations per network pass: |
| machine-translation-on-wmt2014-english-german | ConvS2S | BLEU score: 25.16 Hardware Burden: 72G Operations per network pass: |
| machine-translation-on-wmt2014-english-german | ConvS2S (ensemble) | BLEU score: 26.4 Hardware Burden: 54G Operations per network pass: |
| machine-translation-on-wmt2016-english-1 | ConvS2S BPE40k | BLEU score: 29.9 |