
摘要
深度神经网络(DNNs)是强大的模型,在复杂的机器学习任务中表现出色。尽管在有大量标记训练集的情况下,DNNs 能够很好地工作,但它们无法用于序列到序列的映射。本文提出了一种对序列结构假设最少的端到端序列学习方法。该方法使用多层长短期记忆网络(LSTM)将输入序列映射到一个固定维度的向量,然后通过另一个深层 LSTM 从该向量解码出目标序列。我们的主要结果是在 WMT'14 数据集上的英法翻译任务中,LSTM 生成的翻译在整个测试集上达到了 34.8 的 BLEU 分数,其中 LSTM 的 BLEU 分数因词汇表外单词而被扣分。此外,LSTM 在处理长句时没有遇到困难。作为对比,基于短语的统计机器翻译系统在同一数据集上仅达到 33.3 的 BLEU 分数。当我们使用 LSTM 对上述统计机器翻译系统生成的 1000 个假设进行重排序时,其 BLEU 分数提高到了 36.5,接近此前该任务的最佳结果。LSTM 还学会了合理的短语和句子表示方法,这些表示对词序敏感,并且在主动语态和被动语态之间相对不变。最后,我们发现将所有源句子中的词序反转(但不包括目标句子)显著提高了 LSTM 的性能,因为这样做引入了许多源句子和目标句子之间的短期依赖关系,从而简化了优化问题。
代码仓库
Mind23-2/MindCode-73
mindspore
GitHub 中提及
advaithsrao/Chatbot_Seq2seq_model
tf
GitHub 中提及
TEAMLAB-Lecture/deep_nlp_101
tf
GitHub 中提及
ahmadelsallab/spell_corrector
GitHub 中提及
2023-MindSpore-1/ms-code-62
mindspore
GitHub 中提及
littleflow3r/SeqtoSeq_learning_for_machine_translation
pytorch
GitHub 中提及
EuphoriaYan/ChatRobot-For-Keras2
tf
GitHub 中提及
umeiko/mindspore-seq2seq
mindspore
GitHub 中提及
moon23k/LSTM_Anchors
pytorch
GitHub 中提及
ArushiSinghal/Neural-Machine-Translation
pytorch
GitHub 中提及
hnt4499/seq2seq
pytorch
GitHub 中提及
2023-MindSpore-1/ms-code-200
mindspore
GitHub 中提及
astorfi/sequence-to-sequence-from-scratch
pytorch
GitHub 中提及
farizrahman4u/seq2seq
GitHub 中提及
matken11235/keras-seq2seq
tf
GitHub 中提及
karlie38/torchstudy
pytorch
GitHub 中提及
littleflow3r/Sequence_to_sequence_learning_with_NN
pytorch
GitHub 中提及
cosmoquester/seq2seq
tf
GitHub 中提及
sayhitosandy/Chatbot
tf
GitHub 中提及
2023-MindSpore-1/ms-code-197
mindspore
GitHub 中提及
dksifoua/Neural-Machine-Translation
pytorch
GitHub 中提及
littleflow3r/Sequence_to_sequence_learning_for_machine_translation
pytorch
GitHub 中提及
JRC1995/Abstractive-Summarization
tf
GitHub 中提及
starry91/NMT-Lab
GitHub 中提及
yash-nishaant/Seq2Seq-Chatbot
tf
GitHub 中提及
dongdong199408/teachchatrobot
tf
GitHub 中提及
trqminh/seq2seq
pytorch
GitHub 中提及
ArushiSinghal/NMT-assignment1
pytorch
GitHub 中提及
kingcong/gpu_gru
mindspore
GitHub 中提及
littleflow3r/Japanese_English_Machine_Translation_Seq2Seq
pytorch
GitHub 中提及
munir-bd/Korean-POS-Tagger-LSTM
GitHub 中提及
jklafka/noisy-nets
pytorch
GitHub 中提及
NehaTamore/abstractive-text-summarizer
GitHub 中提及
yangyucheng000/ascend_gru
mindspore
GitHub 中提及
mits58/Pointer-Networks
GitHub 中提及
2023-MindSpore-1/ms-code-61
mindspore
GitHub 中提及
lvyufeng/mindspore-nlp-tutorial
mindspore
vGkatsis/Chat_Bot_DL
pytorch
GitHub 中提及
rileynwong/pytorch-seq2seq-joke2punchline
pytorch
GitHub 中提及
AMNAALMGLY/NLP
GitHub 中提及
Guillem96/pointer-nn-pytorch
pytorch
GitHub 中提及
giovanniguidi/Seq-2-Seq-OCR
GitHub 中提及
2023-MindSpore-1/ms-code-198
mindspore
GitHub 中提及
kirillermolov/ChatBot
tf
GitHub 中提及
a1085728420/seq2seq-mindspore
mindspore
GitHub 中提及
nouhadziri/THRED
tf
GitHub 中提及
bentrevett/pytorch-seq2seq
pytorch
GitHub 中提及
laserene/English-German-Translation-System
tf
GitHub 中提及
dltcls/g2p_pytorch_wiktionary
pytorch
GitHub 中提及
lakshmichaitanyach/project_2
tf
GitHub 中提及
dewanderelex/LanguageTranslation
GitHub 中提及
yscope75/CS2225.CH2001020
pytorch
GitHub 中提及
VladimirV99/Automatic-Translation
tf
GitHub 中提及
CGCL-codes/naturalcc
pytorch
GitHub 中提及
boom85423/Seq2seq-model-for-Meme-Generator
pytorch
GitHub 中提及
la-serene/English-German-Translation-System
tf
GitHub 中提及
mlennox/summarisers
tf
GitHub 中提及
moon23k/RNN_Seq2Seq
pytorch
GitHub 中提及
isi-nlp/Zoph_RNN
GitHub 中提及
weiylu/NLP
tf
GitHub 中提及
macournoyer/neuralconvo
pytorch
GitHub 中提及
VishalFun/Keras_practice
GitHub 中提及
IvanVassi/Seq2Seq-w-attention-dialogue-model
pytorch
GitHub 中提及
Chatha-Sphere/pno-ai
pytorch
GitHub 中提及
astorfi/neural-machine-translation-from-scratch
pytorch
GitHub 中提及
francescodisalvo05/66DaysOfData
pytorch
GitHub 中提及
minsoo9506/NLP-study
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| machine-translation-on-wmt2014-english-french | LSTM | BLEU score: 34.8 |
| machine-translation-on-wmt2014-english-french | SMT+LSTM5 | BLEU score: 36.5 |
| time-series-forecasting-on-pemsd7 | FC-LSTM | 9 steps MAE: 4.16 |
| traffic-prediction-on-pems-m | FC-LSTM | MAE (60 min): 4.16 |