python-pytorch seq2seq+attention筆記0.5.00
- 1. LSTM模型的數據size
- 2. 關于LSTM的輸入數據包含hn和cn時,hn和cn的size
- 3. LSTM參數中默認batch_first
- 4. Attention機制的三種算法
- 5. 模型的編碼器
- 6. 模型的解碼器
- 7. 最終模型
- 8. 數據的準備
- 9. 遇到的問題
- 10. 完整代碼
1. LSTM模型的數據size
一定是按這個來:維度(batch_size, seq_length, embedding_dim) 是一個三維的tensor;其中,batch_size指每次輸入的文本數量;seq_length指每個文本的詞語數或者單字數;embedding_dim指每個詞語或者每