注: ここに示すアイコン は colab ファイルであることを意味しています。 クリックすると colab が起動します。

PyTorch で 自然言語処理を行う場合のチュートリアル ファイルの翻訳 + colab file への変換

  1. PyTorch 入門 Introduction to PyTorch
  2. PyTorch による深層学習 Deep Learning with PyTorch
  3. 単語埋め込み:語彙的意味の符号化 Word Embeddings: Encoding Lexical Semantics
  4. 系列モデルと LSTM Sequence Models and Long-Short Term Memory Networks
  5. 動的意思決定と双方向 LSTM 条件付き確率場 Advanced: Making Dynamic Decisions and the Bi-LSTM CRF


BERT の事前訓練は,マスク化言語モデルと次文予測課題です。以下はそのサンプルです。

  1. マスク化言語モデル
  2. 次文予測課題


  1. word2vec によるアナロジー
  2. トランスフォーマーによる言語モデル
  3. トランスフォーマー解説


PyTorch の チュートリアルを翻訳しました。 歴史的な経緯を考えれば,(1) RNN (such as SRN, LSTM, and GRU) による文,あるいは句表現, (2) Seq2Seq (a.k.a エンコーダ-デコーダ) モデルによる翻訳モデル, (3) Seq2Seq への注意の導入, (4) トランスフォーマー (マルチヘッド自己注意) モデル, となります。ですので,このような基本的な流れは,以下のチュートリアルを実行することで フォローすることができると考えられます。

  1. トランスフォーマーを用いた seq2seq モデル
  2. ゼロからの自然言語処理 文字レベルRNN による苗字名の言語識別
  3. ゼロからの自然言語処理 文字レベルRNN による苗字名の言語生成
  4. ゼロからの NLP: 注意つきの seq2seq ネットワークによる翻訳
  5. TorchText によるテキスト分類
  6. TorchText による言語翻訳