導入
- Googleの検索エンジンに「過去5年で最大の飛躍」。新たな言語処理モデル「BERT」の秘密 (Original)
- Context and Compositionality in Biological and Artificial Neural Systems in neurips2019
- Tom Mitchell
- 2019年は2018年までの世界とは異なる (45:40 くらいから)
- (1:01:40くらい) おそらく我々(人類)は今特別な時点にいる。脳が数千年に渡って実行してきた機能を実行する深層学習モデルを持ったからだ。
- Yoshua Bengio (20:20 くらいから) システム 1 とシステム 2 とを結びつける鍵は注意である。
- Tom Mitchell
リンク
- The Annotated Transformer
- Illustrated transformer
- The Illustrated BERT, ELMo, and co. (How NLP Cracked Transfer Learning
- https://github.com/tensorflow/tensor2tensor
- https://github.com/huggingface/pytorch-pretrained-BERT