Transformer と seq2seq with attention の違いは?[系列変換モデル]【Q and A 記事】

1. Question 系列変換モデルであるTransformer と seq2seq with atteniton の違いは? という疑問について,管理人なりの回答(もとい両者の比較)を答えたい. つまり,新旧2つの系 続きを読む…

Transformer : アテンションが主要部品の系列変換モデル

1. Transformer とは [概要] Transformer とはアテンションを主要部品として用いた,深層学習むけの(トークン)系列変換モデルである.この記事では,機械翻訳むけのTransformer [Vasw 続きを読む…