アテンション機構(attention)と系列対系列変換 [seq2seq~Transformer]

1. 系列対系列変換と attention 機構の概要 アテンション機構 (Attention Mechanism, 注意機構) は,入力ベクトル系列(or 集合)の重みづけベクトルを,追加コンテキストベクトルとして作成 続きを読む…