attention(注意)機構
ATTENTIONちゅういきこう
一般的な深層学習では,特徴抽出器により入力の情報を単一の中間表現に集約したうえで,それに基づき最終的な出力を行う.これに対して,attention機構では特徴抽出器で得られた中間表現に重み(注意の度合い)を掛けることで,中間表現の重要な部分を強調したうえで最終的な出力を行う.(実験医学増刊3820より)
機械学習を生命科学に使う!
シークエンスや画像データをどう解析し、新たな生物学的発見につなげるか?
解説は発行当時の掲載内容に基づくものです
本コンテンツは,2018年まで更新されていた同名コンテンツを元に,新規追加・再編集したものです