Jensen-Shannon-divergence
2つの確率分布の間の類似性を測る指標の1つである.2つの確率分布P(x)とQ(x)に対して,以下の式で定義される:"ただし,M(x)=1 2(P(x)+Q(x))."ここで,DKLはKullbuck-Leibler-divergence(KL divergence)であり,P(x)とQ(x)が離散確率分布の場合には,以下の式で定義される:"DKL[P||Q]=x∈XP(x)log P(x)Q(x)."KL divergenceもJS divergenceと同様に2つの確率分布間の差異を測る指標であるが,KL divergenceがDKL[P||Q]≠DKL[Q||P]と⾮対称である⼀⽅,JS divergenceはDJS[P||Q]=DJS[Q||P]と対称である.(実験医学増刊3820より)
機械学習を生命科学に使う!
シークエンスや画像データをどう解析し、新たな生物学的発見につなげるか?
解説は発行当時の掲載内容に基づくものです
本コンテンツは,2018年まで更新されていた同名コンテンツを元に,新規追加・再編集したものです