知識蒸留
さんの情報は
生没年不詳
知識蒸留 (英: knowledge distillation) とは、機械学習の技術の一つ。大規模なモデル(教師モデル)が持つ豊富な知識を、より小さなモデル(生徒モデル)に伝達する手法。
※Wikipediaの情報から機械的に算出しています。
情報の正確性を保証するものではありません。
「知識蒸留」をWikipediaで調べるWikipediaのカテゴリー
読み込み中...