知識蒸留
さんの情報は

生没年不詳

知識蒸留 (英: knowledge distillation) とは、機械学習の技術の一つ。大規模なモデル(教師モデル)が持つ豊富な知識を、より小さなモデル(生徒モデル)に伝達する手法。

※Wikipediaの情報から機械的に算出しています。
情報の正確性を保証するものではありません。

「知識蒸留」をWikipediaで調べる

「知識蒸留」さんについての一言コメント

読み込み中...