Публикации по теме 'kl-divergence'


Дивергенция KL против перекрестной энтропии в машинном обучении
Дивергенция KL (Кульбака-Лейблера) часто упоминается в области машинного обучения. Он измеряет сходство двух распределений P и Q. Но мы редко видим, как дивергенция KL используется в качестве цели оптимизации, а чаще мы видим, что перекрестная энтропия используется. Мы дадим введение в KL-дивергенцию и посмотрим, почему KL-дивергенция актуальна в ML? Что такое KL Divergence на самом деле? Посмотрите иллюстрацию , чтобы получить некоторое представление о дивергенции KL..