Публикации по теме 'loss-function'


Использование потери расстояния Earth Mover в XGBoost для повышения производительности прогнозирования
XGBoost — это широко используемая библиотека машинного обучения с открытым исходным кодом, которая обеспечивает эффективную и масштабируемую реализацию алгоритмов повышения градиента. В последние годы он приобрел огромную популярность благодаря своей высокой производительности в широком спектре приложений, таких как классификация, регрессия и ранжирование. XGBoost часто хвалят за его гибкость, поскольку он позволяет пользователям настраивать модель в соответствии со своими конкретными..

Функции потерь для сегментации медицинских изображений: таксономия
Функции потерь - один из важных компонентов методов сегментации медицинских изображений на основе глубокого обучения. За последние четыре года было предложено более 20 функций потерь для различных задач сегментации. Большинство из них можно использовать в любых задачах сегментации в режиме plug-and-play. В этом блоге Мы представляем систематическую таксономию для сортировки существующих функций потерь по четырем значимым категориям. Это помогает выявить связи и фундаментальное..

Всеобъемлющее руководство по функциям потерь - Часть 1: Регрессия
Всеобъемлющее руководство по функциям потерь - Часть 1: Регрессия Функции потерь используются для вычисления разницы между прогнозируемым выходом и фактическим выходом. Чтобы узнать, как они вписываются в нейронные сети, прочтите: Искусственные нейронные сети: объяснение Обычно, когда мы говорим« Нейронная сеть , мы имеем в виду искусственные нейронные сети (ИНС). И хотя они могут звучать… medium.com » В этой статье я объясню..

Это руководство научит вас создавать подклассы моделей и слоев Keras, которые используют пользовательские потери с пользовательскими градиентами в TensorFlow.
Введение Отказ от ответственности Keras отлично справляется с абстрагированием низкоуровневых деталей создания нейронной сети, чтобы вы могли сосредоточиться на выполнении работы. Но если вы читаете это, вы, вероятно, обнаружили, что стандартные методы Keras не всегда могут быть использованы для изучения параметров вашей модели. Возможно, ваша модель имеет градиент, который нельзя рассчитать с помощью магии автодиффа, или ваша функция потерь не соответствует сигнатуре..

Дивергенция KL против перекрестной энтропии в машинном обучении
Дивергенция KL (Кульбака-Лейблера) часто упоминается в области машинного обучения. Он измеряет сходство двух распределений P и Q. Но мы редко видим, как дивергенция KL используется в качестве цели оптимизации, а чаще мы видим, что перекрестная энтропия используется. Мы дадим введение в KL-дивергенцию и посмотрим, почему KL-дивергенция актуальна в ML? Что такое KL Divergence на самом деле? Посмотрите иллюстрацию , чтобы получить некоторое представление о дивергенции KL..

Учимся у РПЦ
Американский образовательный мир, кажется, только сейчас догоняет то, что специалисты по анализу данных знали годами. Вы учитесь на своих ошибках. Вы не одиноки, если это кажется неправдоподобным, что наша система образования только сейчас выясняет это. Это старая пословица, но почему-то в ней не учитывалась теория прикладного образования. Не верите мне? Тогда поверьте Джанет Меткалф, профессору психологии из Колумбийского университета, которая опубликовала Учимся на ошибках в 2017..

Причины выбрать фокальную потерю, а не кросс-энтропию
Focal Loss — это революционная функция потерь, разработанная для приложений глубокого обучения, которые сталкиваются с проблемами бинарной классификации, когда данные несбалансированы, а один класс имеет значительное преимущество над другим. Концепция очаговой потери была впервые введена Lin et al. в своей новаторской статье «Focal Loss for Dense Object Detection» в 2017 году. Основная цель Focal Loss — свести к минимуму влияние точно классифицированных примеров на процесс обучения и..