Понимание наивной теоремы Байеса

Наивная теорема Байеса

Наивная теорема Байеса – это метод классификации, основанный на теореме Байеса с предположением о независимости предикторов. Проще говоря, наивный байесовский классификатор предполагает, что наличие определенного признака в классе не связано с наличием какого-либо другого признака.

Например, фрукт может считаться яблоком, если он красный, круглый и диаметром около 3 дюймов. Даже если эти признаки зависят друг от друга или от существования других признаков, все эти свойства независимо влияют на вероятность того, что этот фрукт является яблоком, поэтому он известен как ' >Наивный».

Давайте разберемся с некоторыми ключевыми понятиями, связанными с Наивной теоремой Байеса.

Условная вероятность

Условная вероятность определяется как вероятность наступления события или исхода, основанная на наступлении предыдущего события или исхода. Условная вероятность рассчитывается путем умножения вероятности предыдущего события на обновленную вероятность последующего или условного события.

Сходным образом,

Теорема Байеса

Теорема Байеса описывает вероятность события, основанную на предварительном знании условий, которые могут быть связаны с этим событием. Теорема Байеса позволяет пересмотреть существующие прогнозы или теории (обновить вероятности) с учетом новых или дополнительных данных.

Из условной вероятности мы знаем,

Кроме того, по закону вероятности вероятность того, что события А и В произойдут, равна вероятности того, что произойдут оба события В и А.

So,

Поэтому,

Математика

Предположим, у нас есть набор данных, как описано здесь,

По теореме Байеса получаем,

Теперь вывод приведенного ниже уравнения будет постоянным для любого результата, т. Е. Всегда будет давать одно и то же значение.

Итак, мы можем сказать,

Окончательно,

Это означает, что выход (y) будет значением наибольшего результата уравнения.

Пример

Давайте разберемся с концепцией на примере.

Бинарная классификация

Здесь у нас есть обучающий набор данных Outlook, Temperature и соответствующая целевая переменная «Play» (предполагающая возможности игры). Теперь нам нужно классифицировать, будут ли игроки играть или нет, в зависимости от погодных условий.

Набор данных

Проблема: будут ли игроки играть сегодня, если на улице солнечно, а температура жаркая?

Мы можем решить эту задачу, используя метод апостериорной вероятности.

Сегодня

Мы можем подготовить «Сегодня» как запись с функцией «Прогноз» как «Солнечно» и «Температура» как «Жарко».

Игра

Согласно теореме Байеса,

Согласно наивной теореме Байеса

После подстановки значений получаем,

Не играю

Согласно теореме Байеса,

Согласно наивной теореме Байеса

После подстановки значений получаем,

Теперь, если мы заметим, что сумма приведенных выше вероятностей не равна 1.

Мы хотим, чтобы сумма наших вероятностей равнялась 1. Для этого мы можем просто нормализовать наши вероятности.

И,

Поскольку вероятность Нет выше, чем вероятность Да, мы можем сделать вывод, что игроки сегодня не будут играть.

Нам не обязательно нормализовать вероятность, так как мы можем сделать вывод непосредственно из исходной вероятности о том, будет ли выход Да (0,031) или Нет (0,085).

Текстовая классификация

Наивный Байес также очень полезен в НЛП. Специально для классификации текста или анализа настроений. Немного модифицируем уравнение условной вероятности для задачи классификации текста.

Давайте посмотрим на пример, чтобы понять, как Наивный Байес выполняет классификацию текста.

Вот наш образец набора данных с отзывами и настроениями, положительными и отрицательными.

Первым шагом является создание словаря — набора всех различных слов, встречающихся в обучающем наборе.

Теперь мы рассчитаем условные вероятности для каждого настроения или класса.

Положительный

n = 8

|Словарь| = 8

Вероятности

Отрицательный

n = 8

|Словарь| = 6

Вероятности

Теперь, когда мы обучили наш классификатор, давайте классифицируем новое предложение в соответствии с:

Наше новое предложение - "Плохой фильм".

Положительный

Отрицательный

Ясно, что этот отзыв является негативным (-) отзывом, так как он имеет большую вероятность.

Источник: Эндрю Нг, StatQuest и Криш Найк

Я надеюсь, что эта статья поможет вам лучше понять Наивную теорему Байеса.

Если у вас есть какие-либо вопросы или вы обнаружите, что что-то искажено, пожалуйста, дайте мне знать.

Спасибо!