Машинное обучение — популярный термин в наши дни. Мы все знаем, что алгоритмы машинного обучения используют исторические данные в качестве входных данных для прогнозирования новых выходных значений, но причины результатов модели столь же важны, как и сами результаты. сильный>. Понимание обоснования прогнозов машинного обучения дает нам доверие, а доверие необходимо людям, особенно когда некоторые люди все еще боятся интеллекта роботов.

Ожидается, что во многих приложениях машинного обучения пользователи будут доверять модели, которая поможет им принимать решения. Врач никогда не будет оперировать пациента только потому, что «так сказала модель». Даже в обстоятельствах с низкими ставками, например, при выборе фильма для просмотра на Netflix, необходим определенный уровень уверенности, прежде чем мы посвятим модели несколько часов своего времени. Несмотря на то, что многие модели машинного обучения являются черными ящиками, знание причин прогнозов модели, несомненно, поможет пользователям решить, доверять или не доверять их прогнозам.

На изображении выше показан пример, в котором модель предсказывает, что у определенного пациента грипп. Затем прогноз объясняется «эксплейнером», который выделяет наиболее важные для модели симптомы. Имея эту информацию о причинах модели, врач теперь имеет право доверять модели — или нет.

Многие из современных моделей машинного обучения функционально являются черными ящиками, поскольку почти невозможно понять их внутреннюю работу. Это подводит нас к вопросу о доверии: верю ли я, что определенный прогноз модели верен? Или я вообще верю, что модель в целом делает разумные прогнозы?

Кажется интуитивно понятным, что объяснение обоснования отдельных прогнозов поможет нам лучше доверять или не доверять прогнозу или классификатору в целом. Даже если мы не всегда можем понять, как модель ведет себя во всех случаях, возможно (и в большинстве случаев это действительно так) понять, как она ведет себя в конкретных случаях.

Наконец, несколько слов о точности. Если вы раньше работали с машинным обучением, я уверен, что вы думаете примерно так: «Конечно, я знаю, что моя модель будет хорошо работать в реальном мире, поскольку у меня очень высокая точность перекрестной проверки! Зачем мне пытаться понять его прогнозы, если я знаю, что они верны в 99% случаев?». Точность перекрестной проверки может быть весьма обманчивой, и это подтвердит любой, кто использовал машинное обучение в реальном мире (а не только на статическом наборе данных).

Иногда данные, которые не должны быть доступны, случайно попадают в обучающие данные. Иногда способ сбора данных вводит корреляции, которых не будет в реальном мире, что и использует модель. Многие другие сложные проблемы могут дать нам ложное представление о производительности, даже при выполнении A/B-тестов. Я не говорю, что вы не должны измерять точность, но просто это не должно быть вашим единственным показателем для оценки доверия.

В заключение, доверие имеет решающее значение для эффективного взаимодействия человека с системами машинного обучения, и мы считаем, что объяснение индивидуальных прогнозов является эффективным способом оценки доверия.

В следующий раз мы продолжим рассказывать о том, как получать объяснения с помощью LIME. Оставайтесь с нами!