НАЧАЛО | ХАИ | KNIME АНАЛИТИЧЕСКАЯ ПЛАТФОРМА

Позвольте KNIME объяснить с решениями XAI на KNIME Hub

Узнайте, как разобраться в своих моделях с помощью подхода без кода

Соавтор: Паоло Таманьини

При внедрении машинного обучения после обучения и проверки модели предприятиям часто нужны ответы на несколько вопросов. Как модель делает свои прогнозы? Можем ли мы доверять этому? Принимает ли эта модель то же решение, что и человек, получив ту же информацию? Эти вопросы важны не только для специалистов по данным, обучавших модель, но и для лиц, принимающих решения, которые в конечном итоге несут ответственность за интеграцию прогнозов модели в свои процессы.

Кроме того, разрабатываются новые правила, такие как Закон Европейского Союза об искусственном интеллекте. Эти стандарты направлены на то, чтобы организации несли ответственность за приложения ИИ, которые негативно влияют на общество и отдельных людей. Нельзя отрицать, что в настоящий момент ИИ и машинное обучение влияют на жизнь многих людей. Одобрение банковских кредитов или принятие решений на основе целевых кампаний в социальных сетях — вот несколько примеров того, как ИИ может улучшить взаимодействие с пользователем — при условии, что мы должным образом протестируем модели с помощью XAI и знаний в предметной области.

При обучении простых моделей (таких как, например, модель логистической регрессии) ответы на такие вопросы могут быть тривиальными. Но когда необходима более производительная модель, например, нейронная сеть, методы XAI могут дать приблизительные ответы как для всей модели, так и для отдельных прогнозов.

KNIME может предоставить вам методы XAI без кода для объяснения вашей модели машинного обучения. Мы выпустили пространство XAI в KNIME Hub, посвященное примерам рабочих процессов со всеми доступными методами XAI как для задач регрессии машинного обучения, так и для задач классификации.

Объяснимые узлы и компоненты ИИ

Эти методы для XAI можно легко перетаскивать в KNIME Analytics Platform с помощью следующих функций:

В новом пространстве мы демонстрируем, как использовать различные компоненты и узлы KNIME, разработанные для интерпретируемости модели. Вы можете найти примеры в этом Пространстве XAI, разделенном на две основные группы в зависимости от задачи машинного обучения:

  • Классификация: контролируемые алгоритмы машинного обучения с категориальным (строковым) целевым значением.
  • Регрессия: контролируемые алгоритмы машинного обучения с числовым или непрерывным целевым значением.

Затем, в зависимости от типа обучения, есть еще две подкатегории:

  • Пользовательские модели. Модель машинного обучения используется с узлами Predictor и Learner. Узлы Predictor в некоторых примерах фиксируются с помощью Integrated Deployment и передаются компоненту XAI.
  • AutoML: используются компоненты AutoML Классификация и Регрессия, которые выбирают лучшую модель, соответствующую данным.

Вы можете легко увидеть, как ваша модель генерирует прогнозы, а также какие функции учитываются, приняв эти компоненты и узлы в сочетании с некоторой хорошей визуализацией. Кроме того, вы можете изучить, как прогноз изменяется в результате модификации любой из ваших входных функций. Кроме того, мы предлагаем показатели справедливости для проверки модели на соответствие принципам ответственного ИИ.

Чтобы дать вам представление о том, какие темы рассматриваются в этом пространстве XAI, давайте рассмотрим три примера.

Глобальные и локальные методы объяснения машинного обучения

Мы собрали несколько примеров как для локальных, так и для глобальных методов XAI. В то время как локальные методы описывают, как делается индивидуальный прогноз, глобальные методы отражают среднее поведение всей модели. Например, вы можете вычислить частичную зависимость (PDP) и отдельные кривые условного ожидания (ICE) для модели регрессии ML, которая обучена на заказ. PDP является глобальным, а ICE — локальным. Доступны дополнительные примеры.

Ответственный искусственный интеллект: измерение показателей справедливости

Теоретически для обучения и развертывания модели машинного обучения требуется всего несколько щелчков мышью. Чтобы убедиться, что окончательная модель справедлива для всех, кого затрагивают ее прогнозы, вы можете применить методы ответственного ИИ. Например, мы предлагаем компонент для аудита любой модели классификации и измерения справедливости с помощью популярных метрик в этой области.

Приложения для работы с данными для бизнес-пользователей: готовы к развертыванию

Не всем экспертам необходимо использовать платформу KNIME Analytics для доступа к этим методам XAI. Некоторые компоненты в пространстве XAI могут быть развернуты на веб-портале KNIME Server, чтобы предлагать приложения данных для бизнес-пользователей. Этими приложениями данных XAI можно поделиться по ссылке и получить к ним доступ через вход в любой веб-браузер. Затем бизнес-пользователи могут взаимодействовать с помощью диаграмм и кнопок, чтобы понять модель машинного обучения и завоевать доверие. На рисунке ниже анимация показывает, как представление имитации модели работает как локально на KNIME Analytics Platform, так и онлайн на KNIME WebPortal. Подробнее читайте в «Доставка приложений данных с помощью KNIME».

Дополнительные ресурсы

Чтобы узнать больше об отдельных методах, мы можем порекомендовать эти сообщения в блоге:

Если вы обучили модель на Python и хотите объяснить ее в KNIME, мы рекомендуем:

Если вы новичок в XAI, рассмотрите курс LinkedIn Learning:

— — — — -

Как впервые опубликовано в блоге KNIME: https://www.knime.com/blog/download-explainable-xai-solutions-hub