В этом учебном пособии от Бхусана Четтри представлен обзор различных методов интерпретируемого машинного обучения (IML), также известных как объяснимый ИИ (xAI). Это руководство является третьей частью серии интерпретируемых руководств по искусственному интеллекту доктора Бхусана Четтри, доктора наук в области искусственного интеллекта и голосовых технологий Лондонского университета королевы Марии. В учебнике объясняются различные подходы к объяснению или пониманию рабочего феномена моделей машинного обучения, управляемых данными. Методы интерпретации моделей ИИ обычно делятся на две категории: (1) направленные на разработку интерпретируемых по своей сути моделей, которые довольно легко и просто понять; (2) и разработка специализированных алгоритмов и методов для анализа или распаковки предварительно обученных моделей машинного обучения «черный ящик» (обычно основанных на глубоком обучении). Эту вторую категорию часто называют методами апостериорной интерпретации, которые учитывают предварительно обученную модель, а не нацелены на включение различных условий во время обучения модели, как это делается в случае подхода 1. Поскольку эти две темы довольно обширны, чтобы охватить их в один учебник, больше внимания уделяется первой части этого урока. Дальнейшие действия в этом руководстве будут больше сосредоточены на апостериорных методах интерпретируемости. Однако, прежде чем углубиться в тему, стоит кратко вернуться к предыдущим частям этой серии руководств.

Часть 1 посвящена обзору ИИ, машинного обучения, данных, больших данных и интерпретируемости. Хорошо известно, что данные были движущей силой успеха всех приложений машинного обучения и искусственного интеллекта. В первой части обсуждалось, как огромные объемы данных производятся каждую минуту из разных сред (онлайн-транзакций, датчиков, наблюдения и социальных сетей). В нем говорилось о том, что сегодняшняя быстрорастущая цифровая эпоха, которая приводит к созданию таких массивных данных, обычно называемых большими данными, стала одним из ключевых факторов очевидного успеха современных систем искусственного интеллекта в различных секторах. В учебнике также показано, как взаимосвязаны ИИ, машинное обучение и глубокое обучение: глубокое обучение — это подмножество машинного обучения, а машинное обучение — подмножество ИИ. Другими словами, ИИ — это общая терминология, которая охватывает как машинное обучение, так и глубокое обучение. В руководстве также кратко объясняется обратное распространение, механизм нейронных сетей. Наконец, в нем представлен базовый обзор IML с акцентом на их необходимость и важность для понимания того, как модель выносит суждение о конкретном результате. Пожалуйста, прочтите part1-tutorial для более подробной информации.

Далее во второй части серии учебных пособий были представлены сведения об xAI и IML с учетом критически важных областей применения, таких как медицина, финансы и безопасность, где развертывание ML или AI требует соблюдения определенных критериев, таких как справедливость, надежность, надежность и т. д. учебник объяснил необходимость интерпретируемости современных современных моделей машинного обучения, которые предлагают впечатляющие результаты, управляемые одной оценочной метрикой (например, точностью). Мониторинг дикой природы и автоматическое обнаружение туберкулеза как два варианта использования были приняты во внимание для более подробной проработки потребности xAI. Кроме того, в учебнике обсуждалось, как предвзятость набора данных может повлиять на внедрение моделей машинного обучения в реальных сценариях и насколько важно понимать обучающие данные. Пожалуйста, проверьте part2-tutorial для получения дополнительной информации.

Методы интерпретации

Этот учебник посвящен объяснению различных методов интерпретации для понимания поведения моделей машинного обучения. Была проведена огромная исследовательская работа по IML, и исследователи предложили несколько методов для объяснения рабочего феномена моделей ML. Различные таксономии методов IML также можно найти в литературе, но с отсутствием согласованности таксономий. Таким образом, для простоты в этом учебном пособии методы IML объединены в две широкие категории. Первый метод включает в себя разработку моделей ML, которые можно интерпретировать неявно. Эти классы моделей представляют собой простые модели, такие как деревья решений, которые сами по себе легко интерпретировать. Второй метод включает в себя попытку понять, что предварительно обученная модель извлекла из базовых данных, чтобы сформировать конкретный результат или решение. Это называется апостериорным анализом, который использует предварительно обученную модель, которая часто является черным ящиком по своей природе, например, глубокие нейронные сети.

На пути к разработке интерпретируемых моделей

В этом подходе исследователи стремятся создавать решения для данной проблемы с использованием моделей ML, которые не требуют использования какого-либо постфактум-анализа после обучения модели, а скорее фокусируются на построении моделей таким образом, чтобы их было легко интерпретировать. сами себя. Хотя эти формы методов предлагают хорошую степень объяснимости, которая закодирована в самой модели, они часто страдают с точки зрения производительности из-за лежащей в основе простоты архитектуры модели, которая часто не может изучить базовое сложное распределение данных. Это, конечно, зависит и варьируется в разных предметных областях. Тем не менее, их легко понять, что является ключом ко многим критичным с точки зрения безопасности областям применения, например финансам и медицине. Во время обучения модели эти формы моделей настраиваются на соответствие определенному критерию, чтобы поддерживать интерпретируемость. Эти условия (например, разреженность) могут принимать различные формы в зависимости от характера проблемы. Их часто называют белыми ящиками, внутренними объяснимыми моделями или прозрачными ящиками. Чтобы получить представление об их рабочем феномене, можно непосредственно осмотреть различные компоненты модели. Например, проверка различных посещенных узлов от корня до конечного узла в дереве решений. Такой анализ дает достаточно информации о том, почему и как модель приняла определенное решение.

Подход 1: модели на основе правил

Первая категория методов направлена ​​на применение предопределенного набора правил, которые часто являются взаимоисключающими или зависимыми при обучении моделей. Одним из хорошо известных примеров такого класса моделей является модель дерева решений, которая содержит набор правил «если-иначе». Из-за простоты правил if-else становится очень легко понять, как модель формирует конкретный прогноз. Исследователи предложили расширение дерева решений, называемое списками решений, которое содержит упорядоченный набор утверждений «если-то-иначе», и эти модели принимают решение всякий раз, когда выполняется определенное правило.

Подход 2: рассуждения на основе конкретных случаев и выбор прототипа

В этом подходе выбор прототипа и рассуждения на основе прецедентов применяются для разработки интерпретируемых моделей машинного обучения. Здесь прототип может означать разные вещи для разных приложений и, следовательно, зависит от приложения. Например, в качестве прототипа можно рассматривать среднее значение Nобучающих примеров из определенного класса в обучающем наборе данных. После обучения такие модели выполняют вывод (или прогнозирование), вычисляя сходство тестового примера с каждым элементом в наборе прототипов. Неконтролируемая кластеризация с последующим изучением прототипа и подпространства была выполнена исследователями для изучения интерпретируемой байесовской модели случая, в которой каждое подпространство определяется как подмножество признаков, характеризующих прототип. Изучение таких прототипов и низкоразмерных подпространств помогает повысить интерпретируемость и генерировать объяснения на основе изученной модели.

Подход 3: к построению интерпретируемых по своей сути моделей

При таком подходе исследователи стремятся разработать алгоритмы обучения и часто определяют специализированные архитектуры моделей таким образом, чтобы обеспечить интерпретируемость моделей машинного обучения «черный ящик» (особенно основанных на глубоком обучении). В этом направлении один распространенный и довольно популярный метод, используемый в литературе для повышения интерпретируемости, заключается в использовании алгоритмов внимания во время обучения модели. С помощью такого механизма внимания можно закодировать некоторую степень объяснимости в самом тренировочном процессе. Другими словами, он дает возможность взвесить компоненты признаков во входных данных (которые в конечном итоге могут быть визуализированы), чтобы понять, какая часть входных данных наиболее интенсивно используется моделью при формировании конкретного прогноза в отличие от других компонентов признаков. С другой стороны, исследователи также инкапсулировали специальный слой в архитектуру глубокой нейронной сети (DNN), чтобы обучать модель интерпретируемым способом для различных задач машинного обучения. Выходные данные такого уровня, которые предоставляют различную информацию (например, разные части входных данных), могут позже использоваться во время логического вывода для объяснения или понимания различных категорий классов.

Кроме того, в литературе также использовались некоторые приемы обучения, такие как регуляризация сети, чтобы сделать модели сверточных нейронных сетей более интерпретируемыми. Такая регуляризация направляет алгоритм обучения при изучении распутанного представления из входных данных, что в конечном итоге помогает модели изучить веса (то есть фильтры), которые в конечном итоге изучают более значимые функции. Некоторые другие направления работы можно найти там, где были предложены самообъяснимые DNN. Архитектура этой модели включает модуль кодировщика, модуль параметризатора и модуль функции агрегирования.

Следует, однако, отметить, что разработка интерпретируемых моделей не является благоприятной для каждой ситуации. Хотя верно то, что они обеспечивают присущую им объяснимость благодаря своему выбору дизайна, у этого подхода есть ограничения или проблемы. Одной из проблем является использование входных функций. Что, если входные функции, используемые сами по себе, трудно понять людям? Например, кепстральные коэффициенты Mel Frequency — одна из самых современных функций, используемых в автоматических системах распознавания речи, и ее нелегко интерпретировать. Это означает, что полученные объяснения из обученной интерпретируемой модели не будут интерпретируемыми из-за выбора входных признаков. Таким образом, как подчеркивалось ранее, всегда существует компромисс между сложностью модели и интерпретируемостью модели. Чем ниже сложность модели, тем выше интерпретируемость, но ниже производительность модели. Напротив, чем выше сложность модели, тем ниже ее интерпретируемость (но обычно она обеспечивает лучшую производительность на тестовом наборе данных). Почти во всех доменных приложениях (аудио, видео, текст, изображения и т. д.) высокоточные модели отображения сложны по своей природе. Трудно достичь современной производительности в заданной задаче, используя упрощенные интерпретируемые модели, например модель линейной регрессии, из-за ее простоты, поскольку она не может изучить сложное распределение данных в обучающем наборе данных и, следовательно, показывает низкую производительность. на тестовом наборе. Таким образом, апостериорные методы были разработаны и исследованы исследователями во многих областях, чтобы понять, какие сложные модели машинного обучения извлекают из входных данных для прогнозирования. В следующем разделе дается краткое введение в апостериорные методы интерпретируемости.

Апостериорные методы интерпретации

Этот класс методов интерпретируемости работает на предварительно обученной модели машинного обучения. Здесь методы апостериорной интерпретируемости направлены на исследование поведения предварительно обученных моделей с использованием специально разработанных алгоритмов для выполнения исследования объяснимости. Это означает, что этот класс методов не ставит никаких условий в отношении интерпретируемости во время обучения модели. Таким образом, модели, которые исследуются для понимания их поведения с использованием апостериорных подходов, обычно представляют собой сложные модели глубокого обучения, которые по своей природе являются черными ящиками. Эти методы в целом сгруппированы в две части.

Первый класс методов направлен на понимание глобального или общего поведения моделей машинного обучения (в частности, моделей глубокого обучения). Второй класс методов направлен на понимание локального поведения моделей. Например, создание объяснений, чтобы понять, какие различные функции (среди Nнаборов функций) больше всего повлияли на конкретный прогноз. Следует также отметить, что эти апостериорные методы могут быть применимы к любой модели машинного обучения (так называемые независимые от модели типы) или могут быть разработаны специально для определенного класса моделей машинного обучения (так называемые модели, специфичные для модели).

Краткое содержание

В этом руководстве Бхусан Четтри рассказал о двух разных методах интерпретируемого машинного обучения. Первый класс методов направлен на разработку интерпретируемых по своей сути моделей. Второй класс методов направлен на отладку предварительно обученной модели, чтобы понять ее рабочий феномен. С этой целью доктор Бхусан Четтри, получивший докторскую степень в области машинного обучения и искусственного интеллекта для голосовых технологий в QMUL, Лондон, сосредоточился на подробном объяснении первого класса методов в этом руководстве из-за чрезвычайной сложности двух тем. Другими словами, в этой категории есть три различных подхода: модели, основанные на правилах; Рассуждения на основе кейсов и выбор прототипа; и к построению интерпретируемых по своей сути моделей; были подробно обсуждены. Он также подчеркнул, почему такие подходы не работают для каждой модели, управляемой данными, и различных предметных областей, а также подчеркнул необходимость в методах апостериорной интерпретации для объяснения поведения предварительно обученной модели машинного обучения. В следующем выпуске этой серии руководств будут более подробно обсуждаться апостериорные методы интерпретируемости моделей.

Подробнее читайте на https://bhusanchettri.com/blog/