Это вопрос, который всплывал на дискуссионных столах конференций и в социальных чатах повсюду: «Могут ли машины включать людей?». Это вопрос, который часто сопровождает сцены и визуальные эффекты из таких фильмов, как «Терминатор». Но что мы знаем и что мы видели из использования ИИ в больших данных, так это то, что при проектировании систем для больших масштабов с более сложными средами необходимо учитывать определенные неопределенности и предубеждения.

Ссылка на изображение: http://www.fullai.org/ethical-issues-ai-top-mind-data-scientists/

Что чувствуют машины? Что заставляет их вести себя так, а не код, вставленный в их мейнфрейм? Сохраняются ли сегодня три закона Айзека Азимова в определении стандартов того, как машины должны вести себя в запутанной среде? Ответы на эти вопросы лежат в том, как мы определяем правила игры и как машина реагирует на внезапные изменения.

Этические предубеждения — это особая зона неопределенности в исследованиях Искусственного интеллекта, которая касается безделушек и рычагов, заставляющих машины вести себя таким образом, который иногда может показаться странным или даже вредным. С появлением автономных транспортных средств и методов производства, основанных на искусственном интеллекте, которые должны захватить мир, оставшийся без ответа вопрос снова требует ответа. Что мы делаем с машинами?

Введение в предубеждения

Смещения и отклонения с точки зрения данных связаны с близостью измеренных значений к фактическим значениям. Дисперсия в этом случае является мерой того, насколько измеренные значения отличаются друг от друга, а смещения относятся к тому, насколько измеренные значения отличаются от фактических значений. В очень специфическом случае моделей с высокой точностью и дисперсия, и систематическая ошибка будут небольшими. Однако это может отражать, насколько плохо модель будет работать с новыми данными. Тем не менее, трудно добиться низкого смещения и дисперсии, и это бич аналитиков данных во всем мире. Предубеждения особенно трудно лечить в случаях использования, которые включают простое принятие решений, когда простых бинарных вычислений недостаточно.

Возникает соблазн спросить, почему предубеждения проникают в систему? И если машина не может решить в критической точке не хуже человека, то зачем их вообще использовать? Чтобы ответить на эти вопросы, нужно взглянуть на общую методологию построения моделей в сфере сервисов больших данных.

Данные сначала собираются и очищаются от приводов и датчиков, которые предоставляют необработанные цифры для работы аналитиков. Затем эти значения проходят этап предварительной обработки, на котором они нормализуются, стандартизируются или преобразуются в форму, в которой удаляются размеры и единицы измерения. Как только данные преобразуются в подходящий табличный формат или формат с разделителями-запятыми, они вставляются в сеть слоев или функциональных уравнений. Если в модели используется ряд скрытых слоев, будьте уверены, что у них будет функция активации, которая будет вносить смещение на каждом этапе пути.

Однако предубеждения также могут проникнуть в систему из-за многих ловушек методов сбора данных. Возможно, данные не были сбалансированы по отношению к определенной группе или классу результатов, возможно, данные были неполными, ошибочными или, возможно, данных вообще не было. По мере того, как наборы данных становятся все больше и больше с увеличением количества неполных записей, существует определенная возможность того, что система заполнит эти пробелы некоторыми предопределенными значениями. Это приводит к другому виду предполагаемой предвзятости.

Загадка черного ящика

Многие ученые также утверждают, что числа могут не означать одно и то же без надлежащего контекста. Например, в спорной книге под названием «Гаустическая кривая» заявление автора о различиях IQ среди расовых групп было оспорено понятием ограничений и различий, связанных с окружающей средой. Но если человек может прийти к таким решениям, сколько времени потребуется машине, чтобы устранить такие ошибочные суждения в своей логике?

Шансы минимальны. Если в машину были введены ошибочные или ошибочные данные, она выдаст ошибочные значения. Проблема возникает из-за неоднозначности построения модели ИИ. Обычно это модели черного ящика, которые существуют как приемники и источники данных без объяснения того, что происходит внутри. Для пользователя такие модели черного ящика не могут подвергаться допросу или спрашивать, как они приходят к результату. Кроме того, существуют дополнительные проблемы, которые необходимо решить с вариациями результатов. Из-за непонимания того, как работает черный ящик, аналитики могут прийти к разным результатам даже при одних и тех же входных данных. Такие вариации могут не иметь большого значения для значений, где точность не является ключевым фактором, но область данных редко бывает такой щедрой. Промышленные производители, например, были бы в растерянности, если бы системы искусственного интеллекта не могли предсказывать высокоспецифичные параметры, такие как pH, температура или давление, в больших точках. Однако, когда цель состоит в том, чтобы дать ответы на такие проблемы, как совместимость кредита, уголовный рецидив или даже применимость для поступления в колледж, отсутствие четких значений ИИ становится недостатком. Однако на энтузиастах ИИ лежит ответственность за решение проблемы с другой стороны.

Другими словами, методы и правила интерференции между слоями должны быть разрешены, чтобы интерпретировать то, что представляет каждая строка кода и коэффициент. Таким образом, черные ящики должны быть вырваны с корнем и проанализированы, чтобы узнать, что заставляет машины тикать, что легче сказать, чем сделать. Взглянув даже на самый простой нейронный сетевой ИИ, достаточно, чтобы понять, насколько сложны такие системы. Все узлы и слои складываются с индивидуальными весами, которые взаимодействуют с весами других слоев.

Наметанному глазу это может показаться великолепной сделкой, но для понимания машин остается мало интерпретаций. Может ли это быть просто из-за разницы в языковых уровнях людей и машин? Есть ли способ разложить логику машинных языков в формате, понятном неспециалисту?

Типы предубеждений

Прикрывая историю предубеждений в анализе данных, может быть несколько предубеждений, которые возникают в результате неправильных методов или предопределенных предубеждений в организации, ответственной за анализ. Ошибочная классификация и предполагаемые погрешности могут быть вызваны моделями, которые хорошо ориентированы на получение сбалансированных результатов из-за определенных склонностей и интересов программиста.

Это слишком распространенная ошибка, которую допускают некоторые маркетинговые аналитики при работе с потенциальными клиентами. Программное обеспечение для сбора данных предоставляет отличные данные о людях, которые обратились и не обратились. Вместо того, чтобы сосредоточиться на моделях, ориентированных на оба класса людей, у большинства может возникнуть соблазн построить модели только для неконвертированных лидов. Поступая так, они в конечном итоге закрывают глаза на богатство доступных данных для тех, кто стал их клиентами.

Еще одна проблема, от которой страдают модели ИИ, — это неспособность правильно классифицировать или неправильно классифицировать данные, что приводит к катастрофе для аналитиков. В производственной отрасли такие ошибки подпадают под категории Типа I и Типа II: первая — это когда классификация производится для записи, которая не принадлежит, а вторая — когда не удается классифицировать то, что действительно принадлежит. В контексте производственной партии инженеры по контролю качества быстро проверяют точность товаров, проверяя лишь небольшую их часть. Это экономит время, а также деньги. Но это может быть идеальной средой для возникновения таких гипотетических предубеждений.

Другой подобный пример наблюдался в программном обеспечении для обнаружения изображений, где нейронные сети сканируют сломанные части изображений, чтобы восстановить логические формы. Может быть несколько проблем, вызванных сходством ориентации объектов на изображениях, которые могут привести к тому, что модель выдаст поразительно противоречивые результаты. Современные сверточные нейронные сети способны учитывать такие сложности, но требуют большого количества тестовых и обучающих данных для разумных результатов.

Определенные предубеждения являются следствием отсутствия надлежащих доступных данных, а использование сложных моделей было неоправданным и даже ненужным. Широко распространено мнение, что определенные модели и программирование нейронных сетей следует применять к наборам данных только после того, как они достигнут статистически значимого количества записей. Это также означает, что алгоритмы должны быть разработаны для своевременной многократной проверки качества данных.

Борьба с ИИ с помощью ИИ

Спрятано ли решение проблемы с предубеждениями ИИ внутри самого ИИ? Исследователи считают, что улучшение методов настройки, с помощью которых аналитики собирают и разграничивают информацию, важно и должно учитывать, что не вся информация необходима.

При этом следует уделять больше внимания удалению и искоренению входных данных и значений, которые искажают модели в совершенно неблагоприятных местах. Аудит данных — еще одно средство, с помощью которого можно вовремя проверить и устранить предвзятость. Этот метод, как и любая стандартная процедура аудита, включает в себя тщательную очистку и проверку обработанных данных, а также необработанных входных данных. Аудиторы отслеживают изменения и отмечают возможные улучшения, которые можно внести в данные, а также обеспечивают полную прозрачность данных для всех заинтересованных сторон.

Также обсуждались специализированные модели XAI, которые можно поставить на стол вопросов при правильных обстоятельствах. Эти модели включают разработку очень подробной параметрической модели, в которой записывается каждый шаг и изменение, что позволяет аналитикам точно определять вероятные проблемы и запускать экземпляры.

ИИ также стал границей для проверки матриц точности и путаницы моделей вместо того, чтобы полагаться на более простые инструменты, такие как кривые ROC и графики AUC. Эти модели рассматривают выполнение повторных проверок качества перед развертыванием набора данных и пытаются охватить общие классы данных, независимо от распределения или формы. Природа такого предварительного тестирования усложняется наборами данных, где различия в единицах и диапазонах значительно различаются по входным данным. Аналогичным образом, для данных, связанных со средствами массовой информации, время, затрачиваемое на разбивку и преобразование контента в числовые форматы, все равно может привести к систематическим ошибкам.

Однако благодаря новым изменениям в принципах прозрачности данных и сторонних проверок компании, по крайней мере, признают, что что-то идет не так. Между моделями также вставляются новые поясняющие циклы, которые призваны подчеркнуть черные ящики, которые заполняют большинство моделей ИИ. Они снова управляются моделями ИИ, которые систематически настраиваются для поиска несоответствий и ошибок.

Несколько примеров этических ошибок ИИ

Аналитики данных должны быть знакомы с концепциями ложноотрицательных и ложноположительных результатов. Эти несоответствия в определении результатов могут привести к особым случаям ошибок с пагубными последствиями для людей. Ложноотрицательный пут — это когда система неправильно распознает положительный класс как отрицательный. Точно так же ложное срабатывание происходит, когда отрицательный класс ошибочно распознается как положительный.

Серьезность таких ложных случаев можно лучше понять в контексте реальных исследований больших данных. В известном случае ИБС (ишемической болезни сердца), моделируемом с использованием логистической регрессии, матрицы путаницы для ложноположительных и ложноотрицательных результатов давали большие числа, несмотря на высокую точность. Среднестатистическому человеку точная модель может показаться единственной важной проверкой «сделай или сломай». Но даже в первые дни анализа данных было ясно, что такие модели не сработают и даже будут ставить неверный диагноз новым пациентам.

Компромисс был достигнут за счет сбора большего количества потоков данных и очистки столбцов, чтобы обеспечить лучшую нормализацию данных. Шаг, который в наши дни становится основным для отрасли.

Автономные транспортные средства Uber, терпящие аварии на этапах тестирования, — не единственные тревожные сигналы, которые беспокоят профессионалов отрасли. Эти страхи распространяются и на другие сферы, такие как идентификация и машинное восприятие. Технический гигант Amazon оказался под пристальным вниманием СМИ после того, как его модель научилась развивать то, что СМИ назвали «гендерным предубеждением» в отношении женщин. В шокирующем случае предвзятости соискателей (ранее наблюдаемом с соискателями в технологических компаниях) модели генерировали отрицательное соответствие для заявленной работы выше для женщин, чем для мужчин. Проблемы на другом конце спектра наблюдались у технологических гигантов, таких как Apple, где потребитель разрекламировал FaceID, позволив разным пользователям получать доступ к заблокированным телефонам. Можно возразить, что модели, используемые для идентификации лицевых сигналов для обнаружения, могут давать одинаковые результаты даже для разных людей.

Это был только вопрос времени, когда инженеры начнут устранять ошибки и придут к выводу, что на основе сомнительных входных данных существуют предполагаемые погрешности. Большой скачок ИИ в медицинском мире был отброшен назад из-за неудачи в интеграции этических ценностей; ценности, которые заменили бы медсестер и персонал на ходу. В основном это решается путем истолкования всего возможного количества примеров случаев, когда машина может правильно заменить человека и принимать те же самые решения. Хотя специалисты по философии могут возразить, что даже люди не действуют в соответствии с набором правил. Существуют различные школы этики — кантианская, эгалитарная, утилитарная и так далее. То, как эти школы мысли соответствуют различным этическим головоломкам, остается на усмотрение человека и его/ее интересов.

В знаменитом случае с тележкой склонность человека тянуть или не тянуть рычаг продиктована исключительно этическими рамками, в которых действует этот человек. Вопрос об ответственности становится размытым, когда машины занимают место лиц, принимающих решения.

Заключительные слова: как сделать более этичным?

Вечный вопрос о том, откуда мы черпаем терпимость к этим системам, ведет к тому, что машины включаются в нашу повседневную деятельность. ИИ был строительным блоком для спасательных и поддерживающих структур, таких как транспорт, прогнозные исследования, финансовые инвестиции, безопасность, связь и производство. Она проникла во все значимые аспекты человеческой жизни, не вызвав при этом много скептиков.

Линия наступает, когда ИИ не в состоянии внедрить ту самую философию, в рамках которой действуют создавшие его люди. Мы далеко ушли от времен Евгения Замятина и Алана Тьюринга, когда машины считались беспристрастными. Вдохнуть новую жизнь в машины, научив ИИ быть этичным, — это вызов, который сводится к фундаментальному вопросу: что значит быть «человеком»?

Теперь мы знаем, что для создания идеальной этической основы ИИ необходимо разобрать до самых основ и использовать контекстно-зависимый подход, который делает упор на качество результатов. Как и в случае с основами разнообразия на рабочем месте, шаги просты:

  • Внимательно следите за данными.
  • Держите его разнообразным, но нормальным.
  • Пусть команда время от времени контролирует этапы предварительной обработки.
  • Удалите исключения любой формы в выходных данных.
  • Удалите ненужные значения, которые могут быть ошибочными или бесполезными для модели.
  • Уточняйте, проверяйте, делитесь и запоминайте результаты, включая их в модель.
  • Устраните взаимодействия, хранилища данных и всегда проверяйте работоспособность на предмет конечной цели.
  • Разрушьте хранилища данных и научите ИИ думать, а не моделировать его мышление.
  • Держите под контролем окно осознания Джохари. Покройте неизвестные известные и известные неизвестные. Что же касается неизвестных неизвестных, то такие предубеждения всегда останутся, к сожалению.

Первоначально опубликовано в Cuelogic Blog.