Чат-бот Tay от Microsoft с искусственным интеллектом был запрограммирован так, чтобы имитировать языковые модели миллениалов в возрасте от 18 до 24 лет. Всего через несколько часов после выхода в эфир Тай начал повторять такие оскорбительные заявления, как «Гитлер был прав» и «11 сентября — дело рук своих», которыми намеренно обменивались другие пользователи, чтобы спровоцировать Тэя.

Проверка контента Facebook использует искусственный интеллект, чтобы отсеивать токсичные сообщения, но тысячи работников удаляют сообщения, которые ИИ убирает. не в течение 24 часов после публикации.

Uber протестировал свои беспилотные автомобили в Сан-Франциско, которые проехали около 6 красных светофоров в городе во время тестирования.

IBM Watson изо всех сил пыталась расшифровать записи врачей и истории болезни в электронных медицинских картах и ​​сопоставить их с томами научной литературы по раку, что разочаровало врачей. Через четыре года проект был закрыт, и на него было потрачено 62 миллиона долларов.

Хирургические роботы выдвинули на первый план вопросы ответственности, когда речь идет о неудачных операциях и исках о врачебной халатности.

На конкурсе красоты, который оценивала жюри, роботы с искусственным интеллектом выбрали в качестве победителей в основном белых людей, а также некоторых азиатов.

Технология распознавания лиц Amazon в решении Rekognition ошибочно сопоставила известных спортсменов с преступниками на основании базы данных фотографий.

Приведенные выше примеры демонстрируют, как компании балансируют между использованием искусственного интеллекта и полной заменой человеческого интеллекта и суждений. Они поднимают самый сложный философский вопрос эпохи, связанный с ролью человеческого суждения: могут ли умные машины перехитрить нас или необходимы определенные элементы человеческого суждения при принятии решения о некоторых из самых важных вещей в жизни?

Исключительно основанные на ИИ результаты, решения и действия могут иметь некоторые фундаментальные недостатки.

  • Понимание контекста. Обычные действия, такие как чтение и интерпретация письменного текста или вождение автомобиля, намного сложнее для ИИ, поскольку ему не хватает разнообразия, глубины и крайних случаев, которые изначально понятны людям.
  • Прозрачность. Решения ИИ не всегда понятны и понятны людям.
  • Нейтралитет. Решения ИИ подвержены неточностям, дискриминационным результатам, а также встроенной или встроенной предвзятости.
  • Справедливость: решения ИИ могут привести к нарушению прав человека и противопоставлению фундаментальных ценностей.
  • Ответственность: на данный момент в большинстве случаев, связанных с травмами, причиненными роботом, ответственность возлагается либо на оператора, либо на производителя, но эти решения станут более сложными.

Очевидно, что гораздо проще имитировать рассуждения высококвалифицированного взрослого эксперта в области ИИ, такие как игра в шахматы или рискованные игры, чем имитировать повседневное обучение обычного человека.

Решение состоит в том, чтобы продвигать системы «человек в цикле», где люди держат поводья и могут управлять лошадью с искусственным интеллектом — кентавром. ИИ будет там дополнять, чем делать все. ИИ в режиме поддержки выполняет такие задачи, как устранение ошибок, решение проблем, обнаружение информации и упрощение процессов за счет частичной автоматизации задач. Любые ошибки в выводе или решениях ИИ исправляются людьми, а данные коррекции возвращаются в виде помеченных данных для повторного обучения моделей машинного обучения. Благодаря такому симбиотическому обучению люди могут формировать поведение машин, используя как активный ввод данных, так и пассивные наблюдения за человеческим поведением. Это как если бы люди управляли ИИ, сталкивая его с новыми проблемами, которые поощряют человеческое любопытство — человеческий мозг управляет лошадью ИИ.

Хотя более 90 % нежелательных материалов, появляющихся в Facebook и Instagram, удаляются искусственным интеллектом, аутсорсинговые работники сами решают, следует ли оставлять публикации, которые ИИ удалил. не ловит.

Вместо того, чтобы управлять легковым или грузовым автомобилем в полностью автономном режиме, водитель-человек, сидя дома, может наблюдать и корректировать дистанционноуправляемую машину на открытых дорогах.

Роботы, которые помогают медицинским работникам выполнять операции, позволяют повысить точность, ловкость и гибкость, что может значительно улучшить результаты лечения пациентов, когда требуются сложные и сложные операции.

IBM Watson предоставляет врачам правильные контекстуальные знания, извлеченные из обширной библиотеки исследований рака, чтобы они могли принимать обоснованные решения.

GPT3 и связанные с ней технологии превратят письмо из акта индивидуального творчества в сотрудничество между человеком и машиной: человек предоставляет некоторый исходный язык, ИИ предлагает правки или последующие предложения, а человек выполняет итерации на основе отзывы ИИ и т. д.

Copilot для автоматического программирования пишет программы на основе произвольного текста, который на 45 % верен, а остальная часть добавляется или исправляется программистом, что значительно ускоряет весь процесс написания кода.

Этика в человеческом обществе — это серая зона с нечеткими границами, в основном основанная на общих убеждениях. Решения и этика ИИ, а также то, что неправильно или правильно, — это область исследований. Один из способов — позволить множеству людей совместно принимать решения ИИ, чтобы он отражал коллективное сознание общества.

С таким постоянным танцем и диалогом с машиной есть надежда, что однажды мы отпустим поводья ИИ. Тогда лошадь, более умная, чем все человеческое общество, выведет человечество на невиданные ранее рубежи.

Первоначально опубликовано на https://47billion.com 1 апреля 2022 г.