Чат-бот Tay от Microsoft с искусственным интеллектом был запрограммирован так, чтобы имитировать языковые модели миллениалов в возрасте от 18 до 24 лет. Всего через несколько часов после выхода в эфир Тай начал повторять такие оскорбительные заявления, как «Гитлер был прав» и «11 сентября — дело рук своих», которыми намеренно обменивались другие пользователи, чтобы спровоцировать Тэя.
Проверка контента Facebook использует искусственный интеллект, чтобы отсеивать токсичные сообщения, но тысячи работников удаляют сообщения, которые ИИ убирает. не в течение 24 часов после публикации.
Uber протестировал свои беспилотные автомобили в Сан-Франциско, которые проехали около 6 красных светофоров в городе во время тестирования.
IBM Watson изо всех сил пыталась расшифровать записи врачей и истории болезни в электронных медицинских картах и сопоставить их с томами научной литературы по раку, что разочаровало врачей. Через четыре года проект был закрыт, и на него было потрачено 62 миллиона долларов.
Хирургические роботы выдвинули на первый план вопросы ответственности, когда речь идет о неудачных операциях и исках о врачебной халатности.
На конкурсе красоты, который оценивала жюри, роботы с искусственным интеллектом выбрали в качестве победителей в основном белых людей, а также некоторых азиатов.
Технология распознавания лиц Amazon в решении Rekognition ошибочно сопоставила известных спортсменов с преступниками на основании базы данных фотографий.
Приведенные выше примеры демонстрируют, как компании балансируют между использованием искусственного интеллекта и полной заменой человеческого интеллекта и суждений. Они поднимают самый сложный философский вопрос эпохи, связанный с ролью человеческого суждения: могут ли умные машины перехитрить нас или необходимы определенные элементы человеческого суждения при принятии решения о некоторых из самых важных вещей в жизни?
Исключительно основанные на ИИ результаты, решения и действия могут иметь некоторые фундаментальные недостатки.
- Понимание контекста. Обычные действия, такие как чтение и интерпретация письменного текста или вождение автомобиля, намного сложнее для ИИ, поскольку ему не хватает разнообразия, глубины и крайних случаев, которые изначально понятны людям.
- Прозрачность. Решения ИИ не всегда понятны и понятны людям.
- Нейтралитет. Решения ИИ подвержены неточностям, дискриминационным результатам, а также встроенной или встроенной предвзятости.
- Справедливость: решения ИИ могут привести к нарушению прав человека и противопоставлению фундаментальных ценностей.
- Ответственность: на данный момент в большинстве случаев, связанных с травмами, причиненными роботом, ответственность возлагается либо на оператора, либо на производителя, но эти решения станут более сложными.
Очевидно, что гораздо проще имитировать рассуждения высококвалифицированного взрослого эксперта в области ИИ, такие как игра в шахматы или рискованные игры, чем имитировать повседневное обучение обычного человека.
Решение состоит в том, чтобы продвигать системы «человек в цикле», где люди держат поводья и могут управлять лошадью с искусственным интеллектом — кентавром. ИИ будет там дополнять, чем делать все. ИИ в режиме поддержки выполняет такие задачи, как устранение ошибок, решение проблем, обнаружение информации и упрощение процессов за счет частичной автоматизации задач. Любые ошибки в выводе или решениях ИИ исправляются людьми, а данные коррекции возвращаются в виде помеченных данных для повторного обучения моделей машинного обучения. Благодаря такому симбиотическому обучению люди могут формировать поведение машин, используя как активный ввод данных, так и пассивные наблюдения за человеческим поведением. Это как если бы люди управляли ИИ, сталкивая его с новыми проблемами, которые поощряют человеческое любопытство — человеческий мозг управляет лошадью ИИ.
Хотя более 90 % нежелательных материалов, появляющихся в Facebook и Instagram, удаляются искусственным интеллектом, аутсорсинговые работники сами решают, следует ли оставлять публикации, которые ИИ удалил. не ловит.
Вместо того, чтобы управлять легковым или грузовым автомобилем в полностью автономном режиме, водитель-человек, сидя дома, может наблюдать и корректировать дистанционноуправляемую машину на открытых дорогах.
Роботы, которые помогают медицинским работникам выполнять операции, позволяют повысить точность, ловкость и гибкость, что может значительно улучшить результаты лечения пациентов, когда требуются сложные и сложные операции.
IBM Watson предоставляет врачам правильные контекстуальные знания, извлеченные из обширной библиотеки исследований рака, чтобы они могли принимать обоснованные решения.
GPT3 и связанные с ней технологии превратят письмо из акта индивидуального творчества в сотрудничество между человеком и машиной: человек предоставляет некоторый исходный язык, ИИ предлагает правки или последующие предложения, а человек выполняет итерации на основе отзывы ИИ и т. д.
Copilot для автоматического программирования пишет программы на основе произвольного текста, который на 45 % верен, а остальная часть добавляется или исправляется программистом, что значительно ускоряет весь процесс написания кода.
Этика в человеческом обществе — это серая зона с нечеткими границами, в основном основанная на общих убеждениях. Решения и этика ИИ, а также то, что неправильно или правильно, — это область исследований. Один из способов — позволить множеству людей совместно принимать решения ИИ, чтобы он отражал коллективное сознание общества.
С таким постоянным танцем и диалогом с машиной есть надежда, что однажды мы отпустим поводья ИИ. Тогда лошадь, более умная, чем все человеческое общество, выведет человечество на невиданные ранее рубежи.
Первоначально опубликовано на https://47billion.com 1 апреля 2022 г.