Мои мысли о призыве Илона Маска приостановить работу ИИ

Введение

Всем привет! Я хотел поделиться своими мыслями о недавних разногласиях вокруг призыва Илона Маска временно приостановить исследования в области искусственного интеллекта. Если вы еще не слышали, письмо, подписанное Маском и тысячами других людей (в том числе некоторыми громкими именами в области технологий), вызвало настоящие дебаты. В письме содержалась просьба о шестимесячной паузе в разработке систем искусственного интеллекта, более мощных, чем GPT-4.

Однако все усложнилось, когда некоторые исследователи, упомянутые в письме, выступили против использования их работы, были обнаружены фальшивые подписи, а некоторые сторонники отозвали свою поддержку.

Призыв к паузе в развитии ИИ

Итак, 22 марта более 1800 человек, включая Илона Маска,ученого-когнитивиста Гэри Маркуса и соучредителя Apple Стива Возняка, призвали к паузе в разработке ИИ. Инженеры из Amazon, DeepMind, Google, Meta и Microsoft также оказали свою поддержку. Основная проблема заключалась в том, что системы ИИ с «человеко-конкурентным интеллектом» могут представлять серьезную угрозу человечеству.

Идея заключалась в том, чтобы лаборатории искусственного интеллекта и независимые эксперты могли использовать этот перерыв для совместной работы над разработкой и внедрением общих протоколов безопасности для усовершенствованного проектирования искусственного интеллекта. Они также предложили, чтобы эти протоколы тщательно проверялись и контролировались независимыми внешними экспертами.

Споры по поводу цитируемых исследований и поддельных подписей

Однако Институт будущего жизни (FLI), который координировал эти усилия, процитировал 12 исследований различных экспертов, и четверо из них с тех пор выразили обеспокоенность по поводу того, что их работа использовалась для подтверждения утверждений, содержащихся в письме. .

Кроме того, когда письмо было впервые опубликовано, в нем отсутствовали надлежащие протоколы проверки для подписания, что привело к добавлению фальшивых подписей, таких как президент Китая Си Цзиньпин и главный специалист по искусственному интеллекту Meta Янн. Лекун.

Обеспокоенность критиков по поводу ИИ и приоритетов FLI

Противоречие приняло новый оборот, когда критики обвинили FLI, в основном финансируемую Фондом Маска, в том, что она слишком много внимания уделяет гипотетическим апокалиптическим сценариям вместо решения насущных проблем, связанных с ИИ, таких как предубеждения в технологии.

Должен признаться, прочитав об опасениях таких исследователей, как Маргарет Митчелл, Тимнит Гебру, Эмили М. Бендер и Шири Дори-Хакоэн, я понял, что мы не должны игнорировать активный вред, который ИИ уже может нанести причина. Это правда, что нам нужно учитывать как краткосрочные, так и долгосрочные риски ИИ, как отметил президент FLI Макс Тегмарк в ответ на критику.

Поиск баланса между преимуществами и рисками ИИ

На мой взгляд, вся эта ситуация показала, что поиск баланса между потенциальными преимуществами и рисками ИИ является постоянной проблемой для технического сообщества. Я думаю, что такие открытые обсуждения, как этот, имеют решающее значение для обеспечения того, чтобы мы ответственно подходили к разработке ИИ.

Заключение

Что вы думаете об этом споре? Давайте поговорим в комментариях ниже! Не забудьте поделиться своим мнением и идеями о том, как мы можем ответственно развивать ИИ, одновременно устраняя его потенциальные риски.

Если вам понравился этот контент, поставьте лайк! Ваша поддержка помогает нам создавать для вас более ценный контент.

Вы также можете подписаться на мои новые статьи или стать приглашенным участником Medium.

Вы можете поддержать меняфинансово здесь, ваша поддержка помогает мне продолжать часто создавать полезный контент! Спасибо дружище :)☕️