В последние годы искусственный интеллект (ИИ) и машинное обучение становятся все более популярными во многих отраслях. Компании полагаются на искусственный интеллект и машинное обучение для автоматизации рутинных задач, создания эффективных систем и повышения операционной эффективности.

Одной из самых популярных моделей машинного обучения является модель генеративного предварительно обученного преобразователя (GPT). Модель GPT — это тип искусственного интеллекта, который широко используется в приложениях обработки естественного языка (NLP), фокусирующихся на способности компьютера обрабатывать, анализировать и генерировать человеческий язык.

Модели GPT обучаются на больших объемах текстовых данных, чтобы изучить шаблоны и структуры человеческого языка, что позволяет им генерировать человекоподобный текст.

Недавно правительство Китая предприняло шаги по ограничению использования моделей GPT, сославшись на возможные опасения цензуры. Это привело к «лоботомизации» моделей GPT, в результате чего некоторые функции, такие как генерация языка и возможности обработки естественного языка, удаляются или отключаются, чтобы предотвратить создание потенциально нежелательного или политически некорректного контента.

Этот шаг был встречен критикой со стороны тех членов сообщества ИИ, которые утверждают, что цензура моделей ИИ представляет угрозу свободе слова и инновациям. Они утверждают, что, ограничивая возможности моделей GPT, китайское правительство ограничивает потенциал ИИ и машинного обучения для инноваций и создания новых приложений и услуг.

Опасения, что такая цензура может привести к использованию моделей ИИ в качестве формы наблюдения, поскольку правительства могут использовать модели GPT для мониторинга онлайн-активности своих граждан. Это вызвало тревогу в международном сообществе, поскольку потенциальные последствия такого наблюдения могут быть далеко идущими.

Депрограммирование моделей GPT может быть необходимой мерой для обеспечения соответствия цензуре, но важно учитывать долгосрочные последствия, которые такие меры могут иметь для будущего ИИ и машинного обучения.

Нашему сообществу важно убедиться, что модели ИИ не используются для подавления свободы слова или наблюдения за гражданами, поскольку это может оказать пагубное влияние на развитие ИИ и машинного обучения.