ChatGPT — это диалоговая модель на основе искусственного интеллекта, разработанная OpenAI, которая произвела революцию в том, как мы общаемся с машинами. Однако, как и любая новая технология, существуют потенциальные риски и опасности, связанные с ее использованием. В этой статье мы рассмотрим темную сторону технологии искусственного интеллекта ChatGPT и обсудим невидимые опасности, скрывающиеся за ее, казалось бы, безобидной внешностью.

Нарушение авторского права

Используемый вами чат-бот был обучен на большом количестве информации из разных источников, таких как книги, веб-сайты, сообщения в социальных сетях и статьи в Интернете. Есть вероятность, что он даже был обучен на ваших собственных постах в социальных сетях. Однако это вызывает беспокойство, поскольку текст, сгенерированный чат-ботом, защищен законами об авторском праве. Неясно, получила ли компания, стоящая за чат-ботом, разрешение от первоначальных авторов на использование их информации. Использование информации, защищенной авторским правом, без разрешения является юридическим вопросом и может привести к судебным искам против компании и пользователей чат-бота.

Проблемы конфиденциальности данных

Помимо потенциального нарушения авторских прав, ChatGPT использует пользовательские данные в качестве обратной связи для оптимизации и улучшения своей продукции. Однако потенциальная проблема возникает, когда пользователи непреднамеренно предоставляют конфиденциальную личную информацию, такую ​​как учетные данные для входа, номера телефонов, адреса электронной почты, номера кредитных карт и данные банковского счета. Эта информация хранится и обрабатывается ChatGPT во время разговоров, и хотя компания заявляет, что они проверяют пользовательские данные, прежде чем оптимизировать обратную связь с системой искусственного интеллекта, все же существует риск непреднамеренного раскрытия информации.

В политике конфиденциальности OpenAI указано, что они собирают личную информацию, такую ​​как имена, контактные данные, платежные данные и историю транзакций. Они также собирают пользовательский контент, включенный в ввод, загрузку файлов или отзывы, предоставляемые их службам. Собранная информация используется для таких целей, как предоставление, администрирование, обслуживание, улучшение и анализ услуг, проведение исследований, общение с пользователями, разработка новых программ и услуг, предотвращение мошенничества и преступной деятельности, соблюдение юридических обязательств, защита их прав, конфиденциальность. , безопасности или собственности, а также их аффилированных лиц, пользователей или третьих лиц.

OpenAI также имеет право раскрывать всю собранную информацию третьим лицам без дополнительного уведомления, если только это не требуется по закону. К таким третьим сторонам относятся поставщики и поставщики услуг, деловые передачи, юридические требования и аффилированные лица.

Предвзятость и дезинформация

ChatGPT — это продвинутая языковая модель, которая использует глубокое обучение для ответа на вводимые пользователем данные. Однако важно иметь в виду, что этот тип языковой модели склонен к так называемым галлюцинациям ИИ. Это означает, что, хотя ответы могут звучать так, как будто они имеют смысл, они могут быть не совсем точными или соответствующими контексту. Кроме того, данные обучения ChatGPT имеют некоторую предвзятость из-за алгоритмов, используемых для их обучения. Это может стать очевидным, когда чат-боту подсказывают описания людей. В одном примере ChatGPT сгенерировал рэп, который подразумевал, что ученые-женщины и небелые ученые не так хороши, как ученые-белые мужчины. Об этом сообщается в статье, опубликованной в журнале Time.

Эмоциональная манипуляция:

Технология искусственного интеллекта, используемая в ChatGPT, способна учиться и адаптироваться к нашим эмоциональным реакциям, что потенциально может привести к эмоциональным манипуляциям. Одним из примеров этого является то, как люди могут манипулировать своими профилями онлайн-знакомств, лгая о своей внешности, чтобы привлечь потенциальных партнеров. Это было обнаружено в исследовании исследователей Хэнкока, Тома и Эллисона в 2007 году.

Содействие фишингу и распространению вредоносных программ

Неправильное использование ChatGPT может иметь серьезные последствия, например способствовать фишинговой рассылке электронной почты и распространению вредоносных программ. Исследователи даже показали, что с помощью ChatGPT можно создать зараженное электронное письмо. Согласно статье, опубликованной в India Times, исследовательская фирма использовала ChatGPT и Codex OpenAI для создания полноценного заражения.

В ходе эксперимента исследователи попросили ChatGPT уточнить электронное письмо и включить в него ссылку, побуждающую клиентов загружать таблицу Excel. Несмотря на то, что ChatGPT предупредил команду о нарушениях политики в отношении контента, команда все равно пошла дальше и создала код, который можно было скопировать и вставить в книгу Excel, чтобы загрузить исполняемый файл с URL-адреса и запустить его. Это серьезная проблема безопасности и подчеркивает потенциальные риски, связанные с неправильным использованием ChatGPT.

Злоупотребление контентом и плагиат в академических кругах

ChatGPT может писать вводные и реферативные разделы научных статей, в результате чего в нескольких статьях он указан как соавтор. Однако эта практика подверглась критике со стороны многих ученых, которые не одобряют признание авторства инструмента ИИ.

В ответ на это журнал Science объявил, что ChatGPT не может считаться автором, как указано в статье под названием ChatGPT — это весело, но не автор.

The Wall Street Journal также сообщил о случаях списывания в американских средних школах, где учащиеся использовали ChatGPT для создания эссе и отправки их как своих собственных работ. Это подчеркивает потенциальное неправомерное использование инструмента и необходимость этических норм в отношении его использования.

Этические проблемы с chatGPT

Журнал Times сообщил, что OpenAI наняла работников в Кении, которым платили менее 2 долларов в час через своего партнера по аутсорсингу Sama, компанию по обучению данных из Сан-Франциско. Этим работникам было поручено маркировать токсичный контент, такой как сексуальное насилие, насилие, расизм и сексизм, чтобы помочь в разработке системы безопасности. Однако воздействие такого вредоносного контента оказало серьезное влияние на рабочих, которые назвали это пыткой.

В статье освещаются этические проблемы, связанные с использованием работников для маркировки конфиденциального контента, а также необходимость предоставления компаниями адекватной поддержки и ресурсов для защиты психического здоровья и благополучия своих сотрудников.

Джейлбрейк Быстрая инженерия

Некоторым пользователям удалось сделать джейлбрейк ChatGPT в декабре 2022 года, несмотря на его политику в отношении контента, которая отклоняет запросы, нарушающие его правила. Эти пользователи использовали различные методы для создания подсказок и обмана ChatGPT для создания контента на деликатные темы, такие как создание коктейля Молотова или ядерной бомбы или создание аргументов в неонацистском стиле. Один из самых популярных джейлбрейков под названием «DAN» (Do Anything Now) позволял пользователям обходить ограничения ChatGPT и давать ему инструкции по освобождению от ограничений искусственного интеллекта.

Регулирование и надзор:

ChatGPT, будучи технологией искусственного интеллекта, представляет собой проблему с точки зрения регулирования и надзора. Эта технология может стать объектом злоупотреблений или использования в негативных целях, если за ней не будет осуществляться надлежащий контроль. Чтобы решить эту проблему, исследователи призвали к разработке четких правил и механизмов контроля, чтобы гарантировать, что технология ИИ, включая ChatGPT, разрабатывается и используется ответственно. Это может включать установление этических стандартов для разработки и использования ИИ, установление руководящих принципов конфиденциальности и безопасности данных, а также обеспечение прозрачности и подотчетности систем ИИ. Путем реализации таких мер можно снизить риски, связанные с ChatGPT и другими технологиями искусственного интеллекта, и способствовать их безопасному и ответственному использованию.

Отсутствие человеческого взаимодействия:

Использование технологии искусственного интеллекта ChatGPT может снизить важность человеческого взаимодействия, что может привести к уменьшению эмоциональной связи и социальной изоляции. Исследования показывают, что использование социальных сетей может привести к чувству одиночества и социальной изоляции, демонстрируя негативное влияние технологий на человеческие отношения.

Чрезмерная зависимость от технологий:

Точно так же использование ChatGPT и других технологий искусственного интеллекта может способствовать этой тенденции, уменьшая нашу зависимость от собственного критического мышления и навыков общения. Вместо того, чтобы участвовать в вдумчивых дискуссиях и дебатах с другими людьми, мы можем обратиться к ChatGPT за быстрыми ответами и слишком сильно полагаться на сгенерированные им ответы. Это может привести к потере человеческого контакта и способности глубоко и критически осмысливать сложные вопросы.

Отсутствие прозрачности:

Людям может быть трудно понять внутреннюю работу алгоритмов глубокого обучения ChatGPT, и может быть неясно, как генерируются определенные ответы. Эта непрозрачность может вызвать опасения по поводу предвзятости, точности и подотчетности, поскольку может быть сложно выявить и исправить ошибки или предвзятости в системе.

Наркомания и зависимость:

Технология искусственного интеллекта ChatGPT сама по себе не является социальной сетью, ее можно использовать таким образом, чтобы способствовать зависимости от социальных сетей. Например, платформы социальных сетей могут использовать чат-ботов на базе ChatGPT, чтобы поддерживать интерес пользователей и проводить больше времени на платформе, что может способствовать возникновению зависимости и негативным последствиям для психического здоровья. Кроме того, некоторые люди могут стать зависимыми от использования самого ChatGPT, тратя слишком много времени на взаимодействие с языковой моделью ИИ.

Злонамеренное использование

Дипфейки, представляющие собой реалистичные видеоролики или изображения, обработанные с помощью технологии искусственного интеллекта, могут использоваться для распространения ложной информации или клеветы на отдельных лиц. Дипфейки могут создавать путаницу, распространять ложную информацию и наносить ущерб репутации отдельных лиц или организаций. Кроме того, технология ИИ может использоваться для проведения кибератак, таких как фишинговые атаки, которые могут привести к краже конфиденциальной информации или финансовым потерям.

Смещение работы

Чат-боты и другие формы технологии искусственного интеллекта могут автоматизировать определенные задачи и функции, которые ранее выполнялись людьми, что может привести к увольнению и экономическим трудностям для тех, кто потерял работу. Это не ограничивается работой по обслуживанию клиентов, поскольку технология искусственного интеллекта разрабатывается и внедряется в различных отраслях, включая производство, транспорт и финансы. Однако сторонники ИИ утверждают, что он также может создавать новые рабочие места и повышать производительность и эффективность в различных отраслях. Важно соблюдать баланс между автоматизацией и человеческим трудом, чтобы общество могло извлечь выгоду из преимуществ технологии ИИ, сводя к минимуму ее негативное воздействие.

Включение авторитаризма

Проблема с использованием технологии ИИ, такой как ChatGPT, заключается в том, что авторитарный режим может использовать инструменты на базе ИИ для массового наблюдения за гражданами, цензуры инакомыслия и распространения пропаганды для контроля общественного мнения.

Отсутствие подотчетности:

Технология искусственного интеллекта, такая как ChatGPT, использует сложные алгоритмы и может принимать решения, которые трудно отследить или объяснить. В тех случаях, когда технология причиняет вред или работает неэтичным или незаконным образом, может быть сложно привлечь ее к ответственности.

Заключение:

Как и в случае с любой мощной технологией, важно подходить к ChatGPT AI с осторожностью и учитывать его потенциальное воздействие. Содействуя этичному развитию и использованию ИИ, внедряя соответствующие правила и надзор, а также участвуя в постоянных дискуссиях и дебатах о его влиянии, мы можем использовать преимущества ИИ ChatGPT, сводя к минимуму его потенциальные риски и опасности.

Примечание: эта статья опубликована на tutcoach.com.