Проблемы безопасности в системах искусственного интеллекта — часть I

Глобальная гонка искусственного интеллекта НАЧАЛАСЬ! Это третья волна, и это не только между разными государствами, малые и крупные корпорации/организации участвуют в одной гонке и должны победить, предоставляя своим клиентам самые НАДЕЖНЫЕ продукты/услуги ИИ.

Меня зовут Дин Свахналам, и это мой последний проект в качестве студента Hyper Island по программе под названием «Бизнес-консультант ИИ». Имея опыт работы специалистом по информационной безопасности, выбор проекта «Защита ИИ» был вполне закономерен. Мне нужно было понять, что за эти два года обучения на практике я создал кучу крутых сервисов и продуктов как для крупных корпораций, так и для муниципалитетов, и всегда не хватало части, части безопасности.

В этой статье я подробно расскажу о проблемах безопасности, с которыми мы сталкиваемся в системах/платформах искусственного интеллекта. Но нужно многое понять, прежде чем я углублюсь в вопросы безопасности. Я расскажу, что такое искусственный интеллект, какие компоненты он использует, где и как мы его используем, жизненный цикл машинного обучения, что такое большие данные, что такое «заслуживающий доверия ИИ» и почему это так важно. иметь надежный ИИ. С какими целями и атаками мы имеем дело.

Что такое искусственный интеллект (ИИ)?

Искусственный интеллект — это способность системы обрабатывать представления, как явные, так и неявные, и процедуры для выполнения задач, которые считались бы интеллектуальными, если бы их выполнял человек.

Компоненты ИИ

Применение искусственного интеллекта включает в себя обработку естественного языка, распознавание речи, чат-ботов, распознавание изображений, анализ настроений, экспертные системы, робототехнику и машинное зрение. Машинное обучение и глубокое обучение являются подмножествами ИИ.

Жизненный цикл машинного обучения (ML)

ML — это подмножество ИИ. В настоящее время большая часть работы с ИИ связана с машинным обучением и обучением, поскольку интеллектуальное поведение требует значительных знаний, а обучение — самый простой способ получить эти знания.

Чтобы получить практическую ценность для бизнеса и воспользоваться преимуществами машинного обучения и искусственного интеллекта (ИИ), организациям необходимо следовать каждому этапу циклического процесса.

1. Сбор данных

2. Подготовка данных

3. Выберите модель

4. Обучить модель

5. Оцените модель

6. Настройка параметров

7. Делайте прогнозы

Машинное обучение и его варианты включают

Обучение с учителем, в этой модели все наборы обучающих данных помечены.

Обучение с частичным наблюдением требует лишь части данных, которые помечены.

Обучение без учителяВ этой модели наборы данных не помечены.

Обучение с подкреплениемЭта модель сильно отличается от других моделей, в которых агент учится на собственном опыте, чтобы максимизировать свою награду.

Большие данные: пища для ИИ

Данные — это информация. Форма данных может быть двоичной, текстовой, видео или любой цифровой информацией. Данные — это пища для приложений искусственного интеллекта и мировая нефть.

ДАННЫЕ = ИНФОРМАЦИЯ = МОЩНОСТЬ

Путин сказал; Кто станет лидером в этой сфере, тот станет правителем мира. И Илон Маск согласен с этим.

Большие данные — это данные, которые собираются из разных источников в больших количествах, более сложные наборы данных, с которыми не может справиться традиционное программное обеспечение для обработки данных. Он может быть структурированным, полуструктурированным, неструктурированным или синтетическим. Приложениям на основе ИИ нужны большие данные для извлечения информации и шаблонов, а также для расширенной аналитики, оптимизации и многого другого.

Где мы используем ИИ сегодня?

Искусственный интеллект повсюду в нашей повседневной жизни;

Netflix, Instagram, смартфоны, розничная торговля, склад, мода, искусство, чат-боты, спорт, производство, беспилотные автомобили, здравоохранение, безопасность, сельское хозяйство и многое другое.

Неудивительно, что мы, люди, используем искусственный интеллект как во благо, так и во вред. С помощью этого мощного инструмента мы можем уничтожить планету или спасти ее.

На этой картинке мы работаем над спасением планеты, но это происходит не так быстро, как хотелось бы.

Искусственный интеллект также очень хорош для наблюдения и контроля над нами, цифровое подталкивание может быть одной из этих плохих/хороших вещей. С учетом сказанного причина в том, что работа идет не так быстро, как должна быть, это отсутствие этики, законов и правил, а также безопасности.

Государственно-частное сотрудничество — это наиболее эффективный способ работы с соблюдением этики, законов и правил, а также безопасности, но некоторые считают, что цифровое подталкивание может ускорить процесс.

Преимущества этой новой технологии значительны, но не меньше проблем. Вот почему так важно, чтобы у нас был надежный искусственный интеллект, который является этичным, безопасным, прозрачным и объяснимым.

О чем они говорят, когда говорят о надежном ИИ?

Если мы принимаем хорошие вещи, мы должны принимать и отрицательные. И если они не будут использовать эту заслуживающую доверия технологию отныне, то нам не нужно думать о том, как будет выглядеть наше будущее, мы знаем, как и наша планета, к сожалению.

Чтобы предотвратить это и сделать ИИ заслуживающим доверия, нам нужно подумать о следующих шагах:

  • подходы «человек в контуре», «человек в контуре» и «человек в команде»
  • Системы искусственного интеллекта должны быть надежными и безопасными
  • Обеспечение соблюдения конфиденциальности и защиты данных
  • Бизнес-модели данных, системы и ИИ должны быть прозрачными
  • Прозрачность – ключ к успеху
  • Разнообразие, недискриминация и справедливость
  • Системы искусственного интеллекта должны приносить пользу человечеству и планете
  • Проверка

ЭПОХА ОПЫТА

Мы находимся в конце ЭПОХИ ИНФОРМАЦИИ и начали с ЭПОХИ ОПЫТА, где моя личность — это информация, которую я сохранил в Интернете.

МОЯ ЛИЧНОСТЬ = СОХРАНЕННАЯ ИНФОРМАЦИЯ (текст, фото, видео, веб-страницы)

Вторая волна интернета соединяет нас со всем, что имеет электричество. Это первый случай в истории человечества, когда мы можем подключаться по всему миру, как мы это делаем сейчас, и мы просто влюбились в возможность подключения, и, как мы знаем, любовь слепа. Он смешал нас и лишился нашей конфиденциальности, целостности и безопасности данных.

Итак, как мы можем защитить нашу информацию?

Информационная безопасность разработана и реализована для защиты любой формы конфиденциальной, личной и конфиденциальной информации. Когда мы имеем дело с данными, мы должны учитывать состав ЦРУ, три (3) компонента информационной безопасности.

Конфиденциальность

Организации должны гарантировать, что конфиденциальная и личная информация защищена и скрыта от других.

Целостность

Это означает, что качество информации/данных является честным и основанным на сильных моральных принципах и защищает от удаления и модификации.

Доступность

Это последний компонент триады ЦРУ, который относится к фактической доступности информации/данных.

Проблемы безопасности с приложениями/системами/платформами ИИ

Как любая система может установить доверие, не прикрывая безопасность систем?! Чтобы иметь надежные приложения ИИ, нам необходимо учитывать безопасность всего жизненного цикла моделей ИИ: наборов данных, платформ, алгоритмов и цепочки поставок.

В начале 2019 года 200 различных глобальных групп работали над стандартизацией ИИ как для прямого, так и для косвенного использования ИИ, но ни одна из них не была специально нацелена на безопасность. У Европейской комиссии есть руководство по этике для надежного ИИ, но нет прямых соображений о том, как обеспечить безопасность систем ИИ. Я думаю, все думают, что это традиционная проблема ИТ-безопасности, но есть много новых проблем безопасности по сравнению с традиционной ИТ-безопасностью. У нас есть новые проблемы безопасности, связанные с смягчением последствий и проверкой.

После долгих исследований я обнаружил, что одна организация под названием ETSI (Европейский институт стандартов в области телекоммуникаций) выпустила первые рекомендации по обеспечению безопасности ИИ в августе 2021 года.

Да, вам необходимо защитить свою сеть и активы с помощью традиционной кибербезопасности, но этого недостаточно для защиты систем ИИ.

Угрозы безопасности на разных этапах жизненного цикла машинного обучения

Каждая проблема безопасности отличается, в зависимости от того, какую модель машинного обучения вы используете. Например, если вы используете неконтролируемое обучение, нет требований к маркировке данных на этапе курирования данных.

Проблемы конфиденциальности

Этап обучения

Обучение — это основа машинного обучения, а фаза обучения — наиболее важная причина, которая определяет поведение приложений ИИ. Модель будет запускаться многократно, пока не получит наиболее точную производительность. Вот почему так важно, чтобы набор обучающих данных был высокого качества.

На этом этапе существует три типа атак

  • Атака с полной информацией — злоумышленник имеет полную информацию о внутренней работе алгоритма.
  • Атака с частичным знанием — злоумышленник имеет некоторые знания о внутренней работе алгоритма.
  • Атака с нулевым разглашением — злоумышленник вообще не знает внутренних операций алгоритма.

Когда злоумышленник не знает параметров модели, создает расширенный набор данных со злонамеренными синтетическими входными данными, чтобы получить информацию об исходных наборах данных. Когда злоумышленник получает часть информации, он использует неиспользуемые биты для утечки дополнительной информации об исходной модели.

Этап развертывания

На этом этапе задачи более общие, как и при любом другом развертывании программного/аппаратного обеспечения, мы должны подумать о том, какую функцию мы должны использовать, и, конечно же, выбор функции будет заключаться в более высоком уровне защиты и использовании доверенных сред выполнения. (TEE), но, возможно, он не может обеспечить высокий уровень производительности из-за процессоров/графических процессоров.

В процессе развертывания моделей машинного обучения самой большой уязвимостью является атака через черный ход. Что ставит под угрозу конфиденциальность обучающих наборов. Злоумышленник использует специальное вредоносное ПО, чтобы избежать обычной аутентификации и получить доступ к целевой системе. Что дает хакеру большие возможности пройтись по всем ресурсам в системе.

Развертывание машинного обучения на ненадежных и незащищенных устройствах может поставить под угрозу всю модель ИИ.

Проблемы честности

Сбор данных

Как мы теперь знаем, большие данные — это пища для любой системы искусственного интеллекта. Мы собираем данные из нескольких источников, таких как датчики, камеры видеонаблюдения, мобильные телефоны, медицинские устройства, торговые платформы, файлы журналов, и они могут быть в различных формах, таких как текст, изображение, видео и аудио. Передача и хранение данных требуют хорошей безопасности для смягчения проблем с целостностью.

Для систем машинного обучения очень важно, чтобы данные были высокого качества, иначе данные могут быть отравлены намеренно злонамеренной атакой. Это называется атакой отравления.

Курирование данных

Этот этап очень важен и имеет большие проблемы с целостностью, и важно обеспечить качество и целостность данных без рисков. На этом этапе все данные готовятся к следующему этапу. Подготовка данных включает в себя интеграцию данных из нескольких источников и форматов, определение отсутствующих компонентов, удаление ошибок и шума, преобразование данных в новые форматы, маркировку, дополнение данных с использованием реальных и синтетических данных или масштабирование наборов данных.

Например, в системах супервизорного машинного обучения требуется маркировка данных, и очень важно, чтобы маркировка данных была точной, беспристрастной и максимально полной и не была скомпрометирована. через атаки отравления.

Этап обучения и развертывания

Эти два этапа являются наиболее важными и представляют собой уникальные проблемы безопасности, поскольку они определяют базовое поведение приложения. Есть несколько проблем с целостностью; Отравление, входная атака и уязвимость Backdoor. В таких атаках злоумышленник может манипулировать входными данными с нулевым, частичным или полным знанием алгоритмов и включает специальный шаблон на этапе обучения, который практически невозможно обнаружить. Только на этапе обучения отравление требует действий.

Входные атаки происходят на этапе развертывания, когда системы уже используются, и вообще не требуют нарушения целостности самой системы. Система искусственного интеллекта просто ведет себя так, как должна, а выходные данные манипулируются из-за определенных изменений во входных данных.

Этап обновления

Этой фазе следует уделить такое же внимание, как и любому общему изменению в системе развертывания, иначе это может привести к проблемам с целостностью или доступностью. Атаки через черный ход происходят на этапе обучения и могут быть вызваны обновлением модели.

Проблемы доступности

Этап обучения

Атаки отравления могут поставить под угрозу доступность наборов обучающих данных, что может привести к неверным результатам вмешательства. «Отказ от функций» — это еще одна атака, которую следует учитывать, поскольку выбор функций — важный шаг в неконтролируемом обучении.

Этап тестирования

Проверка производительности модели и ее параметров происходит на этапе тестирования, что в результате показывает нам, правильно ли работает модель с функциональной точки зрения. На этапе обучения некоторые наборы данных сохраняются или не используются для проведения тестирования и проверки производительности модели, и, как и в случае с традиционными программными системами, также необходимо протестировать код для реализации модели. Стандартизация алгоритмов состязательного тестирования и формальной проверки будет важна с точки зрения обеспечения надежности изученных моделей.

Этап развертывания и обновления

На этих этапах возникают более общие системные проблемы, поэтому очень важен выбор архитектуры, развертывания аппаратного/программного обеспечения и использования доверенных сред выполнения (TEE). Но важно иметь в виду, что TEE могут обеспечить более высокий уровень защиты компонентов системы, но могут не обеспечить уровень производительности, обеспечиваемый обычными процессорами или графическими процессорами.

В разделе «Проблемы безопасности систем ИИ, часть II» я подробно расскажу об атаках, подробно опишу их и напишу рекомендации о том, как смягчить такие атаки с помощью средств безопасности, в том числе в процессе проектирования. с начала.

В конце я хочу показать, как обстоят дела с киберпреступлениями в мире.

Отчет о киберпреступлениях

На этой картинке мы можем увидеть статус киберпреступности и понять важность инвестиций в кибербезопасность. Дело не в том, ЕСЛИ на вас нападут, а в том, КОГДА на вас нападут. Стоимость киберпреступлений к 2025 году составит 10,5 трлн долларов в год во всем мире. Это почти 20 миллионов долларов каждую минуту.

Спасибо за чтение, пожалуйста, оставайтесь со мной на LinkedIn/Dean Svahnalam