Эта статья призвана дать читателю первоначальное представление о том, как EWC помогает преодолеть катастрофическую забывчивость в условиях непрерывного обучения.

В непрерывных усилиях на протяжении многих лет, чтобы улучшить ИИ и сделать его таким же, как человеческий мозг, мы продвинулись так далеко!! (Аплодисменты всем исследователям!!) Каждый день появляется так много областей: Новый день => Новая область.

В последние несколько лет непрерывное/последовательное обучение стало одной из новых областей машинного обучения. Исследователи пытаются обучить модель расширенной последовательности задач, чтобы старые не забывались с новыми задачами. Это явление называется катастрофическим забыванием.

Катастрофическое забывание похоже на человека, которого вы пытаетесь избегать, посещая общественные мероприятия. У непрерывного обучения также есть свой персонаж, которого оно отчаянно хочет избежать: катастрофическое забывание!! :D

В основном есть три подхода к проблеме катастрофического забывания:

  1. Подходы к памяти: при этом он сохраняет память о предыдущих задачах, и при изучении новой задачи усилия направлены на достижение конфигурации, которая хорошо работает и в отношении предыдущих задач. Здесь воспоминания относятся только к хорошим примерам из предыдущего набора данных, а не ко всему огромному набору данных.
  2. Архитектурные подходы. Здесь усилия направлены на увеличение пропускной способности сети, чтобы новые знания можно было ассимилировать с прошлыми знаниями.
  3. Подходы к регуляризации. А вот и главный герой: EWC. EWC расшифровывается как упругая консолидация веса. Это предполагает фиксированный размер сети. Новая задача изучается, избегая изменений параметров, чувствительных к предыдущим задачам.

Говоря простым языком, если мы понимаем логику EWC, мы пытаемся ограничить важные параметры, чтобы они оставались близкими к более старым значениям, чтобы при обучении новым задачам производительность старой задачи не падала.

Попробуем разобраться через схематическое изображение:

На приведенном выше рисунке мы рассмотрели две задачи: A и B. Фиолетовый представляет собой пространство параметров задачи A, а желтый представляет пространство параметров задачи B. θ*A представляет параметры после изучения задачи A. Если мы настроим или ограничим наши параметры в соответствии с задачей B, мы улучшаются в выполнении задачи B, но потери в задаче A будут увеличиваться, забывая то, что было изучено в задаче A. Это представлено синей стрелкой. Наоборот, если параметры ограничены с тем же коэффициентом, что и в пространстве параметров задачи А (фиолетовое пространство), потеря задачи А будет сведена к минимуму за счет обучения задаче В, сдерживая ее выполнение по задаче В, представленной Красная стрела. Мы хотим добиться того, что представлено зеленой стрелкой (EWC): найти способ, чтобы не было потерь в задаче A при обучении задаче B, путем определения критических весов (параметров) для задачи A и сохранения этих параметров рядом со старыми значениями. в пространстве параметров во время обучения задаче B. Это гарантирует, что задача A и задача B будут одинаково запоминаться.

Это был обзор консолидации эластичного веса. надеюсь помогло!!

Продолжай учиться :)

Использованная литература:

[1] Киркпатрик, Паскану и др. (2017 г.)