Большая проблема в машинном обучении для принятия важных решений

Мы, люди, должны обучать алгоритмы машинного обучения всем возможным и значимым случаям данных. Таким образом, алгоритм обучается, учится и может обобщать похожие, но разные данные.

Если мы сможем сопоставить все данные (лидары, радары, камеры, IMU и т. д.) от автономного автомобиля в логике слияния датчиков, где изображения с цифрой «0» означают GO, а изображения с цифрой «1 ' означает СТОП. Тем не менее, автономный автомобиль будет с трудом определять случаи, когда он не был обучен и в конечном итоге в какой-то момент выйдет из строя (поэтому у нас пока нет автономных автомобилей на улицах). Нынешнее машинное обучение, как мы знаем в 2022 году, не готово… для логики здравого смысла… для принятия важных решений… нам нужен более высокий уровень интеллекта… логика, которая сочетает в себе Неконтролируемое + контролируемое + обучение с подкреплением — USRL

Простой классификатор, содержащий только цифры «1» и «0», показывает большую проблему для технологий машинного обучения.

В этом простом классификаторе у нас есть только две цифры, которые очень легко классифицировать: ноль «0» и единица «1», и мы хотим учиться и иметь возможность предсказывать, когда мы видим любую из них.

Сверточная нейронная сеть (CNN) разработана и обучена с более чем 4000 примерами цифр «0» и «1». Классификатор для этой задачи разработан с парой сверточных слоев (64 нейрона) и одним плотным слоем (128 нейронов) и способен классифицировать 99%.

Как вы заметили, цифры центрированы на изображении, но если цифры смещены влево или вправо, то алгоритм дает сбой, предсказывая ноль «0» со 100% уверенностью, когда он должен предсказывать «единицу».

Модель машинного обучения или классификатор ошибаются, потому что смещенные изображения не входят в ее обучающий набор, и она не может обобщать (иметь здравый смысл) или понимать значение задачи, как мы, люди.

Таким образом, большая проблема для классификатора ML состоит в том, чтобы правильно прогнозировать, не обучаясь всем возможным случаям, что в действительности невозможно. Если вхождение пропущено на этапе обучения, модель может дать сбой.

Методы добавления ЗДРАВОГО СМЫСЛА в машинное обучение

Добавить в классификатор аугментацию данных

Увеличение данных – это методы, используемые для увеличения количества и разнообразия данных путем добавления слегка измененных копий уже существующих данных или вновь созданных синтетических данных из базового набора данных.

Классификатор с аугментацией данных улучшает и корректно классифицирует некоторые сдвинутые «1». Но модель машинного обучения до сих пор не понимает логики.

Добавить в отсев классификатора + увеличение данных

Dropout – это подход к регуляризации в нейронных сетях, который помогает уменьшить взаимозависимое обучение между нейронами, улучшая возможности сети для обобщения.

С отсевом и увеличением данных классификатор улучшает обнаружение смещенной цифры «1». Но все же недостаточно хорошо!

Используйте трансферное обучение из известной сети

На данный момент самодельный классификатор не достаточно хорош даже с методами регуляризации. Итак, следующим шагом будет перенос обучения в более крупную, хорошо изученную сеть, такую ​​как INCEPTION V3.

Теперь все смещенные «1» классифицируются правильно!!!

Но если попытаться переклассифицировать обучающую выборку… Удивительно, но это не удается!!!

Изображения цифры «1», классифицированной как ноль (из обучающей выборки). Головка цифры «1» вытянута, что сбивает с толку сеть.

Изображения цифры «0», классифицированные как единица (из обучающей выборки). Круглая форма нуля должна сужаться, заставляя сеть думать, что это прямая линия.

Заключение

Технологии машинного обучения прекрасно подходят для некритичных приложений, таких как: создание произведений искусства, прогнозирование и классификация на рынке жилья, распознавание деятельности, игры и т. д. Однако машинное обучение используется в критичных приложениях для принятия решений должен интегрировать «сторожевой таймер» или множество других параллельных процессов для подтверждения решений о жизни и смерти.

Прочитайте книгу:Внедрение здравого смысла в ИИ: большая проблема в машинном обучении для принятия важных решений

GitHub: https://github.com/lamateos123/ml-classifier-no-common-sense