Человеку требуется около 20–30 часов, чтобы научиться водить машину, в то время как на обучение нейронной сети для достижения той же способности уходят десятки тысяч часов. Даже после всех этих лет обучения и несмотря на использование новейших и лучших технологий обработки данных и датчиков, беспилотные автомобили по-прежнему не считаются безопасными на дороге.

Модель мира

Когда люди учатся водить машину, у них уже есть базовое понимание мира. У них есть базовая интуиция о том, как распознать опасную ситуацию, и они могут заполнить пробелы при неполной информации. Эти способности имеют решающее значение во многих жизненно важных ситуациях, которые могут возникать нечасто, но когда они возникают, это может оказать значительное негативное влияние на водителя и его окружение. Мы можем научить нашу модель обучения распознавать многие из этих ситуаций, но их бесконечное количество, и даже после того, как мы проедем миллионы миль, модель машинного обучения не будет сталкиваться со всеми из них. Почему? Потому что модели глубокого обучения не имеют врожденного понимания того, как устроен мир. Они не знают ни законов физики, ни этики, ни даже законов об ответственности. Все, чему они учатся, основано на статистической независимости всех входных переменных. Однако люди действуют, делая неявные предположения о том, как коррелируют некоторые из этих входных переменных. Видео показывает очень простую ситуацию, когда нейронные сети учатся, проходя буквально через каждую итерацию ошибки. Им даже приходится совершать эти ошибки по отдельности, при движении налево и направо. Это статистическая независимость в лучшем виде.

Человеческая интуиция

Когда вы видите мяч, катящийся по дороге, вы автоматически следите за играющими детьми. Когда вы видите машину с кучей матрасов, ненадежно привязанных к крыше, вы перестраиваетесь в другую полосу и, в идеале, очень быстро обгоняете эту машину, или когда вы пытаетесь выехать со своего места для парковки после футбольной тренировки, вы знаете, что если вы действительно не сделаете шаг вперед, мало, тебя никто не выпустит и ты останешься там навсегда. Но как резко или как далеко вы должны отойти? Это зависит от многих факторов, которые могут зависеть даже от человека. Например, вы узнали машину своего друга и знаете, что вас выпустят, поэтому вы с большей уверенностью выезжаете задним ходом. Или другая машина мигает фарами, а водитель поворачивает голову и кивает вам, что среди нас, людей, также является явным признаком того, что вы можете безопасно продолжать движение. Хотя вы могли бы научить модели глубокого обучения распознавать многие из этих подсказок, вы не смогли бы научить их всем, если бы модель обучения не понимала мир фундаментально.

Статистическая независимость

Я намеренно выбрал этот заголовок, так как это «следующий рубеж» в глубоком обучении. Мы можем предложить людям сесть и составить длинный список ситуаций из реальной жизни, например. в пробках, этому можно научить машину. Но проблема в том, что это всего лишь конечный список и что мы никогда не сможем охватить все тонкости, связанные с принятием решений человеком. Часто люди даже сами до конца не понимают, почему у них возникло такое предчувствие, что ребенок может появиться из ниоткуда на скейтборде и пролететь перед их машиной. Человеческий мозг просто использует всю доступную ему сенсорную и когнитивную мощь для оптимизации процессов принятия решений, в то время как машины ограничены конечным числом входных переменных, которые они считают потенциально важными для данной конкретной ситуации. У них нет возможности переносить знания из предыдущих, казалось бы, не связанных между собой ситуаций в текущую. Мы могли бы услышать рассказ друга о коварном льду, который привел к автокатастрофе, несмотря на то, что машина показывает 40F на дисплее. Когда наш друг рассказал нам больше об аварии, у нас развилась чувствительность к местам, где мог быть лед, несмотря на то, что общая температура говорила об обратном. Чтобы научить нашу машину этому же навыку, ей либо нужно пройти через эти очень редкие случаи, либо нам нужно будет жестко закодировать эти ситуации в ее механизме принятия решений. Оба варианта нежизнеспособны, так как это была бы бесконечная задача со слишком большим количеством независимых переменных. Короче говоря, узким местом сегодняшнего дня является статистическая независимость входных переменных.

Самоконтролируемое обучение и статистическая независимость

Обучение с самоконтролем относится к подходу подачи нейронным сетям большого количества входных материалов, содержащих пробелы, чтобы модель постепенно улучшала свою способность заполнять эти пробелы. Хотя это гениальный подход, нейронная сеть учится методом грубой силы, что компенсирует ее непонимание мира. Возьмем предложение: «… упал… и сломался…». Даже если мы уже заполнили первый пробел термином «человек», модель все равно попытается заполнить два других пробела всеми терминами, которые не могут подойти. «Человек… упал с… мыши, аквариума, золотой рыбки, вилки, стены, розетки и т. д. и сломал… хомяка, золотую рыбку, вилку, стул, дерево и т. д.». И даже после 1000 примеров, когда человек упал с лестницы и сломал ногу, у модели все еще не будет интуиции, что «лестницы приводят к несчастным случаям, которые могут привести к переломам костей». Или, может быть, чем старше человек и чем шатче лестница, тем выше вероятность того, что он упадет и получит серьезные травмы. Продолжая этот пример, модель также не будет переносить эту концепцию лестниц, ведущих к несчастным случаям, на очень похожие ситуации, например, когда я неуверенно стою на стуле, чтобы добраться до верхней полки в шкафу моей свекрови. Если он не увидит, что я и многие другие падают в подобной ситуации, он не будет считать концепцию «стоять на стульях» фактором риска.

И именно поэтому у нас пока нет беспилотных автомобилей.