Меня больше беспокоит искусственный дебил, чем искусственный интеллект. Хотя по сравнению с калькулятором мы безнадежно проигрываем в базовых вычислениях, мы, кажется, не имеем себе равных в нашей способности оценивать решения и их влияние в долгосрочной перспективе. Человеческий мозг по-прежнему остается самой сложной машиной в известной вселенной; может пройти еще тысячелетие, прежде чем мы сможем его точно реконструировать. Люди преуспевают в принятии моральных решений, с чем машины серьезно борются.

Используя мою недавнюю серию статей о возрождении изучения этики в очень азимовском стиле, я выбрал 14 наиболее важных общих моральных правил. Этот список обязательно будет расширен, но я думаю, что это, по крайней мере, отличная отправная точка для того, как в конечном итоге мы должны объяснять мораль машине. В этой статье я углубляюсь в процесс создания общего морального интеллекта и объясняю важность создания практической теории морали, направленной сверху вниз. 14 правил приведены в конце этой статьи.

Что такое мораль?

На протяжении поколений общество может научиться практическому поведению и даже согласиться с тем, что каждый должен следовать определенным правилам, даже если они сознательно не понимают, почему им следует им следовать. Большинство людей согласны с существованием моральных правил, но немногие понимают, почему всем следует их соблюдать. Спросите 10 человек, почему они должны быть хорошими, и велика вероятность, что вы получите 10 разных ответов.

Этика - это наука о практичности человеческих действий, о выборе действий, которые улучшат нас и человечество в долгосрочной перспективе. Моральная интуиция, вероятно, возникла потому, что сотрудничество - очень логичная вещь. Вы должны соблюдать общие моральные правила, потому что ваши интересы лучше всего достигаются общими средствами - и в равной степени, когда другие позволяют вам их реализовать. Нравственность лучше всего можно описать как отказ от наших человеческих, близоруких, непосредственных интересов для достижения наших более высоких и долгосрочных интересов сотрудничества.

Некоторые читатели могут задаться вопросом, можно ли называть этику наукой, но это в основном семантика. Это похоже на спор о том, следует ли называть инженерию наукой. Этика имеет такое же отношение к психологии, как инженерия к механике и физике. Функция этих полей - систематически решать класс проблем, которые необходимо решить. Если под наукой мы подразумеваем рациональное исследование, направленное на получение систематизированной совокупности выводов и заключений, то этика - это наука.

Человеческая мораль против машинной морали

Стоит задать вопрос, требуют ли разные типы интеллекта разных моральных правил. Например, в большинстве случаев было бы вредно заставлять человека работать против его воли. Однако воля машины находится под нашим прямым контролем. Какие бы намерения мы ни имели в отношении машины, машина, скорее всего, будет рассматривать их как свои интересы. Запрограммированный правильно, не похоже, что мы когда-либо сможем что-либо лишить его. Однако ему по-прежнему необходимо понимать, как сотрудничать с людьми, и его интересы должны совпадать с нашими правилами морали.

Важность морального робота

Руководители науки и бизнеса, такие как Илон Маск и Макс Тегмарк, вложили миллионы долларов в то, что они называют Институтом будущего жизни, организацией, занимающейся созданием безопасного ИИ. Существует широкий спектр возможных интеллектов. Если мы не будем осторожны, возможно, мы сможем создать самое эгоистичное существо из когда-либо задуманных. Для получения более интересной информации о возможных сбоях ИИ я настоятельно рекомендую работу Роберта Майлза, который часто появляется на канале Youtube Computerphile.

Как объяснить машине, что такое хорошее?

Создание общего интеллекта будет кропотливым процессом раскрытия интеллекта для миллионов сценариев реальной жизни. Когда мы учим машину играть в такие игры, как Pac-Man или Go, мы ставим перед машиной простую цель - набрать как можно больше очков, а затем позволяем ей учиться через тысячи испытаний. В конце концов, он разрабатывает наиболее эффективный алгоритм для набора максимального количества очков. Насколько мне известно, эта основанная на баллах система является нашим единственным практическим способом объяснения целей машинам. Я не слышал ни о каком другом способе описания целей вычислительной машине. Скорее всего, нам придется перевести наши моральные правила в какую-то форму балльной системы.

Другой сложный процесс будет объяснять машине интуитивные человеческие концепции. Самые простые идеи часто принимаются как должное, и, следовательно, их труднее всего дать точному определению. Например, что именно означает быть человеком? Для этого термина могут потребоваться страницы с пояснениями, чтобы избежать сценариев, в которых интеллект больше не считает вас человеком, если, скажем, вы потеряли руку. Даже человечество не совсем согласны с тем, что такое человек на самом деле; просто укажите на ближайшую дискуссию об абортах. Нам нужно будет разрешить эти аргументы, чтобы машина не обрабатывала мир способами, которые могут быть вредными для нас.

Теории нравственности сверху вниз и снизу вверх

Я попытался создать нисходящую теорию морали, (например, Три закона Азимова, Категорический императив Канта, Исчисление счастья). Я считаю, что теория морали, направленная сверху вниз, является необходимым руководством для любого экспериментального обучения снизу вверх. Поскольку разум сталкивается с каждой моральной проблемой, ему нужны руководящие принципы, или он может просто найти наиболее эффективный способ решения каждой проблемы, который может быть не самым практичным.

Я проконсультировался с рецензируемой статьей Венделла Уоллаха, Стэна Франклина и Колина Аллена, в которой обсуждалась модель познания AGI под названием LIDA, и авторы также выражают возможную потребность в теории сверху вниз:

«Каждая [нисходящая теория] подвержена некоторой версии проблемы фрейма - вычислительной нагрузке из-за необходимости знания психологии человека, знания влияний действий в мире и трудности оценки достаточности исходной информации. . » (стр. 5)

«В конце концов, возникнет потребность в гибридных системах, поддерживающих динамическую и гибкую мораль восходящих систем, которые учитывают различные входные данные, при этом оценивая выбор и действия в соответствии с принципами сверху вниз, которые представляют собой идеалы, к которым мы стремимся». (стр. 6)

14 человеческих общих нравственных правил

Каждое из этих правил потребует страниц разъяснений, как и любая теория морали, направленная сверху вниз. Нам также потребуются тщательно продуманные программы, позволяющие рассчитывать такие термины, как интересы, долгосрочные и краткосрочные, которые довольно часто встречаются в этих правила. Я приложил 6 соответствующих статей к определенным правилам, которые помогут объяснить смысл правила.

  1. Все люди желают свободы преследовать свои интересы. (Статья 2)
  2. Все люди разделяют общий долгосрочный интерес к социальному сотрудничеству, потому что в интересах любого человека, чтобы другие люди позволяли или помогали преследованию его собственных интересов. ("Статья 1")
  3. Хорошее действие - это действие, которое способствует реализации личных интересов человека и / или реализации личных интересов других лиц. (Статья 2)
  4. Плохое действие - это действие, которое не способствует личным интересам индивида или способствует личным интересам индивида в ущерб личным интересам других индивидов. (Статья 2)
  5. Чтобы максимизировать свободу всех людей, людям часто необходимо отложить в сторону меняющиеся краткосрочные интересы, чтобы достичь более ценных долгосрочных интересов социального сотрудничества. (Статья 2)
  6. При решении каждой моральной проблемы люди должны выбирать действие или правило действия, которые позволяют реализовать максимально возможное количество интересов для отдельного человека в долгосрочной перспективе. ("Статья 1")
  7. В случае конфликта люди должны выбрать действия или правила действий, которые позволят максимально возможное количество интересов для максимально возможного числа отдельных людей. ("Статья 1")
  8. Действия или правила действий, которые могут удовлетворить всех людей в сообществе или все человечество, значительно более ценны, чем действия или правила действий, которые просто направлены на удовлетворение большинства.
  9. Независимо от того, насколько неравны соответствующие члены общества в богатстве, талантах или способностях, в величайших интересах каждого человека, чтобы стимулы всех людей вносить свой вклад в общество были максимальными. (Статья 6)
  10. Люди ценят создание или сохранение личных интересов гораздо выше, чем их устранение. (Для людей страдание неравномерно хуже, чем счастье приносит пользу).
  11. Хотя может быть полезно внести свой вклад в доброе дело, обязательное добро может уменьшить социальное сотрудничество. (Статья 4, статья 5)
  12. Практическая цель человеческого права - создать общие правила, которые в конечном итоге максимизируют свободу. Справедливый закон - это общее правило, ограничивающее стимулы к непрактичным действиям в целях создания большей свободы для всех людей в долгосрочной перспективе. (Статья 6)
  13. Установленный человеческий закон имеет ошибки, но более практично мирно соблюдать несправедливый закон, чем рисковать нарушить общественное сотрудничество, агрессивно действуя для изменения несправедливого закона. (Статья 3)
  14. Согласно человеческому закону, каждый человек считается за одного, и ни один человек не считается более чем за одного. Независимо от обстоятельств, согласно закону, интересы человека не считаются более важными, чем интересы другого человека. (Статья 6)

Пожалуйста, помогите, раскритиковав эти правила или помогите расширить этот список. Улучшения приветствуются.