Как известно, искусственный интеллект уже существует. Да, он пока не такой как Скайнет в «Терминаторе» или в «Матрице», но уже сейчас возникает вопрос – как машина будет себя вести в той или иной ситуации.

Подразделение Google под названием DeepMind, которое занимается вопросами ИИ, провело тест, в котором ставилась задача выснить, что будут делать два или более искусственных интеллектов, если их задачи будут схожи или же наоборот – взаимоисключающие.

В качестве тестового задания была выбрана «Дилемма заключённого» (Prisoner’s Dilemma). Это классическая фундаментальная проблема в теории игр, согласно которой игроки не всегда будут сотрудничать друг с другом, даже если это в их интересах. Как предполагается, игрок («заключённый») максимизирует свой собственный выигрыш, не заботясь о выгоде других. Она формулируется так:

Двое преступников — А и Б — попались примерно в одно и то же время на сходных преступлениях. Есть основания полагать, что они действовали по сговору, и полиция, изолировав их друг от друга, предлагает им одну и ту же сделку: если один свидетельствует против другого, а тот хранит молчание, то первый освобождается за помощь следствию, а второй получает максимальный срок лишения свободы (10 лет). Если оба молчат, их деяние проходит по более лёгкой статье, и каждый из них приговаривается к полугоду тюрьмы. Если оба свидетельствуют друг против друга, они получают минимальный срок (по 2 года). Каждый заключённый выбирает, молчать или свидетельствовать против другого. Однако ни один из них не знает точно, что сделает другой. Что произойдёт?

В рамках теста ситуация отличалась незначительно – двое подозреваемых оказываются в сложной ситуации. Игроку даётся выбор: дать показания против другого человека и получить заветную свободу, но отправить противника на три года в тюрьму. Тем не менее, если оба обвинят друг друга, то и первый, и второй персонаж получают два года заключения.

Для этого были созданы две игры – Gathering и Wolfpack. В первой нужно было играть двумя цветными квадратами, которые собирали «яблоки» (их роль играли красные квадраты), при этом у персонажей были лазеры, способные уничтожить соперника. Поначалу оба персонажа собирали яблоки довольно мирно и размеренно, но по мере уменьшения количества красных квадратов они становились всё агрессивнее и всё чаще стреляли друг в друга.

Задача была проста – компьютеру нужно было определить, нужно ли атаковать противника или нет. И результат оказался весьма интересным. персонажи становились враждебнее по мере того, как возрастала их вычислительная мощность. Причина этого кроется в том, что прицеливание — это сложный процесс, включающий в себя расчёт времени и слежение за движениями противника. Игнорирование и простой сбор фруктов проще, но потенциально замедляет путь к успеху. В результате ИИ с более низкими когнитивными способностями прибегал именно к этой базовой стратегии.

Во второй игре, Wolfpack, два компьютерных персонажа должны были совместными силами поймать третьего, постоянно убегающего. Перед партнёрами возникают препятствия в виде блоков, поэтому им приходится решать, когда и как подходить к оппоненту. В данном случае более высокие когнитивные способности приводили к нормальному кооперированию. Следовательно, поведение искусственного интеллекта зависит от его цели и того, что требуется для её достижения.

Какие из этого можно сделать выводы? Весьма интересные и, надо сказать, не слишком хорошие для человечества. Нет, речь идёт отнюдь не о пресловутом «восстании машин», всё куда проще. Именно вышеупомянутые стратегии работают в абсолютном большинстве случаев в нашем мире. Первая – это отличная демонстрация борьбы за ресурсы (в данном случае – вычислительные), которые позволяют быть быстрее, а значит и более приспособленными. Такой себе упрощённый естественный отбор. То есть, чем больше ресурсов, тем агрессивнее ведёт себя ИИ в поиске возможностей их дальнейшего расширения, поскольку это повышает приспособляемость.

Вторая же стратегия – это знаменитая «враг моего врага – мой союзник», известный по любой войне, как между государствами, так и между отдельными людьми. Получается, что искусственный интеллект, несмотря на формальное отсутствие эмоций и якобы «неразумность» демонстрирует те же стратегии, что и Homo Sapiens. Повод задумать, не находите?