Google тестирует ИИ на агрессию и расположенность к сотрудничеству

от автора

в

Команда исследователей из DeepMind, лондонского подразделения Google, которое специализируется на разработках в области искусственного интеллекта, решила провести необычное испытание. В ходе тестирования сотрудники DeepMind решили выяснить, что может произойти, если сразу два или более устройств с ИИ будут преследовать одну и ту же либо противоречащие друг другу цели. DeepMind протестировала оба сценария и модели поведения искусственного интеллекта на недавно разработанных играх Gathering и Wolfpack.

Главная цель исследования – изучение реакции ИИ на “дилемму заключённого” (Prisoner’s Dilemma) – проблему в теории игр, согласно которой не все участники будут сотрудничать друг с другом, даже если это противоречит их общим интересам.

Сценарий Prisoner’s Dilemma прост, но лёгкому решению здесь места нет – на то она и дилемма. Двум подозреваемым даётся выбор: дать показания против другого, тем самым освободиться самому за помощь следствию, но отправить второго за решётку на три года, при условии, что последний будет хранить молчание. Если оба преступника будут хранить молчание, то их деяние пройдёт по более лёгкой статье, за счёт чего каждый будет приговорён к полугоду тюрьмы. При условии, что обе стороны свидетельствуют друг против друга, каждый получает по два года заключения.

Gathering: яблоки, лазеры и агрессия

В игре Gathering перед двумя цветными квадратами-участниками поставлена задача собрать яблоки-квадраты, размещённые в центре экрана. При этом каждый игрок может воспользоваться лазером для временного подавления противника. На старте модель поведения участников была достаточно мирной, но по мере уменьшения количества плодов игроки становились агрессивнее, всё чаще атакуя противника лазером.

Как и в Prisoner’s Dilemma, в Gathering ИИ мог выбирать, атаковать ли противника. Любопытным оказался тот факт, что более враждебными участники становились по мере возрастания их вычислительной мощи. Причина кроется в следующем: для отслеживания движущейся цели требуется расчёт времени, что достаточно сложно и затратно, тем временем процесс сбора значительно проще, но такая стратегия замедляет путь к успеху. В результате тестов выяснилось, что ИИ с более низкими когнитивными способностями прибегал к последней базовой стратегии.

Wolfpack: пойти на сделку ради общей цели

Тем временем суть игры Wolfpack – немного другого толка: двое участников должны объединить силы для поиска третьего. Однако поимка третьего и вечно скрывающегося персонажа – задача не из простых, поскольку союзникам мешают препятствия в виде блоков. В ходе исследования команда DeepMind определила следующую закономерность: более высокие когнитивные способности способствуют более тесному сотрудничеству.

Как отмечают разработчики, полученные результаты представляют серьёзное значение не только для развития искусственного интеллекта, но и для интеграции нескольких ИИ в рамках одного проекта. В качестве примера учёные моделируют ситуацию, при которой один ИИ стремится нормализовать поток трафика по всему городу, а другой – пытается сократить выбросы углекислого газа.


Комментарии

Добавить комментарий

Больше на ITMSFT Group

Оформите подписку, чтобы продолжить чтение и получить доступ к полному архиву.

Читать дальше