AI действует по ситуации – Google испытал AI-агентов в условиях «дилеммы заключённого»

16.02.2017

AI действует по ситуации – Google испытал AI-агентов в условиях «дилеммы заключённого»

Специалисты подразделения Google – DeepMind – испытали искусственный интеллект в условиях «дилеммы заключённого», а именно – выяснили, как он будет принимать решение в ситуации, когда результат зависит не только от его действий, но и от действий другого AI-агента.

Суть эксперимента

«Дилемма заключённого» – это проблема выбора наиболее оптимального решения в определённых условиях. Задачу сформулировали американские математики Меррил Флад и Мелвин Дрешер ещё в середине прошлого века.

Заключается дилемма в следующем: двум заключённым, которые находятся в разных камерах, предлагают сознаться в совершении преступления. В зависимости от того, какое решение они примут, возможны разные результаты:

  • оба сознались – оба получают срок по 5 лет;
  • один сознался, другой нет – первый получает срок – 3 года, второй – 10 лет;
  • оба не сознались – их отпускают.

Важно отметить, что заключённые не могут между собой контактировать, а потому не могут договориться.

Математики считают, что человек всегда склонен принимать решение с минимальным для себя риском. Поэтому заключённые, скорее всего, сознаются и получат равные сроки. Исследователям из DeepMind было интересно, как в такой же ситуации поведёт себя искусственный интеллект.

Результаты тестов

Для проведения эксперимента с двумя AI-агентами специалисты создали две простых игры:

1. Gathering – AI-агентам нужно было собрать наибольшее количество яблок, при этом они могли использовать лазер, чтобы обездвижить противника и выиграть.

2. Wolfpack – двум агентам нужно было поймать добычу, обходя препятствия. При этом очки получали все «охотники», которые на момент поимки находились рядом с жертвой. Поэтому AI-агентам выгодно было скооперироваться и действовать вместе.

В итоге выяснилось, что искусственный интеллект добивается целей, используя наиболее оптимальные модели поведения. В первой игре AI-агенты вели себя агрессивно, когда нужно было соперничать, а во второй игре – сотрудничали, так как понимали, что им это выгоднее.

По мнению исследователей, подобное поведение можно объяснить доступной вычислительной мощью. Искусственный интеллект использует все способы достичь цели. Он не думает, как человек, и не стремится уничтожить себе подобного ради сиюминутной выгоды. Он просто выполняет поставленную задачу наилучшим образом.

Результаты экспериментов показывают, что различные AI-программы могут успешно взаимодействовать при решении определённых задач. Например, один AI-агент может управлять дорожным движением, а другой – стремиться снизить загрязнение окружающей среды. При этом они не будут конфликтовать, если изначально задать корректные параметры.

Все новости
Новости AI CONFERENCE

Присоединяйтесь к нашим подписчикам и получите скидку в 1000 рублей на билет

19 АПРЕЛЯ 2018 | NEWSROOM

Москва, ул. Поклонная, д. 3-А, стр. 4

Купить билет