Те, кто всерьёз боится восстания машин и порабощения людей искусственным интеллектом (ИИ), теперь могут спать спокойно. На конференции Beneficial AI 2017 утвердили список из 23 пунктов, которым нужно следовать при разработке ИИ, чтобы он оставался безопасным.

Документ носит название Asilomar AI Principles. Его подписали около 1000 исследователей в области машинного обучения и робототехники, а также 1500 IT-специалистов, учёных и разработчиков, в том числе Илон Маск и Стивен Хокинг.

Физики, робототехники, экономисты и философы бурно обсуждали, как ИИ повлияет на различные аспекты жизни всех и каждого. Чтобы пункт попал в список, было необходимо согласие 90% членов группы.

Как упоминалось выше, в итоге получился список из 23 тезисов, затронувших научно-исследовательские моменты, морально-этические вопросы и долгосрочные перспективы.

Документ Asilomar AI Principles представлен ниже.

Научно-исследовательские моменты

1. Целью исследований в области искусственного интеллекта должно быть создание не бесконтрольного разума, а выгодного для всего общества инструмента.

2. Инвестиции в ИИ должны производиться совместно с финансированием исследований по обеспечению полезности использования технологии, что позволит давать более точные и обобщенные ответы на возникающие вопросы в области информатики, экономики, права, этики и обществоведения, в частности:

  • Как обеспечить высокую надежность систем ИИ, чтобы они выполняли поставленные задачи без сбоев и угрозы быть взломанными?
  • Каким образом при помощи автоматизации мы можем прийти к необходимой цели, поддерживая человеческие ресурсы и заинтересованность?
  • Как грамотно обновить правовую систему, обеспечив справедливость по современным канонам и учтя появление ИИ?
  • Какой правовой и этический статус получит ИИ?

3. Обеспечение конструктивного и равного взаимодействия исследователей и политиков.

4. В обществе исследователей должна соблюдаться полная открытость и прозрачность.

5. Исследователи ИИ должны всячески сотрудничать между собой во избежание нарушения стандартов безопасности.

Морально-этические вопросы

6. Системы искусственного интеллекта должны быть безопасными и надежными на протяжении всего эксплуатационного срока.

7. Если система ИИ причинит вред, должна быть возможность выяснения причины.

8. Любое вмешательство автономной системы в судебные решения должно быть санкционированным и подлежать отчетности в случае проверки специалистами.

9. Ответственность за нанесенный ущерб, намеренное создание опасной ситуации, вызванное ошибкой конструкции или программного обеспечения ляжет на плечи разработчиков и инженеров.

10. Все автономные системы ИИ должны быть спроектированы таким образом, чтобы их цели и поведение не противоречили общечеловеческим ценностям.

11. ИИ должен быть спроектирован и использован так, чтобы быть совместимым с идеалами человеческих достоинств, прав, свобод и культурного разнообразия.

12. Данные, возникшие в процессе использования ИИ человеком, должны быть доступны для этого человека в дальнейшем.

13. При работе с персональными данными ИИ не должен необоснованно ограничивать реальные или мнимые свободы людей.

14. Технологии ИИ должны приносить пользу и быть доступными как можно большему количеству людей.

15. Экономические ценности, созданные ИИ, должны быть доступны всему человечеству.

16. Человек всегда должен иметь выбор: принять решение самостоятельно или поручить это ИИ.

17. Действия ИИ должны идти на пользу человеческой деятельности, а не во вред.

18. Необходимо всеми силами избегать гонки автономных видов вооружений.

Долгосрочные перспективы

19. Мы должны абсолютно трезво оценивать предел возможностей ИИ во избежание нерациональных затрат ресурсов.

20. Развитие ИИ будет интенсивным, поэтому технология должна быть под контролем, дабы не вызвать необратимых реакций.

21. Риски, особенно крупномасштабные, должны быть спланированы таким образом, чтобы обеспечивать минимизацию возможного ущерба.

22. Системы ИИ, способные к саморазвитию и самовоспроизведению, должны находиться под особо строгим контролем.

23. Суперразум должен будет служить всему человечеству, а не конкретной частной организации или государству.