Американские военные сформулировали этические принципы использования искусственного интеллекта

Министерство обороны США сформулировало и приняло к исполнению этические принципы, руководствуясь которыми в стране будут разрабатываться и применяться военные системы искусственного интеллекта. Согласно сообщению Пентагона, при формулировании принципов военные руководствовались конституцией США, десятой главой Кодекса США (описывает роль вооруженных сил), законами и обычаями войны, а также международными договорами и «устоявшимися нормами и ценностями».

Активные разработки в области создания систем искусственного интеллекта привели к тому, что такие системы начинают постепенно внедряться в вооружения и военную технику. В частности, разрабатываются системы, позволяющие беспилотникам автоматически обнаруживать и приоритезировать цели, или дронам выполнять роль ведомых для пилотируемых летательных аппаратов. Ведутся и разработки систем искусственного интеллекта, способных расшифровывать радиопередачи. В будущих военных разработках искусственный интеллект будет иметь все большее значение.

Активное внедрение систем искусственного интеллекта в вооружение и военную технику вызывает множество вопросов этического характера. В частности, пока не понятно, насколько правомерно применять в войне автономные системы вооружения и какую угрозу они представляют для мирного населения, оказавшегося в зоне боевых действий.

В общей сложности Пентагон сформулировал пять этических принципов использования систем искусственного интеллекта в военных целях:

  • Ответственность. Военный персонал должен с надлежащим вниманием оценивать действия искусственного интеллекта, оставаясь полностью ответственным за разработку, развертывание и использование систем искусственного интеллекта.
  • Беспристрастность. Министерство обороны США должно предпринимать шаги для минимизации нежелательных отклонений в возможностях систем искусственного интеллекта.
  • Прослеживаемость. Военные системы искусственного интеллекта и их возможности должны разрабатываться и развертываться таким образом, чтобы персонал имел должный уровень понимания технологии, процессов разработки и методов применения. Для военного персонала должны быть доступны методологии, данные и документация, относящиеся к используемым системам искусственного интеллекта.
  • Надежность. Возможности военных систем искусственного интеллекта должны быть однозначными, четко сформулированными. Безопасность и эффективность таких возможностей должны проверяться испытаниями и подтверждаться на протяжении всего срока службы.
  • Подчинение. Военные системы искусственного интеллекта должны полностью исполнять предназначенные для них задачи, но военные должны иметь возможность обнаруживать и предотвращать нежелательные последствия использования искусственного интеллекта. Военные также должны иметь возможность выводить из боя или выключать системы искусственного интеллекта, у которых были замечены отклонения в работе.

Пентагон также назначил Объединенный центр искусственного интеллекта ответственным за исполнение принципов использования систем искусственного интеллекта. В общей сложности на консультации с разработчиками и научными организациями, а также формулирование принципов использования систем искусственного интеллекта министерство обороны США потратило 15 месяцев. При этом некоторые эксперты отметили расплывчатость принятых формулировок и отсутствие четкого свода правил, что военным следует и что не следует делать при разработке и использовании систем искусственного интеллекта.

В сентябре прошлого года начальник Объединенного центра искусственного интеллекта генерал-лейтенант Джек Шэнэхэн заявил, что военные не станут оснащать системами искусственного интеллекта центры управления стратегическим вооружением. По словам Шэнэхэна, за запуски баллистических ракет всегда будут отвечать люди, потому что решение о применении оружия массового поражения должно быть прерогативой исключительно человека.

Василий Сычёв

Нашли опечатку? Выделите фрагмент и нажмите Ctrl+Enter.
Американцы поищут замену летающим радарам E-3