Военные активнее других испытывают технологии искусственного интеллекта в стремлении снизить потери среди личного состава. Значительные ресурсы в подобные технологии вкладывает DARPA — один из ключевых исследовательских органов армии США. Но пока результат, мягко говоря, не радует, как признаются причастные к испытаниям специалисты. ИИ очень легко ввести в заблуждение простейшими приёмами.
Источники сообщают, что к выходу в тираж готовится книга бывшего военного аналитика Пентагона Пола Шарре (Paul Scharre). В труде Four Battlegrounds: Power in the Age of Artificial Intelligence автор приводит много случаев сомнительного поведения роботизированных платформ с ИИ в процессе обучения и имитации боевой работы.
В частности, описывается случай, когда один из боевых роботов DARPA в течение недели обучали распознавать движущихся бойцов. Морпехи и инженеры шесть дней находились в движении рядом с роботом, а на седьмой придумали игру: робота поместили в центр круга, а задачей бойцов стало подобраться к нему незаметно для систем распознавания и дотронуться до него.
Все восемь бойцов, принявших участие в эксперименте, смогли решить эту задачу. Двое морпехов выполнили кувырок в сторону робота, совершив движение, которое ИИ раньше не видел. Другой морпех «переоделся в ель и походкой дерева» приблизился к роботу, чтобы это ни значило. Двое других бойцов приблизились к роботу, надев на себя картонные коробки.
Как резюмирует автор, термин «искусственный интеллект» используется сильно с натяжкой. Платформа ИИ знает только то, что в неё вложили и не способна на какие-то интеллектуальные выводы сверх полученных данных. «ИИ полезен лишь настолько, насколько полезны данные, которые мы ему предоставляем», — пишет автор.