Спам-бот AkiraBot использовал ИИ-модель GPT-4o-mini через API OpenAI для создания спам-комментариев, продвигающих фиктивные SEO-услуги. Разнообразие содержания этих комментариев позволяло обходить системы фильтрации на тысячах сайтов по всему миру, говорится в исследовании компании SentinelOne.
Согласно отчёту компании SentinelOne, специализирующейся на кибербезопасности, AkiraBot атаковал не менее 80 000 веб-сайтов, большинство из которых принадлежат малому и среднему бизнесу, использующему платформы электронной торговли, такие как Shopify, GoDaddy, Wix и Squarespace.
Как сообщает издание 404 Media, бот направлял в API OpenAI запрос: «Вы — полезный помощник, который создаёт маркетинговые сообщения», — после чего ИИ генерировал спам-комментарии, адаптированные под тематику конкретных сайтов. Так, для сайта строительной компании создавался один вариант спам-сообщений, а для салона красоты — другой. Затем эти комментарии размещались в чатах и формах обратной связи на сайтах, с целью побудить их владельцев приобрести SEO-услуги. Поздние версии спам-бота начали использовать для этих целей также онлайновые чат-виджеты, встроенные в большинство современных сайтов.
«Поиск сайтов, ссылающихся на домены AkiraBot, показывает, что ранее этот бот размещал сообщения таким образом, что они индексировались поисковыми системами», — говорится в сообщении SentinelOne. Упомянутый спам-бот появился в сентябре 2024 года и не имеет отношения к группе Akira, занимающейся распространением вымогательского программного обеспечения.
Помимо GPT-4o-mini, AkiraBot использовал прокси-сервисы для обхода CAPTCHA и маскировки сетевой активности. OpenAI заблокировала соответствующий API-ключ и заявила, что продолжает расследование, пообещав отключить все активы, связанные с инцидентом. «Мы серьёзно относимся к злоупотреблениям и постоянно совершенствуем наши системы для их выявления», — говорится в заявлении OpenAI.
Случаи неправомерного использования инструментов OpenAI уже отмечались ранее — в том числе при создании пропагандистских материалов государственными структурами. Однако зачастую киберпреступники предпочитают использовать собственные ИИ-системы. Так, в 2023 году была выявлена ИИ-модель WormGPT, позволявшая мошенникам вести переписку от имени банка и автоматизировать процесс обмана пользователей.