Мережі з росії використовують інструменти штучного інтелекту для поширення дезінформації
Структури, пов'язані з росією, Китаєм, Іраном та Ізраїлем, використовують інструменти штучного інтелекту компанії OpenAI, яка створила чат-бот ChatGPT, для створення і поширення дезінформації, зокрема про війну в Україні.
Про це пише Financial Times.
Як зазначають у компанії, моделі штучного інтелекту OpenAI для генерації тексту та зображень були використані у великих обсягах у п'яти операціях прихованого впливу та для створення коментарів. Згаданий контент стосувався війни в Україні, конфлікту в Секторі Газа, виборів в Індії, а також політики в Європі, США та Китаї. ШІ також використовувався для підвищення продуктивності, зокрема налагодження коду та дослідження активності в соціальних мережах.
Згідно зі звітом OpenAI, інструменти компанії використовувалися, зокрема, в операції росії "Доппельгангер", спрямованій на підрив підтримки України. Також згадується російська операція "Погана граматика". За даними компанії, зловмисники використовували моделі OpenAI для налагодження коду для запуску бота Telegram, а також для створення коротких коментарів на політичні теми російською та англійською мовами для поширення в Telegram.
Крім того, за даними видання, інструменти ШІ від OpenAI використовувала китайська мережа "Спамуфляж", яка просуває інтереси Пекіна за кордон. Йдеться про створення тексту і коментарів на декількох для публікації в соціальній мережі X. Також повідомляється про запобігання кампанії Ізраїлю, імовірно, організованої компанією STOIC, яка використовувала ШІ для створення статей і коментарів в Instagram, Facebook і X.
Політика OpenAI забороняє використання її моделей для обману або введення в оману інших. У компанії заявили, що працюють над виявленням кампаній з дезінформації, а також створюють інструменти на базі ШІ, щоб робити це ефективніше. Представники OpenAI запевняють, що вже ускладнили роботу зловмисників і їхні моделі не раз відмовлялися генерувати запитаний контент.
Головний дослідник відділу розвідки і розслідувань OpenAI Бен Німмо в розмові з журналістами заявив, що використання моделей OpenAI в кампаніях "незначно" зросло.
"Зараз не час для самозаспокоєння. Історія показує, що операції впливу, які роками не приносили результатів, можуть раптово спалахнути, якщо їх ніхто не шукає", — наголосив Бен Німмо.
Раніше повідомлялось, що російський месенджер Telegram став ключовою зброєю прокремлівських акаунтів у поширенні дезінформації, спрямованої на підрив підтримки України в ЄС. Нещодавно співробітники російської розвідки використовували його для вербування дрібних злочинців для проведення диверсій у європейських столицях.