Пентагон закликає компанії з розробки штучного інтелекту більше розповідати про свої технології – Bloomberg
Високопоставлений чиновник Міністерства оборони США, який займається питаннями штучного інтелекту, заявив, що відомству необхідно дізнатися більше про інструменти ШІ, перш ніж воно повністю візьме на себе зобов'язання використовувати цю технологію, закликавши розробників бути більш прозорими.
Про це повідомляє Bloomberg.
Головний офіцер Пентагону, який займається питаннями цифрових технологій і штучного інтелекту, Крейг Мартелл хоче, щоб компанії ділилися інформацією про те, як побудоване їхнє програмне забезпечення для ШІ - без втрати інтелектуальної власності, щоб департамент міг "відчувати себе комфортно і безпечно", приймаючи його на озброєння.
Програмне забезпечення для штучного інтелекту спирається на великі мовні моделі (LLM), які використовують величезні масиви даних для роботи таких інструментів, як чат-боти і генератори зображень. Зазвичай послуги пропонуються без демонстрації їхньої внутрішньої роботи - у так званому "чорному ящику". Через це користувачам важко зрозуміти, як технологія приймає рішення або що змушує її працювати краще чи гірше з плином часу.
"Ми просто отримуємо кінцевий результат побудови моделі - цього недостатньо", - сказав Мартелл.
За його словами, Пентагон не має жодного уявлення про те, як побудовані моделі і які дані були використані. Компанії також не пояснюють, яку небезпеку можуть становити їхні системи.
"Вони кажуть: ось воно, ми не розповідаємо вам, як ми це створили, ми не говоримо вам, в чому вона (система - ред.) хороша чи погана, ми не говоримо вам, упереджена вона чи ні", - зазначив Мартелл.
Мартелл запросив представників промисловості та науковців до Вашингтона в лютому, щоб обговорити ці проблеми. За його словами, симпозіум Пентагону з питань оборонних даних та штучного інтелекту має на меті з'ясувати, з якими завданнями можуть впоратися LLM.
За його словами, команда, яка керує робочою групою з оцінки LLM, вже знайшла для них 200 потенційних сфер застосування в Міністерстві оборони.
"Ми не хочемо зупиняти великі мовні моделі. Ми просто хочемо зрозуміти їх використання, переваги, небезпеки і те, як їм протистояти", - додав він.
Закрита сесія на триденному лютневому заході буде присвячена тому, як тестувати і оцінювати моделі, а також захищатися від хакерських атак.
Мартелл сказав, що його відділ відіграє консультативну роль у Міністерстві оборони, допомагаючи різним групам знайти правильний спосіб вимірювання успіху або невдачі їхніх систем. Наразі агентство реалізує понад 800 проектів у сфері ШІ, деякі з них пов'язані з системами озброєнь.
За його словами, з огляду на ставки, Пентагон застосовуватиме вищі вимоги до використання алгоритмічних моделей, ніж приватний сектор.
"Буде багато випадків використання, коли на кону стоятимуть людські життя. Тому допускати збої або як би ми це не називали - просто неприйнятно", - зазначив Мартелл.
Раніше повідомлялось, що американські спецслужби отримають власний інструмент у стилі ChatGPT,щоб "просіювати" лавину публічної інформації в пошуках зачіпок. Центральне розвідувальне управління США готується запустити функцію, подібну до відомої програми OpenAI Inc., яка використовуватиме штучний інтелект, щоб надати аналітикам кращий доступ до відкритих джерел інформації, кажуть представники відомства.