Facebook iPress Telegram iPress Twitter iPress search menu

Ілон Маск і понад тисяча експертів закликали призупинити розробку штучного інтелекту

Ілон Маск і понад тисяча експертів закликали призупинити розробку штучного інтелекту
Ілон Маск
Занепокоєння з'явилося після того, як у понеділок Європол попередив про потенційне зловживання ChatGPT у спробах фішингу, дезінформації та кіберзлочинності.

Ілон Маск та група експертів зі штучного інтелекту та керівників галузі закликають до шестимісячної паузи в розробці систем, потужніших за нещодавно запущений GPT-4 від OpenAI, посилаючись на потенційні ризики для суспільства і людства.

Про це йдеться у їхньому відкритому листі, пише Reuters.

Раніше цього місяця компанія OpenAI, яку підтримує Microsoft, представила четверте оновлення свого сервісу штучного інтелекту GPT, яка вразила користувачів своїм широким спектром застосувань - від залучення користувачів до розмови, схожої на людську, до написання пісень і узагальнення об'ємних документів.

У листі, виданому некомерційною організацією Future of Life Institute, який підписали понад 1000 осіб, включаючи Маска, міститься заклик призупинити розробку передового ШІ, поки не будуть розроблені, впроваджені та перевірені незалежними експертами спільні протоколи безпеки для таких розробок.

"Потужні системи ШІ слід розробляти лише тоді, коли ми будемо впевнені, що їхні наслідки будуть позитивними, а ризики - керованими", - йдеться в листі.

OpenAI не відразу відповів на запит Reuters про коментар.

У листі детально описані потенційні ризики для суспільства і цивілізації від конкурентних з людиною систем ШІ у вигляді економічних і політичних потрясінь, а також міститься заклик до розробників співпрацювати з політиками в питаннях управління і регуляторними органами.

Серед підписантів - генеральний директор Stability AI Емад Мостак, дослідники компанії DeepMind, що належить Alphabet (материнська компанія Google), а також ШІ Йошуа Бенгіо, якого часто називають одним з "хрещених батьків ШІ", і Стюарт Рассел, піонер досліджень у цій галузі.

Згідно з реєстром прозорості ЄС, Future of Life Institute в основному фінансується Фондом Маска, а також лондонською групою ефективного альтруїзму Founders Pledge і Фондом громади Кремнієвої долини, що базується в Лондоні.

Занепокоєння з'явилося після того, як у понеділок Європол попередив про потенційне зловживання ChatGPT у спробах фішингу, дезінформації та кіберзлочинності.

Тим часом уряд Великої Британії оприлюднив пропозиції щодо "адаптивної" нормативної бази навколо ШІ.

Підхід уряду, викладений в опублікованому в середу програмному документі, передбачає розподіл відповідальності за управління штучним інтелектом (ШІ) між регуляторними органами з прав людини, охорони здоров'я та безпеки і конкуренції, а не створення нового органу, який би займався цією технологією.

Маск, чий автовиробник Tesla використовує ШІ для системи автопілота, неодноразово висловлював свою стурбованість щодо ШІ.

З моменту свого випуску в минулому році ChatGPT від OpenAI спонукав конкурентів прискорити розробку подібних великих мовних моделей, а компанії - інтегрувати генеративні моделі ШІ у свої продукти.

Минулого тижня OpenAI оголосила, що уклала партнерство з близько десятком фірм, щоб вбудувати їхні послуги в свого чат-бота, що дозволить користувачам ChatGPT замовляти продукти через Instacart або бронювати авіаквитки через Expedia.

Сем Альтман, виконавчий директор OpenAI, не підписав листа, повідомив Reuters представник Future of Life.

"Лист не ідеальний, але дух правильний: нам потрібно пригальмувати, поки ми краще не зрозуміємо наслідки", - сказав Гері Маркус, професор Нью-Йоркського університету, який підписав лист. "Великі гравці стають все більш потайливими щодо того, що вони роблять, що ускладнює для суспільства захист від будь-якої шкоди, яка може матеріалізуватися", - додав він.

Критики звинуватили підписантів листа в тому, що вони сприяють "хайпу навколо ШІ", стверджуючи, що заяви про нинішній потенціал технології значно перебільшені.

"Подібні заяви призначені для створення ажіотажу. Вони мають на меті змусити людей хвилюватися", - каже Йоханна Бйорклунд, дослідниця ШІ та доцентка Університету Умео. "Я не думаю, що є потреба спускати все на гальмах", - вважає вона.

Замість того, щоб призупиняти дослідження, вона вважає, що дослідники ШІ повинні дотримуватися більших вимог до прозорості. "Якщо ви займаєтеся дослідженнями ШІ, ви повинні бути дуже прозорими щодо того, як ви це робите", - додала Бйорклунд.

Західним експертам варто зайнятися Шольцем – буде більше користі. росіяни продовжують просуватися на Захід від Авдіївки – Том Купер
Західним експертам варто зайнятися Шольцем – буде більше користі. росіяни продовжують просуватися на Захід від Авдіївки – Том Купер
ЗСУ поки не вдалося вирішити кризу біля Очеретиного. Бомби УМПК і РСЗВ завдають втрат – Том Купер
ЗСУ поки не вдалося вирішити кризу біля Очеретиного. Бомби УМПК і РСЗВ завдають втрат – Том Купер
Байдену потрібно змусити путіна нервувати. Він має всі повноваження і жодного виправдання – Марк Тот та Джонатан Світ
Байдену потрібно змусити путіна нервувати. Він має всі повноваження і жодного виправдання – Марк Тот та Джонатан Світ
Здавалося, що допомога Україні померла. Чому Джонсон все ж-таки виніс на голосування законопроєкт? – Washington Post
Здавалося, що допомога Україні померла. Чому Джонсон все ж-таки виніс на голосування законопроєкт? – Washington Post
Ескалація, червоні лінії, ризики та російсько-українська війна. Частина 1 – Лоуренс Фрідман
Ескалація, червоні лінії, ризики та російсько-українська війна. Частина 1 – Лоуренс Фрідман
Не варто надто радіти запізнілій допомозі США. Вона призначена лише кільком підрозділам ЗСУ – Том Купер
Не варто надто радіти запізнілій допомозі США. Вона призначена лише кільком підрозділам ЗСУ – Том Купер
путін гудбай.  Як роззброїти росію на газовому ринку – CEPA
путін гудбай. Як роззброїти росію на газовому ринку – CEPA
росія чинить культурний геноцид в Україні. Які справжні цілі кремля – Джейд МакГлинн
росія чинить культурний геноцид в Україні. Які справжні цілі кремля – Джейд МакГлинн