Facebook iPress Telegram iPress Twitter iPress search menu

Вчені розповіли про нову небезпеку штучного інтелекту

Вчені розповіли про нову небезпеку штучного інтелекту
Фото: з вільних джерел
Вона пов'язана з тим, що ШІ навчається на даних, згенерованих нейромережами.

Вчені з Великої Британії та Канади вирішили дослідити, що буде, якщо контент, згенерований штучним інтелектом, почне розповсюджуватись по інтернету, а інші моделі ШІ навчатимуться на ньому, а не на створеному людиною. За словами дослідників, це призведе до появи "незворотних дефектів" у моделях, що отримуються.

Про це повідомляє Venture beat.

У ході дослідження вчені розглядали генеративні моделі штучного інтелекту, які можуть створювати тексти на підставі введених слів та зображення на підставі наведених картинок. Вони дійшли висновку, що "навчання з урахуванням даних, створених іншими моделями, призводить до колапсу моделі — дегенеративного процесу, у якому згодом моделі забувають справжній базовий розподіл даних". Вони додають, що це неминуче навіть у випадках із "майже ідеальними умовами для довгострокового навчання".

Вчені відзначають, що згодом помилки накопичуються, через що моделі ШІ, які навчаються на отриманих даних, ще більш неправильно сприймають навколишній світ.

"Ми були здивовані, побачивши, як швидко відбувається колапс моделі: вони можуть швидко забути більшу частину вихідних даних, на основі яких вони спочатку навчалися", - заявив один із авторів нового дослідження Ілля Шумайлов.

Простими словами, що більше модель ШІ навчається на даних, згенерованих іншими нейромережами, то більше помилок вона допускає у виробленому контенті, та її відповіді стають менш різноманітними.

"Так само, як ми закидали океани пластиковим сміттям і наповнили атмосферу вуглекислим газом, ми збираємося заповнити інтернет будь-якою нісенітницею. Це ускладнить навчання нових моделей шляхом парсингу веб-сторінок, що дасть перевагу фірмам, які вже зробили це або контролюють доступ до людських інтерфейсів у масштабі. Справді, ми вже бачимо, як стартапи в області ШІ забивають інтернет-архів для отримання навчальних даних", - заявив інший автор дослідження Росс Андерсон, професор техніки безпеки у Кембриджському та Единбурзькому університетах.

Раніше повідомлялось, що штучний інтелект відбере робочі місця переважно у жінок.

російська протиповітряна оборона у 2026 році. Частина 1 – Дональд Гілл
російська протиповітряна оборона у 2026 році. Частина 1 – Дональд Гілл
Америка Трампа починає нагадувати Радянський Союз часів Брежнєва. Так само й її союзи – Едвард Лукас
Америка Трампа починає нагадувати Радянський Союз часів Брежнєва. Так само й її союзи – Едвард Лукас
Наступна спроба перевороту в США. І як її зупинити – Тімоті Снайдер
Наступна спроба перевороту в США. І як її зупинити – Тімоті Снайдер
Україна нарощує виснаження російської воєнної машини. Дронова війна і удари по тилу змінюють баланс втрат – Том Купер та Дональд Гілл
Україна нарощує виснаження російської воєнної машини. Дронова війна і удари по тилу змінюють баланс втрат – Том Купер та Дональд Гілл
Африканська кампанія
Африканська кампанія "Компанії". Як російська мережа впливу поширює антиукраїнську пропаганду в Кот-д’Івуарі – France 24
Немає значення, скільки США втратили техніки під час рятувальної операції. Головне – повернути пілотів – Том Купер
Немає значення, скільки США втратили техніки під час рятувальної операції. Головне – повернути пілотів – Том Купер
Рекордні втрати росії у березні. Дрони домінують, удари по нафті тривають – Філліпс О'Брайен
Рекордні втрати росії у березні. Дрони домінують, удари по нафті тривають – Філліпс О'Брайен
Епштейн і розвідка. Що було відомо ЦРУ, ФБР та АНБ у справі Епштейна – Джон Шиндлер
Епштейн і розвідка. Що було відомо ЦРУ, ФБР та АНБ у справі Епштейна – Джон Шиндлер