Facebook iPress Telegram iPress Twitter iPress search menu

Небезпека штучного інтелекту та алгоритмів. Людина може стати залежною, а система – авторитарною – Wall Street Journal

Переклад iPress
Небезпека штучного інтелекту та алгоритмів. Людина може стати залежною, а система – авторитарною – Wall Street Journal
Хтось захоплюється GPT-4, хтось дозволяє підбирати оптимальний контент, хтось залишає в інтернеті надто багато особистих даних. Все це доволі зручно і додає комфорту, але людина перетворюється таким чином зі споживача на продукт. І це може призвести до неочікуваних наслідків. Таких, скажімо, як рух у напрямку до авторитарних систем. Про це журналісти Wall Street Journal розмовляли з відомим науковцем-бігевіористом Ґердом Ґіґеренцером в рамках подкасту "Майбутнє". Він десятиліттями вивчав те, як люди роблять вибір і вважає, що штучному інтелекту дозволяють занадто багато, а саме – приймати рішення. Людина стає залежною і в цьому криється найбільша небезпека сучасних алгоритмів. Втім, вчений знає рецепт, як подолати цю загрозу.

"В епоху ChatGPT (чи тепер вже GPT-4) комп'ютерні алгоритми та штучний інтелект все більше проникають у наше життя: нам пропонують контент в інтернеті, музику, яку ми слухаємо, і відповіді на наші запитання. Директор Центру Гардінґа з вивчення ризиків при Потсдамському університеті в Німеччині, психолог і бігевіорист Ґерд Ґіґеренцер переконаний, що ці алгоритми можуть змінювати наш світ і поведінку так, що ми не до кінця розуміємо чи усвідомлюємо це", – пише Wall Street Journal.

Керуючи Центром адаптивної поведінки та пізнання в Інституті розвитку людини імені Макса Планка, Ґерд Ґіґеренцер десятки років проводив дослідження, які допомогли сформувати розуміння, як саме люди роблять вибір, коли стикаються з невизначеністю. У своїй останній книзі "Як залишатися розумним у розумному світі" доктор Ґіґеренцер розглядає, яким чином алгоритми формують наше майбутнє, і чому важливо пам'ятати, що вони – це не люди.

На думку вченого, сучасні складні алгоритми, як-от глибокі нейронні мережі, в умовах визначеності – стабільної ситуації, можуть краще мислити, аніж люди. Як приклад, він наводить ігри – шахи та го, які є стабільними передбачуваними системами. Але якщо у вас невизначена проблема, наприклад, потрібно передбачити вірус, такий як COVID-19, то вам слід відмовитися від використання складних алгоритмів. Робота з невизначеністю – так працює людський розум, вважає вчений, тобто – виділяє одну чи дві важливі підказки та ігнорує решту. У цьому типі нечітко визначеної проблеми складні алгоритми не працюють. Доктор Ґіґеренцер називає це "принципом стабільного світу", і розкриває в інтерв'ю WSJ те, на що здатен штучний інтелект. На його думку, щоб отримати максимальну віддачу від ШІ, потрібно зробити світ передбачуваним.

Він відповів ствердно на запитання видання про те, що попри десятиліття розвитку комп’ютерних наук, алгоритми досі залишаються фактично "просто калькуляторами", які обчислюють складні рівняння. За його словами, глибока нейронна мережа має багато нашарувань, але вони – всього-на-всього обчислювальні машини. За допомогою відеотехнологій, зазначає науковець, алгоритми можуть робити набагато більше, ніж будь-коли раніше: малювати чи конструювати текст, але це не означає, що вони розуміють текст у тому сенсі, в якому його розуміє людина.

На думку Ґерда Ґіґеренцера, це безумовне право людини розуміти і знати технологію – вона має бути прозора, щоб людина могла її змінити і знову почати думати самостійно, а не покладатися на алгоритм, котрий, як вважає науковець, не кращий за групу низькооплачуваних робітників.

За словами вченого, важливо виокремлювати ситуації, коли людське судження потрібне і краще. При цьому він зауважує, що йдеться не про ту ситуацію, коли технологічні компанії продають алгоритми – "чорні скриньки". Бо це вже, на думку науковця, про політичну і соціальну поведінки, де люди не впливають на уряди і управляються технологічними компаніями.

Доктор Ґіґеренцер, вважає, що цифрові технології можуть легко схилити шальки терезів у бік автократичних систем, і ця небезпека цілком реальна. Бо серед переваг, які вони мають, є і величезна вада – схильність з боку урядів і технологічних компаній до стеження. Оскільки люди більше не читають політику конфіденційності, тому не знають про це. А ще політики конфіденційності створені таким чином, що їх дуже важко зрозуміти – вони занадто довгі та складні. На думку вченого, людям потрібно повернути контроль над цим.

Науковець порівняв роботу сучасних соцмереж з безкоштовною кав’ярнею. Коли всі ходять до неї, бо там безкоштовна кава, це приводить до банкрутства всіх інших аналогічних закладів. Перебуваючи в цій кав’ярні, ви отримуєте свою безкоштовну каву, але при цьому мікрофони і відеокамери записують все, що ви говорите і робите, і вся ця інформація відправляється на аналіз. Як наслідок, ви в цій кав’ярні, як і в соцмережі, стаєте не клієнтом, а продуктом. Приблизно в такій ситуації, вважає вчений, ви перебуваєте у фейсбуці, інстаграмі чи інших платформах. Тому, вважає Герд Ґіґеренцер, ми хочемо мати кав'ярню, де змогли б платити самі і були клієнтами, а не продуктами. Проте, на його думку, вся ця інфраструктура навколо персоналізованої реклами вже вбудувалася в інфраструктуру інтернету. І знадобляться досить серйозні втручання, щоб її позбутися.

Доктор Ґіґеренцер сподівається, що люди усвідомлять, що не варто віддавати свої дані та відповідальність за власні рішення технологічним компаніям, які використовують їх, щоб заробляти гроші на рекламодавцях. Це не може бути нашим майбутнім, вважає він. Існує реальна небезпека, що все більше і більше людей піддаються стеженню і погоджують на все, що їм зручніше.

На запитання WSJ, як протистояти цьому, адже, як він зазначив, читати політику конфіденційності та прослідковувати алгоритми, які впливають на життя, доволі складно, вчений не без іронії відповів, що найзручніше, звісно, – не думати над цим. Але альтернатива є. І це – почати думати. "Найважливіша технологія, про яку варто знати – це механізм, який психологи називають "непослідовним заохоченням". Ви отримуєте заохочення, наприклад, лайк, але ви ніколи не знаєте, коли саме його отримаєте. Люди постійно повертаються на платформу і перевіряють свої лайки", – зазначив доктор Ґіґеренцер. Це, на його думку, реально змінило менталітет і зробило людей залежними. Тому надважливо, щоб кожен розумів ці механізми і те, яким чином і шляхами людина стає залежною. А коли буде воля і бажання, переконаний науковець, цілком можливо повернути контроль.

Джерело: Wall Street Journal  

Угорщина: корупційний скандал та домашнє насильство. Що загрожує Орбану? – Politico
Угорщина: корупційний скандал та домашнє насильство. Що загрожує Орбану? – Politico
Параноя путіна. Тероризм, марення і самознищення – Тімоті Снайдер
Параноя путіна. Тероризм, марення і самознищення – Тімоті Снайдер
Макрон хоче керувати зовнішньою політикою Європи. Не всі союзники з цим згодні – Bloomberg
Макрон хоче керувати зовнішньою політикою Європи. Не всі союзники з цим згодні – Bloomberg
Смертельну недбалість путіна неможливо приховати. московська атака зробила його слабшим, ніж будь-коли – Саймон Тісдалл
Смертельну недбалість путіна неможливо приховати. московська атака зробила його слабшим, ніж будь-коли – Саймон Тісдалл
Чи настав час для безпольотної зони в Україні? путін ескалує повітряну війну – бригадний генерал Кевін Райан
Чи настав час для безпольотної зони в Україні? путін ескалує повітряну війну – бригадний генерал Кевін Райан
"Циркони" з суші, відновлені 1,5 та 3 тонні бомби і натиск на Донбасі. Про останню тактику росіян – Том Купер
Франції потрібні країни-однодумці. Макрон-яструб відкриває двері Європи для Великої Британії – Едвард Лукас
Франції потрібні країни-однодумці. Макрон-яструб відкриває двері Європи для Великої Британії – Едвард Лукас
Кілька думок про російський розвідувально-ударний ланцюг. Більшість обстрілів відбувається на основі агентурних даних – Том Купер
Кілька думок про російський розвідувально-ударний ланцюг. Більшість обстрілів відбувається на основі агентурних даних – Том Купер