Световните лидери се борят да регулират бъдещето на изкуствения интелект

0
277

Няма съмнение, че темпото на развитие на изкуствения интелект се е ускорило през последната година. Благодарение на бързия технологичен напредък идеята, че един ден ИИ може да бъде по-интелигентен от хората, се превърна от научна фантастика в правдоподобна реалност в близко бъдеще.

Джефри Хинтън, носител на наградата „Тюринг“ заключи през май, че времето, когато изкуствения интелект ще може да бъде по-интелигентен от хората не е 50-60 години, както е смятал първоначално, а вероятно до 2028 г. Освен това съоснователят на DeepMind – Шейн Лег заяви наскоро, че според него има 50 на 50 шанс да се постигне изкуствен общ интелект (ИОИ) до 2028 г.

Тази възможност в близко бъдеще предизвика сериозни и понякога ожесточени дебати за ИИ, по-специално за етичните последици и регулаторното бъдеще. Тези дебати се пренесоха от академичните среди на преден план в глобалната политика, като накараха правителства, индустриални лидери и загрижени граждани да се борят с въпроси, които могат да определят бъдещето на човечеството.

Несъмнено, това е голяма крачка напред с няколко важни регулаторни съобщения, въпреки че все още има значителна неяснота.

Дебатът за екзистенциалните рискове на Изкуствения интелект

Едва ли има всеобщо съгласие по отношение на прогнозите за ИИ, освен вероятността да настъпят големи промени. Въпреки това дебатите предизвикват спекулации за това как и до каква степен развитието на ИИ може да се обърка.

Например главният изпълнителен директор на OpenAI – Сам Олтман изрази откровено мнението си по време на изслушване в Конгреса през май относно опасностите, които ИИ може да предизвика.

„Мисля, че ако тази технология се обърка, тя може да се обърка доста. И ние искаме да изразим мнението си за това. Искаме да работим с правителството, за да предотвратим това да се случи.“

Олтман не е единствен в това си мнение.

„Намаляването на риска от изчезване от ИИ трябва да бъде глобален приоритет наред с други рискове от обществен мащаб като пандемии и ядрена война“, се казва в изявление от едно изречение, публикувано в края на май от Центъра с нестопанска цел за безопасност на ИИ.

То беше подписано от стотици хора, включително Алтман и 38 членове на звеното за изкуствен интелект DeepMind на Google. Тази гледна точка беше изразена в пика на ИИ-дуомерството, когато опасенията за възможни екзистенциални рискове бяха най-разпространени.

Със сигурност е разумно да се разсъждава по тези въпроси, когато се приближаваме към 2028 г., и да се запитаме доколко сме подготвени за потенциалните рискове. Въпреки това не всички вярват, че рисковете са толкова високи, поне не по-крайните екзистенциални рискове, които мотивират толкова много от разговорите за регулирането.

Регулаторни мерки

През юли Белият дом обяви „доброволен ангажимент“ от страна на OpenAI и други водещи разработчици на изкуствен интелект, включително Anthropic, Alphabet, Meta и Microsoft, които се ангажираха да създадат начини за тестване на техните инструменти за сигурност преди публичното им пускане. През септември към този ангажимент се присъединиха още компании, с което общият брой на фирмите достигна 15.

Позиция на правителството на САЩ

Тази седмица Белият дом издаде широкообхватна изпълнителна заповед за „безопасен, сигурен и надежден изкуствен интелект“, с която се цели балансиран подход между неограничено развитие и строг надзор.

Напишете коментар