Кръстниците на AI: Суперинтелектът е заплаха за човечеството
Суперинтелектът представлява заплаха за човечеството, предупредиха в отворено писмо някои от най-големите имена в технологичната индустрия, които призовават да се прекратят усилията за създаване на такива AI модели.

КЛЮЧОВИ ФАКТИ
- Писмото е подписано от над 920 души, сред които водещи предприемачи и технологични лидери, сред които основателя на Virgin Group Ричард Брансън и съоснователя на Apple Стив Возняк.
- Под отвореното писмо се подписват и пионери в сферата на изкуствения интелект като компютърните учени Йошуа Бенджио и нобеловият лауреат Джеф Хинтън, които се считат за “кръстници“ на съвременния AI, и водещи изследователи на ИИ като Стюарт Ръсел от Калифорнийския университет в Бъркли.
- Освен фигури от сферата на AI и технологиите, сред подписалите се има още представители на академичните среди, медийни личности и политици.
- Противниците на технологията са категорични, че суперинтелектът крие рискове от икономически неравенства, обезвластяване на хората, загуба на свободи и граждански права, включително до рискове за националната сигурност.
- В писмото си те призовават да се забрани разработването на такива модели, докато не е налице силна обществена подкрепа за технологията и консенсус, че тя може да бъде изградена и контролирана безопасно.
КАКВО Е СУПЕРИНТЕЛЕКТ
За разлика от AGI (Изкуствен общ интелект), суперинтелектът или ASI (Artificial Superintelligence) представлява форма на изкуствен интелект, която не просто е сравнима с човешките когнитивни възможности, а ги надминава, потенциално достигайки собствено ниво на съзнание и емоционалност.
Призивите за пауза в развитието на изкуствения интелект идват на фона на многомилиардни инвестиции на водещи компании, сред които пионерът OpenAI, Google и Microsoft. В технологичните среди обаче се задълбочава разделението между онези, които виждат AI като мощна сила в помощ на човечеството, която заслужава всички ресурси, за да се развива и онези, които предупреждават, че технологията е опасна и се нуждае от строги регулации.
Въпреки това дори лидерите като Сам Алтмън (OpenAI) и Илън Мъск (xAI) предупреждават, че суперинтелектът крие сериозна опасност. Преди да стане изпълнителен директор на OpenAI, през 2015 г. Алтман написа в личен блог пост, че “разработването на свръхчовешки машинен интелект (SMI) вероятно е най-голямата заплаха за съществуването на човечеството.“
