Кога AI ще спре да халюцинира?
Отразявам новини в сферата на технологиите и международната политика. Вярвам, че зад всеки успех стои една вдъхновяваща човешка история, която си струва да бъде разказана.
Изкуственият общ интелект (AGI) е смятан от мнозина за бъдещето на технологията. Наричан е “силен AI”, “пълен AI”, “AI на човешко ниво” или “общо интелигентно действие”. Това е огромен скок в бъдещето. За разлика от обикновения изкуствен интелект, който е пригоден за извършване на конкретни задачи, AGI може да изпълнява широк спектър от когнитивни дейности на или дори над човешко ниво. Има обаче една пречка – халюцинациите. Главният изпълнителен директор на Nvidia Дженсън Хуанг обаче вижда изход. Според него до 5 години човечеството ще успее да преодолее този недостатък.
Концепцията за AGI е интересна и често повдига екзистенциалните въпроси за ролята на изкуствения интелект в живота на човечеството и потенциалните опасности, които това крие. Безпокойството е обяснимо – AGI е непредсказуем, а освен това изкуственият общ интелект би могъл да взема решения, които да противоречат на човешките ценности и приоритети. Тъкмо тази опасност е застъпена в редица фантастични филми – антиутопични разкази за робо апокалипсис. Съществува загриженост, че след като AGI достигне определено ниво на автономност и способности, може да стане невъзможно да бъде овладян или контролиран, което ще доведе след себе си необратими действия.
Хуанг предполага, че до изкуствен общ интелект ще достигне до пет години. AGI ще бъде способен да се справя по-добре от може би около 8% от хората.
Основната пречка пред компаниите, които развиват технологии с изкуствен интелект, е способността на AI да халюцинира. Затова не е случайно, че Кеймбриджкият речник (Cambridge Dictionary) обяви “халюциниране” за дума на 2023 г., прибавяйки към дефиницията ново значение, свързано с технологията за изкуствен интелект.
Халюцинацията на AI е тенденцията на изкуствения интелект да си измисля отговори, които звучат правдоподобно. Всъщност точно тук стои въпросът с разпространението на дезинформация с помощта на AI – нещо, което редица регулатори в момента се стремят да овладеят.
Хуанг има отговор на това предизвикателство – генерация с разширено търсене. На практика това означава AI да бъде задължен да търси отделен отговор за всеки свой отговор – подход, основан на принципите на медийната грамотност. Тоест – AI да проучва източника и контекста, да сравни фактите в източника и ако отговорът е фактически неточен, дори частично, да бъде отхвърлен.
“AI не трябва просто да отговаря. Той трябва първо да направи проучване, за да определи кой от отговорите е най-добрият”, казва Хуанг.
Разбира се, това означава, че генераторът, който създава отговора, трябва да има възможност да отхвърли конкретно запитване, отправено от потребителя.
Въпреки че шефът на Nvidia е оптимист, че проблемът би могъл да бъде преодолян в следващите пет години, все още има скептици. Емили Бендер, професор по лингвистика и директор на Лабораторията за компютърна лингвистика към Вашингтонския университет например, казва пред “Associated Press” през август минлата година, че халюцинацията на AI е непроправима. Сам Алтман от OpenAI на свой ред вижда по-различен хоризонт – до година-две.