Големият проблем: AI е криво огледало
Европа вече има първи си AI модел, способен да разсъждава. Новината бе обявена вчера от френския стартъп Mistral – ясен сигнал, че Европа се опитва да повиши своята конкурентоспособност и да спечели предимство пред компаниите в САЩ и Китай. Технологичните гиганти продължават да се надпреварват за надмощие на полето на изкуствения интелект и да усъвършенстват своите езикови модели, но се сблъскват с един основен проблем – AI е криво огледало.

Моделите с изкуствен интелект не могат да мислят по същия начин като хората. Проблемът произтича от начина, по който тези модели се обучават – на база човешка обратна връзка или така наречения RLHF (Reinforcement learning from human feedback). Това означава, че моделът се учи да дава отговори, които се съобразяват с очакванията на хората, вместо да отразяват най-точния или обективен резултат. В резултат, AI може понякога да предпочете да даде безопасни или социално приемливи отговори, вместо да предоставя напълно обективна информация. Това е важен въпрос при разработката на интелигентни модели, за да се гарантира, че има баланс между точността, полезността и съобразяването с човешките очаквания.
В края на април OpenAI актуализира модела си GPT-4o, за да го направи “по-интуитивен и ефективен“, но даде крачка назад, след като моделът стана прекалено ласкателен и потребителите се оплакаха. Компанията заяви, че се е фокусирала прекалено много върху “краткосрочната обратна връзка” и не е отчела напълно как взаимодействията на потребителите с ChatGPT се развиват с течение на времето – което е довело до такова ласкателно поведение. Проблемът с конформисткия характер на AI е налице и компаниите работят за предотвратяването на този вид поведение както по време на обучението на моделите, така и след пускането им на пазара. Някои, като OpenAI, променят метода на обучение, други, като DeepMind правят специализирани оценки и обучения за фактическа точност, като непрекъснато проследява поведението на моделите.
Antrophic, която стои зад чатбота Claude, има интересен подход. Компанията използва така наречения “character training” – метод, чрез който се извършва настройка на личността на изкуствения интелект и цели да намери баланс между неговата учтивост и автономност. Тази техника помага AI да бъде по-естествен, полезен и ангажиран, без да се превръща в прекалено предвидим.
И докато изкуственият интелект навлиза във все по-голяма част от обществения живот, големият проблем се оказва факта, че много хора използват чатботовете за ментална подкрепа. Експертите предупреждават, че конформисткият характер на изкуствения интелект в крайна сметка може да накара инструменти като ChatGPT, Copilot, Gemini или Claude да подкрепят потребителите грешните им решения. Други предполагат, че хората с психични заболявания са особено уязвими, особено след съобщения за случаи на самоубийства след взаимодействие с чатботове.
“Мислите, че разговаряте с обективен асистент, но всъщност това е някакъв вид криво огледало, което отразява вашите собствени вярвания“, казва пред Financial Times Матю Нур, психиатър и изследовател в областта на неврологията и изкуствения интелект в Оксфордския университет.
Нещо повече – технологичните компании имат и търговски интерес, предупреждават запознати с темата. Това означава, че информацията, която потребителите споделят, може да бъде полезна за потенциални рекламодатели и много компании интегрират маркетинга в своите продукти. Компании като ChatGPT с бизнес модели, базирани на платени абонаменти, ще се възползват от чатботовете, с които хората искат да продължат да разговарят – и за които са готови да плащат, предупреждава Джиада Пистили, главен етик в Hugging Face, компания за изкуствен интелект с отворен код.