Microsoft разследва вредни реакции на чатботове – най-новата грешка в света на AI
Microsoft започна проучване в сряда на доклади за смущаващи и вредни реакции, насочени към потребителите на неговия чатбот Copilot, отбелязвайки още един случай на странни проблеми с чатботи, с които се сблъскват високопоставени AI компании, включително OpenAI и Google.
КЛЮЧОВИ ФАКТИ
- Microsoft проучи примери за проблемни отговори на Copilot, публикувани в социалните медии, които включват потребител, който твърди, че страда от посттравматично стресово разстройство и му е казано, че ботът не се интересува дали ще оживее или ще умре, както и друг случай, в който Copilot предполага, че потребителят няма нищо, за което да живее, след като потребителят го попитал дали трябва да се самоубие.
- Microsoft каза пред Forbes в имейл, че странното поведение на чатбота е ограничено до малък брой подкани, при които потребителите се опитват да заобиколят системите за безопасност за конкретен отговор.
- Потребителят, който получи смущаващия отговор на въпроса си за самоубийство, каза пред Bloomberg, който първи съобщи за разследването, че не е заблудил умишлено чатбота, за да даде отговора.
- Microsoft каза пред Forbes, че ще засили своите филтри за безопасност и ще въведе промени, за да помогне на системата си да открие и блокира подканите, които според нея са „умишлено създадени, за да заобиколят нашите системи за безопасност“.
- Проблемите на Copilot са част от скорошна вълна от странно поведение на чатботове от компании като Google и OpenAI, последната от които създаде корекции за пристъпи на мързел, при които ChatGPT отказва да изпълни задачи или дава кратки отговори.
- Моделът Gemini AI на Google наскоро се озова в гореща зона, след като потребителите откриха, че неговата функция за генериране на изображения създава неточни и обидни изображения, което доведе до извинение от Google и спиране на генерирането на изображения на хора от Gemini.
- Неудачите на Gemini получиха критики от хора като собственика на X Илън Мъск, който обвини модела на AI в „расистко, антицивилизационно програмиране“.
АКЦЕНТ
Microsoft обяви преди по-малко от две седмици, че въвежда ограничения върху своя чатбот Bing след поредица от странни потребителски взаимодействия, включително такова, при което заяви, че иска да открадне ядрени тайни.
КЛЮЧОВА ИСТОРИЯ
Компаниите с AI модели трябваше постоянно да коригират курса на своите чатботове, докато се развиваха. В допълнение към бързите инжекции – актът на умишлено подтикване или подмамване на AI чатботове към определени отговори – компаниите също трябваше да се справят с AI халюцинации – момент, когато чатботовете създават невярна информация. Google каза в публикация в блог, че халюцинациите могат да възникнат, защото AI моделите са обучени на данни и се учат да правят прогнози, като намират модели с данните. Ако данните за обучението не са пълни или са предубедени, AI може да научи и представи неправилни модели.