5 неща, които никога не трябва да казвате на AI
ChatGPT промени начина, по който много от нас работят и живеят в ежедневието си. Според последни статистики, над 100 милиона души го използват ежедневно за обработка на повече от един милиард заявки.
Но чатботът с изкуствен интелект, който завладя света, беше наречен “черна дупка за лични данни” заради притеснения относно начина, по който обработва данни, въведени от потребителите, което дори доведе до временното му забраняване в Италия.
Създателят му, OpenAI, не крие факта, че въведените данни може да не са защитени. Освен че се използват за допълнително обучение на моделите, което може да доведе до тяхното разкритие в изхода на чатбота към други хора, те могат да бъдат преглеждани от хора за проверка на съответствието с правилата за използването им. И, разбира се, всякакви данни, изпратени до облачна услуга, са толкова сигурни, колкото е сигурността на предоставящия ги доставчик.
Какво означава това?
Всяка информация, която въведете в подобен чатбот, трябва да се разглежда като публична. Затова има няколко неща, които абсолютно никога не бива да споделяте с него – или с който и да е друг публичен облачен чатбот. Ето някои от тях:
- Незаконни или неетични заявки
Повечето AI чатботове имат защитни механизми срещу използването им с неетична или незаконна цел. Но ако зададете въпрос, свързан с престъпна дейност, това може да доведе до сериозни последствия.
Лоша идея е да питате например как се извършва престъпление, как се извършва измама или как се манипулират хора за вредни действия. Много платформи изрично посочват, че подобни заявки могат да бъдат докладвани на властите. Законите се различават в различните държави – например в Китай е забранено използването на AI за подриване на държавния ред, в ЕС deepfake изображенията трябва да бъдат ясно обозначени, а във Великобритания е престъпление да се споделят AI-генерирани интимни изображения без съгласие.
Освен че е морално погрешно, подобно поведение може да доведе до правни проблеми и тежки репутационни щети.
- Потребителски имена и пароли
С разрастването на т.нар. agentic AI (AI, който може да взаимодейства със системи от трети страни), все повече хора ще бъдат изкушени да споделят данни за достъп. Но това е изключително рисково. Веднъж попаднали в публичен чатбот, данните са извън вашия контрол. Вече има случаи, в които лична информация, въведена от един потребител, се е появила в отговор към друг.
Дори да изглежда удобно, никога не споделяйте потребителски имена и пароли, освен ако не сте напълно убедени в сигурността на системата.
- Финансова информация
По същите причини не трябва да въвеждате информация като номера на банкови сметки или кредитни карти. Тези данни трябва да се използват само в защитени системи за електронна търговия или банкиране, които използват криптиране и автоматично изтриване.
Чатботовете не разполагат с такива защити. Веднъж въведени, няма гаранция как ще бъдат използвани. Такава информация може да доведе до измами, кражба на самоличност, фишинг атаки и дори рансъмуер (вид зловреден софтуер, който блокира достъпа до данните на компютъра или цялата система и изисква откуп, за да ги отключи).
- Поверителна информация
Всеки носи отговорност да защитава поверителната информация, с която разполага. Това важи особено за професии като лекари, адвокати и счетоводители, както и за служители, които имат договорни или морални задължения към работодателите си.
Споделянето на фирмени документи, протоколи от срещи или вътрешна информация може да се счита за нарушение на търговска тайна. Пример за това е случаят със служители на Samsung, които през 2023 г. неволно разкриха чувствителна информация чрез ChatGPT.
Колкото и да е изкушаващо да поискате от AI да анализира поверителни данни – не го правете, освен ако не сте напълно сигурни, че е безопасно.
- Медицинска информация
Много хора се обръщат към ChatGPT за съвети при здравословни проблеми. Но това крие огромни рискове, особено с оглед на новите функции, които позволяват на AI да „запомня“ информация и да я комбинира между различни сесии.
Няма никакви гаранции за поверителност. Ако въвеждате лична или медицинска информация, тя може да се окаже изложена. Това важи с още по-голяма сила за здравни организации, които носят правна и етична отговорност за защита на данните на пациентите си.
В заключение
Както при всичко, което качваме в интернет, така и тук е разумно да приемем, че няма гаранция за вечна поверителност. Затова е най-добре да не разкриваме нищо, което не бихме искали да стане публично.
С нарастващата роля на чатботовете и AI агентите в живота ни, темата за защитата на личните данни става все по-актуална. Образоването на потребителите относно потенциалните рискове ще бъде важна отговорност за всички, които предлагат такива услуги.
В същото време и ние носим лична отговорност – да пазим собствените си данни и да разбираме как да ги защитим.