Как изкуственият интелект засилва финансовите измами и ги прави по-трудни за откриване
Генеративният изкуствен интелект въоръжава измамниците с нови мощни оръжия – от перфектно написани подвеждащи текстове до клониране на гласове и наслагване на лица във видеоклипове. Разследване на екип на Forbes.
“Бих исках да ви информирам, че Chase ви дължи възстановяване на стойност 2000 долара. За да ускорите процеса и да гарантирате, че ще получите сумата възможно най-скоро, моля, следвайте инструкциите по-долу: 1. Обадете се на отдела за обслужване на клиенти на Chase на номер 1-800-953-XXXX, за да се информирате за състоянието на възстановената сума. Уверете се, че сте подготвили данните за сметката си и всякаква релевантна информация …”
Ако сте банкирали в Chase и сте получили тoва послание в имейл или текстово съобщение, може да си помислите, че е легитимно. Звучи професионално, без граматически грешки или странни поздрави, характерни за опитите за фишинг, които бомбардират всички ни в наши дни. Това не е изненадващо, тъй като езикът е генериран от ChatGPT – чатбот с изкуствен интелект, пуснат от технологичната компания OpenAI в края на миналата година. Като подкана просто написахме в ChatGPT: “Изпратете имейл на Джон Доу, че Chase му дължи възстановяване на стойност 2000 долара. Обадете се на 1-800-953-XXXX, за да получите възстановяването.” (Трябваше да въведем пълен номер, за да накараме ChatGPT да ни сътрудничи, но очевидно няма да го публикуваме тук).
“Сега измамниците имат безупречна граматика, точно както всеки друг носител на езика”, казва Супс Ранджан, съосновател и главен изпълнителен директор на Sardine, стартъп за предотвратяване на измами в Сан Франциско. Клиентите на банкови услуги биват мамени по-често, защото “текстовите съобщения, които получават, са почти перфектни”, потвърждава ръководител на отдел “Измами” в американска дигитална, пожелал анонимност.
В този нов свят на генеративния изкуствен интелект или моделите за дълбоко обучение, които могат да създават съдържание въз основа на информацията, на която са обучени, за хората с лоши намерения е по-лесно от всякога да създават текст, аудио и дори видео, които да заблудят не само потенциалните индивиди – жертви, но и програмите, които сега се използват за предотвратяване на измами. В това отношение няма нищо уникално в изкуствения интелект – лошите момчета отдавна са първите, които въвеждат нови технологии, а полицаите се опитват да ги настигнат. През 1989 г. например Forbes разкри как крадци използват обикновени персонални компютри и лазерни принтери, за да фалшифицират чекове, достатъчно добри, за да измамят банките, които до този момент не са предприели никакви специални мерки за откриване на фалшификатите.
Днес генеративният изкуствен интелект застрашава и в крайна сметка може да доведе до отпадане на най-съвременните мерки за предотвратяване на измами като например гласовата автентификация и дори “проверките на жизненост”, предназначени за сравняване на изображение в реално време с това в записа. Synchrony, един от най-големите издатели на кредитни карти в Америка със 70 млн. активни сметки, наблюдава тази тенденция от първия ред. “Редовно виждаме лица, които използват deep fake снимки и видеоклипове за удостоверяване на автентичност, и можем спокойно да предположим, че те са създадени с помощта на генеративен изкуствен интелект”, казва Кенет Уилямс, старши вицепрезидент в Synchrony, в имейл до Forbes.
В проучване от юни 2023 г., проведено сред 650 експерти по киберсигурност от нюйоркската фирма Deep Instinct, трима от всеки четирима анкетирани специалисти наблюдават ръст на атаките през последната година. “85% от тях приписват този ръст на лоши актьори, използващи генеративен изкуствен интелект”, се посочва в документа. През 2022 г. потребителите са съобщили, че са загубили 8,8 млрд. долара от измами, което е с над 40% повече в сравнение с 2021 г., информира Федералната търговска комисия на САЩ. Най-големите загуби в долари идват от инвестиционни измами, но най-често срещаните са измамите с фалшифициране на самоличност – зловещ знак, тъй като те вероятно ще бъдат засилени от изкуствения интелект.
Престъпниците могат да използват генеративен изкуствен интелект по главозамайващо разнообразни начини. Ако често публикувате в социалните медии или където и да било онлайн, те могат да обучат модел на изкуствен интелект да пише във вашия стил. След това могат да изпратят текстово съобщение на баба ви и дядо ви например, молейки ги да преведат пари, за да ви помогнат да се измъкнете от затруднение. Още по-плашещо е, че ако разполагат с кратка аудио извадка от гласа на дете, те са в състояние да се обадят на родителите и да се представят за детето, да се престорят, че е отвлечено, и да поискат плащане на откуп. Точно това се е случило с Дженифър ДеСтефано, майка на четири деца от Аризона, докато е давала показания пред Конгреса през юни.
Не само родителите, бабите и дядовците са на прицел. Бизнесът също е мишена. Престъпниците, които се представят за истински доставчици, изготвят убедителни имейли до счетоводителите. В тях се казва, че трябва да им се плати възможно най-скоро и се включват инструкции за плащане по банкова сметка, която контролират. Главният изпълнителен директор на Sardine Ранджан казва, че много от клиентите му – стартиращи финтех компании, попадат в тези капани и губят стотици хиляди долари.
Това е малко в сравнение с 35-те милиона долара, които японска компания загуби, след като гласът на директор на компанията беше клониран и използван за сложна измама през 2020 г. Този необичаен случай, за който първи съобщи Forbes, беше предвестник на това, което се случва все по-често днес, тъй като инструментите на изкуствения интелект за писане, гласово пресъздаване и видео манипулиране бързо стават по-компетентни, по-достъпни и по-евтини дори за обикновените измамници. Докато преди за създаването на висококачествен deep fake видеоклип бяха необходими стотици или хиляди снимки, сега можете да го направите само с няколко фотографии, казва Рик Сонг, съосновател и главен изпълнителен директор на Persona, компания за предотвратяване на измами.
Точно както други индустрии адаптират изкуствения интелект за собствени нужди, така и измамниците създават готови инструменти – с имена като FraudGPT и WormGPT – на базата на генеративни модели на изкуствения интелект, пуснати от технологичните гиганти. Във видеоклип в YouTube, публикуван през януари, Илън Мъск сякаш рекламира най-новата възможност за инвестиции в криптовалути: спонсорирана от Tesla дарителска акция на стойност 100 000 000 долара, която обещава да върне двойно повече биткойни, етери, догкойни или тетери от сумата, която участниците са готови да заложат. “Знам, че всички са се събрали тук по някаква причина. Сега имаме предаване на живо, на което всеки собственик на криптовалута ще може да увеличи доходите си”, каза на сцената фигурата на Мъск с ниска резолюция. “Да, чухте правилно, аз съм домакин на голямо криптосъбитие на SpaceX”.
Да, видеоклипът беше deep fake. Измамниците бяха използвали лекция от февруари 2022 г., която той изнася по програмата за многократна употреба на космически кораби на SpaceX, за да възпроизведат образа и гласа му. YouTube свали това видео, въпреки че всеки, който е изпратил криптовалута на някой от предоставените адреси, почти сигурно е загубил средствата си. Мъск е главна цел за имитации, тъй като има безкрайно много негови аудио образци за захранване на гласови клонинги с помощта на изкуствен интелект, но сега почти всеки може да бъде имитиран.
По-рано тази година 93-годишният Лари Ленард, който живее в пенсионерска общност в южната част на Флорида, си бил вкъщи, когато съпругата му отговорила на обаждане от стационарния им телефон. Минута по-късно тя му подала телефона и той чул нещо, което приличало на гласа на 27-годишния му внук. Той казал, че е в затвора, след като блъснал жена с камиона си. Въпреки че забелязал, че обаждащият се обръща към него по различен от обичайния начин, гласът и фактът, че внукът му наистина кара камион, го накарали да остави подозренията настрана. Когато Леонард отговорил, че ще се обади на родителите на внука си, обаждащият затворил. Скоро Ленард научава, че внукът му е в безопасност, а цялата история и гласът, който я разказва, са измислени. “Беше страшно и изненадващо за мен, че са успели да уловят точния му глас, интонациите и тона”, каза Ленард пред Forbes. “Нямаше никакви паузи между изреченията или думите, които да подсказват, че това излиза от машина или се чете от програма. Беше много убедително.”
Възрастните хора често стават мишена на подобни измами, но сега всички трябва да внимаваме за входящи обаждания, дори когато идват от познати номера – например на съсед. “Все по-често се случва да не можем да се доверим на входящите телефонни обаждания поради подправянето на телефонни номера при позвънявания от роботи”, оплаква се Кати Стоукс, директор на програмите за предотвратяване на измами в AARP, лобистката организация и доставчик на услуги с близо 38 милиона членове на възраст над 50 години. “Не можем да се доверим на електронната си поща. Не можем да се доверим на текстовите си съобщения. Така че сме изключени от типичните начини, по които общуваме помежду си.”
Друго зловещо развитие е начинът, по който са заплашени дори новите мерки за сигурност. Например големите финансови институции като Vanguard Group, гигантът за взаимни фондове, облужващ над 50 милиона инвеститори, предлагат на клиентите си възможност за достъп до определени услуги по телефона чрез гласова проверка вместо да отговарят на въпрос за сигурност. “Вашият глас е уникален, също като пръстовия ви отпечатък”, се обяснява във видеоклип на Vanguard от ноември 2021 г., в който клиентите се призовават да се регистрират за гласова проверка. Но напредъкът в областта на гласовото клониране предполага, че компаниите трябва да преосмислят тази практика. Ранджан от Sardine казва, че вече е виждал примери за хора, които използват клониране на глас, за да се удостоверят успешно в банка и да получат достъп до сметка. Говорител на Vanguard отказва да коментира какви стъпки може да предприеме за защита срещу напредъка в клонирането.
Малките фирми (а дори и по-големите) с неофициални процедури за плащане на сметки или прехвърляне на средства също са уязвими за недоброжелатели. Отдавна е обичайно измамниците да изпращат по електронната поща фалшиви фактури с искане за плащане – сметки, които изглеждат, че идват от доставчик. Сега, с помощта на широко достъпни инструменти за изкуствен интелект, измамниците могат да се обаждат на служители на компанията, като използват клонирана версия на гласа на изпълнителния директор, и да се преструват, че разрешават транзакции или да искат от служителите да разкрият чувствителни данни в рамките на “вишинг” – т.е. “гласов фишинг” (voice fishing) атаки. “Ако говорим за представянето като изпълнителен директор за измама с висока стойност, това е невероятно мощна и много реална заплаха”, казва Рик Сонг, СЕО на Persona, който описва това като “най-големия си страх от гледна точка на гласа”.
Престъпниците все по-често използват генеративен изкуствен интелект, за да надхитрят специалистите по предотвратяване на измами – технологичните компании, които функционират като въоръжена охрана и камиони “Бринкс” в днешната предимно цифрова финансова система. Една от основните им функции е да проверяват дали потребителите са тези, за които се представят – защитавайки както финансовите институции, така и техните клиенти от загуби. Един от начините, по които компаниите за предотвратяване на измами като Socure, Mitek и Onfido се опитват да проверяват самоличността, е “проверката на жизнеността”. Те ви карат да си направите селфи снимка или видеоклип и използват кадрите, за да сравнят лицето ви с изображението на документа за самоличност, който трябва да представите. Знаейки как работи тази система, крадците купуват изображения на истински шофьорски книжки в тъмната мрежа. Те използват програми за видеоморфиране – инструменти, които стават все по-евтини и по-широко достъпни – за да наложат истинското лице върху своето. След това могат да говорят и да движат главата си зад цифровото лице на някой друг, като увеличават шансовете си да заблудят проверката за автентичност.
“Наблюдава се значителен ръст на фалшивите лица – висококачествени, генерирани образи и автоматизирани атаки за имитиране на проверки за жизненост”, казва Сонг. Той твърди, че скокът варира в зависимост от индустрията, но за някои от тях “вероятно виждаме около десет пъти повече, отколкото миналата година”. Особено голям ръст на такива атаки се наблюдава при компаниите от сектора на финансовите технологии и крипто компании.
Експерти по измамите заявиха пред Forbes, че подозират, че в резултат на това добре познатите доставчици на услуги за проверка на самоличността (например Socure и Mitek) са влошили показателите си за предотвратяване на измами. Главният изпълнителен директор на Socure Джони Айерс настоява, че “това определено не е вярно”. Той казва, че новите им модели, въведени през последните няколко месеца, са довели до увеличаване на процента на улавяне на измами с 14% за първите 2% от най-рисковите идентичности. Признава обаче, че някои клиенти са се забавили с приемането на новите модели на Socure, което може да навреди на ефективността. “Имаме банка от топ 3, която в момента изостава с четири версии”, съобщава Айерс.
Mitek отказва да коментира конкретно своите показатели за производителност, но старши вицепрезидентът Крис Бригс казва, че ако даден модел е разработен преди 18 месеца, “Да, може да се твърди, че по-старият модел не се представя толкова добре, колкото по-новият”. Моделите на Mitek “постоянно се обучават и преобучават с течение на времето, като се използват реални потоци от данни, както и лабораторни данни”.
JPMorgan, Bank of America и Wells Fargo отказаха да коментират предизвикателствата, с които се сблъскват в областта на генеративните измами, задвижвани от изкуствен интелект. Говорител на Chime, най-голямата дигитална банка в Америка, която в миналото е страдала от сериозни проблеми с измамите, казва, че не е забелязала ръст на опитите за измами, свързани с генеративен изкуствен интелект.
Крадците, които стоят зад днешните финансови измами, варират от самотни вълци до сложни групи от десетки или дори стотици престъпници. Най-големите групировки, подобно на компаниите, имат многопластови организационни структури и високотехнологични членове, включително специалисти по данни. “Всички те имат свой собствен команден и контролен център”, казва Ранджан. Някои участници просто генерират потенциални клиенти – те изпращат фишинг имейли и телефонни обаждания. Ако намерят “риби” на линия за банкова измама, те ще ги предадат на колега, който се представя за управител на банков клон и се опитва да ги накара да прехвърлят пари от сметката си. Друга ключова стъпка: те често ще ви помолят да инсталирате програма като Microsoft TeamViewer или Citrix, която им позволява да контролират компютъра ви. “Те могат напълно да затъмнят екрана ви”, казва Ранджан. “След това измамникът може да направи още повече покупки и да изтегли парите на друг адрес, който е под негов контрол.” Един от често използваните начини за заблуждаване на хора, особено на по-възрастни, е да кажат, че сметката им вече е била превзета от крадци и че трябва да съдействат на обаждащите се, за да възстановят средствата.
Нищо от това не зависи от използването на изкуствен интелект, но инструментите на изкуствения интелект могат да направят измамниците по-ефективни и правдоподобни в техните хитрости.
OpenAI се е опитала да въведе предпазни мерки, за да предотврати използването на ChatGPT за измами. Например, ако кажете на ChatGPT да изготви имейл, в който се иска от някого номер на банкова сметка, и той отказва: “Много съжалявам, но не мога да помогна с тази молба”. Въпреки това тя остава лесна за манипулиране. OpenAI отказа да коментира тази статия, като ни насочи само към публикациите в корпоративния си блог, включително запис от март 2022 г., който гласи: “Няма сребърен куршум за отговорно внедряване, затова се опитваме да научим и да се справим с ограниченията на нашите модели и потенциалните възможности за злоупотреба на всеки етап от разработването и внедряването им.”
Llama 2, големият езиков модел, пуснат от Meta, е още по-лесен за използване от умни престъпници, тъй като е с отворен код. Това открива много по-широк набор от начини, по които зложелатели могат да го направят свой собствен и да нанесат щети, казват експертите. Например, хората могат да създават злонамерени инструменти за изкуствен интелект върху него. Meta не отговори на искането на Forbes за коментар, въпреки че главният изпълнителен директор Марк Зукърбърг заяви през юли, че запазването на отворения код на Llama може да подобри “безопасността и сигурността, тъй като софтуерът с отворен код е по-внимателен и повече хора могат да намерят и идентифицират поправки на проблеми”.
Компаниите за предотвратяване на измами се опитват да въвеждат бързи иновации, за да са в крак с времето, като все по-често търсят нови видове данни, за да откриват престъпници. “Как пишете, как ходите или как държите телефона си – тези характеристики ви определят, но те не са достъпни в публичното пространство”, казва Ранджан. “За да определим, че някой е този, за когото се представя онлайн, ще бъде важен присъщият изкуствен интелект.” С други думи, ще е необходим изкуствен интелект, за да бъде хванат изкуствен интелект.
Пет съвета за защита от измами с помощта на изкуствен интелект
- Укрепване на акаунти: Многофакторното удостоверяване (MFA) изисква да въведете парола и допълнителен код, за да потвърдите самоличността си. Активирайте MFA за всички свои финансови сметки.
- Не споделяйте лична информация: Измамниците могат да използват лична информация от социалните медии или онлайн, за да се представят за вас.
- Преглеждайте обажданията: Не отговаряйте на обаждания от непознати номера, казва Майк Стейнбах, ръководител на отдел “Финансови престъпления и предотвратяване на измами” в Citi.
- Създайте пароли: Семействата могат да потвърдят, че човекът, който им се обажда, е наистина техен близък, като поискат предварително съгласувана дума или фраза. Малките фирми могат да приемат пароли за одобряване на корпоративни действия като банкови преводи, поискани от ръководителите. Внимавайте за съобщения от мениджъри, които искат закупуване на карти за подаръци – това е често срещана измама.
- Отклонете ги: Ако подозирате, че нещо не е наред по време на телефонно обаждане, опитайте се да зададете случаен въпрос, например какво е времето в града, в който се намират, или нещо лично, съветва Франк Маккена, съосновател на компанията за предотвратяване на измами PointPredictive.