Дийпфейк измамите ограбиха компаниите с милиони. Ситуацията може да се влоши още повече
Нарастващата вълна от дийпфейк измами заграби милиони долари от компании по целия свят и експерти по киберсигурност предупреждават, че може да се влоши.
КЛЮЧОВИ ФАКТИ
- Дийпфейк е видео, звук или изображение на истински човек, което е било дигитално променено и манипулирано, често чрез изкуствен интелект, за да бъде убедително погрешно представено.
- В един от най-големите известни случаи тази година финансов служител в Хонконг беше измамен да прехвърли повече от 25 милиона долара на измамници, използващи технология, които се маскираха като колеги по време на видео разговор.
- Миналата седмица британската инженерна фирма Arup потвърди пред CNBC, че това е компанията, замесена в този случай, но не можа да навлезе в подробности по въпроса поради продължаващото разследване.
- Подобни заплахи нарастват в резултат на популяризирането на Open AI’s Chat GPT — стартиран през 2022 г. — който бързо изстреля генеративната AI технология в масовия поток, каза Дейвид Феърман, главен директор по информация и сигурност в компанията за киберсигурност Netskope.
ВАЖЕН ЦИТАТ
„Обществената достъпност на тези услуги намали бариерата за навлизане на киберпрестъпниците – те вече не се нуждаят от специални технологични набори от умения. Обемът и сложността на измамите се разшириха, тъй като AI технологията продължава да се развива“, каза Феърман.
ВЪЗХОДЯЩА ТЕНДЕНЦИЯ
Различни генеративни AI услуги могат да се използват за генериране на човешки текст, изображения и видео съдържание и по този начин могат да действат като мощни инструменти за незаконни участници, опитващи се цифрово да манипулират и пресъздадат определени лица.
Говорител на Arup каза пред CNBC: „Подобно на много други бизнеси по света, нашите операции са обект на редовни атаки, включително измами с фактури, фишинг, фалшифициране на глас в WhatsApp и дийпфейк.“
Съобщава се, че финансовият служител на Arup е присъствал на видео разговора с хора, за които се смята, че са главният финансов директор на компанията и други членове на персонала, които са поискали от него да направи паричен превод. Въпреки това, останалите присъстващи на тази среща в действителност са били дигитално пресъздадени фалшификати.
Arup потвърди, че в инцидента са използвани „фалшиви гласове и изображения“, добавяйки, че „броят и сложността на тези атаки рязко нараства през последните месеци“.
Китайските държавни медии съобщиха за подобен случай в провинция Шанси тази година, включващ жена финансов служител, която беше измамена да прехвърли 1.86 млн. юана (262 хил. долара) към сметка на измамник след видео разговор с дийпфейк образ на нейния шеф.
Подобни инциденти не са нови. Съобщава се, че през 2019 г. главният изпълнителен директор на британски енергиен доставчик е прехвърлил 220 хил. евро на измамник, който дигитално е наподобил ръководителя на неговата компания майка и е поискал телеграфно съобщение до предполагаем доставчик по време на телефонно обаждане.
През август миналата година изследователи от компанията за киберсигурност Mandiant, която е собственост на Google, документираха редица случаи на използване на AI и дийпфейк технология от нелегални актьори за фишинг измами, дезинформация и други незаконни цели.
По това време компанията каза, че използването на технологията за подобни дейности е ограничено, но че нарастващата наличност на нови генеративни AI инструменти ще ускори внедряването й от злонамерени участници.
ПО-ШИРОКИ ПОСЛЕДИЦИ
В допълнение към директните атаки, компаниите все повече се притесняват от други начини, по които дийпфейк снимки, видеоклипове или речи на техните висши служители могат да бъдат използвани по злонамерени начини, казват експерти по киберсигурност.
Според Джейсън Хог, експерт по киберсигурност и изпълнителен директор в Great Hill Partners, дийпфейкове на високопоставени членове на компанията могат да се използват за разпространение на фалшиви новини за манипулиране на цените на акциите, оклеветяване на марката и продажбите на компанията и разпространение на друга вредна дезинформация.
Той подчерта, че генеративният AI е в състояние да създава дийпфейк въз основа на набор от цифрова информация, като например публично достъпно съдържание, хоствано в социални медии и други медийни платформи.
През 2022 г. Патрик Хилман, главен комуникационен директор в Binance, твърди в публикация в блог, че измамници са направили дийпфейк за него въз основа на предишни новинарски интервюта и телевизионни изяви, използвайки го, за да подмамят клиенти и контакти на срещи.
Феърман от Netskope каза, че подобни рискове са накарали някои ръководители да започнат да изтриват или ограничават онлайн присъствието си от страх, че то може да бъде използвано като амуниции от киберпрестъпници.
Дийпфейк технологията вече е широко разпространена извън корпоративния свят. От фалшиви порнографски изображения до манипулирани видеоклипове, рекламиращи съдове за готвене, знаменитости като Тейлър Суифт са станали жертва на технологията.
Според Хог по-широките проблеми ще се ускорят и ще се влошат за определен период от време, тъй като предотвратяването на киберпрестъпността изисква обмислен анализ, за да се разработят системи, практики и контрол за защита срещу новите технологии.
Експертите по киберсигурност обаче твърдят, че фирмите могат да укрепят защитата срещу заплахи, задвижвани от AI, чрез подобрено обучение на персонала, тестове за киберсигурност и изискване на кодови думи и множество нива на одобрения за всички транзакции – нещо, което можеше да предотврати случаи като този на Arup.