Anthropic рискува бъдещето си в името на сигурността
Anthropic заяви, че няма да премахне защитните механизми от своите системи за изкуствен интелект по искане на Пентагона. Решението идва въпреки заплахите компанията да бъде определена като „риск за веригата на доставки“ и извадена от системите на Министерството на отбраната на САЩ, което поставя под въпрос договор на стойност 200 милиона долара, предаде Ройтерс.

КЛЮЧОВИ ФАКТИ
- Спорът между Пентагона и стартъпа в областта на AI произтича от отказа на Anthropic да премахне ограниченията, които възпрепятстват използването на технологията ѝ за автономно насочване на оръжия и за наблюдение на територията на САЩ.
- По-рано говорителят на Пентагона Шон Парнел написа в X, че ведомството няма интерес да използва изкуствен интелект за масово наблюдение на американци, нито за разработване на автономни оръжия, които действат без човешко участие.
- „Ето какво искаме: да позволите на Пентагона да използва модела на Anthropic за всички законни цели“, заяви Парнел, като добави, че компанията има срок до 17:01 ч. източноамериканско време в петък (0:01 часа в събота българско време) да вземе решение. „В противен случай ще прекратим партньорството си с Anthropic и ще ги определим като риск за веригата на доставки.“
ДОПИРАТЕЛНА
В изявление в четвъртък главният изпълнителен директор на Anthropic Дарио Амодеи подчерта противопоставянето на компанията срещу използването на нейните AI модели за масово вътрешно наблюдение или за захранване на напълно автономни оръжия, като посочи, че „граничните AI системи просто не са достатъчно надеждни“.
Източник, близък до компанията, уточни, че Anthropic не обвинява Пентагона, че планира подобни приложения, а изразява позиция, свързана с безопасността на продукта.
Според същия източник AI системите не са достатъчно надеждни за „прицелване с потенциал за фатален изход“, тъй като се държат непредвидимо в нови сценарии, което може да доведе до „приятелски огън, провал на мисията или неволна ескалация“ в контекста на въоръжени операции.
ЗА КАКВО ДА СЛЕДИМ
Използването на AI за масово вътрешно наблюдение също е проблематично, тъй като действащото законодателство не ограничава изводите, които изкуственият интелект може да прави чрез агрегиране на големи масиви от данни. Това означава, че AI може да изгражда профили на ниво население, които „не са изрично забранени от закон, но очевидно нарушават духа на конституционните защити“, допълва източникът.
Амодеи заяви, че се надява Пентагонът да преразгледа позицията си, но ако договорът бъде прекратен, компанията „ще работи за осигуряване на плавен преход към друг доставчик“.
По думите му Пентагонът е заплашил да премахне Anthropic от своите системи, да я определи като риск за веригата на доставки и да приложи Закона за отбранителното производство (Defense Production Act), за да принуди премахването на защитните механизми.
„Независимо от това, тези заплахи не променят позицията ни: не можем добросъвестно да се съобразим с искането им“, заяви той.
Заместник-министърът на отбраната Емил Майкъл отговори в X, като написа: „Жалко е, че @DarioAmodei е лъжец и има комплекс за божественост. Той не иска нищо повече от това лично да контролира армията на САЩ и е готов да изложи националната ни сигурност на риск.“
Майкъл допълни, че Пентагонът „ВИНАГИ ще спазва закона, но няма да се подчинява на прищевките на която и да е печеливша технологична компания“.
Anthropic, подкрепена от Google и Amazon, има договор с ведомството на стойност до 200 милиона долара.
Говорител на компанията заяви, че Anthropic остава „готова да продължи разговорите и ангажирана с оперативната непрекъснатост за министерството и американските военнослужещи“.
Над 200 служители на Google и OpenAI подкрепиха позицията на Anthropic в открито писмо.
