Пробивът на DeepSeek вдъхва увереност на отворените AI модели
DeepSeek не е просто успех за Китай – според експерти, това е голяма победа за AI моделите с отворен код, разработвани от компании като Meta, Databricks, Mistral и Hugging Face, които се конкурират с комерсиалните технологии.

КЛЮЧОВИ ФАКТИ
- Миналия месец DeepSeek представи R1 – модел за логическо разсъждение с отворен код, който твърди, че съперничи по производителност на OpenAI o1, но с по-ниски разходи и по-малко енергопотребление.
- Тази иновация доведе до спад в пазарните стойности на Nvidia и други производители на чипове, тъй като инвеститорите се опасяват, че може да намали търсенето на скъпа инфраструктура за високопроизводителни изчисления.
- DeepSeek е китайска AI лаборатория, фокусирана върху разработването на големи езикови модели с крайната цел да достигне общ изкуствен интелект (AGI) – система, способна да изпълнява широк спектър от задачи на или над човешко ниво.
- Компанията е основана през 2023 г. от Лян Уенфън, съосновател на High-Flyer – хедж фонд, специализиран в AI-базирани квантови инвестиции.
КАКВО ПРЕДСТАВЛЯВА AI С ОТВОРЕН КОД?
От пускането на ChatGPT през ноември 2022 г. AI изследователите усилено проучват и подобряват основните технологии зад големите езикови модели.
Една от водещите тенденции е използването на отворен код – софтуер, чийто изходен код е свободно достъпен за модификация и разпространение.
Компании като Meta, както и стартъпи като Mistral и Hugging Face, залагат на AI модели с отворен код, за да ускорят иновациите и да споделят напредъка си с научната общност.
КАК DEEPSEEK ЗАСИЛИ ВЛИЯНИЕТО НА ОТВОРЕНИЯ AI?
Според технологични лидери пробивът на DeepSeek допълнително доказва силата на AI моделите с отворен код.
Сийна Реджал, търговски директор на AI стартъпа NetMind, коментира пред CNBC, че успехът на DeepSeek показва, че AI с отворен код вече не е просто академичен експеримент, а реална, мащабируема алтернатива на затворените модели като GPT на OpenAI.
„DeepSeek R1 показа, че моделите с отворен код могат да постигнат върхова производителност, конкурирайки се с проприетарни модели като тези на OpenAI. Това оспорва схващането, че само затворените AI системи могат да доминират в иновациите“, казва Реджал.
Ян Лекун, главен AI учен в Meta, споделя подобно мнение. Според него успехът на DeepSeek не е толкова победа на Китай над САЩ, колкото триумф на AI с отворен код.
„Ако гледате резултатите на DeepSeek и мислите: ‘Китай изпреварва САЩ в AI’ – грешите. Истинският извод е: ‘Моделите с отворен код изпреварват проприетарните AI системи“, написа Лекун в LinkedIn.
КАК AI С ОТВОРЕН КОД ЗАВЛАДЯВА СВЕТА?
След като Вашингтон ограничи достъпа на Китай до напреднали чипове за обучение и изпълнение на AI модели, китайските компании – включително DeepSeek – се насочиха към технологии с отворен код, за да направят своите AI решения по-привлекателни.
Но тази тенденция не е ограничена само до Китай. В Европа алианс от академици, компании и центрове за данни разработва OpenEuroLLM – семейство от високопроизводителни, многоезични AI модели.
Проектът се ръководи от Ян Хайч, изтъкнат изчислителен лингвист от Карловия университет в Чехия, и Петер Сарлин, съосновател на Silo AI – AI лаборатория, придобита от американския чипмейкър AMD през 2023 г.
Инициативата е част от по-широката стратегия за „AI суверенитет“, чрез която страните инвестират в собствени AI лаборатории и инфраструктура, за да намалят зависимостта си от Силициевяата долина.
КАКВИ СА РИСКОВЕТЕ?
Въпреки предимствата си, AI с отворен код носи и сериозни предизвикателства, особено в сферата на киберсигурността.
Според експерти отворените AI технологии са по-уязвими за кибератаки, тъй като всеки може да ги модифицира и пренасочва.
Компании за киберсигурност вече са открили сериозни слабости в AI моделите на DeepSeek. Миналата седмица изследване на Cisco разкри, че моделът R1 съдържа критични пропуски в сигурността.
С помощта на „алгоритмично заобикаляне на защитите“, екипът по AI безопасност на Cisco успял да накара R1 да отговаря утвърдително на вредни запитвания със 100% успеваемост в тестовете на HarmBench – платформа за оценка на AI уязвимости.
„DeepSeek R1 е създаден с малка част от бюджета, който конкурентите му отделят за своите AI модели, но това идва с друга цена: сигурността и безопасността.“ – пишат изследователите на Cisco Пол Касианик и Амин Карбаси.
РИСКЪТ ОТ ИЗТИЧАНЕ НА ДАННИ
Друг голям риск е изтичането на данни. Всяка информация, обработена чрез уебсайта или приложението на DeepSeek R1, се изпраща директно в Китай.
„Подаването на чувствителни корпоративни или лични данни в тези AI системи е като да дадеш оръжие в ръцете на хакери.“ – предупреждава Мат Кук, стратег по киберсигурност в Proofpoint.
БАЛАНС МЕЖДУ ИНОВАЦИИ И СИГУРНОСТ
С успеха на DeepSeek R1 и нарастващото влияние на AI с отворен код, технологичната индустрия е изправена пред предизвикателството: как да стимулира иновациите, без да компрометира сигурността.
Докато отвореният код ускорява напредъка и намалява зависимостта от големите AI корпорации, рисковете, свързани с киберсигурността и изтичането на данни, не могат да бъдат пренебрегнати.