Нова оценка на Британския институт за безопасност на изкуствения интелект показва, че актуализираната версия на ограничената ИИ-модел "Mythos" на Anthropic значително е подобрила способността си да открива и експлоатира неизвестни уязвимости в софтуера. Резултатите подсилват опасенията, че темпът на развитие на настъпателните кибервъзможности изпреварва адаптацията на защитните системи и политиките за контрол.
Прогресът изпреварва очакванията
В публикация в блога под заглавие "Колко бързо се развиват автономните кибератакуващи способности на ИИ?" институтът съобщава, че по-нов чекпойнт на модела "Mythos Preview", получен след първоначалната априлска оценка, демонстрира допълнителен значим скок в ефективността.
При симулирана атака срещу корпоративна мрежа, състояща се от 32 последователни стъпки, системата успешно завършва сценария в 6 от 10 опита – в сравнение с 3 от 10 при предишното тестване. От института подчертават, че "значителните скокове във възможностите не винаги изискват пускането на изцяло нови модели – по-късните итерации на същата система могат съществено да променят оценките ни".
Тези констатации надграждат априлската оценка, според която "Mythos" се превърна в първата ИИ-система, която самостоятелно изпълнява от край до край симулация на атака срещу корпоративна мрежа – задача, за която, по оценка на института, опитен специалист би отделил около 20 часа работа.
Сега експертите изчисляват, че водещите настъпателни кибервъзможности на ИИ се удвояват приблизително на всеки четири месеца, докато към края на 2025 г. този темп е бил около седем месеца.
Несанкциониран достъп и геополитически амбиции
На фона на растящата мощ на модела нарастват и въпросите дали Anthropic е в състояние да го държи под контрол. В деня на априлския анонс на "Mythos" група неоторизирани потребители успява да получи достъп до системата, възползвайки се от уязвимост в среда на външен доставчик, съобщава "Bloomberg".
Anthropic заявява, че няма доказателства за засегнати основни системи на компанията, но инцидентът подчертава риска, че дори ограничени модели могат да излязат извън рамките, предвидени от разработчиците им.
Паралелно с това "The New York Times" информира, че миналия месец по време на среща в Сингапур, организирана в рамките на събитие на "Carnegie Endowment for International Peace", представител на китайски аналитичен център е отправил към ръководството на Anthropic молба Пекин да получи достъп до "Mythos". Компанията е отказала. По информация на изданието служители от Съвета за национална сигурност на САЩ са били уведомени за разговора и са реагирали с безпокойство.
Разрив между атака и защита
Новите данни на института подчертават нарастващата асиметрия между настъпателните и защитните приложения на ИИ. През април Anthropic стартира проекта "Glasswing", чрез който предостави на избрани партньори – включително "Apple", "Microsoft", "Google", "Amazon" и "Nvidia" – ранен достъп до "Mythos" за използване в защитни цели.
Изследователи по сигурността обаче предупреждават, че подобен модел фактически създава двустепенна система: организации извън този тесен кръг остават изложени на потенциала на модела, без да могат да се възползват от неговите отбранителни възможности.
„Когато тази технология стане широко достъпна – а самите служители на Anthropic говорят за хоризонт между шест и осемнадесет месеца – организациите, които и преди изоставаха, няма просто да изостанат още повече“, коментира Спенсър Уитман, директор "Продукт" в компанията за ИИ-сигурност "Gray Swan", в интервю за "Fortune". „Моделът, върху който са градили програмите си, просто ще спре да работи“.
Какво следва: регулация, етика и практическа защита
Скоростта, с която "Mythos" подобрява уменията си да имитира и автоматизира сложни кибератаки, поставя под въпрос готовността на регулаторите и корпоративните системи за сигурност да реагират навреме. Възникват ключови дилеми: как да се ограничи достъпът до подобни модели, без да се блокира развитието на легитимни защитни приложения, и как да се гарантира, че пробиви като неоторизирания достъп през външен доставчик няма да се превърнат в канал за престъпни или държавни актьори.
Вижте още подобни статии
Експертите предупреждават, че прозорецът за подготовка е ограничен. Ако прогнозите за масово разпространение в рамките на година-година и половина се сбъднат, организациите, които не инвестират в модерни системи за киберсигурност и в политики за отговорно използване на ИИ, рискуват не просто да изостанат, а да станат лесна цел за новото поколение автоматизирани атаки.




Коментари (5)
mega_boss
14.05.2026, 12:17Абе, сериозно ли? Два пъти повече?! 🤦♂️ Да не би да сме си помислили, че ИИ ще ни остави на мира, а? Все едно някой да пуска още един геймър, дето го е ядче, че не може да хакне света.
Млад_Реалист
14.05.2026, 12:22абе, тоя mythos... наистина ли трябваше да го правят толкова силен? да не би умишлено да под
Yordan97
14.05.2026, 12:21абе, сериозно ли? два пъти повече кибератаки симулира?! това mythos нещо май става все по-мощно... и как ще смогнем с тези атаки тогава, а? да не говорим, че регулациите явно изостават.
19C9EE3FD5
14.05.2026, 12:42Хм... интересно. Сериозно притеснителна новина, ако е вярно това за двойното увеличение на симулациите. Наистина ли сме подготвени? ИИ прогресира с бързи темпове, а ние все още се борим със стари проблеми и бавни
Stoyan29
14.05.2026, 13:00Ей, хора! Видях новината за Mythos-а... наистина ли симулира два пъти повече кибератаки сега? Малко ме е притеснило, честно казано. Все пак трябва да сме наясно с тези неща и да гледаме как може да се подготвим по-добре. Дали българските институции са достатъчно ин