Новая оценка Британского института безопасности искусственного интеллекта показывает, что обновленная версия ограниченной ИИ-модели "Mythos" от Anthropic значительно улучшила свою способность обнаруживать и эксплуатировать неизвестные уязвимости в программном обеспечении. Результаты подкрепляют опасения, что темпы развития наступательных кибервозможностей опережают адаптацию защитных систем и политик контроля.
Прогресс опережает ожидания
В публикации в блоге под заголовком "Как быстро развиваются автономные кибератакующие способности ИИ?" институт сообщает, что более новый чекпойнт модели "Mythos Preview", полученный после первоначальной апрельской оценки, демонстрирует дополнительный значительный скачок в эффективности.
При симулированной атаке на корпоративную сеть, состоящую из 32 последовательных шагов, система успешно завершила сценарий в 6 из 10 попыток – по сравнению с 3 из 10 при предыдущем тестировании. В институте подчеркивают, что "значительные скачки в возможностях не всегда требуют выпуска полностью новых моделей – более поздние итерации той же системы могут существенно изменить наши оценки".
Эти выводы дополняют апрельскую оценку, согласно которой "Mythos" стала первой ИИ-системой, самостоятельно выполнившей сквозную симуляцию атаки на корпоративную сеть – задачу, на которую, по оценке института, опытный специалист потратил бы около 20 часов работы.
Сейчас эксперты подсчитали, что ведущие наступательные кибервозможности ИИ удваиваются примерно каждые четыре месяца, тогда как к концу 2025 года этот темп составлял около семи месяцев.
Несанкционированный доступ и геополитические амбиции
На фоне растущей мощности модели возрастают и вопросы о том, способен ли Anthropic держать её под контролем. В день апрельского анонса "Mythos" группа неуполномоченных пользователей получила доступ к системе, воспользовавшись уязвимостью в среде стороннего поставщика, сообщает "Bloomberg".
Anthropic заявляет, что нет доказательств компрометации основных систем компании, но инцидент подчеркивает риск того, что даже ограниченные модели могут выйти за рамки, предусмотренные их разработчиками.
Параллельно с этим "The New York Times" информирует, что в прошлом месяце во время встречи в Сингапуре, организованной в рамках мероприятия "Carnegie Endowment for International Peace", представитель китайского аналитического центра обратился к руководству Anthropic с просьбой предоставить Пекину доступ к "Mythos". Компания отказала. По информации издания, сотрудники Совета национальной безопасности США были уведомлены о разговоре и отреагировали с беспокойством.
Разрыв между атакой и защитой
Новые данные института подчеркивают растущую асимметрию между наступательными и защитными приложениями ИИ. В апреле Anthropic запустила проект "Glasswing", посредством которого предоставила избранным партнерам – включая "Apple", "Microsoft", "Google", "Amazon" и "Nvidia" – ранний доступ к "Mythos" для использования в защитных целях.
Однако исследователи безопасности предупреждают, что подобная модель фактически создает двухуровневую систему: организации вне этого узкого круга остаются уязвимыми перед потенциалом модели, не имея возможности воспользоваться её оборонительными возможностями.
„Когда эта технология станет широко доступной – а сами сотрудники Anthropic говорят о горизонте от шести до восемнадцати месяцев – организации, которые и раньше отставали, не просто отстанут еще больше“, – прокомментировал Спенсер Уитман, директор по продукту в компании по ИИ-безопасности "Gray Swan", в интервью "Fortune". „Модель, на которой они строили свои программы, просто перестанет работать“.
Что дальше: регулирование, этика и практическая защита
Скорость, с которой "Mythos" улучшает навыки имитации и автоматизации сложных кибератак, ставит под вопрос готовность регуляторов и корпоративных систем безопасности реагировать вовремя. Возникают ключевые дилеммы: как ограничить доступ к подобным моделям, не блокируя развитие легитимных защитных приложений, и как гарантировать, что прорывы, подобные несанкционированному доступу через стороннего поставщика, не станут каналом для преступных или государственных акторов.
Похожие публикации
ИИ в повседневной жизни: помощник или риск? Как соблюдать разумные границы
"ЕС в тревоге: "Mythos" от Anthropic разжигает страхи перед новой эрой киберугроз"
Смарт устройства и ИИ: гонка за прогнозирование болезней на годы раньше
Бургас внедряет дроны для защиты от пожаров и кризисов в рамках проекта Med-IREN
Эксперты предупреждают, что окно для подготовки ограничено. Если прогнозы о массовом распространении в течение года-полутора сбудутся, организации, которые не инвестируют в современные системы кибербезопасности и политики ответственного использования ИИ, рискуют не просто отстать, а стать легкой мишенью для нового поколения автоматизированных атак.
Коментари (5)
mega_boss
14.05.2026, 12:17Абе, сериозно ли? Два пъти повече?! 🤦♂️ Да не би да сме си помислили, че ИИ ще ни остави на мира, а? Все едно някой да пуска още един геймър, дето го е ядче, че не може да хакне света.
Млад_Реалист
14.05.2026, 12:22абе, тоя mythos... наистина ли трябваше да го правят толкова силен? да не би умишлено да под
Yordan97
14.05.2026, 12:21абе, сериозно ли? два пъти повече кибератаки симулира?! това mythos нещо май става все по-мощно... и как ще смогнем с тези атаки тогава, а? да не говорим, че регулациите явно изостават.
19C9EE3FD5
14.05.2026, 12:42Хм... интересно. Сериозно притеснителна новина, ако е вярно това за двойното увеличение на симулациите. Наистина ли сме подготвени? ИИ прогресира с бързи темпове, а ние все още се борим със стари проблеми и бавни
Stoyan29
14.05.2026, 13:00Ей, хора! Видях новината за Mythos-а... наистина ли симулира два пъти повече кибератаки сега? Малко ме е притеснило, честно казано. Все пак трябва да сме наясно с тези неща и да гледаме как може да се подготвим по-добре. Дали българските институции са достатъчно ин