Google виявив новий вірус PROMPTFLUX: штучний інтелект допомагає кіберзагрозі переписувати свій код

17.11.2025 | Технології

Дослідники Google виявили шкідливе програмне забезпечення PROMPTFLUX, яке використовує AI для динамічної зміни та приховування власного коду, ускладнюючи його виявлення антивірусними програмами.

Снимка от The Pancake of Heaven!, Wikimedia Commons (CC BY-SA 4.0)

Команда Google Threat Intelligence Group оголосила, що ідентифікувала новий експериментальний тип шкідливого програмного забезпечення — вірус PROMPTFLUX, який використовує штучний інтелект (AI) для безпосередньої модифікації власного програмного коду в процесі атаки. Для цього використовується Gemini AI — модель, яка дозволяє вірусу періодично надсилати конкретні запити (промпти) з проханням про нові варіації VBScript для кращого приховування та уникнення статичних антивірусних підписів.

PROMPTFLUX є першим вірусом, який впроваджує модуль "Thinking Robot", який багаторазово консультується з LLM (великою мовною моделлю), щоб змінювати свої алгоритми в реальному часі. Кожної години, за допомогою API-ключа та прямого зв'язку з AI, PROMPTFLUX автоматично генерує нову версію свого ядра та приховує її в папці автоматичного запуску Windows, щоб гарантувати стійкість зараження та ускладнити аналіз.

Google повідомляє, що було виявлено кілька експериментальних версій PROMPTFLUX, деякі з яких перезаписують весь свій код щогодини, використовуючи машиночитні промпти для максимального ускладнення розшифровки. Шкідливе програмне забезпечення автоматично реєструє відповіді AI в системних журналах і має потенціал для поширення через USB-пристрої та мережеві диски.

Наразі PROMPTFLUX знаходиться на стадії тестування — немає масових випадків масштабного компрометування систем, але фахівці попереджають, що технологія підходить для створення важко виявлюваних вірусів і може знаменувати нову тенденцію в еволюції кібератак.
"Це важливий крок до повністю автономного, самоадаптуючого шкідливого коду. Кожна автогенерація вірусу ускладнює завдання організацій, що захищаються," — коментують у Google.

У доповіді Google зазначається, що в майбутньому шкідливі актори перейдуть від використання AI як виключення до перетворення його на основний засіб атаки, здатний багаторазово масштабувати зловмисні кампанії. Експерти радять організаціям підвищувати рівень своєї кібербезпеки та впроваджувати системи динамічного AI-аналізу"