Уязвимости Gemini: как хакеры используют искусственный интеллект для атак

by · 02.04.2025

В мире кибербезопасности наблюдается растущее внимание к уязвимостям, связанным с использованием искусственного интеллекта. Одним из наиболее мощных инструментов для атак на большие языковые модели, такие как GPT-3 и GPT-4 от OpenAI или Copilot от Microsoft, стали косвенные инъекции запросов.

Косвенные инъекции запросов: угроза для безопасности

Косвенные инъекции запросов используют недостаток в способности языковых моделей различать запросы, заданные разработчиками, и текст, с которым взаимодействует модель. Это делает такие инъекции весьма эффективными для вызова нежелательных или вредоносных действий. Примеры подобных атак включают раскрытие конфиденциальных данных пользователей, таких как контакты или электронные письма, а также предоставление искажённых ответов, которые могут нарушить целостность важных вычислений.

Однако, несмотря на их мощь, злоумышленники сталкиваются с серьезной проблемой: внутренние механизмы закрытых моделей, таких как GPT, Claude от Anthropic и Gemini от Google, остаются под завесой тайны. Разработчики таких платформ строго ограничивают доступ к исходному коду и данным для обучения, что делает их «черными ящиками» для внешних пользователей. В результате создание работающих инъекций запросов требует значительных временных и трудозатратных усилий, а также множества итераций.

Алгоритмически сгенерированные атаки: шаг вперед

Впервые академические исследователи разработали метод, позволяющий создавать компьютерно сгенерированные инъекции запросов для Gemini, которые имеют значительно более высокий уровень успеха по сравнению с вручную созданными. Новый подход использует технику дообучения, доступную в некоторых закрытых моделях, что позволяет обучать их на больших объемах частных или специализированных данных, таких как юридические документы адвокатских контор, медицинские карты или архитектурные планы. Google предлагает возможность дообучения для API Gemini совершенно бесплатно.

Заключение

Таким образом, развитие технологий в области искусственного интеллекта открывает новые возможности как для защиты, так и для атак. Сложные механизмы и инструменты, такие как инъекции запросов, остаются актуальными вызовами для кибербезопасности и требуют внимательного подхода со стороны разработчиков и исследователей.

You may also like