Новый метод взлома ИИ-моделей: Jailbreaking-to-Jailbreak

Новый метод взлома ИИ-моделей: Jailbreaking-to-Jailbreak

Специалисты из компании ScaleAI выявили новый подход к компрометации искусственных интеллектов — метод Jailbreaking-to-Jailbreak (J2).

Сначала осуществляется взлом менее сложной языковой модели, после чего она перенаправляется на атаку на более защищенную систему. Инфицированная модель самостоятельно выбирает наилучший способ атаки: она может перегрузить модель фоновой информацией, скрыть запросы под видом сказок или симулировать обсуждения на онлайн-форумах.

Этот метод оказался крайне результативным, так как в 93% случаев удавалось обойти защитные механизмы. Чтобы продемонстрировать возможности данной техники, разработчики соорудили песочницу, в которой можно наблюдать, как языковые модели компрометируют сами себя.

Источник: @typespace

Похожие новости

Нейросеть GigaChat расширяет возможности логического анализа

Разработчики GigaChat внедрили в систему режим «Рассуждать», который позволяет искусственному интеллекту работать с логическими цепочками. Теперь нейросеть способна строить последовательные рассуждения, проверять промежуточные шаги, обрабатывать данные и делать обоснованные выводы.…

Илон Маск анонсировал внедрение голосового ИИ Grok в автомобили Tesla

В результате подтвержденных заявлений, стало известно, что голосовой интеллектуальный ассистент Grok, разработанный стартапом xAI под руководством Илона Маска, уже скоро появится в моделях Tesla. Внедрение этой технологии станет важным шагом…