Новый метод взлома ИИ-моделей: Jailbreaking-to-Jailbreak

Новый метод взлома ИИ-моделей: Jailbreaking-to-Jailbreak

Специалисты из компании ScaleAI выявили новый подход к компрометации искусственных интеллектов — метод Jailbreaking-to-Jailbreak (J2).

Сначала осуществляется взлом менее сложной языковой модели, после чего она перенаправляется на атаку на более защищенную систему. Инфицированная модель самостоятельно выбирает наилучший способ атаки: она может перегрузить модель фоновой информацией, скрыть запросы под видом сказок или симулировать обсуждения на онлайн-форумах.

Этот метод оказался крайне результативным, так как в 93% случаев удавалось обойти защитные механизмы. Чтобы продемонстрировать возможности данной техники, разработчики соорудили песочницу, в которой можно наблюдать, как языковые модели компрометируют сами себя.

Источник: @typespace

Похожие новости

Новые технологии антибликового покрытия для iPhone 17 Pro и других флагманов

Компания Apple успешно организовала массовое производство антибликового слоя для своих устройств, что ранее усложняло процесс сборки из-за сложности нанесения этого слоя на экран. Такое покрытие не только снижает блики и…

AirPods Pro 3 получат функцию мониторинга сердечного ритма

Новые модели AirPods Pro 3 будут оснащены встроенным датчиком для отслеживания сердечного ритма — той же технологии, которая используется в Powerbeats Pro 2. Эта функция ранее была доступна только в…