Новый метод взлома ИИ-моделей: Jailbreaking-to-Jailbreak

Специалисты из компании ScaleAI выявили новый подход к компрометации искусственных интеллектов — метод Jailbreaking-to-Jailbreak (J2). Сначала осуществляется взлом менее сложной языковой модели, после чего она перенаправляется на атаку на более…