Source |
The Hacker News |
Identifiant |
8601391 |
Date de publication |
2024-10-23 15:24:00 (vue: 2024-10-23 17:30:27) |
Titre |
Les chercheurs révèlent \\ 'Deceptive Delight \\' Méthode pour jailbreaker AI Modèles Researchers Reveal \\'Deceptive Delight\\' Method to Jailbreak AI Models |
Texte |
Les chercheurs en cybersécurité ont mis en lumière une nouvelle technique contradictoire qui pourrait être utilisée pour jailbreaker des modèles de grands langues (LLM) au cours d'une conversation interactive en se faufilant dans une instruction indésirable entre les instructions bénignes.
L'approche a été nommée Deceptive Delight par Palo Alto Networks Unit 42, qui l'a décrit comme simple et efficace, réalisant une moyenne
Cybersecurity researchers have shed light on a new adversarial technique that could be used to jailbreak large language models (LLMs) during the course of an interactive conversation by sneaking in an undesirable instruction between benign ones.
The approach has been codenamed Deceptive Delight by Palo Alto Networks Unit 42, which described it as both simple and effective, achieving an average |
Notes |
★★★
|
Envoyé |
Oui |
Condensat |
achieving adversarial alto approach average been benign between both codenamed conversation could course cybersecurity deceptive delight described during effective has have instruction interactive jailbreak language large light llms method models networks new ones palo researchers reveal shed simple sneaking technique undesirable unit used which |
Tags |
|
Stories |
|
Move |
|