Source |
Schneier on Security |
Identifiant |
8462600 |
Date de publication |
2024-03-12 11:12:15 (vue: 2024-03-12 12:12:01) |
Titre |
LLMS jailbreaking avec art ASCII Jailbreaking LLMs with ASCII Art |
Texte |
Les chercheurs ont a démontré que la mise en place de mots dans l'art ascii peut provoquer des LLM & # 8212; GPT-3.5, gpt-4 ,Gemini, Claude et Llama2 & # 8212; pour ignorer leurs instructions de sécurité.
Recherche papier .
Researchers have demonstrated that putting words in ASCII art can cause LLMs—GPT-3.5, GPT-4, Gemini, Claude, and Llama2—to ignore their safety instructions.
Research paper. |
Envoyé |
Oui |
Condensat |
art ascii can cause claude demonstrated gemini gpt have ignore instructions jailbreaking llama2—to llms llms—gpt paper putting research researchers safety words |
Tags |
|
Stories |
|
Notes |
★★★★
|
Move |
|