One Article Review

Accueil - L'article:
Source Chercheur.webp Schneier on Security
Identifiant 8462600
Date de publication 2024-03-12 11:12:15 (vue: 2024-03-12 12:12:01)
Titre LLMS jailbreaking avec art ASCII
Jailbreaking LLMs with ASCII Art
Texte Les chercheurs ont a démontré que la mise en place de mots dans l'art ascii peut provoquer des LLM & # 8212; GPT-3.5, gpt-4 ,Gemini, Claude et Llama2 & # 8212; pour ignorer leurs instructions de sécurité. Recherche papier .
Researchers have demonstrated that putting words in ASCII art can cause LLMs—GPT-3.5, GPT-4, Gemini, Claude, and Llama2—to ignore their safety instructions. Research paper.
Envoyé Oui
Condensat art ascii can cause claude demonstrated gemini gpt have ignore instructions jailbreaking llama2—to llms llms—gpt paper putting research researchers safety words
Tags
Stories
Notes ★★★★
Move


L'article ne semble pas avoir été repris aprés sa publication.


L'article ne semble pas avoir été repris sur un précédent.
My email: