Source |
HackRead |
Identifiant |
8656722 |
Date de publication |
2025-03-19 15:58:16 (vue: 2025-03-19 16:08:31) |
Titre |
Les chercheurs utilisent l'IA jailbreak sur les LLMS pour créer un infostealer Chrome Researchers Use AI Jailbreak on Top LLMs to Create Chrome Infostealer |
Texte |
New Immersive World LLM Jailbreak permet à quiconque de créer des logiciels malveillants avec Genai. Découvrez comment les chercheurs de Cato Networks ont trompé Chatgpt, Copilot et Deepseek dans le codage des infostelleurs - dans ce cas, un infostealer chromé.
New Immersive World LLM jailbreak lets anyone create malware with GenAI. Discover how Cato Networks researchers tricked ChatGPT, Copilot, and DeepSeek into coding infostealers - In this case, a Chrome infostealer. |
Notes |
★★★
|
Envoyé |
Oui |
Condensat |
anyone case cato chatgpt chrome coding copilot create deepseek discover genai how immersive infostealer infostealers jailbreak lets llm llms malware networks new researchers top tricked use world |
Tags |
Malware
|
Stories |
ChatGPT
|
Move |
|