Src |
Date (GMT) |
Titre |
Description |
Tags |
Stories |
Notes |
 |
2025-03-19 15:58:16 |
Les chercheurs utilisent l'IA jailbreak sur les LLMS pour créer un infostealer Chrome Researchers Use AI Jailbreak on Top LLMs to Create Chrome Infostealer (lien direct) |
New Immersive World LLM Jailbreak permet à quiconque de créer des logiciels malveillants avec Genai. Découvrez comment les chercheurs de Cato Networks ont trompé Chatgpt, Copilot et Deepseek dans le codage des infostelleurs - dans ce cas, un infostealer chromé.
New Immersive World LLM jailbreak lets anyone create malware with GenAI. Discover how Cato Networks researchers tricked ChatGPT, Copilot, and DeepSeek into coding infostealers - In this case, a Chrome infostealer. |
Malware
|
ChatGPT
|
★★★
|
 |
2024-01-26 17:26:19 |
Des milliers de messages Web sombres exposent des plans d'abus de chatpt Thousands of Dark Web Posts Expose ChatGPT Abuse Plans (lien direct) |
> Par deeba ahmed
Les cybercriminels font activement la promotion de l'abus de chatppt et de chatbots similaires, offrant une gamme d'outils malveillants, des logiciels malveillants aux kits de phishing.
Ceci est un article de HackRead.com Lire la publication originale: Des milliers de messages Web sombres exposent des plans d'abus de chatppt
>By Deeba Ahmed
Cybercriminals are actively promoting the abuse of ChatGPT and similar chatbots, offering a range of malicious tools from malware to phishing kits.
This is a post from HackRead.com Read the original post: Thousands of Dark Web Posts Expose ChatGPT Abuse Plans |
Malware
Tool
|
ChatGPT
|
★★★
|