What's new arround internet

Last one

Src Date (GMT) Titre Description Tags Stories Notes
zataz.webp 2023-04-26 13:22:52 ChatGPT : contrôler et effacer ce que vous lui avez dit ! (lien direct) OpenAI, la société à l'origine de la création de ChatGPT, a récemment annoncé la mise en place de nouvelles fonctionnalités pour mieux respecter la vie privée de ses utilisateurs.... ChatGPT ChatGPT ★★★
DataSecurityBreach.webp 2023-04-26 13:15:11 Contrôler ChatGPT avant qu\'il ne vous contrôle ! (lien direct) OpenAI, créateur de chatGPT, a annoncé qu'il sera désormais possible de ne pas conserver les entretiens et de ne pas les utiliser comme données de formation. On vous montre ce que sait l'IA sur vous et comment détruire vos informations personnelles. ChatGPT ChatGPT ★★
Chercheur.webp 2023-04-26 10:51:22 AI pour aider la démocratie
AI to Aid Democracy
(lien direct)
il y a une bonne raison de craindre que A.I.Des systèmes comme Chatgpt et GPT4 nuiront à la démocratie.Le débat public peut être submergé par des quantités industrielles d'arguments autogénérés.Les gens pourraient tomber dans des trous de lapin politiques, accueillis par des conneries superficiellement convaincantes, ou obsédées par folies & agrave;Deux relations avec les personnalités de la machine qui n'existent pas vraiment. Ces risques peuvent être les retombées d'un monde où les entreprises déploient un A.I.Systèmes dans une bataille pour la part de marché, chacun espérant établir un monopole. mais la dystopie n'est pas le seul avenir possible.A.I.pourrait faire avancer le bien public, pas le profit privé, et renforcer la démocratie au lieu de le saper.Cela nécessiterait un A.I.Pas sous le contrôle d'un grand monopole technologique, mais plutôt développé par le gouvernement et disponible pour tous les citoyens.Cette option publique est à portée de main si nous le voulons ...
There’s good reason to fear that A.I. systems like ChatGPT and GPT4 will harm democracy. Public debate may be overwhelmed by industrial quantities of autogenerated argument. People might fall down political rabbit holes, taken in by superficially convincing bullshit, or obsessed by folies à deux relationships with machine personalities that don’t really exist. These risks may be the fallout of a world where businesses deploy poorly tested A.I. systems in a battle for market share, each hoping to establish a monopoly. But dystopia isn’t the only possible future. A.I. could advance the public good, not private profit, and bolster democracy instead of undermining it. That would require an A.I. not under the control of a large tech monopoly, but rather developed by government and available to all citizens. This public option is within reach if we want it...
Industrial ChatGPT ChatGPT ★★
Anomali.webp 2023-04-25 18:22:00 Anomali Cyber Watch: Deux attaques de la chaîne d'approvisionnement enchaînées, leurre de communication DNS furtive de chien, Evilextractor exfiltrates sur le serveur FTP
Anomali Cyber Watch: Two Supply-Chain Attacks Chained Together, Decoy Dog Stealthy DNS Communication, EvilExtractor Exfiltrates to FTP Server
(lien direct)
The various threat intelligence stories in this iteration of the Anomali Cyber Watch discuss the following topics: APT, Cryptomining, Infostealers, Malvertising, North Korea, Phishing, Ransomware, and Supply-chain attacks. The IOCs related to these stories are attached to Anomali Cyber Watch and can be used to check your logs for potential malicious activity. Figure 1 - IOC Summary Charts. These charts summarize the IOCs attached to this magazine and provide a glimpse of the threats discussed. Trending Cyber News and Threat Intelligence First-Ever Attack Leveraging Kubernetes RBAC to Backdoor Clusters (published: April 21, 2023) A new Monero cryptocurrency-mining campaign is the first recorded case of gaining persistence via Kubernetes (K8s) Role-Based Access Control (RBAC), according to Aquasec researchers. The recorded honeypot attack started with exploiting a misconfigured API server. The attackers preceded by gathering information about the cluster, checking if their cluster was already deployed, and deleting some existing deployments. They used RBAC to gain persistence by creating a new ClusterRole and a new ClusterRole binding. The attackers then created a DaemonSet to use a single API request to target all nodes for deployment. The deployed malicious image from the public registry Docker Hub was named to impersonate a legitimate account and a popular legitimate image. It has been pulled 14,399 times and 60 exposed K8s clusters have been found with signs of exploitation by this campaign. Analyst Comment: Your company should have protocols in place to ensure that all cluster management and cloud storage systems are properly configured and patched. K8s buckets are too often misconfigured and threat actors realize there is potential for malicious activity. A defense-in-depth (layering of security mechanisms, redundancy, fail-safe defense processes) approach is a good mitigation step to help prevent actors from highly-active threat groups. MITRE ATT&CK: [MITRE ATT&CK] T1190 - Exploit Public-Facing Application | [MITRE ATT&CK] T1496 - Resource Hijacking | [MITRE ATT&CK] T1036 - Masquerading | [MITRE ATT&CK] T1489 - Service Stop Tags: Monero, malware-type:Cryptominer, detection:PUA.Linux.XMRMiner, file-type:ELF, abused:Docker Hub, technique:RBAC Buster, technique:Create ClusterRoleBinding, technique:Deploy DaemonSet, target-system:Linux, target:K8s, target:​​Kubernetes RBAC 3CX Software Supply Chain Compromise Initiated by a Prior Software Supply Chain Compromise; Suspected North Korean Actor Responsible (published: April 20, 2023) Investigation of the previously-reported 3CX supply chain compromise (March 2023) allowed Mandiant researchers to detect it was a result of prior software supply chain attack using a trojanized installer for X_TRADER, a software package provided by Trading Technologies. The attack involved the publicly-available tool SigFlip decrypting RC4 stream-cipher and starting publicly-available DaveShell shellcode for reflective loading. It led to installation of the custom, modular VeiledSignal backdoor. VeiledSignal additional modules inject the C2 module in a browser process instance, create a Windows named pipe and Ransomware Spam Malware Tool Threat Cloud Uber APT 38 ChatGPT APT 43 ★★
knowbe4.webp 2023-04-25 13:00:00 Cyberheistnews Vol 13 # 17 [Head Start] Méthodes efficaces Comment enseigner l'ingénierie sociale à une IA
CyberheistNews Vol 13 #17 [Head Start] Effective Methods How To Teach Social Engineering to an AI
(lien direct)
CyberheistNews Vol 13 #17 CyberheistNews Vol 13 #16  |   April 18th, 2023 [Finger on the Pulse]: How Phishers Leverage Recent AI Buzz Curiosity leads people to suspend their better judgment as a new campaign of credential theft exploits a person\'s excitement about the newest AI systems not yet available to the general public. On Tuesday morning, April 11th, Veriti explained that several unknown actors are making false Facebook ads which advertise a free download of AIs like ChatGPT and Google Bard. Veriti writes "These posts are designed to appear legitimate, using the buzz around OpenAI language models to trick unsuspecting users into downloading the files. However, once the user downloads and extracts the file, the Redline Stealer (aka RedStealer) malware is activated and is capable of stealing passwords and downloading further malware onto the user\'s device." Veriti describes the capabilities of the Redline Stealer malware which, once downloaded, can take sensitive information like credit card numbers, passwords, and personal information like user location, and hardware. Veriti added "The malware can upload and download files, execute commands, and send back data about the infected computer at regular intervals." Experts recommend using official Google or OpenAI websites to learn when their products will be available and only downloading files from reputable sources. With the rising use of Google and Facebook ads as attack vectors experts also suggest refraining from clicking on suspicious advertisements promising early access to any product on the Internet. Employees can be helped to develop sound security habits like these by stepping them through monthly social engineering simulations. Blog post with links:https://blog.knowbe4.com/ai-hype-used-for-phishbait [New PhishER Feature] Immediately Add User-Reported Email Threats to Your M365 Blocklist Now there\'s a super easy way to keep malicious emails away from all your users through the power of the KnowBe4 PhishER platform! The new PhishER Blocklist feature lets you use reported messages to prevent future malicious email with the same sender, URL or attachment from reaching other users. Now you can create a unique list of blocklist entries and dramatically improve your Microsoft 365 email filters with Spam Malware Hack Threat APT 28 ChatGPT ChatGPT ★★★
silicon.fr.webp 2023-04-25 11:23:02 Bug Bounty : Microsoft couvre (aussi) Bing et son chatbot (lien direct) Microsoft veut récompenser la découverte de vulnérabilités dans Bing, son moteur de recherche enrichi par un chatbot dérivé de ChatGPT d'OpenAI. ChatGPT ChatGPT ★★★
ComputerWeekly.webp 2023-04-24 05:28:00 Votre utilisation de votre employée pourrait-elle vous mettre en violation du RGPD?
Could your employees\\' use of ChatGPT put you in breach of GDPR?
(lien direct)
Pas de details / No more details ChatGPT ChatGPT ★★★
RecordedFuture.webp 2023-04-23 23:23:00 CISA ajoute un problème de bug d'imprimante, de chrome zéro-jour et de chatppt pour exploiter le catalogue des vulnérabilités
CISA adds printer bug, Chrome zero-day and ChatGPT issue to exploited vulnerabilities catalog
(lien direct)
L'Agence de sécurité de la cybersécurité et de l'infrastructure (CISA) a ajouté un problème affectant un outil de logiciel de gestion d'impression populaire à sa liste de vulnérabilités exploitées vendredi.Papercut est une société de logiciels qui produit des logiciels de gestion d'impression pour Canon, Epson, Xerox, Brother et presque toutes les autres grandes marques d'imprimantes.Leurs outils sont largement utilisés au sein des agences des gouvernements,
The Cybersecurity and Infrastructure Security Agency (CISA) added an issue affecting a popular print management software tool to its list of exploited vulnerabilities on Friday. PaperCut is a software company that produces printing management software for Canon, Epson, Xerox, Brother and almost every other major printer brand. Their tools are widely used within governments agencies,
Tool ChatGPT ChatGPT ★★★
Korben.webp 2023-04-23 12:10:34 Attention à la sécurité de votre code généré avec ChatGPT (lien direct) Il y a quelque temps, j’ai découvert une étude intéressante réalisée par des chercheurs de l’Université du Québec sur la sécurité du code généré par ChatGPT, le modèle de langage développé par OpenAI. Vous vous demandez peut-être ce qu’ils ont trouvé ? Eh bien, accrochez-vous, car les résultats sont surprenants … Suite ChatGPT ChatGPT ★★★
bleepingcomputer.webp 2023-04-22 10:08:16 Google Ads Push Bumblebee Malware utilisé par Ransomware Gangs
Google ads push BumbleBee malware used by ransomware gangs
(lien direct)
Le logiciel malveillant Bumblebee ciblant l'entreprise est distribué via Google Ads et un empoisonnement SEO qui favorisent des logiciels populaires comme Zoom, Cisco AnyConnect, Chatgpt et Citrix Workspace.[...]
The enterprise-targeting Bumblebee malware is distributed through Google Ads and SEO poisoning that promote popular software like Zoom, Cisco AnyConnect, ChatGPT, and Citrix Workspace. [...]
Ransomware Malware ChatGPT ★★
News.webp 2023-04-21 09:33:14 Les fans de Chatgpt ont besoin de l'esprit défensif \\ 'pour éviter les escrocs et les logiciels malveillants
ChatGPT fans need \\'defensive mindset\\' to avoid scammers and malware
(lien direct)
Palo Alto Networks Spotts des pointes d'activité suspecte telles que les domaines coquins, le phishing et pire Les fans de Chatgpt doivent adopter un "état d'esprit défensif" parce que les escrocs ont commencé à utiliser plusieurs méthodes pour tromper le bot \\ ''S des utilisateurs pour télécharger des logiciels malveillants ou partager des informations sensibles.…
Palo Alto Networks spots suspicious activity spikes such as naughty domains, phishing, and worse ChatGPT fans need to adopt a "defensive mindset" because scammers have started using multiple methods to trick the bot\'s users into downloading malware or sharing sensitive information.…
Malware ChatGPT ChatGPT ★★
The_Hackers_News.webp 2023-04-20 16:48:00 Les angles morts de la protection des données de Chatgpt \\ et comment les équipes de sécurité peuvent les résoudre
ChatGPT\\'s Data Protection Blind Spots and How Security Teams Can Solve Them
(lien direct)
En peu de temps depuis leur création, Chatgpt et d'autres plates-formes d'IA génératrices ont légalement acquis la réputation de boosters de productivité ultime.Cependant, la même technologie qui permet une production rapide de texte de haute qualité à la demande peut en même temps exposer des données d'entreprise sensibles.Un incident récent, dans lequel les ingénieurs logiciels de Samsung ont collé le code propriétaire dans le chatppt,
In the short time since their inception, ChatGPT and other generative AI platforms have rightfully gained the reputation of ultimate productivity boosters. However, the very same technology that enables rapid production of high-quality text on demand, can at the same time expose sensitive corporate data. A recent incident, in which Samsung software engineers pasted proprietary code into ChatGPT,
ChatGPT ChatGPT ★★
InfoSecurityMag.webp 2023-04-20 15:30:00 URL malveillants liés à Chatgpt en augmentation
ChatGPT-Related Malicious URLs on the Rise
(lien direct)
Les domaines nouvellement enregistrés et accroupis liés à Chatgpt ont augmenté de 910% entre novembre et avril
Newly registered and squatting domains related to ChatGPT grew by 910% between November and April
ChatGPT ChatGPT ★★
globalsecuritymag.webp 2023-04-20 12:41:01 ChatGPT - Les arnaques se multiplient, les cyber escrocs peaufinent leurs techniques (lien direct) ChatGPT - Les arnaques se multiplient, les cyber escrocs peaufinent leurs techniques par l'Unit 42 de Palo Alto Networks - Malware Update ChatGPT ChatGPT ★★★
ComputerWeekly.webp 2023-04-20 11:46:00 Le malware de Bumblebee vole sur les ailes de Zoom et Chatgpt
Bumblebee malware flies on the wings of Zoom and ChatGPT
(lien direct)
Pas de details / No more details Malware ChatGPT ChatGPT ★★
SecureWork.webp 2023-04-20 10:49:00 Bumblebee malware distribué via des téléchargements d'installation trojanisés
Bumblebee Malware Distributed Via Trojanized Installer Downloads
(lien direct)
Type: Blogs Bumblebee Malware distribué via des téléchargements d'installation trojanisés La restriction du téléchargement et de l'exécution des logiciels tiers est d'une importance cruciale. Apprenez comment les chercheurs CTU ™ ont observé Bumblebee Micware BumblebeeDistribué via des installateurs transmissibles pour des logiciels populaires tels que Zoom, Cisco AnyConnect, Chatgpt et Citrix Workspace.
Type: BlogsBumblebee Malware Distributed Via Trojanized Installer DownloadsRestricting the download and execution of third-party software is critically important.Learn how CTU™ researchers observed Bumblebee malware distributed via trojanized installers for popular software such as Zoom, Cisco AnyConnect, ChatGPT, and Citrix Workspace.
Malware ChatGPT ★★
silicon.fr.webp 2023-04-20 08:26:43 StableLM : les choses à savoir sur ce concurrent de ChatGPT (lien direct) Stability AI regroupera ses modèles générateurs de texte et de code sous la marque StableLM. Il en a publié une première série. ChatGPT ChatGPT ★★
silicon.fr.webp 2023-04-19 14:39:19 Comment minimiser les risques de cybersécurité de ChatGPT ? (lien direct) Les entreprises doivent anticiper que les attaquants seront de plus en plus friands d'outils basés sur l'IA, comme ChatGPT, et que seules des méthodes également automatisées permettront de les contrer. ChatGPT ChatGPT ★★
WiredThreatLevel.webp 2023-04-19 11:00:00 Comment le chatppt et les robots comme IT-CAN Spread Malewware
How ChatGPT-and Bots Like It-Can Spread Malware
(lien direct)
L'IA générative est un outil, ce qui signifie qu'il peut également être utilisé par les cybercriminels.Voici comment vous protéger.
Generative AI is a tool, which means it can be used by cybercriminals, too. Here\'s how to protect yourself.
Malware ChatGPT ★★
DarkReading.webp 2023-04-18 14:00:00 Comment zéro confiance peut protéger les systèmes contre les agents d'IA génératifs
How Zero Trust Can Protect Systems Against Generative AI Agents
(lien direct)
Les chercheurs explorent une relation amoureuse avec des outils d'IA comme Chatgpt, qui peuvent être utilisées à la fois pour attaquer et défendre plus efficacement.
Researchers explore a love-hate relationship with AI tools like ChatGPT, which can be used to both attack and defend more efficiently.
ChatGPT ★★
knowbe4.webp 2023-04-18 13:00:00 Cyberheistnews Vol 13 # 16 [doigt sur le pouls]: comment les phishers tirent parti de l'IA récent Buzz
CyberheistNews Vol 13 #16 [Finger on the Pulse]: How Phishers Leverage Recent AI Buzz
(lien direct)
CyberheistNews Vol 13 #16 CyberheistNews Vol 13 #16  |   April 18th, 2023 [Finger on the Pulse]: How Phishers Leverage Recent AI Buzz Curiosity leads people to suspend their better judgment as a new campaign of credential theft exploits a person\'s excitement about the newest AI systems not yet available to the general public. On Tuesday morning, April 11th, Veriti explained that several unknown actors are making false Facebook ads which advertise a free download of AIs like ChatGPT and Google Bard. Veriti writes "These posts are designed to appear legitimate, using the buzz around OpenAI language models to trick unsuspecting users into downloading the files. However, once the user downloads and extracts the file, the Redline Stealer (aka RedStealer) malware is activated and is capable of stealing passwords and downloading further malware onto the user\'s device." Veriti describes the capabilities of the Redline Stealer malware which, once downloaded, can take sensitive information like credit card numbers, passwords, and personal information like user location, and hardware. Veriti added "The malware can upload and download files, execute commands, and send back data about the infected computer at regular intervals." Experts recommend using official Google or OpenAI websites to learn when their products will be available and only downloading files from reputable sources. With the rising use of Google and Facebook ads as attack vectors experts also suggest refraining from clicking on suspicious advertisements promising early access to any product on the Internet. Employees can be helped to develop sound security habits like these by stepping them through monthly social engineering simulations. Blog post with links:https://blog.knowbe4.com/ai-hype-used-for-phishbait [New PhishER Feature] Immediately Add User-Reported Email Threats to Your M365 Blocklist Now there\'s a super easy way to keep malicious emails away from all your users through the power of the KnowBe4 PhishER platform! The new PhishER Blocklist feature lets you use reported messages to prevent future malicious email with the same sender, URL or attachment from reaching other users. Now you can create a unique list of blocklist entries and dramatically improve your Microsoft 365 email filters without ever leav Spam Malware Hack Threat APT 28 ChatGPT ChatGPT ★★★
globalsecuritymag.webp 2023-04-18 09:14:27 Rapport Zscaler ThreatLabz 2023 sur le phishing (lien direct) Rapport Zscaler ThreatLabz 2023 sur le phishing Avec une augmentation de près de 50 %, les attaques de phishing touchent principalement les administrations publiques, ainsi que les secteurs de l'éducation et de la finance. Le rapport annuel '2023 ThreatLabz Phishing Report' met en lumière de nouvelles campagnes de phishing sophistiquées et en constante évolution, résultant de l'utilisation croissante de plateformes d'IA comme ChatGPT par les cybercriminels. Principales conclusions • En 2022, les attaques de phishing ont connu une hausse de près de 50 % dans le monde par rapport à 2021. • Le secteur de l'éducation a été le plus durement touché, avec une augmentation alarmante de 576 % des attaques, suivi de près par les secteurs de la finance et des administrations publiques. En revanche, le secteur du commerce de détail et de gros, qui était la cible principale l'année dernière, a connu une baisse de 67 %. • Les États-Unis, le Royaume-Uni, les Pays-Bas, le Canada et la Russie sont les cinq pays les plus ciblés par les attaques de phishing. • Les outils d'IA tels que ChatGPT et les kits de phishing ont largement contribué à la croissance du phishing et ce, en réduisant les obstacles techniques pour les cybercriminels et en leur permettant de gagner du temps et des ressources. • Le phishing par SMS (SMiShing) évolue vers le phishing par boîte vocale (Vishing), incitant davantage de victimes à ouvrir des pièces jointes malveillantes. • Une architecture Zero Trust basée sur un proxy natif dans le cloud est essentielle pour que les entreprises renforcent leur sécurité en ligne et se protègent contre l'évolution des attaques de phishing. - Investigations Cloud ChatGPT ChatGPT ★★★
InfoSecurityMag.webp 2023-04-18 07:01:00 Les attaques de phishing augmentent alors que les acteurs de la menace tirent parti de nouveaux outils d'IA
Phishing Attacks Surge as Threat Actors Leverage New AI Tools
(lien direct)
Des modèles de grandes langues comme Chatgpt et les kits de phishing ont considérablement contribué à la croissance du phishing, les affirmations du rapport de phishing de Zscaler \'s 2023
Large language models like ChatGPT and phishing kits have significantly contributed to the growth of phishing, Zscaler\'s 2023 ThreatLabz Phishing Report claims
Threat ChatGPT ChatGPT ★★
01net.webp 2023-04-14 16:00:37 Le patron d\'OpenAI annonce mettre le holà sur les prochaines versions de ChatGPT (lien direct) chatgpt 4Il n'y aura pas de GPT-5 avant un moment, a expliqué Sam Altman, l'homme à la tête d'OpenAI - la société américaine qui a développé ChatGPT. Le PDG s'exprimait pour la première fois sur la lettre demandant l'arrêt de l'IA. ChatGPT ChatGPT ★★
silicon.fr.webp 2023-04-14 09:01:06 RGPD : ChatGPT examiné par la Cnil (lien direct) Suite à cinq plaintes déposées à propos de l'usage des données personnelles utilisées par ChatGPT, la Cnil ouvre une "une procédure de contrôle". ChatGPT ChatGPT ★★
Checkpoint.webp 2023-04-13 11:00:11 Nouvelles problèmes de chatppt4.0: un marché pour les comptes premium volés
New ChatGPT4.0 Concerns: A Market for Stolen Premium Accounts
(lien direct)
> Depuis décembre 2022, Check Point Research (RCR) a soulevé des préoccupations concernant les implications de Catgpt \\ pour la cybersécurité.Désormais, la RCR prévient également qu'il y a une augmentation du commerce des comptes de premium Chatgpt volés, qui permettent aux cybercriminels de contourner les restrictions d'Openai \\ et d'obtenir un accès illimité à Chatgpt.Le marché des prises de compte (ATOS), comptes volés à différents services en ligne, est l'un des marchés les plus florissants du piratage sous terre et dans la toile sombre.Traditionnellement, ce marché a mis l'accent sur les comptes de services financiers volés (banques, systèmes de paiement en ligne, etc.), les médias sociaux, les sites Web de rencontres en ligne, les e-mails, etc.Depuis [& # 8230;]
>Since December 2022, Check Point Research (CPR) has raised concerns about ChatGPT\'s implications for cybersecurity. Now, CPR also warns that there is an increase in the trade of stolen ChatGPT Premium accounts, which enable cyber criminals to get around OpenAI\'s geofencing restrictions and get unlimited access to ChatGPT. The market of account takeovers (ATOs), stolen accounts to different online services, is one of the most flourishing markets in the hacking underground and in the dark web. Traditionally this market\'s focus was on stolen financial services accounts (banks, online payment systems, etc.), social media, online dating websites, emails, and more. Since […]
ChatGPT ChatGPT ★★★
silicon.fr.webp 2023-04-13 10:23:20 Bug Bounty : OpenAI sollicite les hackers pour améliorer ChatGPT (lien direct) Les hackers "éthiques" et autres chercheurs en sécurité pourront obtenir jusqu'à 20 000 $ par vulnérabilité signalée dans ChatGPT, indique OpenAI. ChatGPT ChatGPT ★★★
The_Hackers_News.webp 2023-04-13 10:05:00 Sécurité Chatgpt: le programme de primes de bug d'Openai \\ offre jusqu'à 20 000 $
ChatGPT Security: OpenAI\\'s Bug Bounty Program Offers Up to $20,000 Prizes
(lien direct)
Openai, la société derrière le chatbot AI ChatGpt AI massivement populaire, a lancé un programme de primes de bogues dans le but de s'assurer que ses systèmes sont "sûrs et sécurisés". À cette fin, il s'est associé à la plate-forme de sécurité du crowdsourced Bugcrowd pour des chercheurs indépendants afin de signaler les vulnérabilités découvertes dans son produit en échange de récompenses allant de "200 $ pour les résultats de faible sévérité jusqu'à jusqu'à
OpenAI, the company behind the massively popular ChatGPT AI chatbot, has launched a bug bounty program in an attempt to ensure its systems are "safe and secure." To that end, it has partnered with the crowdsourced security platform Bugcrowd for independent researchers to report vulnerabilities discovered in its product in exchange for rewards ranging from "$200 for low-severity findings to up to
ChatGPT ChatGPT ★★
NextINpact.webp 2023-04-13 05:33:54 #LeBrief : Tesla attaquée, Android 14 Beta, fausses accusations par ChatGPT, la Chine veut sa mission DART (lien direct) Pas de details / No more details ChatGPT ★★
DarkReading.webp 2023-04-12 21:57:00 Le rapport révèle que Chatgpt déjà impliqué dans les fuites de données, les escroqueries à phishing et les infections de logiciels malveillants
Report Reveals ChatGPT Already Involved in Data Leaks, Phishing Scams & Malware Infections
(lien direct)
Pas de details / No more details Malware ChatGPT ChatGPT ★★★★
no_ico.webp 2023-04-12 12:30:32 Trouver des vulnérabilités de chatppt peut payer des pirates jusqu'à 20 000 $
Finding ChatGPT Vulnerabilities May Pay Hackers Up To $20,000
(lien direct)
Dans le cadre de son programme Bug Bounty, présenté le 11 avril 2023, Openai paie des pirates de chapeau blanc jusqu'à 20 000 $ pour découvrir des trous de sécurité et des vulnérabilités de chatppt.Le développeur Chatgpt a introduit l'effort dans le cadre de leur dévouement à une IA de sécurité (IA).Les professionnels de la sécurité enquêtent sur l'entreprise depuis que le prototype Chatgpt était [& # 8230;]
As part of its bug bounty program, introduced on April 11, 2023, OpenAI is paying white hat hackers up to $20,000 to discover security holes and ChatGPT Vulnerabilities. The ChatGPT developer introduced the effort as part of their dedication to safe AI (AI). Security professionals have been investigating the business since the ChatGPT prototype was […]
ChatGPT ChatGPT ★★★
knowbe4.webp 2023-04-12 12:20:54 Gagnez les guerres d'IA pour améliorer la sécurité et réduire le cyber-risque
Win The AI Wars To Enhance Security And Decrease Cyber Risk
(lien direct)
ChatGPT ChatGPT ★★
01net.webp 2023-04-12 10:30:17 Trouvez des bugs dans ChatGPT pourrait vous rapporter gros (lien direct) chatgptLe créateur de ChatGPT se dit prêt à vous payer jusqu'à 20 000 dollars - soit 18 300 euros - si vous trouvez des bugs dans son chatbot d'intelligence artificielle. ChatGPT ChatGPT ★★
InfoSecurityMag.webp 2023-04-12 08:50:00 Les pirates éthiques pourraient gagner jusqu'à 20 000 $ pour découvrir les vulnérabilités de Chatgpt
Ethical Hackers Could Earn up to $20,000 Uncovering ChatGPT Vulnerabilities
(lien direct)
Suite aux critiques autour des pratiques de sécurité et de confidentialité de Chatgpt \\ ', Openai a lancé un programme de primes de bogue pour aider à identifier les vulnérabilités à travers ses systèmes et services
Following criticisms around ChatGPT\' security and privacy practices, OpenAI has launched a bug bounty program to help identify vulnerabilities across its systems and services
ChatGPT ChatGPT ★★
silicon.fr.webp 2023-04-12 08:39:41 BlackMamba : le malware généré par ChatGPT est-il un nouveau type de menace ? (lien direct) BlackMamba est un malware d'essai, autrement dit un programme de démonstration reposant sur un exécutable bénin qui, en s'alliant à une IA ultra-réputée (OpenAI) à l'exécution, renvoie du code malveillant synthétisé et polymorphe censé dérober les informations saisies au clavier par l'utilisateur du système infecté. Malware ChatGPT ChatGPT ★★★
News.webp 2023-04-12 01:50:07 Les cyber-chefs américains avertissent l'IA aidera les escrocs, la Chine à développer des cyberattaques plus méchantes plus rapidement
US cyber chiefs warn AI will help crooks, China develop nastier cyberattacks faster
(lien direct)
Ce n'est pas tout le malheur et la tristesse car ML amplifie également les efforts défensifs, probablement Les robots comme Chatgpt peuvent ne pas être en mesure de retirer le prochain Big Microsoft Server Worm ou Ransomware Pipeline Ransomware Super-Infection mais ils peuvent aider les gangs criminels et les pirates de pirates nationaux à développer certaines attaques contre elle, selon Rob Joyce, directeur de la Direction de la cybersécurité de la NSA.…
It\'s not all doom and gloom because ML also amplifies defensive efforts, probably Bots like ChatGPT may not be able to pull off the next big Microsoft server worm or Colonial Pipeline ransomware super-infection but they may help criminal gangs and nation-state hackers develop some attacks against IT, according to Rob Joyce, director of the NSA\'s Cybersecurity Directorate.…
Ransomware ChatGPT ChatGPT ★★
SecurityWeek.webp 2023-04-11 20:58:38 Chatgpt Creator Openai prêt à payer des pirates pour les défauts de sécurité
ChatGPT Creator OpenAI Ready to Pay Hackers for Security Flaws
(lien direct)
> Chatgpt Creator Openai a annoncé un nouveau programme de primes de bogue qui paiera jusqu'à 20 000 $ pour un préavis sur les vulnérabilités de sécurité trouvées par les pirates.
>ChatGPT creator OpenAI announced a new bug bounty program that will pay up to $20,000 for advance notice on security vulnerabilities found by hackers.
ChatGPT ChatGPT ★★
DarkReading.webp 2023-04-11 15:04:00 Les attaquants cachent Redline Stealer derrière Chatgpt, Google Bard Facebook Ads
Attackers Hide RedLine Stealer Behind ChatGPT, Google Bard Facebook Ads
(lien direct)
La campagne lance l'infosteller de marchandises dans les fichiers OpenAI dans une pièce qui vise à profiter de l'intérêt public croissant pour les chatbots basés sur l'IA.
The campaign shrouds the commodity infostealer in OpenAI files in a play that aims to take advantage of the growing public interest in AI-based chatbots.
Threat ChatGPT ★★
knowbe4.webp 2023-04-11 13:16:54 Cyberheistnews Vol 13 # 15 [Le nouveau visage de la fraude] FTC fait la lumière sur les escroqueries d'urgence familiale améliorées AI-AI
CyberheistNews Vol 13 #15 [The New Face of Fraud] FTC Sheds Light on AI-Enhanced Family Emergency Scams
(lien direct)
CyberheistNews Vol 13 #15 CyberheistNews Vol 13 #15  |   April 11th, 2023 [The New Face of Fraud] FTC Sheds Light on AI-Enhanced Family Emergency Scams The Federal Trade Commission is alerting consumers about a next-level, more sophisticated family emergency scam that uses AI which imitates the voice of a "family member in distress." They started out with: "You get a call. There\'s a panicked voice on the line. It\'s your grandson. He says he\'s in deep trouble - he wrecked the car and landed in jail. But you can help by sending money. You take a deep breath and think. You\'ve heard about grandparent scams. But darn, it sounds just like him. How could it be a scam? Voice cloning, that\'s how." "Don\'t Trust The Voice" The FTC explains: "Artificial intelligence is no longer a far-fetched idea out of a sci-fi movie. We\'re living with it, here and now. A scammer could use AI to clone the voice of your loved one. All he needs is a short audio clip of your family member\'s voice - which he could get from content posted online - and a voice-cloning program. When the scammer calls you, he\'ll sound just like your loved one. "So how can you tell if a family member is in trouble or if it\'s a scammer using a cloned voice? Don\'t trust the voice. Call the person who supposedly contacted you and verify the story. Use a phone number you know is theirs. If you can\'t reach your loved one, try to get in touch with them through another family member or their friends." Full text of the alert is at the FTC website. Share with friends, family and co-workers:https://blog.knowbe4.com/the-new-face-of-fraud-ftc-sheds-light-on-ai-enhanced-family-emergency-scams A Master Class on IT Security: Roger A. Grimes Teaches Ransomware Mitigation Cybercriminals have become thoughtful about ransomware attacks; taking time to maximize your organization\'s potential damage and their payoff. Protecting your network from this growing threat is more important than ever. And nobody knows this more than Roger A. Grimes, Data-Driven Defense Evangelist at KnowBe4. With 30+ years of experience as a computer security consultant, instructor, and award-winning author, Roger has dedicated his life to making Ransomware Data Breach Spam Malware Hack Tool Threat ChatGPT ChatGPT ★★
DarkReading.webp 2023-04-11 13:00:00 Les ingénieurs Samsung nourrissent des données sensibles à Chatgpt, étincelant les avertissements d'IA en milieu de travail
Samsung Engineers Feed Sensitive Data to ChatGPT, Sparking Workplace AI Warnings
(lien direct)
Dans trois incidents distincts, les ingénieurs du géant de l'électronique coréen auraient partagé des données d'entreprise sensibles avec le chatbot propulsé par l'IA.
In three separate incidents, engineers at the Korean electronics giant reportedly shared sensitive corporate data with the AI-powered chatbot.
ChatGPT ★★
silicon.fr.webp 2023-04-11 09:16:40 Alibaba lance un chatbot IA de type ChatGPT (lien direct) Le groupe chinois Alibaba lance un chatbot de type ChatGPT appelé Tongyi Qianwen. Il prévoit de l'intégrer à tous les produits qu'il commercialise, notamment au sein d'Alibaba Cloud. ChatGPT ChatGPT ★★
Chercheur.webp 2023-04-10 11:23:02 LLMS et phishing
LLMs and Phishing
(lien direct)
Voici une expérience dirigée par des étudiants de premier cycle en informatique partout: demandez à Chatgpt de générer des e-mails de phishing et testez si ceux-ci sont meilleurs pour persuader les victimes de répondre ou de cliquer sur le lien que le spam habituel.C'est une expérience intéressante, et les résultats devraient varier follement basé sur les détails de l'expérience. Mais bien qu'il soit une expérience facile à exécuter, il manque le risque réel de modèles de grande langue (LLMS) à rédiger des e-mails d'escroquerie.Les escroqueries par l'homme aujourd'hui ne sont pas limitées par le nombre de personnes qui répondent au contact initial par e-mail.Ils sont limitées par le processus à forte intensité de main-d'œuvre de persuader ces personnes d'envoyer de l'argent à l'escroc.Les LLM sont sur le point de changer cela.Il y a dix ans, un type de courriel de spam était devenu une punchline à chaque émission de fin de soirée: & # 8220; Je suis le fils de feu le roi du Nigéria qui a besoin de votre aide & # 8230;. & # 8221;Presque tout le monde avait reçu un ou mille de ces e-mails, au point qu'il semblait que tout le monde devait savoir qu'ils étaient des escroqueries ...
Here’s an experiment being run by undergraduate computer science students everywhere: Ask ChatGPT to generate phishing emails, and test whether these are better at persuading victims to respond or click on the link than the usual spam. It’s an interesting experiment, and the results are likely to vary wildly based on the details of the experiment. But while it’s an easy experiment to run, it misses the real risk of large language models (LLMs) writing scam emails. Today’s human-run scams aren’t limited by the number of people who respond to the initial email contact. They’re limited by the labor-intensive process of persuading those people to send the scammer money. LLMs are about to change that. A decade ago, one type of spam email had become a punchline on every late-night show: “I am the son of the late king of Nigeria in need of your assistance….” Nearly everyone had gotten one or a thousand of those emails, to the point that it seemed everyone must have known they were scams...
Spam ChatGPT ChatGPT ★★★★
01net.webp 2023-04-07 13:00:42 Ce malware indétectable est signé… ChatGPT (lien direct) malware chatgptChatGPT est une arme redoutable pour les hackers. Avec l'aide de l'IA, il est possible de coder un dangereux malware indétectable... sans écrire une seule ligne de code. Malware ChatGPT ChatGPT ★★
DarkReading.webp 2023-04-06 14:00:00 À quoi discuter à la conférence RSA - et ce n'est pas le chatpt
What to Discuss at RSA Conference - and It\\'s Not ChatGPT
(lien direct)
Les conversations en personne sont un moyen productif de comprendre l'état de l'industrie et d'apprendre de nouvelles techniques.Profitez de l'expérience des pairs, comparez les notes et augmentez vos compétences.
In-person conversations are a productive way to understand the state of the industry and learn new techniques. Take advantage of peers\' experience, compare notes, and boost your skill set.
Conference ChatGPT ChatGPT ★★★
DarkReading.webp 2023-04-05 16:20:00 Le chercheur tourne le chat de la construction de logiciels malveillants de stéganographie indétectable
Researcher Tricks ChatGPT into Building Undetectable Steganography Malware
(lien direct)
En utilisant uniquement des invites Chatgpt, un chercheur de ForcePoint a convaincu l'IA de créer des logiciels malveillants pour trouver et exfiltrant des documents spécifiques, malgré sa directive de refuser les demandes malveillantes.
Using only ChatGPT prompts, a Forcepoint researcher convinced the AI to create malware for finding and exfiltrating specific documents, despite its directive to refuse malicious requests.
Malware ChatGPT ChatGPT ★★★
silicon.fr.webp 2023-04-04 13:57:07 ChatGPT, la fin de l\'humanité ? (lien direct) Cette technologie n'est pas nouvelle puisque les fondements ont été inventés il y a maintenant de nombreuses années, notamment par Google. Ce qui fait débat, c'est qu'elle est accessible depuis peu à tout un chacun et qu'elle permet de générer en une minute des textes de bonne qualité. ChatGPT ★★
knowbe4.webp 2023-04-04 13:00:00 CyberheistNews Vol 13 # 14 [Eyes sur le prix] Comment les inconvénients croissants ont tenté un courteur par e-mail de 36 millions de vendeurs
CyberheistNews Vol 13 #14 [Eyes on the Prize] How Crafty Cons Attempted a 36 Million Vendor Email Heist
(lien direct)
CyberheistNews Vol 13 #14 CyberheistNews Vol 13 #14  |   April 4th, 2023 [Eyes on the Prize] How Crafty Cons Attempted a 36 Million Vendor Email Heist The details in this thwarted VEC attack demonstrate how the use of just a few key details can both establish credibility and indicate the entire thing is a scam. It\'s not every day you hear about a purely social engineering-based scam taking place that is looking to run away with tens of millions of dollars. But, according to security researchers at Abnormal Security, cybercriminals are becoming brazen and are taking their shots at very large prizes. This attack begins with a case of VEC – where a domain is impersonated. In the case of this attack, the impersonated vendor\'s domain (which had a .com top level domain) was replaced with a matching .cam domain (.cam domains are supposedly used for photography enthusiasts, but there\'s the now-obvious problem with it looking very much like .com to the cursory glance). The email attaches a legitimate-looking payoff letter complete with loan details. According to Abnormal Security, nearly every aspect of the request looked legitimate. The telltale signs primarily revolved around the use of the lookalike domain, but there were other grammatical mistakes (that can easily be addressed by using an online grammar service or ChatGPT). This attack was identified well before it caused any damage, but the social engineering tactics leveraged were nearly enough to make this attack successful. Security solutions will help stop most attacks, but for those that make it past scanners, your users need to play a role in spotting and stopping BEC, VEC and phishing attacks themselves – something taught through security awareness training combined with frequent simulated phishing and other social engineering tests. Blog post with screenshots and links:https://blog.knowbe4.com/36-mil-vendor-email-compromise-attack [Live Demo] Ridiculously Easy Security Awareness Training and Phishing Old-school awareness training does not hack it anymore. Your email filters have an average 7-10% failure rate; you need a strong human firewall as your last line of defense. Join us TOMORROW, Wednesday, April 5, @ 2:00 PM (ET), for a live demo of how KnowBe4 i Ransomware Malware Hack Threat ChatGPT ChatGPT APT 43 ★★
Korben.webp 2023-04-04 07:30:56 Rapide.ly vous aide à créer du contenu assisté par IA (lien direct) — Article en partenariat avec Rapide.ly — En tant que lecteur habitué de mon site, vous avez remarqué que depuis quelques mois je parle pas mal d’Intelligence Artificielle. Depuis mes découvertes de ChatGPT ou encore de DALL-E 2 je m’éclate pas mal avec ce genre d’outils ! Je vous ai même partagé une vidéo d’une … Suite ChatGPT ChatGPT ★★
The_Hackers_News.webp 2023-04-03 16:55:00 Italian Watchdog Bans Openai \\'s Chatgpt sur les problèmes de protection des données
Italian Watchdog Bans OpenAI\\'s ChatGPT Over Data Protection Concerns
(lien direct)
Le chien de garde de la protection des données italiens, garant de la protection des données personnelles (AKA Guaranto), a imposé une interdiction temporaire du service Chatgpt d'Openai \\Dans le pays, citant des problèmes de protection des données. À cette fin, il a ordonné à l'entreprise de cesser de traiter les données des utilisateurs \\ 'avec un effet immédiat, indiquant qu'il avait l'intention d'enquêter sur l'entreprise sur le traitement illégal de ces données
The Italian data protection watchdog, Garante per la Protezione dei Dati Personali (aka Garante), has imposed a temporary ban of OpenAI\'s ChatGPT service in the country, citing data protection concerns. To that end, it has ordered the company to stop processing users\' data with immediate effect, stating it intends to investigate the company over whether it\'s unlawfully processing such data in
ChatGPT ChatGPT ★★
knowbe4.webp 2023-04-03 12:16:05 La fausse escroquerie de Chatgpt se transforme en un système de maquette frauduleux
Fake ChatGPT Scam Turns into a Fraudulent Money-Making Scheme
(lien direct)

Fake ChatGPT Scam Turns into a Fraudulent Money-Making Scheme
Threat ChatGPT ChatGPT ★★
Last update at: 2024-07-25 22:19:46
See our sources.
My email:

To see everything: Our RSS (filtrered) Twitter