What's new arround internet

Last one

Src Date (GMT) Titre Description Tags Stories Notes
Korben.webp 2024-04-17 23:03:27 ChatGPT est plus efficace et moins coûteux qu\'un cybercriminel (lien direct) Les récents progrès des grands modèles de langage comme GPT-4 soulèvent des inquiétudes : ces IA avancées pourraient exploiter des failles critiques de cybersécurité plus efficacement que les hackers humains, menaçant la sécurité de nos systèmes. ChatGPT ★★
The_Hackers_News.webp 2024-04-17 16:37:00 Genai: un nouveau mal de tête pour les équipes de sécurité SaaS
GenAI: A New Headache for SaaS Security Teams
(lien direct)
L'introduction du Chatgpt d'Open Ai \\ a été un moment déterminant pour l'industrie du logiciel, touchant une course Genai avec sa version de novembre 2022.Les fournisseurs SaaS se précipitent désormais pour mettre à niveau les outils avec des capacités de productivité améliorées qui sont motivées par une IA générative. Parmi une large gamme d'utilisations, les outils Genai permettent aux développeurs de créer plus facilement des logiciels, d'aider les équipes de vente dans la rédaction de courrier électronique banal,
The introduction of Open AI\'s ChatGPT was a defining moment for the software industry, touching off a GenAI race with its November 2022 release. SaaS vendors are now rushing to upgrade tools with enhanced productivity capabilities that are driven by generative AI. Among a wide range of uses, GenAI tools make it easier for developers to build software, assist sales teams in mundane email writing,
Tool Cloud ChatGPT ★★
Korben.webp 2024-04-15 10:13:05 Les IA comme ChatGPT aident-elles réellement les étudiants en informatique ? (lien direct) Deux études explorent l'impact des générateurs de code IA sur l'apprentissage des étudiants novices en programmation, révélant à la fois les avantages et les pièges de ces outils puissants qui transforment l'enseignement de l'informatique. Tool ChatGPT ★★★
silicon.fr.webp 2024-04-11 15:03:45 Green AI, AI for green… Un état des lieux entre ChatGPT et la CSRD (lien direct) D'Air France à Worldline, 45 organisations ont témoigné sur la synergie entre IA et écologie. Voici quelques morceaux choisis du rapport qui en découle. ChatGPT ★★
RiskIQ.webp 2024-04-10 20:29:45 Campions de malvertisation détourne les médias sociaux pour répandre les voleurs ciblant les utilisateurs de logiciels AI
Malvertising Campaigns Hijack Social Media to Spread Stealers Targeting AI Software Users
(lien direct)
#### Géolocations ciblées - Europe du Sud - Europe du Nord - Europe de l'Ouest - L'Europe de l'Est ## Instantané BitDefender discute de l'utilisation croissante de l'intelligence artificielle (IA) par les cybercriminels pour mener des campagnes malvertisantes sur les plateformes de médias sociaux. ## Description Les acteurs de la menace ont usurpé l'identité d'un logiciel d'IA populaire tel que MidJourney, Sora AI, Dall-E 3, Evoto et Chatgpt 5 sur Facebook pour inciter les utilisateurs à télécharger des versions de bureau officielles prétendues de ces logiciels AI.Les pages Web malveillantes téléchargent ensuite des voleurs intrusifs tels que Rilide, Vidar, Icerat et Nova Stealer, qui récoltent des informations sensibles, notamment les informations d'identification, les données de la saisie semi-automatique, les informations sur les cartes de crédit et les informations de portefeuille cryptographique. Ces campagnes de malvertisation ont ciblé les utilisateurs européens et ont une portée significative par le biais du système publicitaire parrainé par Meta \\.Les campagnes sont organisées en reprenant les comptes Facebook existants, en modifiant le contenu de la page \\ pour paraître légitime et en stimulant la popularité de la page \\ avec un contenu engageant et des images générées par AI-AI. ## Les références [https://www.bitdefender.com/blog/labs/ai-meets-next-gen-info-Stealers-in-Social-Media-Malvertising-Campaigns / # new_tab] (https://www.bitdefender.com/blog/labs/ai-meets-next-gen-info-teners-in-social-media-malvertising-campagnes / # new_tab)
#### Targeted Geolocations - Southern Europe - Northern Europe - Western Europe - Eastern Europe ## Snapshot Bitdefender discusses the increasing use of artificial intelligence (AI) by cybercriminals to conduct malvertising campaigns on social media platforms. ## Description Threat actors have been impersonating popular AI software such as Midjourney, Sora AI, DALL-E 3, Evoto, and ChatGPT 5 on Facebook to trick users into downloading purported official desktop versions of these AI software. The malicious webpages then download intrusive stealers such as Rilide, Vidar, IceRAT, and Nova Stealer, which harvest sensitive information including credentials, autocomplete data, credit card information, and crypto wallet information. These malvertising campaigns have targeted European users and have a significant reach through Meta\'s sponsored ad system. The campaigns are organized by taking over existing Facebook accounts, changing the page\'s content to appear legitimate, and boosting the page\'s popularity with engaging content and AI-generated images. ## References [https://www.bitdefender.com/blog/labs/ai-meets-next-gen-info-stealers-in-social-media-malvertising-campaigns/#new_tab](https://www.bitdefender.com/blog/labs/ai-meets-next-gen-info-stealers-in-social-media-malvertising-campaigns/#new_tab)
ChatGPT ★★★
bleepingcomputer.webp 2024-04-10 12:12:40 Script PowerShell malveillant poussant les logiciels malveillants
Malicious PowerShell script pushing malware looks AI-written
(lien direct)
Un acteur de menace utilise un script PowerShell qui a probablement été créé à l'aide d'un système d'intelligence artificielle tel que le chatgpt d'Openai \\, les Gemini de Google \\ ou le copilot de Microsoft \\.[...]
A threat actor is using a PowerShell script that was likely created with the help of an artificial intelligence system such as OpenAI\'s ChatGPT, Google\'s Gemini, or Microsoft\'s CoPilot. [...]
Malware Threat ChatGPT ★★★
ProofPoint.webp 2024-04-10 10:12:47 Mémoire de sécurité: TA547 cible les organisations allemandes avec Rhadamanthys Stealer
Security Brief: TA547 Targets German Organizations with Rhadamanthys Stealer
(lien direct)
Ce qui s'est passé Proofpoint a identifié TA547 ciblant les organisations allemandes avec une campagne de courriel livrant des logiciels malveillants de Rhadamanthys.C'est la première fois que les chercheurs observent TA547 utiliser des Rhadamanthys, un voleur d'informations utilisé par plusieurs acteurs de menaces cybercriminaux.De plus, l'acteur a semblé utiliser un script PowerShell que les chercheurs soupçonnent a été généré par un modèle grand langage (LLM) tel que Chatgpt, Gemini, Copilot, etc. Les e-mails envoyés par l'acteur de menace ont usurpé l'identité de la société de vente au détail allemande Metro prétendant se rapporter aux factures. De: Metro! Sujet: Rechnung No: 31518562 Attachement: in3 0gc- (94762) _6563.zip Exemple TA547 Courriel imitant l'identité de la société de vente au détail allemande Metro. Les e-mails ont ciblé des dizaines d'organisations dans diverses industries en Allemagne.Les messages contenaient un fichier zip protégé par mot de passe (mot de passe: mar26) contenant un fichier LNK.Lorsque le fichier LNK a été exécuté, il a déclenché PowerShell pour exécuter un script PowerShell distant.Ce script PowerShell a décodé le fichier exécutable Rhadamanthys codé de base64 stocké dans une variable et l'a chargé en tant qu'assemblage en mémoire, puis a exécuté le point d'entrée de l'assemblage.Il a par la suite chargé le contenu décodé sous forme d'un assemblage en mémoire et a exécuté son point d'entrée.Cela a essentiellement exécuté le code malveillant en mémoire sans l'écrire sur le disque. Notamment, lorsqu'il est désabuscée, le deuxième script PowerShell qui a été utilisé pour charger les rhadamanthys contenait des caractéristiques intéressantes non couramment observées dans le code utilisé par les acteurs de la menace (ou les programmeurs légitimes).Plus précisément, le script PowerShell comprenait un signe de livre suivi par des commentaires grammaticalement corrects et hyper spécifiques au-dessus de chaque composant du script.Il s'agit d'une sortie typique du contenu de codage généré par LLM et suggère que TA547 a utilisé un certain type d'outil compatible LLM pour écrire (ou réécrire) le PowerShell, ou copié le script à partir d'une autre source qui l'avait utilisé. Exemple de PowerShell soupçonné d'être écrit par un LLM et utilisé dans une chaîne d'attaque TA547. Bien qu'il soit difficile de confirmer si le contenu malveillant est créé via LLMS & # 8211;Des scripts de logiciels malveillants aux leurres d'ingénierie sociale & # 8211;Il existe des caractéristiques d'un tel contenu qui pointent vers des informations générées par la machine plutôt que générées par l'homme.Quoi qu'il en soit, qu'il soit généré par l'homme ou de la machine, la défense contre de telles menaces reste la même. Attribution TA547 est une menace cybercriminale à motivation financière considérée comme un courtier d'accès initial (IAB) qui cible diverses régions géographiques.Depuis 2023, TA547 fournit généralement un rat Netsupport mais a parfois livré d'autres charges utiles, notamment Stealc et Lumma Stealer (voleurs d'informations avec des fonctionnalités similaires à Rhadamanthys).Ils semblaient favoriser les pièces javascript zippées comme charges utiles de livraison initiales en 2023, mais l'acteur est passé aux LNK compressées début mars 2024. En plus des campagnes en Allemagne, d'autres ciblage géographique récent comprennent des organisations en Espagne, en Suisse, en Autriche et aux États-Unis. Pourquoi est-ce important Cette campagne représente un exemple de certains déplacements techniques de TA547, y compris l'utilisation de LNK comprimés et du voleur Rhadamanthys non observé auparavant.Il donne également un aperçu de la façon dont les acteurs de la menace tirent parti de contenu probable généré par LLM dans les campagnes de logiciels malveillants. Les LLM peuvent aider les acteurs de menace à comprendre les chaînes d'attaque plus sophistiquées utilisées Malware Tool Threat ChatGPT ★★
AlienVault.webp 2024-04-10 10:00:00 Les risques de sécurité du chat Microsoft Bing AI pour le moment
The Security Risks of Microsoft Bing AI Chat at this Time
(lien direct)
The content of this post is solely the responsibility of the author.  AT&T does not adopt or endorse any of the views, positions, or information provided by the author in this article.  AI has long since been an intriguing topic for every tech-savvy person, and the concept of AI chatbots is not entirely new. In 2023, AI chatbots will be all the world can talk about, especially after the release of ChatGPT by OpenAI. Still, there was a past when AI chatbots, specifically Bing’s AI chatbot, Sydney, managed to wreak havoc over the internet and had to be forcefully shut down. Now, in 2023, with the world relatively more technologically advanced, AI chatbots have appeared with more gist and fervor. Almost every tech giant is on its way to producing large Language Model chatbots like chatGPT, with Google successfully releasing its Bard and Microsoft and returning to Sydney. However, despite the technological advancements, it seems that there remains a significant part of the risks that these tech giants, specifically Microsoft, have managed to ignore while releasing their chatbots. What is Microsoft Bing AI Chat Used for? Microsoft has released the Bing AI chat in collaboration with OpenAI after the release of ChatGPT. This AI chatbot is a relatively advanced version of ChatGPT 3, known as ChatGPT 4, promising more creativity and accuracy. Therefore, unlike ChatGPT 3, the Bing AI chatbot has several uses, including the ability to generate new content such as images, code, and texts. Apart from that, the chatbot also serves as a conversational web search engine and answers questions about current events, history, random facts, and almost every other topic in a concise and conversational manner. Moreover, it also allows image inputs, such that users can upload images in the chatbot and ask questions related to them. Since the chatbot has several impressive features, its use quickly spread in various industries, specifically within the creative industry. It is a handy tool for generating ideas, research, content, and graphics. However, one major problem with its adoption is the various cybersecurity issues and risks that the chatbot poses. The problem with these cybersecurity issues is that it is not possible to mitigate them through traditional security tools like VPN, antivirus, etc., which is a significant reason why chatbots are still not as popular as they should be. Is Microsoft Bing AI Chat Safe? Like ChatGPT, Microsoft Bing Chat is fairly new, and although many users claim that it is far better in terms of responses and research, its security is something to remain skeptical over. The modern version of the Microsoft AI chatbot is formed in partnership with OpenAI and is a better version of ChatGPT. However, despite that, the chatbot has several privacy and security issues, such as: The chatbot may spy on Microsoft employees through their webcams. Microsoft is bringing ads to Bing, which marketers often use to track users and gather personal information for targeted advertisements. The chatbot stores users\' information, and certain employees can access it, which breaches users\' privacy. - Microsoft’s staff can read chatbot conversations; therefore, sharing sensitive information is vulnerable. The chatbot can be used to aid in several cybersecurity attacks, such as aiding in spear phishing attacks and creating ransomware codes. Bing AI chat has a feature that lets the chatbot “see” what web pages are open on the users\' other tabs. The chatbot has been known to be vulnerable to prompt injection attacks that leave users vulnerable to data theft and scams. Vulnerabilities in the chatbot have led to data le Ransomware Tool Vulnerability ChatGPT ★★
globalsecuritymag.webp 2024-04-10 09:14:53 Les Cybercriminels utilisent déjà les LLM pour cibler les organisations (lien direct) Proofpoint publie de nouvelles informations sur les techniques d'attaque de l'acteur de la menace TA547, qui semble utiliser un script PowerShell que les chercheurs soupçonnent d'avoir été généré par une IA générative telle que ChatGPT, Gemini, CoPilot, ou autre. - Malwares ChatGPT ★★
RecordedFuture.webp 2024-04-04 17:04:16 Les cybercriminels répartissent les logiciels malveillants à travers les pages Facebook imitant les marques d'IA
Cybercriminals are spreading malware through Facebook pages impersonating AI brands
(lien direct)
Les cybercriminels prennent le contrôle des pages Facebook et les utilisent pour annoncer de faux logiciels d'intelligence artificielle générative chargés de logiciels malveillants. & Nbsp;Selon des chercheurs de la société de cybersécurité Bitdefender, les CyberCrooks profitent de la popularité des nouveaux outils génératifs d'IA et utilisent «malvertising» pour usurper l'identité de produits légitimes comme MidJourney, Sora AI, Chatgpt 5 et
Cybercriminals are taking over Facebook pages and using them to advertise fake generative artificial intelligence software loaded with malware.  According to researchers at the cybersecurity company Bitdefender, the cybercrooks are taking advantage of the popularity of new generative AI tools and using “malvertising” to impersonate legitimate products like Midjourney, Sora AI, ChatGPT 5 and
Malware Tool ChatGPT ★★
silicon.fr.webp 2024-04-03 14:30:46 Au-delà de ChatGPT, L\'Oréal lance ses services de GenAI (lien direct) L'Oréal est l'un des tout premiers groupes français à lancer son ChatGPT interne. Une plateforme GenAI est désormais en production et disponible tant pour les développeurs de la DSI que pour les métiers. ChatGPT ★★
Korben.webp 2024-04-01 19:10:18 ChatGPT est maintenant accessible sans compte (lien direct) OpenAI rend ChatGPT accessible sans compte, permettant à tous de découvrir les capacités de l'IA conversationnelle. Une avancée significative vers la démocratisation de l'IA, malgré quelques limitations. ChatGPT ★★
Checkpoint.webp 2024-03-27 18:00:40 Méfiez-vous de l'escroquerie fiscale Tsunami: Démasage des schémas de code QR, des remboursements faux et des imposteurs d'IA
Beware the Tax Scam Tsunami: Unmasking QR Code schemes, Bogus Refunds and AI imposters
(lien direct)
> La saison fiscale de \\, cette merveilleuse période de l'année où un chèque de remboursement pourrait apparaître dans votre boîte aux lettres ou sortir pour être envoyé au gouvernement.Partout dans le monde, de nombreux pays se préparent pour un temps d'impôt.Cela devient un moment courant pour les pirates d'intervalence. En règle générale, les pirates en profitent en distribuant des fichiers malveillants qui se dégageaient comme des fichiers officiels.Il est si omniprésent, en fait, que l'IRS publie une liste annuelle de «Dirty Dozen», qui décrit les escroqueries fiscales les plus populaires.L'année dernière, nous avons également vu une torsion, avec un point de contrôle découvrant comment Chatgpt peut créer un phishing lié à l'impôt convaincant [& # 8230;]
>It\'s tax season, that wonderful time of year when a refund check might be showing up in your mailbox-or going out to be sent to the government. Around the world, many countries are gearing up for tax time. This becomes a common time for hackers to step in. Typically, hackers take advantage by distributing malicious files that masquerade as official files. It\'s so pervasive, in fact, that the IRS releases an annual “Dirty Dozen” list, which outlines the most popular tax scams. Last year, we also saw a twist, with Check Point uncovering how ChatGPT can create convincing tax-related phishing […]
ChatGPT ★★★
Korben.webp 2024-03-23 08:00:00 Jan – Le " ChatGPT " local et open source à installer sur votre machine (lien direct) Jan est un outil open-source et hors ligne offrant une alternative à ChatGPT, compatible avec OpenAI et fonctionnant sur Windows, Mac et Linux. Il permet la personnalisation via des extensions, stocke les données localement avec des formats ouverts, et est sous licence AGPLv3. ChatGPT ★★
silicon.fr.webp 2024-03-20 08:51:33 Quelques éléments sur l\'offre GenAI qu\'Orange Business monte avec LightOn (lien direct) Orange Business s'appuie sur un LLM made in LightOn pour alimenter un " ChatGPT d'entreprise ". Voici quelques éléments à son sujet. ChatGPT ★★
ProofPoint.webp 2024-03-19 05:00:28 Le rapport du paysage de la perte de données 2024 explore la négligence et les autres causes communes de perte de données
The 2024 Data Loss Landscape Report Explores Carelessness and Other Common Causes of Data Loss
(lien direct)
La perte de données est un problème de personnes, ou plus précisément, un problème de personnes imprudentes.C'est la conclusion de notre nouveau rapport, le paysage de la perte de données 2024, que Proofpoint lance aujourd'hui. Nous avons utilisé des réponses à l'enquête de 600 professionnels de la sécurité et des données de la protection des informations de Proofpoint pour explorer l'état actuel de la prévention de la perte de données (DLP) et des menaces d'initiés.Dans notre rapport, nous considérons également ce qui est susceptible de venir ensuite dans cet espace à maturation rapide. De nombreuses entreprises considèrent aujourd'hui toujours leur programme DLP actuel comme émergent ou évoluant.Nous voulions donc identifier les défis actuels et découvrir des domaines d'opportunité d'amélioration.Les praticiens de 12 pays et 17 industries ont répondu aux questions allant du comportement des utilisateurs aux conséquences réglementaires et partageaient leurs aspirations à l'état futur de DLP \\. Ce rapport est une première pour Proofpoint.Nous espérons que cela deviendra une lecture essentielle pour toute personne impliquée dans la tenue de sécuriser les données.Voici quelques thèmes clés du rapport du paysage de la perte de données 2024. La perte de données est un problème de personnes Les outils comptent, mais la perte de données est définitivement un problème de personnes.2023 Données de Tessian, une entreprise de point de preuve, montre que 33% des utilisateurs envoient une moyenne d'un peu moins de deux e-mails mal dirigés chaque année.Et les données de la protection de l'information ProofPoint suggèrent que à peu de 1% des utilisateurs sont responsables de 90% des alertes DLP dans de nombreuses entreprises. La perte de données est souvent causée par la négligence Les initiés malveillants et les attaquants externes constituent une menace significative pour les données.Cependant, plus de 70% des répondants ont déclaré que les utilisateurs imprudents étaient une cause de perte de données pour leur entreprise.En revanche, moins de 50% ont cité des systèmes compromis ou mal configurés. La perte de données est répandue La grande majorité des répondants de notre enquête ont signalé au moins un incident de perte de données.Les incidents moyens globaux par organisation sont de 15. L'échelle de ce problème est intimidante, car un travail hybride, l'adoption du cloud et des taux élevés de roulement des employés créent tous un risque élevé de données perdues. La perte de données est dommageable Plus de la moitié des répondants ont déclaré que les incidents de perte de données entraînaient des perturbations commerciales et une perte de revenus.Celles-ci ne sont pas les seules conséquences dommageables.Près de 40% ont également déclaré que leur réputation avait été endommagée, tandis que plus d'un tiers a déclaré que leur position concurrentielle avait été affaiblie.De plus, 36% des répondants ont déclaré avoir été touchés par des pénalités réglementaires ou des amendes. Préoccupation croissante concernant l'IA génératrice De nouvelles alertes déclenchées par l'utilisation d'outils comme Chatgpt, Grammarly et Google Bard ne sont devenus disponibles que dans la protection des informations de Proofpoint cette année.Mais ils figurent déjà dans les cinq règles les plus implémentées parmi nos utilisateurs.Avec peu de transparence sur la façon dont les données soumises aux systèmes d'IA génératives sont stockées et utilisées, ces outils représentent un nouveau canal dangereux pour la perte de données. DLP est bien plus que de la conformité La réglementation et la législation ont inspiré de nombreuses initiatives précoces du DLP.Mais les praticiens de la sécurité disent maintenant qu'ils sont davantage soucieux de protéger la confidentialité des utilisateurs et des données commerciales sensibles. Des outils de DLP ont évolué pour correspondre à cette progression.De nombreux outils Tool Threat Legislation Cloud ChatGPT ★★★
News.webp 2024-03-18 02:31:10 L'attaque du canal latéral Chatgpt a une solution facile: obscurcissement des jetons
ChatGPT side-channel attack has easy fix: token obfuscation
(lien direct)
Aussi: Infostaler sur le thème de Roblox sur The Prowl, Telco Insider plaide coupable d'avoir échangé des Sims, et certaines critiques Vulns en bref presque aussi rapidement qu'un article est sorti dernierSemaine révélant une vulnérabilité du canal latéral de l'IA, les chercheurs de Cloudflare ont compris comment le résoudre: obscurcissant votre taille de jeton.…
ALSO: Roblox-themed infostealer on the prowl, telco insider pleads guilty to swapping SIMs, and some crit vulns in brief  Almost as quickly as a paper came out last week revealing an AI side-channel vulnerability, Cloudflare researchers have figured out how to solve it: just obscure your token size.…
Vulnerability ChatGPT ★★★
The_Hackers_News.webp 2024-03-15 17:04:00 Les plugins tiers Chatgpt pourraient conduire à des prises de contrôle des comptes
Third-Party ChatGPT Plugins Could Lead to Account Takeovers
(lien direct)
Les chercheurs en cybersécurité ont découvert que les plugins tiers disponibles pour Openai Chatgpt pouvaient agir comme une nouvelle surface d'attaque pour les acteurs de la menace qui cherchent à obtenir un accès non autorisé à des données sensibles. Selon & nbsp; New Research & NBSP; publié par Salt Labs, les défauts de sécurité trouvés directement dans Chatgpt et dans l'écosystème pourraient permettre aux attaquants d'installer des plugins malveillants sans utilisateurs \\ 'consentement
Cybersecurity researchers have found that third-party plugins available for OpenAI ChatGPT could act as a new attack surface for threat actors looking to gain unauthorized access to sensitive data. According to new research published by Salt Labs, security flaws found directly in ChatGPT and within the ecosystem could allow attackers to install malicious plugins without users\' consent
Threat ChatGPT ★★
DarkReading.webp 2024-03-15 14:00:00 ChatGPT vs. Gemini: Which Is Better for 10 Common Infosec Tasks? (lien direct) Comparez à quel point les produits AI génératifs d'Openai \\ sont bien et de Google \\ gèrent les 10 meilleures tâches.
Compare how well OpenAI\'s and Google\'s generative AI products handle infosec professionals\' top 10 tasks.
ChatGPT ★★★
DarkReading.webp 2024-03-15 14:00:00 Chatgpt vs Gemini: Quel est le meilleur pour 10 tâches Infosec courantes?
ChatGPT vs. Gemini: Which Is Better for 10 Common Infosec Tasks?
(lien direct)
Comparez à quel point les produits AI génératifs d'Openai \\ sont bien et de Google \\ gèrent les 10 meilleures tâches.
Compare how well OpenAI\'s and Google\'s generative AI products handle infosec professionals\' top 10 tasks.
ChatGPT ★★
globalsecuritymag.webp 2024-03-14 15:17:31 Salt Security met au jour des failles de sécurité, depuis lors corrigées, dans des extensions ChatGPT qui étaient susceptibles de faciliter l\'accès à des sites web tiers (lien direct) Salt Security met au jour des failles de sécurité, depuis lors corrigées, dans des extensions ChatGPT qui étaient susceptibles de faciliter l'accès à des sites web tiers et des données sensibles Les chercheurs Salt Labs ont identifié un nouveau vecteur d'attaque avec les fonctionnalités GPT, dont les vulnérabilités auraient pu donner accès aux comptes des utilisateurs sur des sites tiers, notamment GitHub. - Malwares ChatGPT ★★
Korben.webp 2024-03-14 15:11:36 Il y avait des failles critiques dans ChatGPT et ses plugins (lien direct) Des vulnérabilités critiques ont été découvertes dans ChatGPT et ses plugins, exposant les utilisateurs à des accès non autorisés à leurs conversations privées et comptes GitHub. Ces failles concernent notamment les implémentations défaillantes du protocole OAuth. Des correctifs ont été rapidement déployés, mais cet incident souligne l'importance d'une sécurisation renforcée des écosystèmes d'IA générative. ChatGPT ★★★
DarkReading.webp 2024-03-13 21:59:23 Chatgpt déverse les secrets dans une nouvelle attaque POC
ChatGPT Spills Secrets in Novel PoC Attack
(lien direct)
La recherche est plus récente dans un ensemble croissant de travaux pour mettre en évidence les faiblesses troublantes des outils génératifs largement utilisés.
Research is latest in a growing body of work to highlight troubling weaknesses in widely used generative AI tools.
Tool ChatGPT ★★
globalsecuritymag.webp 2024-03-13 20:14:03 Salt Security découvre les défauts de sécurité dans les extensions de chatppt qui ont permis d'accéder aux sites Web tiers et aux données sensibles - des problèmes ont été résolus
Salt Security Uncovers Security Flaws within ChatGPT Extensions that Allowed Access to Third-Party Websites and Sensitive Data - Issues have been Remediated
(lien direct)
La sécurité du sel découvre les défauts de sécurité dans les extensions de Chatgpt qui ont permis d'accéder aux sites Web tiers et aux données sensibles - les problèmes ont été résolus Les chercheurs de Salt Labs ont identifié la fonctionnalité des plugins, maintenant connue sous le nom de GPT, comme un nouveau vecteur d'attaque où les vulnérabilités auraient pu accorder l'accès à des comptes tiers des utilisateurs, y compris les référentiels GitHub. - mise à jour malveillant
Salt Security Uncovers Security Flaws within ChatGPT Extensions that Allowed Access to Third-Party Websites and Sensitive Data - Issues have been Remediated Salt Labs researchers identified plugin functionality, now known as GPTs, as a new attack vector where vulnerabilities could have granted access to third-party accounts of users, including GitHub repositories. - Malware Update
Vulnerability ChatGPT ★★
Blog.webp 2024-03-13 18:04:25 Plugins Chatgpt exposés à des vulnérabilités critiques, data des utilisateurs risqués
ChatGPT Plugins Exposed to Critical Vulnerabilities, Risked User Data
(lien direct)
> Par deeba ahmed Les défauts de sécurité critiques trouvés dans les plugins ChatGPT exposent les utilisateurs aux violations de données.Les attaquants pourraient voler les détails de la connexion et & # 8230; Ceci est un article de HackRead.com Lire le post original: Plugins Chatgpt exposés à des vulnérabilités critiques, data des utilisateurs risqués
>By Deeba Ahmed Critical security flaws found in ChatGPT plugins expose users to data breaches. Attackers could steal login details and… This is a post from HackRead.com Read the original post: ChatGPT Plugins Exposed to Critical Vulnerabilities, Risked User Data
Vulnerability ChatGPT ★★
InfoSecurityMag.webp 2024-03-13 13:00:00 La nouvelle recherche expose les risques de sécurité dans les plugins Chatgpt
New Research Exposes Security Risks in ChatGPT Plugins
(lien direct)
Salt Security a découvert GPT Flaws affectant l'installation du plugin, le pluginLab et l'OAuth
Salt Security discovered GPT flaws affecting plugin installation, PluginLab and OAuth
ChatGPT ★★★
DarkReading.webp 2024-03-13 12:00:00 Les vulnérabilités du plugin Critical Chatgpt exposent des données sensibles
Critical ChatGPT Plugin Vulnerabilities Expose Sensitive Data
(lien direct)
Les vulnérabilités trouvées dans les plugins Chatgpt - depuis l'assainissement - augmentent le risque de vol d'informations propriétaires et la menace des attaques de rachat de compte.
The vulnerabilities found in ChatGPT plugins - since remediated - heighten the risk of proprietary information being stolen and the threat of account takeover attacks.
Vulnerability Threat ChatGPT ★★
DarkReading.webp 2024-03-12 10:00:00 Gemini AI de Google \\ vulnérable à la manipulation du contenu
Google\\'s Gemini AI Vulnerable to Content Manipulation
(lien direct)
Comme Chatgpt et d'autres outils Genai, Gemini est sensible aux attaques qui peuvent le faire divulguer les invites du système, révéler des informations sensibles et exécuter des actions potentiellement malveillantes.
Like ChatGPT and other GenAI tools, Gemini is susceptible to attacks that can cause it to divulge system prompts, reveal sensitive information, and execute potentially malicious actions.
Tool ChatGPT ★★
Korben.webp 2024-03-11 13:59:08 Grok d\'Elon Musk bientôt open-source pour défier ChatGPT (lien direct) Elon Musk a annoncé que le chatbot Grok de xAI deviendra open source prochainement, permettant aux développeurs de l'améliorer et de l'utiliser. Musk accuse OpenAI d'être devenu une filiale de Microsoft, alimentant le débat sur l'open source dans l'IA. L'open source pourrait apporter de nouvelles utilisations intéressantes mais présente aussi des risques s'il est mal encadré. ChatGPT ★★
Korben.webp 2024-03-10 08:00:00 Geppetto – ChatGPT et Dall-e dans votre Slack (lien direct) Geppetto est un bot Slack avancé utilisant la technologie OpenAI, intégrant ChatGPT-4 et DALL-E-3 pour transformer l'expérience de communication. Il améliore la communication avec des réponses cohérentes, des visualisations créatives et simplifie l'interaction sur Slack. Le projet est accessible sur GitHub et peut être personnalisé. ChatGPT ★★★
AlienVault.webp 2024-03-07 11:00:00 Sécuriser l'IA
Securing AI
(lien direct)
With the proliferation of AI/ML enabled technologies to deliver business value, the need to protect data privacy and secure AI/ML applications from security risks is paramount. An AI governance  framework model like the NIST AI RMF to enable business innovation and manage risk is just as important as adopting guidelines to secure AI. Responsible AI starts with securing AI by design and securing AI with Zero Trust architecture principles. Vulnerabilities in ChatGPT A recent discovered vulnerability found in version gpt-3.5-turbo exposed identifiable information. The vulnerability was reported in the news late November 2023. By repeating a particular word continuously to the chatbot it triggered the vulnerability. A group of security researchers with Google DeepMind, Cornell University, CMU, UC Berkeley, ETH Zurich, and the University of Washington studied the “extractable memorization” of training data that an adversary can extract by querying a ML model without prior knowledge of the training dataset. The researchers’ report show an adversary can extract gigabytes of training data from open-source language models. In the vulnerability testing, a new developed divergence attack on the aligned ChatGPT caused the model to emit training data 150 times higher. Findings show larger and more capable LLMs are more vulnerable to data extraction attacks, emitting more memorized training data as the volume gets larger. While similar attacks have been documented with unaligned models, the new ChatGPT vulnerability exposed a successful attack on LLM models typically built with strict guardrails found in aligned models. This raises questions about best practices and methods in how AI systems could better secure LLM models, build training data that is reliable and trustworthy, and protect privacy. U.S. and UK’s Bilateral cybersecurity effort on securing AI The US Cybersecurity Infrastructure and Security Agency (CISA) and UK’s National Cyber Security Center (NCSC) in cooperation with 21 agencies and ministries from 18 other countries are supporting the first global guidelines for AI security. The new UK-led guidelines for securing AI as part of the U.S. and UK’s bilateral cybersecurity effort was announced at the end of November 2023. The pledge is an acknowledgement of AI risk by nation leaders and government agencies worldwide and is the beginning of international collaboration to ensure the safety and security of AI by design. The Department of Homeland Security (DHS) CISA and UK NCSC joint guidelines for Secure AI system Development aims to ensure cybersecurity decisions are embedded at every stage of the AI development lifecycle from the start and throughout, and not as an afterthought. Securing AI by design Securing AI by design is a key approach to mitigate cybersecurity risks and other vulnerabilities in AI systems. Ensuring the entire AI system development lifecycle process is secure from design to development, deployment, and operations and maintenance is critical to an organization realizing its full benefits. The guidelines documented in the Guidelines for Secure AI System Development aligns closely to software development life cycle practices defined in the NSCS’s Secure development and deployment guidance and the National Institute of Standards and Technology (NIST) Secure Software Development Framework (SSDF). The 4 pillars that embody the Guidelines for Secure AI System Development offers guidance for AI providers of any systems whether newly created from the ground up or built on top of tools and services provided from Tool Vulnerability Threat Mobile Medical Cloud Technical ChatGPT ★★
News.webp 2024-03-07 06:27:08 Ici \\, quelque chose d'autre peut faire: exposer Bad Infosec pour donner aux cyber-crims une orteil dans votre organisation
Here\\'s something else AI can do: expose bad infosec to give cyber-crims a toehold in your organization
(lien direct)
Les chercheurs singapouriens notent la présence croissante de crédits de chatppt dans les journaux malwares infoséaler trouvé quelques 225 000 journaux de voleurs contenant des détails de connexion pour le service l'année dernière.…
Singaporean researchers note rising presence of ChatGPT creds in Infostealer malware logs Stolen ChatGPT credentials are a hot commodity on the dark web, according to Singapore-based threat intelligence firm Group-IB, which claims to have found some 225,000 stealer logs containing login details for the service last year.…
Malware Threat ChatGPT ★★★
silicon.fr.webp 2024-03-06 15:13:45 Attention aux idées reçues sur l\'IA générative en entreprise ! (lien direct) ChatGPT a été ces derniers mois un formidable outil de démocratisation de l'IA. Tout le monde a échangé avec ce bot et s'est forgé une opinion sur l'IA générative. Attention, c'est un monde qui évolue encore très rapidement et tout peut changer très vite ! ChatGPT ★★
silicon.fr.webp 2024-03-06 11:19:50 Elon Musk vs OpenAI : les créateurs de ChatGPT donnent leur version des faits (lien direct) Les dirigeants d'OpenAI récusent les accusations d'Elon Musk sur le changement du modèle économique de la start-up qui a inventé ChatGPT. ils révèlent que le patron de Tesla voulait l'adosser au constructeur automobile. ChatGPT ★★
Blog.webp 2024-03-05 21:30:37 Rapport Découvre la vente massive des informations d'identification CHATGPT compromises
Report Uncovers Massive Sale of Compromised ChatGPT Credentials
(lien direct)
> Par deeba ahmed Le rapport Group-IB met en garde contre l'évolution des cyber-menaces, y compris les vulnérabilités de l'IA et du macOS et des attaques de ransomwares. Ceci est un article de HackRead.com Lire le post original: Le rapport découvre une vente massive des informations d'identification CHATGPT compromises
>By Deeba Ahmed Group-IB Report Warns of Evolving Cyber Threats Including AI and macOS Vulnerabilities and Ransomware Attacks. This is a post from HackRead.com Read the original post: Report Uncovers Massive Sale of Compromised ChatGPT Credentials
Ransomware Vulnerability ChatGPT ★★
RiskIQ.webp 2024-03-05 19:03:47 Rester en avance sur les acteurs de la menace à l'ère de l'IA
Staying ahead of threat actors in the age of AI
(lien direct)
## Snapshot Over the last year, the speed, scale, and sophistication of attacks has increased alongside the rapid development and adoption of AI. Defenders are only beginning to recognize and apply the power of generative AI to shift the cybersecurity balance in their favor and keep ahead of adversaries. At the same time, it is also important for us to understand how AI can be potentially misused in the hands of threat actors. In collaboration with OpenAI, today we are publishing research on emerging threats in the age of AI, focusing on identified activity associated with known threat actors, including prompt-injections, attempted misuse of large language models (LLM), and fraud. Our analysis of the current use of LLM technology by threat actors revealed behaviors consistent with attackers using AI as another productivity tool on the offensive landscape. You can read OpenAI\'s blog on the research [here](https://openai.com/blog/disrupting-malicious-uses-of-ai-by-state-affiliated-threat-actors). Microsoft and OpenAI have not yet observed particularly novel or unique AI-enabled attack or abuse techniques resulting from threat actors\' usage of AI. However, Microsoft and our partners continue to study this landscape closely. The objective of Microsoft\'s partnership with OpenAI, including the release of this research, is to ensure the safe and responsible use of AI technologies like ChatGPT, upholding the highest standards of ethical application to protect the community from potential misuse. As part of this commitment, we have taken measures to disrupt assets and accounts associated with threat actors, improve the protection of OpenAI LLM technology and users from attack or abuse, and shape the guardrails and safety mechanisms around our models. In addition, we are also deeply committed to using generative AI to disrupt threat actors and leverage the power of new tools, including [Microsoft Copilot for Security](https://www.microsoft.com/security/business/ai-machine-learning/microsoft-security-copilot), to elevate defenders everywhere. ## Activity Overview ### **A principled approach to detecting and blocking threat actors** The progress of technology creates a demand for strong cybersecurity and safety measures. For example, the White House\'s Executive Order on AI requires rigorous safety testing and government supervision for AI systems that have major impacts on national and economic security or public health and safety. Our actions enhancing the safeguards of our AI models and partnering with our ecosystem on the safe creation, implementation, and use of these models align with the Executive Order\'s request for comprehensive AI safety and security standards. In line with Microsoft\'s leadership across AI and cybersecurity, today we are announcing principles shaping Microsoft\'s policy and actions mitigating the risks associated with the use of our AI tools and APIs by nation-state advanced persistent threats (APTs), advanced persistent manipulators (APMs), and cybercriminal syndicates we track. These principles include: - **Identification and action against malicious threat actors\' use:** Upon detection of the use of any Microsoft AI application programming interfaces (APIs), services, or systems by an identified malicious threat actor, including nation-state APT or APM, or the cybercrime syndicates we track, Microsoft will take appropriate action to disrupt their activities, such as disabling the accounts used, terminating services, or limiting access to resources. - **Notification to other AI service providers:** When we detect a threat actor\'s use of another service provider\'s AI, AI APIs, services, and/or systems, Microsoft will promptly notify the service provider and share relevant data. This enables the service provider to independently verify our findings and take action in accordance with their own policies. - **Collaboration with other stakeholders:** Microsoft will collaborate with other stakeholders to regularly exchange information a Ransomware Malware Tool Vulnerability Threat Studies Medical Technical APT 28 ChatGPT APT 4 ★★
globalsecuritymag.webp 2024-03-05 16:16:45 Les sociétés de sécurité par e-mail sont témoins de plus de 10x augmentation des attaques de phishing par e-mail au milieu de l'émergence de Chatgpt \\
Email Security Firms Witness Over 10X Surge in Email Phishing Attacks Amid ChatGPT\\'s Emergence
(lien direct)
Les entreprises de sécurité par e-mail sont témoins de plus de 10x augmentation des attaques de phishing par e-mail au milieu de l'émergence de Chatgpt \\ - rapports spéciaux
Email Security Firms Witness Over 10X Surge in Email Phishing Attacks Amid ChatGPT\'s Emergence - Special Reports
ChatGPT ★★★
The_Hackers_News.webp 2024-03-05 16:08:00 Plus de 225 000 informations d'identification CHATGPT compromises en vente sur les marchés Web sombres
Over 225,000 Compromised ChatGPT Credentials Up for Sale on Dark Web Markets
(lien direct)
Plus de 225 000 journaux contenant des informations d'identification Openai Chatgpt compromises ont été mis à disposition à la vente sur les marchés souterrains entre janvier et octobre 2023, nouvelles conclusions du groupe de groupe-IB. Ces informations d'identification ont été trouvées dans & nbsp; Information Stealer Logs & NBSP; associée à Lummac2, Raccoon et Redline Stealer malware. «Le nombre de dispositifs infectés a légèrement diminué au milieu et à la fin
More than 225,000 logs containing compromised OpenAI ChatGPT credentials were made available for sale on underground markets between January and October 2023, new findings from Group-IB show. These credentials were found within information stealer logs associated with LummaC2, Raccoon, and RedLine stealer malware. “The number of infected devices decreased slightly in mid- and late
Malware ChatGPT ★★★
Korben.webp 2024-03-05 08:00:00 Touitomamout – Pour synchroniser Twitter avec BlueSky et Mastodon (lien direct) Bien que présent sur Twitter malgré ses récents problèmes, je suis aussi sur Bluesky et Mastodon. J'ai créé un script Python pour automatiser le partage de mes articles sur Bluesky avec l'aide de ChatGPT. Louis Grasset a développé Touitomamout, un outil pour cross-poster de Twitter vers Mastodon/Bluesky, qui fonctionne aussi sur Docker pour synchroniser intégralement un profil social. ChatGPT ★★
InfoSecurityMag.webp 2024-02-29 16:30:00 Savy Seahorse cible les plateformes d'investissement avec des escroqueries DNS
Savvy Seahorse Targets Investment Platforms With DNS Scams
(lien direct)
InfoBlox a déclaré que Savvy Seahorse utilise de faux chattes et des bots WhatsApp pour attirer les victimes
Infoblox said Savvy Seahorse uses fake ChatGPT and WhatsApp bots to lure victims
ChatGPT ★★
Blog.webp 2024-02-29 15:33:35 Seahorse avisé en utilisant un faux chatppt, des publicités Facebook dans l'escroquerie d'investissement DNS
Savvy Seahorse Using Fake ChatGPT, Facebook Ads in DNS Investment Scam
(lien direct)
> Par deeba ahmed Les escrocs créent de fausses plates-formes d'investissement en utilisant des sociétés populaires comme Tesla, Meta et Imperial Oil et attire les utilisateurs sans méfiance à déposer des fonds. Ceci est un article de HackRead.com Lire le post original: Seahorse avisé en utilisant un faux chatppt, des publicités Facebook dans DNS Investment Scam
>By Deeba Ahmed The scammers creates fake investment platforms using popular companies like Tesla, Meta, and Imperial Oil and lures unsuspecting users into depositing funds. This is a post from HackRead.com Read the original post: Savvy Seahorse Using Fake ChatGPT, Facebook Ads in DNS Investment Scam
ChatGPT ★★
News.webp 2024-02-28 01:45:07 Openai affirme que le New York Times a payé quelqu'un à \\ 'hack \\' chatppt
OpenAI claims New York Times paid someone to \\'hack\\' ChatGPT
(lien direct)
Super Lab affirme \\ 'Deceptive Invite \' qu'elle a joyeusement traité - et peut avoir suivi - Weren \\ 't Fair, donc l'affaire devrait être rejetée Openai a accusé le New York TimesCompagnie de payer quelqu'un pour "pirater" le chatppt pour générer des paragraphes textuels des articles de son journal.Par piratage, vraisemblablement le biz signifie: connecté comme d'habitude et lui a posé des questions ennuyeuses.…
Super lab claims \'deceptive prompts\' that it happily processed - and may have tracked - weren\'t fair, so case should be dismissed OpenAI has accused The New York Times Company of paying someone to "hack" ChatGPT to generate verbatim paragraphs from articles in its newspaper. By hack, presumably the biz means: Logged in as normal and asked it annoying questions.…
Hack ChatGPT ★★★
silicon.fr.webp 2024-02-16 15:37:03 OpenAI dévoile Sora, son nouveau modèle text-to-vidéo (lien direct) L'inventeur de ChatGPT ajoute un nouveau produit à son catalogue GenAI. Réservé pour le moment à quelques testeurs, Sora est modèle text-to-vidéo qui impressionne par sa qualité de restitution. ChatGPT ★★
TechWorm.webp 2024-02-15 20:28:57 Microsoft et Openai disent que les pirates utilisent le chatppt pour les cyberattaques
Microsoft and OpenAI say hackers are using ChatGPT for Cyberattacks
(lien direct)
Microsoft et Openai ont averti que les pirates d'État-nationaux armement l'intelligence artificielle (IA) et les modèles de langage de grands (LLM) pour améliorer leurs cyberattaques en cours. Selon une étude menée par Microsoft Threat Intelligence en collaboration avec OpenAI, les deux sociétés ont identifié et perturbé cinq acteurs affiliés à l'État qui ont cherché à utiliser les services d'IA pour soutenir les cyber-activités malveillantes. Ces acteurs affiliés à l'État sont associés à des pays comme la Russie, la Corée du Nord, l'Iran et la Chine. Les cinq acteurs malveillants affiliés à l'État comprenaient deux acteurs de menaces affiliés à la Chine connus sous le nom de typhon de charbon de bois (chrome) et de typhon de saumon (sodium);l'acteur de menace affilié à l'Iran connu sous le nom de Crimson Sandstorm (Curium);l'acteur affilié à la Corée du Nord connue sous le nom de grésil émeraude (thallium);et l'acteur affilié à la Russie connu sous le nom de Forest Blizzard (Strontium). Par exemple, l'Openai a rapporté que le typhon de charbon de bois de Chine \\ a utilisé ses services pour rechercher diverses entreprises et outils de cybersécurité, débogage du code et générer des scripts, et créer du contenu probable pour une utilisation dans les campagnes de phishing. Un autre exemple est la tempête de sable Crimson d'Iran \\, qui a utilisé des LLM pour générer des extraits de code liés au développement d'applications et de Web, générer du contenu probable pour les campagnes de phission de lance et pour une aide dans le développement du code pour échapper à la détection. En outre, Forest Blizzard, le groupe russe de l'État-nation, aurait utilisé des services OpenAI principalement pour la recherche open source sur les protocoles de communication par satellite et la technologie d'imagerie radar, ainsi que pour le soutien aux tâches de script. Openai a déclaré mercredi qu'il avait mis fin aux comptes OpenAI identifiés associés aux acteurs de pirate parrainés par l'État.Ces acteurs ont généralement cherché à utiliser les services OpenAI pour interroger les informations open source, traduire, trouver des erreurs de codage et exécuter des tâches de codage de base, a déclaré la société d'IA. «Le soutien linguistique est une caractéristique naturelle des LLM et est attrayante pour les acteurs de menace qui se concentrent continuellement sur l'ingénierie sociale et d'autres techniques qui s'appuient sur de fausses communications trompeuses adaptées à leurs cibles \\ ', des réseaux professionnels et d'autres relations.Surtout, nos recherches avec OpenAI n'ont pas identifié d'attaques significatives en utilisant les LLM que nous surveillons étroitement », lit le nouveau rapport de sécurité AI publié par Microsoft surMercredi en partenariat avec Openai. Heureusement, aucune attaque significative ou nouvelle, utilisant la technologie LLM n'a encore été détectée, selon la société.«Notre analyse de l'utilisation actuelle de la technologie LLM par les acteurs de la menace a révélé des comportements cohérents avec les attaquants utilisant l'IA comme autre outil de productivité.Microsoft et Openai n'ont pas encore observé des techniques d'attaque ou d'abus en particulier ou uniques en AI résultant des acteurs de la menace & # 8217;Utilisation de l'IA », a noté Microsoft dans son rapport. Pour répondre à la menace, Microsoft a annoncé un ensemble de principes façonnant sa politique et ses actions pour lutter contre l'abus de ses services d'IA par des menaces persistantes avancées (APT), des man Tool Threat Studies ChatGPT ★★
DataSecurityBreach.webp 2024-02-15 10:44:34 Des pirates Russes, Iraniens, Chinois et Nord-Coréens repérés sur ChatGPT (lien direct) Cyber Signals : lutte contre les cybermenaces et protection renforcée à l'ère de l'intelligence artificielle. Microsoft analyse les requêtes faîtes avec ChatGPT et découvre des utilisations pirates ! ChatGPT ★★
Blog.webp 2024-02-14 20:34:14 Chatgpt vers le bas?Le Soudan anonyme revendique la responsabilité des attaques DDOS
ChatGPT Down? Anonymous Sudan Claims Responsibility for DDoS Attacks
(lien direct)
> Par waqas est votre chatpt?Ou, rencontrez-vous des problèmes à l'accès à la chatte?Si c'est le cas, vous n'est pas seul.Chatgpt a & # 8230; Ceci est un article de HackRead.com Lire le post original: Chatgpt vers le bas?Le Soudan anonyme revendique la responsabilité des attaques DDOS
>By Waqas Is your ChatGPT down? Or, are you experiencing issues accessing ChatGPT? If so, you’re not alone. ChatGPT has… This is a post from HackRead.com Read the original post: ChatGPT Down? Anonymous Sudan Claims Responsibility for DDoS Attacks
ChatGPT ★★
RecordedFuture.webp 2024-02-14 20:22:20 Openai arrête les comptes liés à 5 groupes de piratage de l'État-nation
OpenAI shuts down accounts linked to 5 nation-state hacking groups
(lien direct)
Openai, la société d'intelligence artificielle derrière Chatgpt, a déclaré mercredi qu'elle avait mis fin aux comptes sur ses services utilisés par les acteurs de la menace liés à la Chine, à la Russie, en Iran et en Corée du Nord.Le annonce a été fait en collaboration avec Microsoft - unedes principaux investisseurs de l'entreprise - qui a publié un rapport mercredi qui a détaillé comment
OpenAI, the artificial intelligence company behind ChatGPT, said on Wednesday that it terminated accounts on its services being used by threat actors linked to China, Russia, Iran and North Korea. The announcement was made in collaboration with Microsoft - one of the company\'s major investors - which released a report on Wednesday that detailed how
Threat ChatGPT ★★
SecurityWeek.webp 2024-02-14 18:25:10 Microsoft attrape des apts utilisant le chatppt pour la recherche vuln, les scripts de logiciels malveillants
Microsoft Catches APTs Using ChatGPT for Vuln Research, Malware Scripting
(lien direct)
> Les chasseurs de menaces de Microsoft disent que les APT étrangers interagissent avec le chatppt d'Openai \\ pour automatiser la recherche de vulnérabilité malveillante, la reconnaissance cible et les tâches de création de logiciels malveillants.
>Microsoft threat hunters say foreign APTs are interacting with OpenAI\'s ChatGPT to automate malicious vulnerability research, target reconnaissance and malware creation tasks.
Malware Vulnerability Threat ChatGPT ★★
Trend.webp 2024-02-08 00:00:00 Ce que signifie une IA générative pour la cybersécurité en 2024
What Generative AI Means for Cybersecurity in 2024
(lien direct)
Après une année complète de vie avec les experts de la cybersécurité de Chatgpt, a une idée plus claire de la façon dont les criminels utilisent une IA générative pour améliorer les attaques - découvrez ce que signifie une IA générative pour la cybersécurité en 2024.
After a full year of life with ChatGPT cybersecurity experts have a clearer sense of how criminals are using generative AI to enhance attacks - learn what generative AI means for cybersecurity in 2024.
ChatGPT ★★★
globalsecuritymag.webp 2024-02-05 15:08:59 Metomic lance l'intégration de Chatgpt
Metomic Launches ChatGPT Integration
(lien direct)
Metomic lance l'intégration de Chatgpt pour aider les entreprises à profiter pleinement de l'outil d'IA génératif sans mettre des données sensibles à risque Metomic pour Chatgpt permet aux leaders de la sécurité de stimuler la productivité tout en surveillant les données en cours de téléchargement sur la plate-forme Chatgpt d'Openai \\ en temps réel - revues de produits
Metomic Launches ChatGPT Integration To Help Businesses Take Full Advantage Of The Generative AI Tool Without Putting Sensitive Data At Risk Metomic for ChatGPT enables security leaders to boost productivity while monitoring data being uploaded to OpenAI\'s ChatGPT platform in real-time - Product Reviews
Tool ChatGPT ★★
Last update at: 2024-04-27 16:08:17
See our sources.
My email:

To see everything: Our RSS (filtrered) Twitter