What's new arround internet

Last one

Src Date (GMT) Titre Description Tags Stories Notes
RiskIQ.webp 2024-03-05 19:03:47 Rester en avance sur les acteurs de la menace à l'ère de l'IA
Staying ahead of threat actors in the age of AI
(lien direct)
## Snapshot Over the last year, the speed, scale, and sophistication of attacks has increased alongside the rapid development and adoption of AI. Defenders are only beginning to recognize and apply the power of generative AI to shift the cybersecurity balance in their favor and keep ahead of adversaries. At the same time, it is also important for us to understand how AI can be potentially misused in the hands of threat actors. In collaboration with OpenAI, today we are publishing research on emerging threats in the age of AI, focusing on identified activity associated with known threat actors, including prompt-injections, attempted misuse of large language models (LLM), and fraud. Our analysis of the current use of LLM technology by threat actors revealed behaviors consistent with attackers using AI as another productivity tool on the offensive landscape. You can read OpenAI\'s blog on the research [here](https://openai.com/blog/disrupting-malicious-uses-of-ai-by-state-affiliated-threat-actors). Microsoft and OpenAI have not yet observed particularly novel or unique AI-enabled attack or abuse techniques resulting from threat actors\' usage of AI. However, Microsoft and our partners continue to study this landscape closely. The objective of Microsoft\'s partnership with OpenAI, including the release of this research, is to ensure the safe and responsible use of AI technologies like ChatGPT, upholding the highest standards of ethical application to protect the community from potential misuse. As part of this commitment, we have taken measures to disrupt assets and accounts associated with threat actors, improve the protection of OpenAI LLM technology and users from attack or abuse, and shape the guardrails and safety mechanisms around our models. In addition, we are also deeply committed to using generative AI to disrupt threat actors and leverage the power of new tools, including [Microsoft Copilot for Security](https://www.microsoft.com/security/business/ai-machine-learning/microsoft-security-copilot), to elevate defenders everywhere. ## Activity Overview ### **A principled approach to detecting and blocking threat actors** The progress of technology creates a demand for strong cybersecurity and safety measures. For example, the White House\'s Executive Order on AI requires rigorous safety testing and government supervision for AI systems that have major impacts on national and economic security or public health and safety. Our actions enhancing the safeguards of our AI models and partnering with our ecosystem on the safe creation, implementation, and use of these models align with the Executive Order\'s request for comprehensive AI safety and security standards. In line with Microsoft\'s leadership across AI and cybersecurity, today we are announcing principles shaping Microsoft\'s policy and actions mitigating the risks associated with the use of our AI tools and APIs by nation-state advanced persistent threats (APTs), advanced persistent manipulators (APMs), and cybercriminal syndicates we track. These principles include: - **Identification and action against malicious threat actors\' use:** Upon detection of the use of any Microsoft AI application programming interfaces (APIs), services, or systems by an identified malicious threat actor, including nation-state APT or APM, or the cybercrime syndicates we track, Microsoft will take appropriate action to disrupt their activities, such as disabling the accounts used, terminating services, or limiting access to resources. - **Notification to other AI service providers:** When we detect a threat actor\'s use of another service provider\'s AI, AI APIs, services, and/or systems, Microsoft will promptly notify the service provider and share relevant data. This enables the service provider to independently verify our findings and take action in accordance with their own policies. - **Collaboration with other stakeholders:** Microsoft will collaborate with other stakeholders to regularly exchange information a Ransomware Malware Tool Vulnerability Threat Studies Medical Technical APT 28 ChatGPT APT 4 ★★
TechWorm.webp 2024-02-15 20:28:57 Microsoft et Openai disent que les pirates utilisent le chatppt pour les cyberattaques
Microsoft and OpenAI say hackers are using ChatGPT for Cyberattacks
(lien direct)
Microsoft et Openai ont averti que les pirates d'État-nationaux armement l'intelligence artificielle (IA) et les modèles de langage de grands (LLM) pour améliorer leurs cyberattaques en cours. Selon une étude menée par Microsoft Threat Intelligence en collaboration avec OpenAI, les deux sociétés ont identifié et perturbé cinq acteurs affiliés à l'État qui ont cherché à utiliser les services d'IA pour soutenir les cyber-activités malveillantes. Ces acteurs affiliés à l'État sont associés à des pays comme la Russie, la Corée du Nord, l'Iran et la Chine. Les cinq acteurs malveillants affiliés à l'État comprenaient deux acteurs de menaces affiliés à la Chine connus sous le nom de typhon de charbon de bois (chrome) et de typhon de saumon (sodium);l'acteur de menace affilié à l'Iran connu sous le nom de Crimson Sandstorm (Curium);l'acteur affilié à la Corée du Nord connue sous le nom de grésil émeraude (thallium);et l'acteur affilié à la Russie connu sous le nom de Forest Blizzard (Strontium). Par exemple, l'Openai a rapporté que le typhon de charbon de bois de Chine \\ a utilisé ses services pour rechercher diverses entreprises et outils de cybersécurité, débogage du code et générer des scripts, et créer du contenu probable pour une utilisation dans les campagnes de phishing. Un autre exemple est la tempête de sable Crimson d'Iran \\, qui a utilisé des LLM pour générer des extraits de code liés au développement d'applications et de Web, générer du contenu probable pour les campagnes de phission de lance et pour une aide dans le développement du code pour échapper à la détection. En outre, Forest Blizzard, le groupe russe de l'État-nation, aurait utilisé des services OpenAI principalement pour la recherche open source sur les protocoles de communication par satellite et la technologie d'imagerie radar, ainsi que pour le soutien aux tâches de script. Openai a déclaré mercredi qu'il avait mis fin aux comptes OpenAI identifiés associés aux acteurs de pirate parrainés par l'État.Ces acteurs ont généralement cherché à utiliser les services OpenAI pour interroger les informations open source, traduire, trouver des erreurs de codage et exécuter des tâches de codage de base, a déclaré la société d'IA. «Le soutien linguistique est une caractéristique naturelle des LLM et est attrayante pour les acteurs de menace qui se concentrent continuellement sur l'ingénierie sociale et d'autres techniques qui s'appuient sur de fausses communications trompeuses adaptées à leurs cibles \\ ', des réseaux professionnels et d'autres relations.Surtout, nos recherches avec OpenAI n'ont pas identifié d'attaques significatives en utilisant les LLM que nous surveillons étroitement », lit le nouveau rapport de sécurité AI publié par Microsoft surMercredi en partenariat avec Openai. Heureusement, aucune attaque significative ou nouvelle, utilisant la technologie LLM n'a encore été détectée, selon la société.«Notre analyse de l'utilisation actuelle de la technologie LLM par les acteurs de la menace a révélé des comportements cohérents avec les attaquants utilisant l'IA comme autre outil de productivité.Microsoft et Openai n'ont pas encore observé des techniques d'attaque ou d'abus en particulier ou uniques en AI résultant des acteurs de la menace & # 8217;Utilisation de l'IA », a noté Microsoft dans son rapport. Pour répondre à la menace, Microsoft a annoncé un ensemble de principes façonnant sa politique et ses actions pour lutter contre l'abus de ses services d'IA par des menaces persistantes avancées (APT), des man Tool Threat Studies ChatGPT ★★
AlienVault.webp 2023-12-27 11:00:00 Cybersécurité post-pandémique: leçons de la crise mondiale de la santé
Post-pandemic Cybersecurity: Lessons from the global health crisis
(lien direct)
The content of this post is solely the responsibility of the author.  AT&T does not adopt or endorse any of the views, positions, or information provided by the author in this article.  Beyond ‘just’ causing mayhem in the outside world, the pandemic also led to a serious and worrying rise in cybersecurity breaches. In 2020 and 2021, businesses saw a whopping 50% increase in the amount of attempted breaches. The transition to remote work, outdated healthcare organization technology, the adoption of AI bots in the workplace, and the presence of general uncertainty and fear led to new opportunities for bad actors seeking to exploit and benefit from this global health crisis. In this article, we will take a look at how all of this impacts the state of cybersecurity in the current post-pandemic era, and what conclusions can be drawn. New world, new vulnerabilities Worldwide lockdowns led to a rise in remote work opportunities, which was a necessary adjustment to allow employees to continue to earn a living. However, the sudden shift to the work-from-home format also caused a number of challenges and confusion for businesses and remote employees alike. The average person didn’t have the IT department a couple of feet away, so they were forced to fend for themselves. Whether it was deciding whether to use a VPN or not, was that email really a phishing one, or even just plain software updates, everybody had their hands full. With employers busy with training programs, threat actors began intensifying their ransomware-related efforts, resulting in a plethora of high-profile incidents in the last couple of years. A double-edged digital sword If the pandemic did one thing, it’s making us more reliant on both software and digital currencies. You already know where we’re going with this—it’s fertile ground for cybercrime. Everyone from the Costa Rican government to Nvidia got hit. With the dominance of Bitcoin as a payment method in ransoming, tracking down perpetrators is infinitely more difficult than it used to be. The old adage holds more true than ever - an ounce of prevention is worth a pound of cure. To make matters worse, amongst all that chaos, organizations also had to pivot away from vulnerable, mainstream software solutions. Even if it’s just choosing a new image editor or integrating a PDF SDK, it’s an increasing burden for businesses that are already trying to modernize or simply maintain. Actors strike where we’re most vulnerable Healthcare organizations became more important than ever during the global coronavirus pandemic. But this time also saw unprecedented amounts of cybersecurity incidents take place as bad actors exploited outdated cybersecurity measures. The influx of sudden need caused many overburdened healthcare organizations to lose track of key cybersecurity protocols that could help shore up gaps in the existing protective measures. The United States healthcare industry saw a 25% spike in successful data breaches during the pandemic, which resulted in millions of dollars of damages and the loss of privacy for thousands of patients whose data was compromis Data Breach Vulnerability Threat Studies Prediction ChatGPT ★★
ESET.webp 2023-12-22 10:50:20 Résultats clés du rapport de la menace ESET H2 2023 & # 8211;Semaine en sécurité avec Tony Anscombe
Key findings from ESET Threat Report H2 2023 – Week in security with Tony Anscombe
(lien direct)
Comment les cybercriminels profitent de la popularité de Chatgpt et d'autres outils de ses semblables pour diriger les gens vers des sites sommaires, ainsi que d'autres résultats intéressants du dernier rapport de menace d'Eset \\
How cybercriminals take advantage of the popularity of ChatGPT and other tools of its ilk to direct people to sketchy sites, plus other interesting findings from ESET\'s latest Threat Report
Tool Threat Studies ChatGPT ★★★★
globalsecuritymag.webp 2023-10-30 19:10:36 Le rapport sur l'état du phishing de Slashnext \\'s 2023 révèle une augmentation de 1 265% des e-mails de phishing depuis le lancement de Chatgpt en novembre 2022, signalant une nouvelle ère de cybercriminalité alimentée par une IA générative
SlashNext\\'s 2023 State of Phishing Report Reveals a 1,265% Increase in Phishing Emails Since the Launch of ChatGPT in November 2022, Signaling a New Era of Cybercrime Fueled by Generative AI
(lien direct)
Le rapport sur l'état de l'état du phishing de Slashnext \\ révèle une augmentation de 1 265% des e-mails de phishing depuis le lancement de Chatgpt en novembre 2022, signalant une nouvelle ère de cybercriminalité alimentée par Generative Ai Les chercheurs ont observé une augmentation de 967% des tentatives de phishing d'identification YOY, le point d'accès numéro un aux violations organisationnelles - rapports spéciaux
SlashNext\'s 2023 State of Phishing Report Reveals a 1,265% Increase in Phishing Emails Since the Launch of ChatGPT in November 2022, Signaling a New Era of Cybercrime Fueled by Generative AI Researchers observed a 967% increase in credential phishing attempts YoY, the number one access point to organizational breaches - Special Reports
Studies ChatGPT ★★★★
InfoSecurityMag.webp 2023-10-30 16:30:00 Signaler les liens Chatgpt à une augmentation de 1265% des e-mails de phishing
Report Links ChatGPT to 1265% Rise in Phishing Emails
(lien direct)
Le rapport Slashnext a également révélé une augmentation remarquable de 967% des attaques de phishing d'identification
The SlashNext report also found a noteworthy 967% increase in credential phishing attacks
Studies ChatGPT ★★★★
AlienVault.webp 2023-10-16 10:00:00 Renforcement de la cybersécurité: multiplication de force et efficacité de sécurité
Strengthening Cybersecurity: Force multiplication and security efficiency
(lien direct)
In the ever-evolving landscape of cybersecurity, the battle between defenders and attackers has historically been marked by an asymmetrical relationship. Within the cybersecurity realm, asymmetry has characterized the relationship between those safeguarding digital assets and those seeking to exploit vulnerabilities. Even within this context, where attackers are typically at a resource disadvantage, data breaches have continued to rise year after year as cyber threats adapt and evolve and utilize asymmetric tactics to their advantage.  These include technologies and tactics such as artificial intelligence (AI), and advanced social engineering tools. To effectively combat these threats, companies must rethink their security strategies, concentrating their scarce resources more efficiently and effectively through the concept of force multiplication. Asymmetrical threats, in the world of cybersecurity, can be summed up as the inherent disparity between adversaries and the tactics employed by the weaker party to neutralize the strengths of the stronger one. The utilization of AI and similar tools further erodes the perceived advantages that organizations believe they gain through increased spending on sophisticated security measures. Recent data from InfoSecurity Magazine, referencing the 2023 Checkpoint study, reveals a disconcerting trend: global cyberattacks increased by 7% between Q1 2022 and Q1 2023. While not significant at first blush, a deeper analysis reveals a more disturbing trend specifically that of the use of AI.  AI\'s malicious deployment is exemplified in the following quote from their research: "...we have witnessed several sophisticated campaigns from cyber-criminals who are finding ways to weaponize legitimate tools for malicious gains." Furthermore, the report highlights: "Recent examples include using ChatGPT for code generation that can help less-skilled threat actors effortlessly launch cyberattacks." As threat actors continue to employ asymmetrical strategies to render organizations\' substantial and ever-increasing security investments less effective, organizations must adapt to address this evolving threat landscape. Arguably, one of the most effective methods to confront threat adaptation and asymmetric tactics is through the concept of force multiplication, which enhances relative effectiveness with fewer resources consumed thereby increasing the efficiency of the security dollar. Efficiency, in the context of cybersecurity, refers to achieving the greatest cumulative effect of cybersecurity efforts with the lowest possible expenditure of resources, including time, effort, and costs. While the concept of efficiency may seem straightforward, applying complex technological and human resources effectively and in an efficient manner in complex domains like security demands more than mere calculations. This subject has been studied, modeled, and debated within the military community for centuries. Military and combat efficiency, a domain with a long history of analysis, Tool Vulnerability Threat Studies Prediction ChatGPT ★★★
AlienVault.webp 2023-07-24 10:00:00 Certification professionnelle de la gouvernance de l'intelligence artificielle - AIGP
Artificial Intelligence Governance Professional Certification - AIGP
(lien direct)
Pour tous ceux qui suivent les tendances de l'industrie et les nouvelles connexes, je suis certain que vous avez été absolument inondé par le torrent d'articles et les gros titres de Chatgpt, de Google et de Bard et de l'IA en général.Permettez-moi de m'excuser dès d'avoir ajouté un autre article à la pile.Je promets que celui-ci mérite une lecture, en particulier pour tous ceux qui recherchent des moyens de commencer en toute sécurité, en toute sécurité et éthiquement à introduire l'IA à leur entreprise.Le 20 juin, l'Association internationale des professionnels de la vie privée (IAPP) a publié un nouvel ensemble de connaissances (BOK) pour sa certification professionnelle de la gouvernance de l'intelligence artificielle qui sera bientôt publiée (AIGP).Cette certification premier de son genre couvre une série de domaines de connaissances, que je vais explorer plus loin dans ce post.Il est d'une grande valeur pour tout professionnel intéressé à mettre en œuvre ou à gérer l'IA, ou tout simplement curieux à propos du domaine. Le domaine est en plein essor avec de nouveaux outils, des idées et des cas d'utilisation en cours de développement à l'heure (du moins cela comme il semble parfois).Plusieurs sociétés, IBM étant les plus prolifiques, ont également publié plusieurs certifications techniques visant la création et le raffinement de l'IA.Il n'y a cependant des certifications destinées aux chefs d'entreprise ou aux professionnels non techniques, les personnes qui approuveront et utiliseront l'IA dans leurs tâches quotidiennes.Au moins, il y a eu jusqu'à ce que l'IAPP annonce sa nouvelle certification AIGP, c'est-à-dire. Introduction à l'IAPP et aux zones de connaissances AIGP Bien que l'IAPP soit le leader de facto de l'industrie en ce qui concerne les certifications de confidentialité, je reconnais que tout le monde ne connaît pas leurs offres ou ses offres.L'IAPP a été fondée en 2000 et propose actuellement une suite de certifications destinées aux professionnels, dont des avocats, qui travaillent avec la confidentialité des données ou la gouvernance.Leurs principales offres incluent la série Certified Information Privacy Professional (y compris les certifications individuelles sur les lois européennes, canadiennes et américaines), le responsable de la confidentialité des informations certifiées, le technologue certifié de la vie privée, ainsi que quelques autres.L'AIGP est une toute nouvelle offre qui n'a pas été entièrement publiée au-delà du Bok. nouvellement publié. L'AIGP couvre sept domaines différents qui vont des composants fondamentaux de l'IA, jusqu'aux cycles de vie du développement et à la gestion des risques.Les sujets de l'examen permettra aux professionnels de présenter leurs connaissances à la fois de l'IA en tant que domaine d'études et d'une technologie, mais aussi comment la gérer efficacement au sein d'une organisation.Apprendre ce que vous devez savoir pour passer le test créera une excellente base et vous équiper pour identifier et tirer parti des opportunités lorsqu'ils apparaissent, et gérer les risques lorsqu'ils apparaissent invariablement.I & rsquo; ve a répertorié les sept domaines ci-dessous: Comprendre les fondements de l'intelligence artificielle Comprendre les impacts de l'IA et les principes responsables de l'IA Comprendre comment les lois actuelles s'appliquent aux systèmes d'IA Comprendre les lois et normes d'IA existantes et fusionnées Comprendre le cycle de vie du développement de l'IA Mise en œuvre de la gouvernance d'IA responsable et de la gestion des risques Contempler les problèmes et les préoccupations en cours Conclusion Bien que la certification elle-même ne soit pas encore en train de sortir, je vous recommande fortement de visiter le site Web de l'IAPP et de jeter un œil au BOK AIGP & rsquo; s.Cela vous donnera une bonne idée de ce que vo Studies ChatGPT ★★
The_Hackers_News.webp 2023-06-15 17:28:00 Nouvelles recherches: 6% des employés colleront des données sensibles dans les outils Genai comme Chatgpt
New Research: 6% of Employees Paste Sensitive Data into GenAI tools as ChatGPT
(lien direct)
La technologie révolutionnaire des outils Genai, telle que Chatgpt, a apporté des risques importants aux données sensibles aux organisations.Mais que savons-nous vraiment de ce risque?Une nouvelle recherche de la société de sécurité de navigateur Layerx met en lumière la portée et la nature de ces risques.Le rapport intitulé «Révèle le véritable risque d'exposition aux données de Genai» fournit des informations cruciales pour les parties prenantes de la protection des données et
The revolutionary technology of GenAI tools, such as ChatGPT, has brought significant risks to organizations\' sensitive data. But what do we really know about this risk? A new research by Browser Security company LayerX sheds light on the scope and nature of these risks. The report titled "Revealing the True GenAI Data Exposure Risk" provides crucial insights for data protection stakeholders and
Studies ChatGPT ChatGPT ★★★★★
01net.webp 2023-03-23 10:30:23 ChatGPT : OpenAI confirme avoir rencontré un " important problème " (lien direct) chatgptplusChatGPT a rencontré un gros bug. L'historique de conversations de certains utilisateurs a été transmis à d'autres internautes. OpenAI est rapidement monté au créneau pour corriger le tir, mais l'incident ravive nos préoccupations en matière de données personnelles… Studies ChatGPT ★★★
globalsecuritymag.webp 2023-03-17 13:12:23 ChatGPT4 : Une première analyse de la sécurité menée par Check Point Research (CPR) conclut à l\'existence de scénarios susceptibles d\'entraîner une accélération de la cybercriminalité (lien direct) Check Point Research (CPR) publie une première analyse de ChatGPT4. Elle met en évidence cinq scénarios permettant aux acteurs de la menace de rationaliser les efforts et les dispositions malveillantes plus rapidement et plus précisément. - Marchés Studies ChatGPT ★★★
Last update at: 2024-05-08 20:08:04
See our sources.
My email:

To see everything: Our RSS (filtrered) Twitter