One Article Review

Accueil - L'article:
Source Chercheur.webp Schneier on Security
Identifiant 8331563
Date de publication 2023-04-27 13:38:09 (vue: 2023-04-27 14:06:38)
Titre Risques de sécurité de l'IA
Security Risks of AI
Texte Stanford et Georgetown ont un news reporta> sur les risques de sécurité de l'AI & # 8212; en particulier l'apprentissage automatique adversaire & # 8212; sur la base d'un atelier qu'ils ont tenu sur le sujet. Jim Dempsey, l'un des organisateurs de l'atelier, a écrit un article de blog sur le rapport: Dans une première étape, notre rapport recommande l'inclusion des problèmes de sécurité de l'IA dans les programmes de cybersécurité des développeurs et des utilisateurs.La compréhension de la façon de sécuriser les systèmes d'IA, avons-nous conclu, est loin derrière leur adoption généralisée.De nombreux produits d'IA sont déployés sans que les institutions ne comprennent pleinement les risques de sécurité qu'ils posent.Les organisations créant ou déploiement des modèles d'IA devraient intégrer les préoccupations de l'IA dans leurs fonctions de cybersécurité à l'aide d'un cadre de gestion des risques qui aborde la sécurité tout au long du cycle de vie du système d'IA.Il sera nécessaire de lutter contre les façons dont les vulnérabilités de l'IA sont différentes des bogues traditionnels de cybersécurité, mais le point de départ consiste à supposer que la sécurité de l'IA est un sous-ensemble de cybersécurité et de commencer à appliquer des pratiques de gestion de la vulnérabilité aux fonctionnalités basées sur l'IA.(Andy Grotto et moi avons vigoureusement argumenté ...
Stanford and Georgetown have a new report on the security risks of AI—particularly adversarial machine learning—based on a workshop they held on the topic. Jim Dempsey, one of the workshop organizers, wrote a blog post on the report: As a first step, our report recommends the inclusion of AI security concerns within the cybersecurity programs of developers and users. The understanding of how to secure AI systems, we concluded, lags far behind their widespread adoption. Many AI products are deployed without institutions fully understanding the security risks they pose. Organizations building or deploying AI models should incorporate AI concerns into their cybersecurity functions using a risk management framework that addresses security throughout the AI system life cycle. It will be necessary to grapple with the ways in which AI vulnerabilities are different from traditional cybersecurity bugs, but the starting point is to assume that AI security is a subset of cybersecurity and to begin applying vulnerability management practices to AI-based features. (Andy Grotto and I have vigorously argued ...
Notes ★★
Envoyé Oui
Condensat addresses adoption adversarial ai—particularly andy applying are argued assume based begin behind blog bugs building but concerns concluded cybersecurity cycle dempsey deployed deploying developers different far features first framework from fully functions georgetown grapple grotto have held how inclusion incorporate institutions jim lags learning—based life machine management many models necessary new one organizations organizers point pose post practices products programs recommends report report: risk risks secure security should stanford starting step subset system systems throughout topic traditional understanding users using vigorously vulnerabilities vulnerability ways which widespread will within without workshop wrote
Tags Vulnerability
Stories
Move


L'article ne semble pas avoir été repris aprés sa publication.


L'article ne semble pas avoir été repris sur un précédent.
My email: