One Article Review

Accueil - L'article:
Source Chercheur.webp Schneier on Security
Identifiant 8439864
Date de publication 2024-01-17 12:14:03 (vue: 2024-01-17 13:07:41)
Titre Le code écrit avec des assistants d'IA est moins sécurisé
Code Written with AI Assistants Is Less Secure
Texte Recherche intéressante: & # 8220; Les utilisateurs écrivent-ils un code plus peu sûr avec des assistants d'IA? & # 8220 ;: Résumé: Nous effectuons la première étude utilisateur à grande échelle en examinant comment les utilisateurs interagissent avec un assistant de code AI pour résoudre une variété de tâches liées à la sécurité dans différents langages de programmation.Dans l'ensemble, nous constatons que les participants qui avaient accès à un assistant d'IA basé sur le modèle Codex-Davinci-002 d'Openai ont écrit du code nettement moins sécurisé que ceux sans accès.De plus, les participants ayant accès à un assistant d'IA étaient plus susceptibles de croire qu'ils ont écrit du code sécurisé que ceux sans accès à l'assistant d'IA.En outre, nous constatons que les participants qui ont fait confiance à l'IA moins et se sont engagés davantage dans le langage et le format de leurs invites (par exemple, le réhabrasage, l'ajustement de la température) a fourni du code avec moins de vulnérabilités de sécurité.Enfin, afin de mieux informer la conception des futurs assistants de code basés sur l'IA, nous fournissons une analyse approfondie des participants & # 8217;Comportement du langage et d'interaction, ainsi que la publication de notre interface utilisateur comme instrument pour mener des études similaires à l'avenir ...
Interesting research: “Do Users Write More Insecure Code with AI Assistants?“: Abstract: We conduct the first large-scale user study examining how users interact with an AI Code assistant to solve a variety of security related tasks across different programming languages. Overall, we find that participants who had access to an AI assistant based on OpenAI’s codex-davinci-002 model wrote significantly less secure code than those without access. Additionally, participants with access to an AI assistant were more likely to believe they wrote secure code than those without access to the AI assistant. Furthermore, we find that participants who trusted the AI less and engaged more with the language and format of their prompts (e.g. re-phrasing, adjusting temperature) provided code with fewer security vulnerabilities. Finally, in order to better inform the design of future AI-based Code assistants, we provide an in-depth analysis of participants’ language and interaction behavior, as well as release our user interface as an instrument to conduct similar studies in the future...
Envoyé Oui
Condensat “: “do 002 abstract: access across additionally adjusting analysis assistant assistants based behavior believe better code codex conduct davinci depth design different engaged examining fewer finally find first format furthermore future had how inform insecure instrument interact interaction interesting interface language languages large less likely model more openai’s order overall participants participants’ phrasing programming prompts provide provided related release research: scale secure security significantly similar solve studies study tasks temperature than those trusted user users variety vulnerabilities well who without write written wrote
Tags Vulnerability Studies
Stories
Notes ★★★★
Move


L'article ne semble pas avoir été repris aprés sa publication.


L'article ne semble pas avoir été repris sur un précédent.
My email: