Source |
Schneier on Security |
Identifiant |
8607507 |
Date de publication |
2024-11-07 12:07:46 (vue: 2024-11-07 12:08:49) |
Titre |
Suivre les codeurs LLM Subverting LLM Coders |
Texte |
Recherche vraiment intéressante: & # 8220; une attaque de porte de porte-bêtise facile à contourner LLM-assistée sur le code sur le codeModèles d'achèvement: injection de vulnérabilités déguisées contre une forte détection & # 8220 ;:
Résumé : les modèles de grande langue (LLMS) ont transformé le code com-
Tâches de plétion, fournissant des suggestions contextuelles pour stimuler la productivité des développeurs en génie logiciel.Comme les utilisateurs affichent souvent, ces modèles pour des applications spécifiques, l'empoisonnement et les attaques de porte dérobée peuvent secrètement modifier les sorties du modèle.Pour relever ce défi de sécurité critique, nous introduisons CodeBreaker, un cadre d'attaque de porte de porte de porte dérobé assisté par LLM sur les modèles d'achèvement de code.Contrairement aux attaques récentes qui incorporent des charges utiles malveillantes dans des sections détectables ou non pertinentes du code (par exemple, commentaires), CodeBreaker exploite les LLM (par exemple, GPT-4) pour la transformation sophistiquée de la charge utile (sans affecter les fonctionnalités), garantissant que les deux données empoisonnées pour les amendeLe réglage et le code généré peuvent échapper à une forte détection de vulnérabilité.CodeBreaker se démarque avec sa couverture complète des vulnérabilités, ce qui en fait la première à fournir un ensemble aussi étendu pour l'évaluation.Nos vastes évaluations expérimentales et nos études des utilisateurs soulignent les fortes performances d'attaque de CodeBreaker dans divers paramètres, validant sa supériorité sur les approches existantes.En intégrant les charges utiles malveillantes directement dans le code source avec une transformation minimale, CodeBreaker défie les mesures de sécurité actuelles, soulignant le besoin critique de défenses plus robustes pour l'achèvement du code ...
Really interesting research: “An LLM-Assisted Easy-to-Trigger Backdoor Attack on Code Completion Models: Injecting Disguised Vulnerabilities against Strong Detection“:
Abstract: Large Language Models (LLMs) have transformed code com-
pletion tasks, providing context-based suggestions to boost developer productivity in software engineering. As users often fine-tune these models for specific applications, poisoning and backdoor attacks can covertly alter the model outputs. To address this critical security challenge, we introduce CODEBREAKER, a pioneering LLM-assisted backdoor attack framework on code completion models. Unlike recent attacks that embed malicious payloads in detectable or irrelevant sections of the code (e.g., comments), CODEBREAKER leverages LLMs (e.g., GPT-4) for sophisticated payload transformation (without affecting functionalities), ensuring that both the poisoned data for fine-tuning and generated code can evade strong vulnerability detection. CODEBREAKER stands out with its comprehensive coverage of vulnerabilities, making it the first to provide such an extensive set for evaluation. Our extensive experimental evaluations and user studies underline the strong attack performance of CODEBREAKER across various settings, validating its superiority over existing approaches. By integrating malicious payloads directly into the source code with minimal transformation, CODEBREAKER challenges current security measures, underscoring the critical need for more robust defenses for code completion... |
Notes |
★★★
|
Envoyé |
Oui |
Condensat |
“an abstract: across address affecting against alter applications approaches assisted attack attacks backdoor based boost both can challenge challenges code codebreaker coders com comments completion comprehensive context coverage covertly critical current data defenses detectable detection detection“: developer directly disguised easy embed engineering ensuring evade evaluation evaluations existing experimental extensive fine first framework functionalities generated gpt have injecting integrating interesting introduce irrelevant its language large leverages llm llms making malicious measures minimal model models models: more need often out outputs over payload payloads performance pioneering pletion poisoned poisoning productivity provide providing really recent research: robust sections security set settings software sophisticated source specific stands strong studies subverting such suggestions superiority tasks these transformation transformed trigger tune tuning underline underscoring unlike user users validating various vulnerabilities vulnerability without |
Tags |
Vulnerability
Studies
|
Stories |
|
Move |
|