Des chercheurs ont utilisé avec succès ChatGPT pour exploiter une faille de sécurité et remporter 20 000 dollars. Bien que l’IA n’ait pas trouvé la vulnérabilité ni écrit de code pour l’exploiter, son utilisation réussie dans ce type de compétition pourrait être annonciatrice de nouveaux hacks à venir.
Lors du concours, les chercheurs ont identifié une vulnérabilité dans un logiciel industriel et ont demandé à ChatGPT de développer un module backend. Cette demande a permis de gagner du temps et de se concentrer sur la mise en œuvre de l’exploit.
Dans le domaine du hacking, l’IA se confirme comme un excellent assistant pour les chercheurs de sécurité.
ChatGPT est sur toutes les lèvres. L’IA générative d’OpenAI peut aussi bouleverser le domaine du hacking éthique. Les chercheurs en cybersécurité Noam Moshe et Uri Katz, de l’entreprise Claroty, ont su tirer parti du chatbot pour identifier une vulnérabilité. Le média spécialisé The Register rapporte qu’ils ont récemment remporté une récompense de 20’000 dollars lors du campagne de Bug Bounty Pwn2own.
It was bound to happen sooner or later. For what looks like the first time ever, bug hunters used ChatGPT in a successful Pwn2Own exploit, helping researchers hijack software used in industrial applications and win $20,000. To be clear: the AI did not find the vulnerability nor write and run code to exploit a specific flaw.
Post a comment