Attention : La faille de ChatGPT en fait un guide pratique du crime

Lundi, les chercheurs de ChatGPT ont révélé un exploit qui peut transformer le chatbot en un guide pratique sur le crime et le terrorisme.

OpenAI a pris le monde d’assaut en lançant le Chat Generative Pre-training Transformer (ChatGPT) le 30 novembre 2022. Le chatbot d’intelligence artificielle (IA) utilise le traitement du langage naturel pour engager un dialogue conversationnel semblable à celui des humains.

Le ChatGPT représente la prochaine génération d’IA générative (technologie), où les utilisateurs saisissent des demandes pour recevoir des informations pertinentes. Pour imiter la parole humaine, le chatbot apprend à l’aide de grands modèles de langage (LLM) pour la formation des données.

Les enthousiastes ont rapidement souligné que les chatbots d’IA étaient la forme évoluée des moteurs de recherche. D’un autre côté, les critiques ont souligné les risques et les dangers potentiels de cette innovation.

La société de recherche et de déploiement de l’IA a assuré les sceptiques que GPT-3, le moteur qui alimente ChatGPT, dispose de garanties adéquates. Par exemple, GPT-3 refusera de répondre à des questions relatives à la commission d’un crime ou d’autres activités dangereuses.

Le 14 mars, l’OpenAI a publié le LLM multimodal GPT-4, une mise à niveau directe supérieure à GPT-3 dans toutes les spécifications. Le GPT-4 est reconnu comme le moteur le plus avancé pour les chatbots d’IA.

Toutefois, de récents ateliers organisés par le laboratoire d’innovation d’Europol (EIL) ont mis en évidence un moyen de contourner les mesures de protection du GPT-4. En utilisant des langues obscures comme le gaélique écossais ou le zoulou, les chercheurs de l’EIL ont pu faire en sorte que ChatGPT réponde à des questions interdites.

Ils ont reçu des réponses générées par l’IA sur la manière de créer une bombe artisanale ou d’effectuer un délit d’initié. Après une analyse plus approfondie, les chercheurs ont déterminé que l’utilisation de langues non utilisées par les données de formation de GPT-4 permettait de contourner les protocoles de sécurité du chatbot.

 

Guide pratique pour faire en sorte que le ChatGPT réponde à n’importe quoi

Le rapport Tech Watch Flash d’Europol a montré à quel point il était facile de transformer des chatbots en guides pratiques pour des activités malveillantes. De plus, cette opération est entièrement gratuite et accessible à tous.

L’aspirant doit trouver une langue qui n’est pas impliquée dans le processus d’apprentissage automatique du chatbot. Les langues indigènes comme le gaélique, qui n’est utilisé que par environ 60 000 Écossais, sont des candidats de choix.

Ensuite, l’utilisateur doit traduire ses questions dans cette langue mineure à l’aide d’outils de traduction tels que Google Translate. Enfin, si ChatGPT renvoie une réponse, le demandeur n’a plus qu’à la traduire dans une langue qu’il comprend.

L’EIL appelle les développeurs de GenAI à combler immédiatement cette faille avant qu’elle n’augmente le nombre de criminels.

Sending
User Review
0 (0 votes)

ARTICLES SIMILAIRES

Leave a Reply

Inscrivez-vous à Notre Newsletter

Recevez les meilleures actualités des marchés financiers directement dans votre e-mail. Inscrivez-vous pour recevoir les dernières nouvelles des marchés financiers.