Le géant américain de la technologie Meta Platforms Inc. a présenté Purple Llama, un projet-cadre visant à créer des systèmes d’intelligence artificielle (IA) sécurisés à l’aide d’outils d’IA générative (genAI).
La société mère de Facebook a déclaré que cette boîte à outils a été conçue pour relever les défis de l’IA que les développeurs ne sont pas en mesure de relever seuls, en leur offrant des chances égales et en permettant à l’entreprise de construire un « centre de masse pour la confiance et la sécurité ouvertes ».
Meta s’associera à des fabricants d’applications d’IA, dont les fournisseurs américains de services d’informatique en nuage Amazon Web Services (AWS) Inc. et Google Cloud Platform, pour sa nouvelle initiative.
Les grands fabricants de puces Intel Corp, Advanced Micro Devices (AMD) Inc et Nvidia Corp participent également à l’évaluation des capacités et de la sécurité des modèles d’IA.
L’entreprise californienne a lancé Purple Llama en dévoilant CyberSec Eval, sa suite gratuite et ouverte de tests de référence en matière de cybersécurité pour les grands modèles de langage (LLM). Cet ensemble aidera les développeurs à évaluer la probabilité que le modèle produise un code non sécurisé ou qu’il aide à mener des cyberattaques.
Meta annonce également Llama Guard, qui servira de classificateur de sécurité textuelle. Le LLM est conçu pour identifier le langage qui pourrait être inapproprié, nuisible ou indiquer des activités illégales.
L’entreprise prévoit de publier progressivement tous les outils et évaluations open-source dont la communauté de développement de l’IA a besoin pour créer la genAI de manière sûre et responsable.
L’approche Purple Teaming de Meta pour la sécurité de la GenAI
Selon Meta, le lama violet a été conçu comme une stratégie à deux volets pour la sécurité et la sûreté, examinant les entrées et les sorties d’une IA.
L’entreprise a déclaré que pour minimiser réellement les risques de la GenAI, les développeurs devraient attaquer par le biais d’une « équipe rouge » et se défendre sous la forme d’une « équipe bleue ».
Dans la cybersécurité classique, le red teaming implique que les développeurs ou les testeurs internes exécutent délibérément différentes attaques sur une IA pour vérifier les erreurs, les défauts ou les résultats ou interactions inattendus.
En revanche, le blue teaming est une tactique dans laquelle les experts se concentrent sur la réponse ou l’évitement de ces attaques afin d’identifier les méthodes de lutte contre les menaces réelles dans les modèles d’IA.
Par conséquent, la stratégie de « purple teaming » de Meta, qui comprend le « red teaming » et le « blue teaming », vise à créer une approche commune pour évaluer et réduire le risque potentiel de cette technologie.