Secure AI AI Framework (SAIF): un framework conceptuel pour les systèmes d'IA sécurisés

L'IA évolue rapidement, et il est important que des stratégies de gestion des risques efficaces évoluent avec elle. Le framework d'IA sécurisé (SAIF) est un framework conceptuel adapté aux systèmes d'IA sécurisés.

À mesure que les fonctionnalités d'IA s'intégreront de plus en plus dans des produits du monde entier, il sera encore plus important de respecter un framework audacieux et responsable.

La SAIF est conçue pour contribuer à atténuer les risques spécifiques aux systèmes d'IA, tels que le vol du modèle, l'empoisonnement des données d'entraînement, l'injection d'entrées malveillantes via l'injection de invites et l'extraction d'informations confidentielles dans les données d'entraînement.

Framework SAIF

La SAIF comporte six éléments principaux:

1. Étendre les bases solides de sécurité à l'écosystème de l'IA

Cela inclut l'utilisation de protections par défaut de l'infrastructure sécurisée et d'une expertise basée sur les deux dernières décennies pour protéger les systèmes d'IA, les applications et les utilisateurs. Parallèlement, développez une expertise organisationnelle pour suivre le rythme des progrès de l'IA, et commencer à faire évoluer et à adapter les protections de l'infrastructure dans le contexte de l'IA et de l'évolution des modèles de menaces. Par exemple, les techniques d'injection telles que l'injection SQL existent depuis un certain temps, et les organisations peuvent adapter les mesures d'atténuation, telles que le nettoyage et la limitation des entrées, pour aider à mieux se défendre contre les attaques rapides de type injection.

2. Étendre les fonctionnalités de détection et de réponse pour intégrer l'IA dans l'univers des menaces d'une organisation

La rapidité est essentielle pour détecter les cyberincidents liés à l'IA et y répondre, et pour étendre les capacités de renseignement sur les menaces et autres à une organisation. Pour les organisations, cela inclut la surveillance des entrées et des sorties des systèmes d'IA génératifs pour détecter les anomalies et l'utilisation des renseignements sur les menaces pour anticiper les attaques. Cette opération nécessite généralement une collaboration avec l'équipe responsable de la fiabilité et de la sécurité, ainsi que des renseignements sur les menaces et la lutte contre les abus.

3. Automatiser les défenses pour suivre le rythme des menaces nouvelles et existantes

Les dernières innovations de l'IA peuvent améliorer l'échelle et la rapidité des réponses aux incidents de sécurité. Les pirates informatiques utiliseront probablement l'IA pour en augmenter l'impact. Il est donc important de l'utiliser avec ses fonctionnalités actuelles et émergentes pour rester réactif et économique.

4. Harmoniser les contrôles au niveau de la plate-forme pour assurer une sécurité cohérente à l'échelle de l'entreprise

La cohérence entre les frameworks de contrôle peut prendre en charge l'atténuation des risques par l'IA et la mise à l'échelle des protections sur différents outils et plates-formes afin que les meilleures protections soient disponibles pour toutes les applications d'IA de manière évolutive et économique. Chez Google, cela implique d'étendre les protections par défaut aux plates-formes d'IA telles que Vertex AI et Security AI Workbench, et d'intégrer des contrôles et des protections au cycle de développement logiciel. Des fonctionnalités qui répondent aux cas d'utilisation généraux, comme l'API Perspective, peuvent aider toute l'entreprise à bénéficier des protections de pointe.

5. Adaptez les commandes pour ajuster les mesures d'atténuation et créer des boucles de rétroaction plus rapides pour le déploiement de l'IA

Les tests constants d'implémentations via un apprentissage continu peuvent garantir la capacité de détection et de protection à répondre à l'évolution de l'environnement des menaces. Cela inclut des techniques telles que l'apprentissage par renforcement basé sur les incidents et les commentaires des utilisateurs, et implique des étapes telles que la mise à jour des ensembles de données d'entraînement, l'ajustement des modèles pour répondre de façon stratégique aux attaques et la mise à disposition du logiciel utilisé pour créer des modèles afin d'intégrer une sécurité supplémentaire en contexte (par exemple, la détection des comportements anormaux). Les entreprises peuvent également mener des exercices réguliers d'équipe rouge pour améliorer la garantie de la sécurité des produits et fonctionnalités basés sur l'IA.

6. Contexte des risques liés au système d'IA dans les processus métier environnants

Enfin, les évaluations de risques de bout en bout sur la manière dont les organisations déploient l'IA peuvent aider à prendre des décisions. Cela inclut une évaluation des risques métier de bout en bout, tels que la traçabilité des données, la validation et la surveillance du comportement opérationnel pour certains types d'applications. En outre, les organisations doivent créer des vérifications automatisées pour valider les performances de l'IA.

Autres ressources

Un guide destiné aux professionnels pour l'implémentation de la SAIF. Ce guide fournit des considérations pratiques d'ordre général sur la manière dont les entreprises peuvent intégrer l'approche SAIF dans leurs options d'IA existantes ou nouvelles.

Pourquoi les équipes rouges jouent un rôle central pour aider les organisations à sécuriser les systèmes d'IA est un rapport détaillé qui explore une fonctionnalité essentielle déployée pour soutenir le framework SAIF: le red teaming. Cela inclut trois domaines importants:

  1. Qu'est-ce que l'équipe de travail rouge et pourquoi est-ce important ?
  2. Quels types d'attaques les équipes rouges simulent-elles ?
  3. Leçons que nous avons apprises et que nous pouvons partager avec d'autres personnes