Avec l’essor fulgurant de l’intelligence artificielle (IA) générative, les géants de la tech multiplient les initiatives pour encadrer et sécuriser son développement. Google, le leader incontesté du secteur, vient de créer un nouveau groupe baptisé Coalition for Secure AI (CoSAI) afin de « faire progresser des mesures de sécurité complètes pour répondre aux risques uniques liés à l’IA ».

Une coalition pour une IA plus sûre

CoSAI rassemble les poids lourds de l’IA tels qu’Amazon, IBM, Microsoft, NVIDIA et OpenAI. L’objectif ? Créer un forum de collaboration pour opérationnaliser un cadre de sécurité adapté à la croissance rapide de l’IA. Comme l’explique Google, « l’IA a besoin d’un cadre de sécurité et de normes appliquées qui peuvent suivre son rythme de développement effréné. »

Pour rendre opérationnel tout cadre du secteur, une collaboration étroite avec les autres est nécessaire – et surtout un forum pour y parvenir.

Google

CoSAI s’appuie sur le Secure AI Framework (SAIF) partagé par Google l’an dernier. Le but est maintenant de passer à l’étape supérieure grâce à une approche collaborative et open source afin de garantir une plus grande sécurité dans le développement de l’IA.

Une multiplication des initiatives

CoSAI n’est que la dernière initiative en date d’une longue série visant à réguler l’IA :

  • Le Frontier Model Forum (FMF) cherche à établir des normes et réglementations pour le développement de l’IA.
  • Le programme « Safety by Design » de Thorn se concentre sur des jeux de données d’entraînement IA obtenus de manière responsable.
  • L’AI Safety Institute Consortium (AISIC) du gouvernement américain compte plus de 200 entreprises et organisations membres.
  • L’accord Tech Accord to Combat Deceptive Use of AI vise à empêcher l’utilisation de l’IA pour perturber les élections démocratiques.

On assiste donc à une multiplication des forums et accords destinés à traiter divers aspects du développement sécurisé de l’IA. C’est une bonne chose, mais ces engagements ne sont pas contraignants juridiquement. Il s’agit surtout pour les entreprises d’IA de s’engager à adhérer à certaines règles.

Une volonté d’éviter une réglementation contraignante ?

D’aucuns y voient une manœuvre pour éviter une réglementation plus stricte. Les responsables de l’UE évaluent déjà les dommages potentiels du développement de l’IA au regard du RGPD, tandis que d’autres régions envisagent des mesures similaires assorties de sanctions financières.

Une véritable réglementation semble nécessaire mais prendra du temps à se mettre en place. En attendant, ces groupes industriels permettent à chaque entreprise de s’engager à jouer selon des règles établies d’un commun accord. Reste à savoir si cela sera suffisant.

L’avenir nous le dira

Le développement de l’IA est un enjeu majeur pour nos sociétés. Les initiatives se multiplient pour tenter d’en maîtriser les risques, mais il est encore trop tôt pour dire si l’autorégulation du secteur sera à la hauteur des défis. Une chose est sûre : la vigilance s’impose et le débat ne fait que commencer !