Alors que le développement de l’IA générative pose des risques significatifs sur divers fronts, il semble que chaque semaine, les grands acteurs mettent en place de nouveaux accords et forums, afin de contrôler, ou donner l’impression de superviser le développement de l’IA. C’est une bonne chose, car cela établit un dialogue collaboratif autour des projets d’IA et de ce que chaque entreprise devrait surveiller et gérer dans le processus.

Mais en même temps, on a aussi l’impression qu’il s’agit d’un moyen d’éviter de nouvelles restrictions réglementaires, qui pourraient accroître la transparence et imposer davantage de règles sur ce que les développeurs peuvent et ne peuvent pas faire avec leurs projets. Google est le dernier en date à créer un nouveau groupe d’orientation sur l’IA, formant la Coalition pour une IA sécurisée (CoSAI), conçue pour « faire progresser des mesures de sécurité complètes pour faire face aux risques uniques liés à l’IA ».

Un Framework de Sécurité Pour L’IA en Croissance Rapide

Selon Google, l’IA a besoin d’un cadre de sécurité et de normes appliquées qui puissent suivre son rythme de croissance rapide. C’est pourquoi l’année dernière, ils ont partagé le Secure AI Framework (SAIF), sachant que ce n’était que la première étape. Bien sûr, pour rendre opérationnel tout cadre sectoriel, il faut une collaboration étroite avec les autres, et surtout un forum pour y parvenir.

Il ne s’agit donc pas tant d’une toute nouvelle initiative, mais d’une extension d’une initiative annoncée précédemment, axée sur le développement de la sécurité de l’IA et l’orientation des efforts de défense pour aider à éviter les piratages et les fuites de données. Plusieurs grands acteurs de la technologie ont adhéré à cette nouvelle initiative, notamment Amazon, IBM, Microsoft, NVIDIA et OpenAI, dans le but de créer des solutions collaboratives open source pour assurer une plus grande sécurité dans le développement de l’IA.

Une Liste Croissante de Groupes Axés Sur Le Développement Durable et Sécurisé de L’IA

Comme indiqué, il s’agit de la dernière d’une liste croissante de groupes industriels axés sur le développement durable et sécurisé de l’IA. Par exemple :

  • Le Frontier Model Forum (FMF) vise à établir des normes et des réglementations pour le développement de l’IA. Meta, Amazon, Google, Microsoft et OpenAI ont adhéré à cette initiative.
  • Thorn a établi son programme « Safety by Design », axé sur des ensembles de données de formation en IA provenant de sources responsables, afin de les protéger du matériel d’abus sexuels sur enfants. Meta, Google, Amazon, Microsoft et OpenAI ont tous adhéré.
  • Le gouvernement américain a créé son propre AI Safety Institute Consortium (AISIC), auquel plus de 200 entreprises et organisations ont adhéré.
  • Des représentants de presque toutes les grandes entreprises technologiques ont accepté le Tech Accord pour combattre l’utilisation trompeuse de l’IA, qui vise à mettre en œuvre des « précautions raisonnables » pour empêcher l’utilisation des outils d’IA pour perturber les élections démocratiques.

Des Accords Volontaires Plutôt Que Des Lois Contraignantes ?

Essentiellement, nous voyons un nombre croissant de forums et d’accords conçus pour aborder divers éléments du développement sécurisé de l’IA. C’est une bonne chose, mais en même temps, il ne s’agit pas de lois et ils ne sont donc pas applicables de quelque manière que ce soit, ce sont juste des développeurs d’IA qui acceptent de respecter certaines règles sur certains aspects.

Et le point de vue sceptique est qu’ils ne sont mis en place qu’à titre d’assurance, afin d’éviter une réglementation plus définitive. Les responsables de l’UE évaluent déjà les dommages potentiels du développement de l’IA et ce qui est couvert ou non par le RGPD, tandis que d’autres régions évaluent également les mêmes éléments, avec la menace de sanctions financières réelles derrière leurs paramètres convenus par le gouvernement.

On a l’impression que c’est ce qui est réellement nécessaire, mais en même temps, la réglementation gouvernementale prend du temps, et il est probable que nous ne verrons pas de systèmes et de structures d’application réels autour de cela avant que le mal ne soit fait.

Une fois que nous aurons vu les dommages, alors ce sera beaucoup plus tangible, et les groupes de réglementation auront plus d’élan pour faire passer des politiques officielles. Mais d’ici là, nous avons des groupes industriels, qui voient chaque entreprise s’engager à jouer selon ces règles établies, mises en œuvre par accord mutuel.

Je ne suis pas sûr que ce sera suffisant, mais pour l’instant, c’est apparemment ce que nous avons. L’avenir nous dira si ces accords volontaires seront suffisants pour encadrer efficacement le développement de l’IA et prévenir des dérives, ou si une réglementation plus stricte s’avérera nécessaire. Une chose est sûre, la question est cruciale et le débat ne fait que commencer.