Alors que nous entrons dans la prochaine phase du développement de l’intelligence artificielle, de plus en plus de questions sont soulevées quant aux implications en matière de sécurité des systèmes d’IA. Pendant ce temps, les entreprises elles-mêmes se précipitent pour établir des accords exclusifs sur les données, afin de s’assurer que leurs modèles sont les mieux équipés pour répondre à des cas d’utilisation en expansion.

Une course effrénée aux accords sur les données

Face à la nécessité d’obtenir toujours plus de données pour alimenter leurs projets d’IA en évolution, les plateformes cherchent maintenant comment elles peuvent sécuriser des accords de données pour continuer à accéder aux informations créées par l’homme.

Reddit, par exemple, a restreint l’accès à son API, tout comme X (anciennement Twitter). Reddit a depuis conclu des accords avec Google et OpenAI pour utiliser ses données, tandis que X semble opter pour conserver les données de ses utilisateurs en interne, afin d’alimenter ses propres modèles d’IA.

Meta, quant à elle, qui s’est vantée de ses réserves inégalées de données sur les utilisateurs, cherche également à établir des accords avec de grandes entités médiatiques, tandis qu’OpenAI est récemment parvenue à un accord avec News Corp, le premier d’une longue série d’accords attendus avec des éditeurs dans la course à l’IA.

Il sera intéressant de voir comment de tels accords évolueront, chaque entreprise essayant de prendre de l’avance et de sécuriser ses réserves de données futures.

Une bataille des géants qui soulève des inquiétudes

Avec de nombreux acteurs importants et bien financés qui cherchent à dominer la prochaine étape du développement de l’IA, il est essentiel que les implications en matière de sécurité restent au premier plan. Les accords et pactes en cours fourniront des protections supplémentaires, sur la base des assurances des participants et des discussions collaboratives sur les prochaines étapes.

La grande crainte qui plane, bien sûr, est qu’à terme, l’IA ne devienne plus intelligente que les humains et, au pire, n’asservisse la race humaine, les robots nous rendant obsolètes. Mais nous n’en sommes pas encore là.

Bien que les derniers outils d’IA générative soient impressionnants dans ce qu’ils peuvent produire, ils ne « pensent » pas réellement par eux-mêmes, et ne font que faire correspondre des données en fonction de points communs dans leurs modèles.

– Yann LeCun, scientifique en chef de l’IA chez Meta

Néanmoins, étant donné que les systèmes d’IA ne comprennent pas leurs propres productions et qu’ils sont de plus en plus intégrés dans des surfaces d’information, comme la recherche Google et les sujets tendances de X, la sécurité de l’IA est importante, car actuellement, ces systèmes peuvent produire des rapports totalement faux.

Vers une réglementation nécessaire ?

C’est pourquoi il est important que tous les développeurs d’IA adhèrent à ces types d’accords, mais toutes les plateformes cherchant à développer des modèles d’IA ne figurent pas encore dans ces programmes.

  • Le Forum Frontier Model (FMF) est un collectif à but non lucratif sur la sécurité de l’IA qui s’efforce d’établir des normes et des réglementations pour le développement de l’IA.
  • Le programme « Safety by Design », initié par l’organisation anti-traite des êtres humains Thorn, vise à prévenir l’utilisation abusive des outils d’IA générative pour perpétrer l’exploitation des enfants.
  • Le gouvernement américain a créé son propre consortium (AISIC), auquel plus de 200 entreprises et organisations ont adhéré.
  • Les responsables de l’UE ont également adopté la loi phare sur l’intelligence artificielle, qui verra la mise en œuvre de règles de développement de l’IA dans cette région.

X, qui cherche à faire de l’IA un élément clé, est notamment absent de plusieurs de ces initiatives, car elle cherche à faire cavalier seul sur ses projets d’IA, tandis que Snapchat, qui accroît également son intérêt pour l’IA, n’est pas encore répertorié comme signataire de ces accords.

Le processus est également intéressant à observer de manière plus générale, les plus grands acteurs, qui ont les moyens de conclure des accords avec les fournisseurs, se séparant du peloton. Cela contraindra, à terme, les plus petits projets à abandonner la course. Et avec de plus en plus de réglementations promulguées sur la sécurité de l’IA, cela pourrait également rendre de plus en plus difficile pour les fournisseurs moins bien financés de suivre le rythme, ce qui signifie que Meta, Google et Microsoft ouvriront la voie, alors que nous nous dirigeons vers la prochaine étape du développement de l’IA.

Peut-on leur faire confiance avec ces systèmes ? Peut-on leur faire confiance avec nos données ? Il y a de nombreuses implications, et il est important de noter les différents accords et changements à mesure que nous progressons vers ce qui nous attend.