Les lunettes connectées de Meta, en partenariat avec Ray-Ban, gagnent en popularité à l’approche des fêtes de fin d’année. Et le géant des réseaux sociaux compte bien surfer sur cette vague en intégrant de nouvelles fonctionnalités d’intelligence artificielle pour élargir les capacités interactives de ces lunettes stylées.

Un assistant IA conversationnel

La principale nouveauté est l’ajout de « Live AI », qui vous offre un compagnon IA en continu pendant jusqu’à 30 minutes. Comme le montre l’exemple partagé par le CTO de Meta, Andrew Bosworth, Live AI vous permet d’interagir avec l’IA de Meta en mode mains libres, pour poser des questions de manière plus naturelle et conversationnelle.

Pendant une session Live AI, l’IA de Meta peut voir ce que vous voyez en continu et converser avec vous de façon plus naturelle que jamais. Obtenez de l’aide et de l’inspiration en temps réel et en mode mains libres pour vos activités quotidiennes comme la préparation des repas, le jardinage ou l’exploration d’un nouveau quartier.

– Meta

Cette utilisation de l’IA générative pour créer des assistants conversationnels soulève cependant des questions quant à l’impact sur la santé mentale. Que se passe-t-il si les gens en viennent à dépendre de ces outils d’IA comme amis, puis que le fournisseur les coupe ? Le risque est que l’on ne prenne conscience de ces effets néfastes qu’a posteriori, le désir d’innover l’emportant sur la nécessité d’évaluer les conséquences.

Reconnaissance de chansons et traduction en direct

Outre l’assistant IA, les lunettes Ray-Ban Meta bénéficient également d’une intégration de Shazam pour les utilisateurs aux États-Unis et au Canada. Vous pourrez ainsi demander à l’IA de Meta quelle chanson est en train de jouer à tout moment.

Autre mise à jour particulièrement utile : la traduction en direct. Vos lunettes pourront traduire en temps réel des conversations entre l’anglais et l’espagnol, le français ou l’italien. Lorsque quelqu’un vous parle dans l’une de ces trois langues, vous entendrez la traduction en anglais via les haut-parleurs ouverts des lunettes, ou pourrez la voir sous forme de transcription sur votre téléphone, et vice versa.

Alors que les ventes des lunettes Ray-Ban de Meta ne cessent d’augmenter, nul doute que de nombreuses personnes en trouveront une paire sous le sapin la semaine prochaine. Et avec l’évolution continue de l’appareil par Meta, il pourrait bien devenir un accessoire de connexion incontournable à bien des égards.

L’IA comme pont vers le futur de la connexion

L’utilisation de l’IA de Meta dans ce contexte s’avère plus pertinente qu’un simple chatbot sur Facebook ou Instagram. Car le géant des réseaux sociaux dispose là de plus d’opportunités pour exploiter l’IA afin de combler le fossé entre notre façon de nous connecter actuellement et celle du futur.

Si intégrer son chatbot IA dans toutes ses apps peut sembler superflu, voire agaçant, Meta explore en parallèle des pistes bien plus intéressantes pour tirer parti de ses outils d’intelligence artificielle de façon optimale.

  • Lunettes connectées Meta avec IA intégrée
  • Assistant conversationnel IA mains-libres
  • Traduction en direct de conversations
  • Reconnaissance de chansons via Shazam

Avec ses Ray-Ban Meta, la firme de Mark Zuckerberg pose les bases de notre façon d’interagir et de rester connectés dans les années à venir, en misant sur l’IA comme interface. Une approche bien plus prometteuse que de simplement greffer un énième chatbot à ses applications.