Selon un article du New York Times, Meta intégrera dès le mois prochain l’intelligence artificielle (IA) à ses lunettes connectées Ray-Ban. Ces fonctionnalités d’IA multimodales, disponibles en accès anticipé depuis décembre dernier, permettent la traduction de langues ainsi que l’identification d’objets, d’animaux et de monuments.
Si l’IA de Meta a pu identifier correctement les animaux de compagnie et les œuvres d’art, elle n’a pas été infaillible. Le New York Times a constaté que les lunettes avaient du mal à identifier les animaux du zoo qui se trouvaient loin et derrière des cages. De plus, elles n’ont pas réussi à identifier correctement un fruit exotique, la chérimole, après plusieurs tentatives. En ce qui concerne la traduction par l’IA, le New York Times a constaté que les lunettes prennent en charge l’anglais, l’espagnol, l’italien, le français et l’allemand.
Meta continuera probablement à affiner ces fonctionnalités au fil du temps. Actuellement, les fonctionnalités d’IA des lunettes Ray-Ban Meta Smart Glasses ne sont disponibles qu’aux États-Unis via une liste d’attente d’accès anticipé.