Ray-Ban Meta Glasses si aggiornano con Live AI, traduzione simultanea e integrazione Shazam
Meta ha rilasciato l’aggiornamento software v11 per i Ray-Ban Meta Glasses, introducendo funzionalità importanti come Live AI, la traduzione simultanea in tempo reale e l’integrazione con Shazam.
La nuova funzione Live AI sfrutta la videocamera integrata per analizzare l’ambiente circostante e fornire supporto immediato tramite l’assistente Meta AI. Secondo Meta, Live AI può essere utile nelle attività quotidiane come cucinare, fare giardinaggio o esplorare nuovi luoghi, garantendo risposte contestuali e domande di follow-up senza dover ripetere il comando “Hey Meta”.
Un’altra novità rilevante è la funzione Live Translation, che permette la traduzione simultanea da spagnolo, francese e italiano verso l’inglese. La traduzione viene riprodotta direttamente attraverso i diffusori open-ear degli occhiali o visualizzata come trascrizione nell’app Meta View, collegata allo smartphone. Questa funzione è progettata per superare le barriere linguistiche, facilitando la comunicazione in contesti multilingue e durante i viaggi.
Meta ha inoltre integrato Shazam, il popolare servizio di riconoscimento musicale di Apple. Per identificare una canzone è sufficiente pronunciare il comando “Hey Meta, che canzone è questa?” per ricevere la risposta tramite gli occhiali, offrendo un’esperienza completamente a mani libere.
Queste funzionalità, presentate in anteprima durante il Meta Connect 2024, sono attualmente in fase sperimentale nell’ambito del programma Early Access, riservato agli utenti statunitensi e canadesi. Meta ha dichiarato che nel corso del 2025 saranno rilasciati ulteriori aggiornamenti software e funzionalità aggiuntive, promettendo un costante miglioramento delle esperienze AI sui Ray-Ban Meta Glasses.