Come saranno gli occhiali del futuro? Molti devono averlo immaginato a un certo punto.
Circa delle stesse dimensioni degli occhiali attuali, potrebbero trasformarsi in un HUD mobile durante la navigazione. Durante le videochiamate, un'immagine olografica dell'altra persona fluttuerebbe nell'aria. Le lenti mostrerebbero tutto ciò di cui hai bisogno... In pratica, sarebbero qualcosa di simile agli occhiali indossati da Vegeta o Iron Man.
Il 25 settembre, Meta ha presentato i suoi primi occhiali intelligenti AR, Orion, portandoci un passo più vicini a questo prodotto ideale. Sebbene gli occhiali AR siano stati lanciati negli ultimi anni, condividevano tutti alcuni difetti evidenti: avevano funzionalità limitate, funzionando essenzialmente come proiettori portatili, oppure erano ingombranti e proibitivamente costosi, il che li rendeva inadatti al mercato di massa.
Rispetto ai prodotti precedenti, il design elegante di Meta Orion e le funzionalità AR integrate riaccendono la speranza che gli occhiali AR diventino mainstream. Inoltre, mentre Meta Connect 2024 segna il decimo anniversario dell'evento, Mark Zuckerberg ha presentato diversi altri nuovi prodotti:
- Occhiali intelligenti Meta Orion: esperienza di realtà aumentata leader del settore;
- Visore Meta Quest 3S MR: la "versione lite" di Quest 3, con un prezzo inferiore ma senza caratteristiche rivoluzionarie;
- Aggiornamenti continui di Meta AI per migliorare l'esperienza utente dei visori;
- Nuove funzionalità AI per Meta Ray-Ban: traduzione in tempo reale, suggerimenti di stile personalizzati e persino aiuto per trovare la tua auto;
- Il primo modello linguistico di grandi dimensioni (LLM) open source di Meta, Llama 3.2, con funzionalità multimodali.
L'intelligenza artificiale combinata con l'hardware è l'argomento caldo dell'elettronica di consumo di quest'anno. Ma in che modo esattamente Meta integra i suoi potenti modelli di intelligenza artificiale con il suo nuovo hardware? E che aspetto hanno gli attesissimi occhiali intelligenti Meta Orion? Diamo un'occhiata più da vicino.
Meta Orion AR Glasses: lo straordinario debutto di un progetto durato un decennio
Nella visione di Zuckerberg, gli occhiali dovrebbero essere il dispositivo futuristico definitivo. Prima di questo, Meta si era già avventurata nel mercato degli occhiali intelligenti con la collaborazione Ray-Ban Meta, che ha avuto un notevole successo nel valutare l'interesse dei consumatori per gli occhiali intelligenti.
Tuttavia, Ray-Ban Meta ha raggiunto solo metà dell'obiettivo finale di Meta. Il prodotto offriva principalmente audio, fotografia e alcune funzionalità di base di intelligenza artificiale, ma era ancora essenzialmente un dispositivo indossabile tradizionale.
La versione completa, che Zuckerberg ha definito "impeccabile", è quella degli occhiali Meta Orion AR. Questo progetto top secret è in fase di sviluppo da oltre un decennio, con miliardi di dollari investiti. Oggi, il mondo finalmente può vederlo.
La prima impressione degli occhiali Meta Orion è il loro design elegante, che ricorda molto gli occhiali da sole normali. Questo li distingue immediatamente dai concorrenti più ingombranti sul mercato: dopotutto, anche gli occhiali devono avere un bell'aspetto.
Meta ha ottenuto questo risultato scegliendo di non stipare tutti i componenti in un'unica montatura. Invece, Meta Orion è costituito da tre parti separate: gli occhiali stessi, un braccialetto di tracciamento della mano e un "modulo di calcolo" delle dimensioni di un telecomando. Questi tre componenti sono collegati in modalità wireless.
Questo design modulare, combinato con l'uso di materiali leggeri in magnesio, consente agli occhiali Orion di pesare sorprendentemente poco più di 98 grammi. Per fare un paragone, i nuovi occhiali AR di Snap, Spectacles, usciti il 17 settembre, pesano ben 226 grammi.
Ancora più impressionante è il fatto che il modello Orion, più leggero, offre una durata della batteria di circa due ore, mentre i più ingombranti Spectacles arrivano solo a 45 minuti.
Per quanto riguarda le capacità di proiezione AR di base, Orion è "ben avanti rispetto alla concorrenza" in diverse aree chiave. Invece di un tradizionale display in vetro, Orion utilizza lenti in carburo di silicio. I microproiettori incorporati nella cornice emettono luce nella guida d'onda, che viene poi proiettata sulle lenti, creando immagini AR di profondità e dimensioni variabili. Zuckerberg si riferisce a questo come a una "vista panoramica".
Secondo i test effettuati da La VergeIl campo visivo di Meta Orion raggiunge ben 70 gradi, rendendolo probabilmente il più ampio nel settore degli occhiali AR.
Nei video dimostrativi disponibili, gli utenti possono indossare gli occhiali per aprire più finestre di Meta Horizon Apps per svolgere più attività contemporaneamente oppure utilizzare Meta AI per riconoscere ed etichettare oggetti del mondo reale.
Anche se lo sguardo dell'utente si sposta da queste finestre, le proiezioni virtuali rimangono al loro posto, pronte a riapparire quando l'attenzione dell'utente ritorna.
Per quanto riguarda la nitidezza delle immagini e del testo, sono sufficientemente buoni per visualizzare foto e leggere testi, ma probabilmente non vorrai usare questi occhiali per guardare film, almeno non ancora.
L'esperienza di Meta nel social networking crea anche nuove ed entusiasmanti possibilità con gli occhiali AR. Quando sei al telefono con un amico, la sua proiezione olografica appare proprio di fronte a te, anche se la versione attuale è ancora un po' grezza.
Meta Orion include anche una fotocamera rivolta verso l'interno che scansiona il volto di chi lo indossa per creare un avatar in tempo reale per le videochiamate con gli utenti mobili.
In termini di interazione, Meta Orion supporta eye-tracking, hand tracking e comandi vocali AI. Quando abbinato al braccialetto, gli utenti possono eseguire gesti delle mani più precisi.
Il braccialetto riconosce diversi gesti delle mani: pizzicando il pollice e l'indice si seleziona il contenuto, mentre pizzicando il medio e il pollice si richiama o si nasconde l'app launcher. Se si preme il pollice contro il pugno chiuso, si può scorrere verso l'alto o verso il basso, imitando il gesto del lancio di una moneta. Nel complesso, le interazioni sembrano naturali.
Vale anche la pena sottolineare che il braccialetto offre un feedback tattile, che ti consente di sapere quando il tuo gesto è stato riconosciuto correttamente: questo risolve un problema importante che molti dispositivi di realtà mista (MR) devono attualmente affrontare.
Il braccialetto funziona leggendo i segnali elettromiografia (EMG) correlati ai gesti delle mani. La Verge l'hanno addirittura paragonata alla "lettura del pensiero".
Con questo braccialetto, puoi usare i tuoi occhi come puntatore per l'interfaccia Orion e pizzicare per selezionare. L'esperienza complessiva è intuitiva. Ancora più importante, in pubblico, non dovrai agitare goffamente le mani in aria per impartire comandi. Con le mani in tasca, puoi comunque controllare gli occhiali AR in modo naturale.
Meta AI, che ha già avuto un impatto con gli occhiali Ray-Ban, fa un ulteriore passo avanti con la sua integrazione in AR. Ora, può interagire più profondamente con il mondo reale.
Durante una dimostrazione dal vivo, La Verge ha utilizzato Orion per identificare ed etichettare rapidamente gli ingredienti su un tavolo, e poi ha chiesto a Meta AI di generare una ricetta per un frullato utilizzando quegli ingredienti.
Sebbene Mark Zuckerberg abbia sottolineato che Meta Orion è progettato per i consumatori, la versione attuale è ancora un prototipo, disponibile solo per sviluppatori e tester selezionati. Tra coloro che lo stanno testando c'è il CEO di NVIDIA, Jensen Huang.
Meta Quest 3S: una versione Lite di Vision Pro?
Zuckerberg ha annunciato il prezzo del Quest 3S entro dieci secondi dal suo ingresso sul palco, il che è incredibilmente raro per i lanci di prodotti elettronici. Devo dire che questo approccio diretto e diretto è davvero fantastico.
In breve, il Meta Quest 3S è essenzialmente una "versione lite" del Quest 3. Il modello base con 128 GB parte da $ 299.99, mentre la versione da 256 GB ha un prezzo di $ 399.99.
Per quanto riguarda le specifiche, il Quest 3S è alimentato dal processore Snapdragon XR2 Gen 2, lo stesso del Quest 3, e supporta anche il tracciamento delle mani.
Dopo aver guardato la presentazione, ho pensato che il nome "Quest 3S" avrebbe potuto essere più appropriatamente chiamato "Quest 2 Plus". I report suggeriscono che, come opzione più economica, Quest 3S utilizza le stesse lenti di Quest 2 e ha un corpo più spesso rispetto a Quest 3.
Sebbene le specifiche hardware del Quest 3S non corrispondano a quelle del Quest 3, l'esperienza software è praticamente la stessa. Come la sua controparte più costosa, il Quest 3S funziona su HorizonOS, offrendo un'ampia gamma di funzionalità di intrattenimento e produttività.
Quando il Quest 3 è stato lanciato l'anno scorso, le recensioni sono state contrastanti. Le critiche più grandi hanno riguardato ritardi e distorsioni significativi quando si utilizza la modalità passthrough video. Zuckerberg ha annunciato che dopo un anno di ottimizzazione, l'esperienza ha visto notevoli miglioramenti, in particolare in tre aree chiave: funzionalità VR, tracciamento delle mani e compatibilità software.
Ora gli utenti possono trasformare le pagine web 2D in uno spazio di lavoro immersivo, proprio come con Vision Pro, e disporre più finestre aperte ovunque nello spazio virtuale.
Inoltre, la modalità teatro di Quest 3S può espandere un singolo schermo in un enorme teatro virtuale, riempiendo l'intero spazio. Sebbene la visione immersiva su visori non sia un concetto nuovo, la differenza fondamentale sta nel numero di piattaforme e fonti multimediali supportate, che definiranno l'esperienza del prodotto.
Quest 3S supporta le principali piattaforme multimediali occidentali come Netflix, YouTube e Amazon Prime, tutte utilizzabili in modalità cinema.
Film e giochi sono funzionalità di intrattenimento essenziali per qualsiasi visore VR, ma le funzionalità aggiuntive spesso evidenziano le capacità del prodotto. Una delle nuove funzionalità rivelate all'evento è Hyperscale su Quest 3S.
Utilizzando il telefono, è possibile scansionare la disposizione della stanza, compresi gli arredi, e quindi ricreare un modello quasi 1:1 della stanza all'interno di Quest 3S.
Dalla dimostrazione mostrata all'evento, la scena ricreata aveva una fedeltà impressionante, con minimi bordi frastagliati o distorsioni. Questa tecnologia potrebbe potenzialmente essere utilizzata per tour virtuali immersivi di case, musei o monumenti, senza la necessità di uscire di casa.
Tuttavia, al di là di questo, la praticità della ricreazione della scena e il modo in cui può essere applicata in diverse regioni restano questioni a cui Meta e Quest dovranno rispondere in futuro.
Meta, abbreviazione di "metaverso", è stato rinominato da Facebook per sottolineare l'impegno di Mark Zuckerberg verso le nuove tecnologie. Meta è uno dei primi giganti della tecnologia a perseguire aggressivamente il metaverso e il "metaverso" è diventato un argomento essenziale in ogni lancio di prodotto Meta, nonostante le numerose sfide affrontate lungo il percorso.
All'evento, Zuckerberg ha introdotto nuovi miglioramenti alle funzionalità social immersive. Gli utenti di Quest possono ora creare avatar virtuali e fare squadra per giocare, allenarsi o partecipare insieme a un concerto virtuale.
Con l'uscita di Quest 3S, Meta ha anche annunciato che Quest 2/Pro non sarà più in produzione e che il prezzo di Quest 3 è stato abbassato da $ 649 a $ 499. I nuovi prodotti saranno disponibili per la spedizione dopo il 15 ottobre.
Lancio di Llama 3.2: le funzionalità multimodali danno vita agli occhiali AR
Rispetto ai cambiamenti minimi di Meta Quest 3S, le nuove funzionalità di Meta AI brillano di più. All'evento, Llama 3.2, l'ultimo modello linguistico di grandi dimensioni (LLM) di Meta, è stato al centro della scena con le sue impressionanti capacità multimodali.
Mark Zuckerberg ha annunciato che Meta AI include ora una funzionalità vocale, che consente agli utenti di interagire tramite Messenger, Facebook, WhatsApp e Instagram ponendo domande o chattando in altri modi, ricevendo risposte vocali.
Gli utenti non solo possono interagire con Meta AI tramite la voce, ma possono anche scegliere tra una gamma di voci di celebrità, tra cui Judi Dench, John Cena, Awkwafina e Kristen Bell.
Zuckerberg ha dimostrato questa funzionalità dal vivo sul palco. Nel complesso, il tempo di risposta è stato rapido, le risposte sono state abbastanza precise e l'intonazione della voce è sembrata ancora più vicina alle conversazioni umane. Gli utenti possono persino interrompere la conversazione in qualsiasi momento per inserire un nuovo argomento o una nuova domanda.
Nonostante si siano verificati alcuni problemi durante la demo, Zuckerberg ha apertamente riconosciuto che si tratta di qualcosa di prevedibile, trattandosi di una demo di una tecnologia in evoluzione, e ha sottolineato che si tratta di aree su cui stanno lavorando per migliorarle.
Oltre all'interazione vocale, la funzionalità AI Studio di Meta AI consente agli utenti di creare i propri personaggi AI personalizzati in base alle proprie preferenze, interessi ed esigenze. Questi personaggi AI possono aiutare a generare meme, offrire consigli di viaggio o semplicemente impegnarsi in conversazioni informali.
Tuttavia, in base ai risultati, la prossima funzionalità di traduzione AI sembra essere più pratica. Attualmente, tutti i dispositivi dotati di Meta AI supportano la traduzione vocale in tempo reale. Durante l'evento, due presentatori hanno utilizzato gli occhiali Meta Ray-Ban per condurre una conversazione in tempo reale tra inglese e spagnolo, mostrando la capacità del dispositivo di eseguire traduzioni in tempo reale.
Meta Ray-Ban cattura il discorso attraverso il microfono e lo traduce rapidamente nella lingua madre di chi lo indossa. Sebbene la traduzione sia relativamente veloce, frasi più lunghe possono causare brevi pause, il che rende la conversazione leggermente imbarazzante. In alcuni casi, l'IA interrompe persino chi parla a metà frase.
Un'altra caratteristica, la traduzione dell'audio video, fa un ulteriore passo avanti. Rispetto alla traduzione in tempo reale menzionata in precedenza, questa potrebbe essere definita una "funzione di traduzione avanzata". Meta AI è in grado di tradurre l'audio nei video online in un'altra lingua e, cosa impressionante, riesce a preservare perfettamente il tono originale dell'oratore, le caratteristiche vocali e persino gli accenti di diversi paesi quando parla inglese.
Tutte le serie di aggiornamenti di Meta AI all'evento condividono una forza trainante comune: Chiama 3.2.
A luglio di quest'anno, Meta aveva appena introdotto il modello Llama 3.1, che è stato una svolta, vantando 405 miliardi di parametri. Era il modello open source più potente che Meta avesse mai sviluppato, e uno dei più forti a livello globale.
Sorprendentemente, in soli due mesi è arrivato Llama 3.2.
Llama 3.2 è il primo modello AI open source di Meta con capacità multimodali, il che significa che può elaborare sia testo che immagini contemporaneamente. È disponibile in due modelli visivi (parametri 11B e 90B) e due modelli leggeri solo testo (1B e 3B). I modelli leggeri possono elaborare gli input degli utenti localmente senza dover fare affidamento su server esterni.
Con le nuove capacità di Llama 3.2, molti dispositivi alimentati da modelli di grandi dimensioni si sono espansi in scenari più pratici. Oltre alla funzionalità di traduzione AI menzionata in precedenza, Meta Ray-Ban, ora dotato di capacità visive, può assistere gli utenti in modo più approfondito nelle loro attività e routine quotidiane.
Ad esempio, gli utenti possono chiedere a Meta Ray-Ban che tipo di drink si possono preparare con un avocado, e non c'è bisogno di menzionare esplicitamente "avocado" nella frase: basta usare un pronome come "questo", perché gli occhiali possono vedere l'oggetto.
Molte persone hanno dimenticato dove hanno parcheggiato la macchina al centro commerciale. Per coloro che dimenticano spesso i numeri dei posti auto, Meta Ray-Ban può ora aiutare salvando queste informazioni, così sono facilmente recuperabili quando necessario.
Dalla chiamata a un numero su un poster alla scansione di un codice QR su una brochure, fino all'aiuto nella scelta dell'outfit quotidiano, la fotocamera degli occhiali, combinata con l'intelligenza artificiale visiva recentemente migliorata, consente a Meta Ray-Ban di integrarsi perfettamente in ogni aspetto della vita quotidiana.
Grazie a questa telecamera, la collaborazione tra Be My Eyes e Meta è diventata possibile. Be My Eyes è una piattaforma non-profit che mette in contatto persone ipovedenti con volontari e aziende vedenti tramite video in tempo reale e intelligenza artificiale. I volontari o le organizzazioni possono aiutare gli utenti a risolvere problemi in tempo reale tramite videochiamate in diretta.
Questi progressi tecnologici non solo migliorano la vita della maggioranza, ma colmano anche lacune significative nei servizi per gruppi speciali, offrendo comodità a tutti. È qui che inizia a dispiegarsi il vero significato della tecnologia.
L'alba della prossima generazione di dispositivi informatici
Sebbene ci fossero già delle aspettative per gli occhiali Orion di Meta, quando Mark Zuckerberg ha finalmente svelato il vero prodotto, ha riportato alla luce un senso di stupore che da tempo mancava nelle innovazioni tecnologiche.
Questo stupore non è dovuto solo all'avvincente visione del futuro di Meta, ma anche al fatto che le prestazioni del prodotto nel mondo reale sono sorprendentemente vicine a quella visione. La Verge ha fornito una valutazione acuta dopo averlo provato: Orion non è né un miraggio lontano né un prodotto completamente completato; esiste da qualche parte nel mezzo.
Ecco cosa distingue Orion da molte delle precedenti esplorazioni di Meta in concetti futuristici: non è solo un prototipo bloccato in laboratorio. Invece, Meta ha puntato "all in" su questo dispositivo di nuova generazione, fondendo perfettamente AI e realtà mista (MR).
Orion è un dispositivo di intelligenza artificiale all'avanguardia: può vedere ciò che l'utente vede, sentire ciò che l'utente sente e combinare tutto ciò con il contesto reale dell'utente per fornire risposte più efficaci.
È anche uno strumento di interazione e comunicazione all'avanguardia: non più limitato da piccoli schermi o ingombranti visori, Orion consente al mondo virtuale e a quello reale di fondersi perfettamente, offrendo interazione ovunque e in qualsiasi momento.
È ampiamente riconosciuto nel settore che lo smartphone come dispositivo informatico si sta avvicinando alla fine del suo ciclo di vita. Aziende come Apple, Meta e persino OpenAI stanno esplorando cosa verrà dopo.
Sebbene Meta Orion sia ancora in fase di prototipo, il prodotto sembra piuttosto promettente finora. Resta da vedere se diventerà il prossimo dispositivo intelligente mainstream dopo gli smartphone, ma Zuckerberg è fiducioso del suo potenziale.
Si prevede che occhiali e ologrammi diventeranno prodotti onnipresenti. Se i miliardi di persone che attualmente indossano occhiali possono essere convertiti a occhiali AI e mixed reality (MR), potrebbe diventare uno dei prodotti di maggior successo nella storia del mondo e, secondo Zuckerberg, è probabile che abbia il potenziale per ottenere un successo ancora maggiore.
Fonte da se uno
Scritto da Fanbo Xiao
Dichiarazione di non responsabilità: le informazioni di cui sopra sono fornite da ifanr.com, indipendentemente da Chovm.com. Chovm.com non rilascia alcuna dichiarazione o garanzia in merito alla qualità e all'affidabilità del venditore e dei prodotti. Chovm.com declina espressamente qualsiasi responsabilità per violazioni relative al diritto d'autore dei contenuti.