Wie sieht die Brille der Zukunft aus? Viele Menschen haben sich das sicher schon einmal vorgestellt.
Sie sind etwa so groß wie aktuelle Brillen und könnten sich beim Navigieren in ein mobiles HUD verwandeln. Bei Videoanrufen würde ein holografisches Bild des Gegenübers in der Luft schweben. Die Linsen würden alles anzeigen, was man braucht … Im Grunde wären sie so etwas wie die Brillen, die Vegeta oder Iron Man tragen.
Am 25. September stellte Meta seine erste AR-Smart-Brille Orion vor und brachte uns damit diesem idealen Produkt einen Schritt näher. Obwohl in den letzten Jahren AR-Brillen auf den Markt gekommen sind, hatten sie alle offensichtliche Mängel: Entweder hatten sie nur eine eingeschränkte Funktionalität und funktionierten im Wesentlichen als tragbare Projektoren, oder sie waren sperrig und unerschwinglich teuer, was sie für den Massenmarkt ungeeignet machte.
Im Vergleich zu früheren Produkten wecken das schlanke Design und die integrierten AR-Funktionen von Meta Orion neue Hoffnung, dass AR-Brillen zum Mainstream werden. Und anlässlich des 2024. Jahrestags der Veranstaltung Meta Connect 10 stellte Mark Zuckerberg mehrere weitere neue Produkte vor:
- Meta Orion Smart Glasses: Branchenführendes AR-Erlebnis;
- Meta Quest 3S Headset MR-Brille: Die „Lite-Version“ von Quest 3, mit einem niedrigeren Preis, aber ohne bahnbrechende Funktionen;
- Kontinuierliche Upgrades für Meta AI, um das Benutzererlebnis der Headsets zu verbessern;
- Neue KI-Funktionen für Meta Ray-Ban: Echtzeitübersetzung, personalisierte Stilvorschläge und sogar Hilfe beim Finden Ihres Autos;
- Metas erstes Open-Source-Large Language Model (LLM), Llama 3.2, mit multimodalen Funktionen.
KI in Kombination mit Hardware ist dieses Jahr das heiße Thema in der Unterhaltungselektronik. Aber wie genau integriert Meta seine leistungsstarken KI-Modelle in seine neue Hardware? Und wie sehen die mit Spannung erwarteten Smart Glasses Meta Orion aus? Werfen wir einen genaueren Blick darauf.
Meta Orion AR-Brille: Das atemberaubende Debüt eines jahrzehntelangen Projekts
In Zuckerbergs Vision sollten Brillen das ultimative futuristische Gerät sein. Zuvor hatte Meta bereits mit der Zusammenarbeit zwischen Ray und Ban Meta den Markt für intelligente Brillen betreten und konnte damit das Interesse der Verbraucher an intelligenten Brillen deutlich messen.
Ray-Ban Meta hat jedoch nur die Hälfte seines eigentlichen Ziels erreicht. Das Produkt bot in erster Linie Audio-, Fotografie- und einige grundlegende KI-Funktionen – es war im Wesentlichen immer noch ein traditionelles tragbares Gerät.
Die Vollversion, die Zuckerberg als „makellos“ bezeichnete, ist die Meta Orion AR-Brille. Dieses streng geheime Projekt wurde über ein Jahrzehnt lang entwickelt und Milliarden von Dollar investiert. Heute bekommt die Welt es endlich zu sehen.
Der erste Eindruck der Meta Orion-Brille ist ihr schlankes Design, das stark an normale Sonnenbrillen erinnert. Damit hebt sie sich sofort von den klobigeren Konkurrenten auf dem Markt ab – schließlich soll eine Brille auch gut aussehen.
Meta hat dies erreicht, indem es sich dafür entschieden hat, nicht alle Komponenten in einen einzigen Rahmen zu stopfen. Stattdessen besteht die Meta Orion aus drei separaten Teilen: der Brille selbst, einem Handtracking-Armband und einem „Rechenmodul“ in der Größe einer Fernbedienung. Diese drei Komponenten sind drahtlos miteinander verbunden.
Dieses modulare Design in Kombination mit der Verwendung von leichtem Magnesiummaterial ermöglicht es der Orion-Brille, erstaunlich leichte 98 Gramm zu wiegen. Zum Vergleich: Snaps neue AR-Brille Spectacles, die am 17. September auf den Markt kam, wiegt stolze 226 Gramm.
Noch beeindruckender ist, dass das leichte Orion eine Akkulaufzeit von etwa zwei Stunden bietet, während die sperrigeren Spectacles nur knappe 45 Minuten schaffen.
Was die grundlegenden AR-Projektionsfunktionen angeht, ist Orion der Konkurrenz in mehreren Schlüsselbereichen „weit voraus“. Anstelle eines herkömmlichen Glasdisplays verwendet Orion Linsen aus Siliziumkarbid. Die im Rahmen eingebetteten Mikroprojektoren strahlen Licht in den Wellenleiter aus, das dann auf die Linsen projiziert wird und AR-Visuals mit unterschiedlicher Tiefe und Größe erzeugt. Zuckerberg bezeichnet dies als „Panoramablick“.
Nach Tests von The VergeDas Sichtfeld von Meta Orion erreicht beeindruckende 70 Grad und ist damit möglicherweise das breiteste in der Branche für AR-Brillen.
In den verfügbaren Demovideos können Benutzer die Brille tragen, um mehrere Fenster von Meta Horizon-Apps zum Multitasking zu öffnen oder Meta AI zum Erkennen und Beschriften realer Objekte zu verwenden.
Auch wenn der Blick des Benutzers von diesen Fenstern abweicht, bleiben die virtuellen Projektionen an Ort und Stelle und erscheinen erneut, wenn die Aufmerksamkeit des Benutzers zurückkehrt.
Die Bild- und Textschärfe reicht zum Betrachten von Fotos und Lesen von Texten aus, zum Ansehen von Filmen werden Sie diese Brille jedoch wahrscheinlich nicht verwenden wollen – zumindest noch nicht.
Metas Erfahrung im Bereich sozialer Netzwerke schafft auch mit AR-Brillen neue und spannende Möglichkeiten. Wenn Sie mit einem Freund telefonieren, erscheint dessen holografische Projektion direkt vor Ihnen, auch wenn die aktuelle Version noch etwas grob ist.
Meta Orion verfügt außerdem über eine nach innen gerichtete Kamera, die das Gesicht des Trägers scannt, um einen Echtzeit-Avatar für Videoanrufe mit Mobilbenutzern zu erstellen.
In Bezug auf die Interaktion unterstützt Meta Orion Eye-Tracking, Hand-Tracking und KI-Sprachbefehle. In Verbindung mit dem Armband können Benutzer präzisere Handgesten ausführen.
Das Armband erkennt mehrere Handgesten: Durch Zusammenziehen von Daumen und Zeigefinger werden Inhalte ausgewählt, während durch Zusammenziehen von Mittelfinger und Daumen der App-Launcher aufgerufen oder ausgeblendet wird. Wenn Sie Ihren Daumen gegen Ihre geballte Faust drücken, können Sie nach oben oder unten scrollen, was die Geste des Münzwurfs nachahmt. Insgesamt fühlen sich die Interaktionen natürlich an.
Erwähnenswert ist auch, dass das Armband haptisches Feedback bietet, sodass Sie wissen, wann Ihre Geste erfolgreich erkannt wurde. Dies behebt ein großes Problem, mit dem viele Mixed-Reality-Geräte (MR) derzeit konfrontiert sind.
Das Armband funktioniert, indem es Elektromyographie-Signale (EMG) liest, die mit Handgesten in Zusammenhang stehen. The Verge verglich es sogar mit „Gedankenlesen“.
Mit diesem Armband können Sie Ihre Augen als Zeiger für die Orion-Oberfläche verwenden und zum Auswählen kneifen. Das Gesamterlebnis ist intuitiv. Und was noch wichtiger ist: In der Öffentlichkeit müssen Sie nicht umständlich mit den Händen in der Luft herumfuchteln, um Befehle zu erteilen. Mit den Händen in den Taschen können Sie die AR-Brille weiterhin ganz natürlich steuern.
Meta-KI, die bereits mit den Ray-Ban-Brillen für Aufsehen gesorgt hat, geht mit ihrer Integration in AR noch einen Schritt weiter. Jetzt kann sie tiefer mit der realen Welt interagieren.
Während einer Live-Demo The Verge verwendete Orion, um Zutaten auf einem Tisch schnell zu identifizieren und zu beschriften, und bat dann Meta AI, mit diesen Zutaten ein Smoothie-Rezept zu erstellen.
Obwohl Mark Zuckerberg betonte, dass Meta Orion für Verbraucher konzipiert ist, handelt es sich bei der aktuellen Version noch um einen Prototypen, der nur ausgewählten Entwicklern und Testern zur Verfügung steht. Zu den Testern gehört NVIDIAs CEO Jensen Huang.
Meta Quest 3S: Eine Lite-Version von Vision Pro?
Zuckerberg verkündete den Preis des Quest 3S innerhalb von zehn Sekunden, nachdem er die Bühne betreten hatte, was bei der Markteinführung elektronischer Produkte bemerkenswert selten vorkommt. Ich muss sagen, dieser direkte, auf den Punkt kommende Ansatz fühlt sich wirklich großartig an.
Kurz gesagt ist das Meta Quest 3S im Wesentlichen eine „Lite-Version“ des Quest 3. Das Basismodell mit 128 GB beginnt bei 299.99 $, während die 256-GB-Version 399.99 $ kostet.
Was die technischen Daten betrifft, wird das Quest 3S vom Snapdragon XR2 Gen 2-Prozessor angetrieben, dem gleichen wie das Quest 3, und es unterstützt auch Handtracking.
Nachdem ich mir die Präsentation angesehen hatte, hatte ich das Gefühl, dass der Name „Quest 3S“ passender „Quest 2 Plus“ hätte lauten können. Berichten zufolge ist die Quest 3S eine kostengünstigere Option, da sie dieselben Objektive wie die Quest 2 verwendet und im Vergleich zur Quest 3 ein dickeres Gehäuse hat.
Obwohl die Hardwarespezifikationen des Quest 3S nicht mit denen des Quest 3 übereinstimmen, ist das Softwareerlebnis praktisch dasselbe. Wie sein teureres Gegenstück läuft das Quest 3S auf HorizonOS und bietet eine breite Palette an Unterhaltungs- und Produktivitätsfunktionen.
Als Quest 3 letztes Jahr auf den Markt kam, waren die Bewertungen gemischt. Die größten Kritikpunkte betrafen erhebliche Verzögerungen und Verzerrungen bei Verwendung des Video-Passthrough-Modus. Zuckerberg gab bekannt, dass das Erlebnis nach einem Jahr der Optimierung erhebliche Verbesserungen erfahren habe, insbesondere in drei Schlüsselbereichen: VR-Funktionalität, Handverfolgung und Softwarekompatibilität.
Benutzer können jetzt 2D-Webseiten in einen immersiven Arbeitsbereich umwandeln, genau wie mit Vision Pro, und mehrere geöffnete Fenster überall im virtuellen Raum anordnen.
Darüber hinaus kann der Theatermodus des Quest 3S einen einzelnen Bildschirm in ein riesiges virtuelles Theater erweitern, das den gesamten Raum ausfüllt. Während immersives Betrachten auf Headsets kein neues Konzept ist, liegt der Hauptunterschied darin, wie viele Plattformen und Medienquellen unterstützt werden, was das Produkterlebnis bestimmt.
Quest 3S unterstützt große westliche Medienplattformen wie Netflix, YouTube und Amazon Prime, die alle im Kinomodus genutzt werden können.
Filme und Spiele sind wesentliche Unterhaltungsfunktionen für jedes VR-Headset, aber die zusätzlichen Funktionen unterstreichen oft die Leistungsfähigkeit des Produkts. Eine der neuen Funktionen, die auf der Veranstaltung vorgestellt wurden, ist Hyperscale auf Quest 3S.
Mit Ihrem Telefon können Sie den Grundriss des Raums einschließlich der Möbel scannen und dann in Quest 1S ein nahezu 1:3-Modell des Raums nachbilden.
Die auf der Veranstaltung gezeigte Demonstration zeigte, dass die nachgebildete Szene eine beeindruckende Wiedergabetreue mit minimalen unscharfen Kanten oder Verzerrungen aufwies. Diese Technologie könnte möglicherweise für immersive virtuelle Touren durch Häuser, Museen oder Sehenswürdigkeiten verwendet werden, ohne dass man dafür das Haus verlassen muss.
Darüber hinaus bleibt jedoch die praktische Anwendbarkeit der Szenenwiederherstellung und ihre Anwendbarkeit in verschiedenen Regionen eine Frage, die Meta und Quest in Zukunft beantworten müssen.
Meta, die Abkürzung für „Metaverse“, wurde von Facebook umbenannt, um Mark Zuckerbergs Engagement für neue Technologien zu betonen. Meta ist einer der ersten Technologiegiganten, der das Metaverse aggressiv vorantreibt, und das „Metaverse“ ist trotz zahlreicher Herausforderungen auf dem Weg dorthin zu einem wesentlichen Thema bei jeder Meta-Produktvorstellung geworden.
Bei der Veranstaltung stellte Zuckerberg neue Verbesserungen für immersive soziale Funktionen vor. Quest-Benutzer können jetzt virtuelle Avatare erstellen und sich zusammenschließen, um Spiele zu spielen, zu trainieren oder gemeinsam ein virtuelles Konzert zu besuchen.
Mit der Veröffentlichung der Quest 3S kündigte Meta auch an, dass die Quest 2/Pro eingestellt wird und der Preis der Quest 3 von 649 $ auf 499 $ gesenkt wird. Die neuen Produkte werden ab dem 15. Oktober versandfertig sein.
Launch von Llama 3.2: Multimodale Funktionen erwecken AR-Brillen zum Leben
Im Vergleich zu den minimalen Änderungen von Meta Quest 3S stechen die neuen Funktionen von Meta AI besonders hervor. Auf der Veranstaltung stand Llama 3.2, Metas neuestes großes Sprachmodell (LLM), mit seinen beeindruckenden multimodalen Fähigkeiten im Mittelpunkt.
Mark Zuckerberg gab bekannt, dass Meta AI jetzt eine Sprachfunktion enthält, mit der Benutzer über Messenger, Facebook, WhatsApp und Instagram mit der App interagieren können, indem sie Fragen stellen oder auf andere Weise chatten und gesprochene Antworten erhalten.
Benutzer können nicht nur per Sprache mit Meta AI interagieren, sondern auch aus einer Reihe von Prominentenstimmen wählen, darunter Judi Dench, John Cena, Awkwafina und Kristen Bell.
Zuckerberg demonstrierte diese Funktion live auf der Bühne. Insgesamt war die Reaktionszeit schnell, die Antworten waren ziemlich genau und die Stimmintonation klang noch näher an einer menschlichen Unterhaltung. Benutzer können das Gespräch sogar jederzeit unterbrechen, um ein neues Thema oder eine neue Frage einzubringen.
Obwohl es während der Demo zu einigen Störungen kam, räumte Zuckerberg offen ein, dass dies bei einer Demo einer sich weiterentwickelnden Technologie zu erwarten sei und betonte, dass an der Verbesserung dieser Bereiche gearbeitet werde.
Zusätzlich zur Sprachinteraktion können Benutzer mit der AI Studio-Funktion von Meta AI eigene KI-Charaktere erstellen, die auf ihre Vorlieben, Interessen und Bedürfnisse zugeschnitten sind. Diese KI-Charaktere können beim Generieren von Memes helfen, Reisetipps geben oder einfach ein lockeres Gespräch führen.
Den Ergebnissen zufolge scheint die kommende KI-Übersetzungsfunktion jedoch praktischer zu sein. Derzeit unterstützen alle mit Meta AI ausgestatteten Geräte die Echtzeit-Sprachübersetzung. Während der Veranstaltung führten zwei Moderatoren mithilfe von Meta Ray-Ban-Brillen ein Echtzeitgespräch zwischen Englisch und Spanisch und demonstrierten so die Fähigkeit des Geräts, Live-Übersetzungen durchzuführen.
Meta Ray-Ban nimmt die Sprache über sein Mikrofon auf und übersetzt sie schnell in die Muttersprache des Trägers. Obwohl die Übersetzung relativ schnell ist, können längere Sätze kurze Pausen verursachen, was das Gespräch etwas unangenehm erscheinen lässt. In einigen Fällen unterbricht die KI den Sprecher sogar mitten im Satz.
Eine weitere Funktion, die Übersetzung von Video-Audio, geht noch einen Schritt weiter. Im Vergleich zur zuvor erwähnten Echtzeitübersetzung könnte man dies als „erweiterte Übersetzungsfunktion“ bezeichnen. Meta AI ist in der Lage, den Ton von Online-Videos in eine andere Sprache zu übersetzen, und beeindruckenderweise kann es den ursprünglichen Tonfall, die Stimmmerkmale und sogar Akzente aus verschiedenen Ländern des Sprechers beim Sprechen von Englisch perfekt beibehalten.
Die Update-Reihe von Meta AI auf der Veranstaltung hat alle eine gemeinsame treibende Kraft: Rufen Sie 3.2 an.
Im Juli dieses Jahres hatte Meta gerade das Modell Llama 3.1 vorgestellt, das mit 405 Milliarden Parametern einen Durchbruch darstellte. Es war das leistungsstärkste Open-Source-Modell, das Meta entwickelt hatte, und eines der leistungsstärksten weltweit.
Überraschenderweise ist Llama 3.2 bereits nach zwei Monaten erschienen.
Llama 3.2 ist Metas erstes Open-Source-KI-Modell mit multimodalen Fähigkeiten, d. h. es kann sowohl Text als auch Bilder gleichzeitig verarbeiten. Es ist in zwei visuellen Modellen (11B- und 90B-Parameter) und zwei leichten Nur-Text-Modellen (1B und 3B) erhältlich. Die leichten Modelle können Benutzereingaben lokal verarbeiten, ohne auf externe Server angewiesen zu sein.
Mit den neuen Funktionen von Llama 3.2 können viele Geräte, die von großen Modellen angetrieben werden, in praktischere Szenarien integriert werden. Über die bereits erwähnte KI-Übersetzungsfunktion hinaus kann Meta Ray-Ban, das jetzt mit visuellen Funktionen ausgestattet ist, Benutzer bei ihren täglichen Aufgaben und Routinen umfassender unterstützen.
Beispielsweise können Benutzer Meta Ray-Ban fragen, welche Getränke man mit einer Avocado zubereiten kann. Dabei muss „Avocado“ nicht explizit im Satz erwähnt werden – ein Pronomen wie „diese“ reicht aus, da die Brille das Objekt sehen kann.
Viele Leute haben schon einmal vergessen, wo sie ihr Auto im Einkaufszentrum geparkt haben. Wer häufig die Parkplatznummern vergisst, dem kann Meta Ray-Ban jetzt helfen, indem es diese Informationen speichert, sodass sie bei Bedarf leicht abgerufen werden können.
Vom Anrufen einer Nummer auf einem Plakat über das Scannen eines QR-Codes auf einer Broschüre bis hin zur Hilfe bei der täglichen Outfitauswahl – die Kamera in der Brille, kombiniert mit der neu verbesserten visuellen KI, ermöglicht es Meta Ray-Ban, sich nahtlos in jeden Winkel des täglichen Lebens zu integrieren.
Dank dieser Kamera ist die Zusammenarbeit zwischen Be My Eyes und Meta möglich geworden. Be My Eyes ist eine gemeinnützige Plattform, die sehbehinderte Menschen über Echtzeit-Video und KI mit sehenden Freiwilligen und Unternehmen verbindet. Freiwillige oder Organisationen können Benutzern über Live-Videoanrufe bei der Lösung von Echtzeitproblemen helfen.
Diese technologischen Fortschritte verbessern nicht nur das Leben der Mehrheit, sondern schließen auch erhebliche Lücken bei den Dienstleistungen für spezielle Gruppen und bieten so allen Komfort. Hier beginnt sich die wahre Bedeutung der Technologie zu entfalten.
Der Beginn der nächsten Computergeneration
Obwohl es bereits Erwartungen an Metas Orion-Brille gab, löste die endliche Enthüllung des echten Produkts durch Mark Zuckerberg ein Gefühl des Erstaunens aus, das bei technischen Innovationen seit langem gefehlt hatte.
Dieses Erstaunen war nicht nur Metas überzeugender Zukunftsvision geschuldet, sondern auch der Tatsache, dass die Leistung des Produkts in der Praxis dieser Vision bemerkenswert nahe kommt. The Verge gab nach dem Ausprobieren eine scharfe Einschätzung ab: „Orion ist weder eine ferne Fata Morgana noch ein vollständig fertiges Produkt; es liegt irgendwo dazwischen.“
Das ist es, was Orion von vielen früheren Erkundungen von Meta zu futuristischen Konzepten unterscheidet: Es ist nicht nur ein Prototyp, der im Labor feststeckt. Stattdessen hat Meta bei diesem Gerät der nächsten Generation „alles in sich“ gesteckt und KI und Mixed Reality (MR) perfekt miteinander verbunden.
Orion ist ein ultimatives KI-Gerät: Es kann sehen, was der Benutzer sieht, hören, was der Benutzer hört, und dies mit dem realen Kontext des Benutzers kombinieren, um effektivere Antworten zu liefern.
Darüber hinaus handelt es sich um ein ultimatives Interaktions- und Kommunikationstool: Orion ist nicht länger durch kleine Bildschirme oder sperrige Headsets eingeschränkt, sondern ermöglicht die nahtlose Verschmelzung virtueller und realer Welten und bietet Interaktion überall und jederzeit.
In der Branche ist man sich weitgehend darüber einig, dass sich das Smartphone als Computergerät dem Ende seines Lebenszyklus nähert. Unternehmen wie Apple, Meta und sogar OpenAI erforschen, was als nächstes kommt.
Obwohl Meta Orion noch im Prototypstadium ist, sieht das Produkt bisher recht vielversprechend aus. Ob es nach den Smartphones das nächste Mainstream-Smart-Gerät wird, bleibt abzuwarten, aber Zuckerberg ist von seinem Potenzial überzeugt.
Man geht davon aus, dass Brillen und Hologramme zu allgegenwärtigen Produkten werden. Wenn Milliarden von Menschen, die derzeit Brillen tragen, auf KI- und Mixed-Reality-Brillen (MR) umsteigen können, könnte dies zu einem der erfolgreichsten Produkte der Weltgeschichte werden – und laut Zuckerberg ist das Potenzial für einen noch größeren Erfolg wahrscheinlich.
Quelle aus wenn ein
Geschrieben von Fanbo Xiao
Haftungsausschluss: Die oben aufgeführten Informationen werden bereitgestellt von ifanr.com, unabhängig von Chovm.com. Chovm.com übernimmt keine Zusicherungen und Gewährleistungen hinsichtlich der Qualität und Zuverlässigkeit des Verkäufers und der Produkte. Chovm.com lehnt ausdrücklich jegliche Haftung für Verstöße gegen das Urheberrecht von Inhalten ab.