Inicio » Abastecimiento de productos » Electrónica de consumo » Las vanguardistas gafas AR con IA de Meta: tu próximo smartphone podría ser un par de gafas
Las nuevas gafas AR Orion de Meta

Las vanguardistas gafas AR con IA de Meta: tu próximo smartphone podría ser un par de gafas

¿Cómo serán las gafas del futuro? Mucha gente debe haberlo imaginado en algún momento.

Del mismo tamaño que las gafas actuales, podrían transformarse en un HUD móvil mientras navegas. Durante las videollamadas, una imagen holográfica de la otra persona flotaría en el aire. Las lentes mostrarían todo lo que necesitas... Básicamente, serían algo así como las gafas que usan Vegeta o Iron Man.

El 25 de septiembre, Meta presentó sus primeras gafas inteligentes de realidad aumentada, Orion, lo que nos acerca un paso más a este producto ideal. Si bien las gafas de realidad aumentada se lanzaron en los últimos años, todas compartían algunos defectos obvios: o tenían una funcionalidad limitada, y básicamente funcionaban como proyectores portátiles, o eran voluminosas y prohibitivamente caras, lo que las hacía inadecuadas para el mercado masivo. 

Las nuevas gafas AR Orion de Meta

En comparación con productos anteriores, el elegante diseño de Meta Orion y las funciones de realidad aumentada integradas reavivan la esperanza de que las gafas de realidad aumentada se conviertan en algo común. Además, dado que Meta Connect 2024 marca el décimo aniversario del evento, Mark Zuckerberg presentó varios otros productos nuevos:

  • Gafas inteligentes Meta Orion: experiencia de RA líder en la industria;
  • Gafas de realidad aumentada Meta Quest 3S: la «versión lite» del Quest 3, con un precio más bajo pero sin características innovadoras;
  • Continuas actualizaciones de Meta AI para mejorar la experiencia del usuario de los auriculares;
  • Nuevas funciones de inteligencia artificial para Meta Ray-Ban: traducción en tiempo real, sugerencias de estilo personalizadas e incluso ayuda para encontrar tu automóvil;
  • El primer modelo de lenguaje grande (LLM) de código abierto de Meta, Llama 3.2, con capacidades multimodales.
Mark Zuckerberg en el evento de lanzamiento de productos de Meta

La IA combinada con hardware es el tema de moda en el ámbito de la electrónica de consumo este año. Pero, ¿cómo integra exactamente Meta sus potentes modelos de IA con su nuevo hardware? ¿Y cómo son las esperadas gafas inteligentes Meta Orion? Veámoslas con más detalle.

Gafas AR Meta Orion: el sorprendente debut de un proyecto que duró una década

En la visión de Zuckerberg, las gafas deberían ser el dispositivo futurista definitivo. Antes de esto, Meta ya se había aventurado en el mercado de las gafas inteligentes con la colaboración Ray-Ban Meta, que tuvo un éxito significativo a la hora de medir el interés de los consumidores por las gafas inteligentes.

Sin embargo, Ray-Ban Meta solo logró la mitad del objetivo final de Meta. El producto ofrecía principalmente audio, fotografía y algunas funciones básicas de inteligencia artificial; en esencia, seguía siendo un dispositivo portátil tradicional.

Las gafas inteligentes anteriores de Meta, Ray-Ban Meta

La versión completa, que Zuckerberg calificó de “impecable”, son las gafas de realidad aumentada Meta Orion. Este proyecto ultrasecreto lleva más de una década en desarrollo, con miles de millones de dólares invertidos. Hoy, el mundo finalmente puede verlo.

La primera impresión que producen las gafas Meta Orion es su diseño elegante, que se parece mucho a las gafas de sol normales. Esto las distingue instantáneamente de las competidoras más voluminosas del mercado: después de todo, las gafas también deben verse bien.

Meta logró esto al optar por no meter todos los componentes en un solo marco. En su lugar, Meta Orion consta de tres partes separadas: las gafas en sí, una pulsera de seguimiento de la mano y un "módulo de computación" del tamaño de un control remoto. Estos tres componentes están conectados de forma inalámbrica.

El Meta Orion consta de tres partes separadas

Este diseño modular, combinado con el uso de materiales de magnesio livianos, permite que las gafas Orion pesen tan solo 98 gramos. A modo de comparación, las nuevas gafas de realidad aumentada de Snap, Spectacles, lanzadas el 17 de septiembre, pesan nada menos que 226 gramos.

Aún más impresionante es que el liviano Orion ofrece una duración de batería de alrededor de dos horas, mientras que los más voluminosos Spectacles solo alcanzan unos breves 45 minutos.

Comparación de Meta Orion y Snap Spectacle
Izquierda: Meta Orion; Derecha: Snap Spectacle

En cuanto a las principales capacidades de proyección de realidad aumentada, Orion está “muy por delante de la competencia” en varias áreas clave. En lugar de una pantalla de vidrio tradicional, Orion utiliza lentes de carburo de silicio. Los microproyectores integrados en el marco emiten luz en la guía de ondas, que luego se proyecta sobre las lentes, creando imágenes de realidad aumentada de diferente profundidad y tamaño. Zuckerberg se refiere a esto como una “vista panorámica”.

Según pruebas realizadas The VergeEl campo de visión de Meta Orion alcanza unos impresionantes 70 grados, lo que lo convierte posiblemente en el más amplio de la industria para gafas AR.

En los videos de demostración disponibles, los usuarios pueden usar los anteojos para abrir múltiples ventanas de Meta Horizon Apps para realizar múltiples tareas, o usar Meta AI para reconocer y etiquetar objetos del mundo real.

Imagen que muestra varias ventanas de la aplicación Meta Horizon abiertas mientras se usa Meta Orion

Incluso si la mirada del usuario se aparta de estas ventanas, las proyecciones virtuales permanecen en su lugar, listas para reaparecer cuando la atención del usuario regrese.

En cuanto a la claridad de la imagen y el texto, es lo suficientemente buena para ver fotos y leer texto, pero probablemente no querrás usar estas gafas para ver películas, al menos no todavía.

La experiencia de Meta en redes sociales también crea nuevas y emocionantes posibilidades con las gafas de realidad aumentada. Cuando estás en una llamada con un amigo, su proyección holográfica aparece justo frente a ti, aunque la versión actual todavía es algo rudimentaria.

Ilustración de cómo se ve ver películas y llamar a amigos en Meta Orion

Meta Orion también incluye una cámara interna que escanea el rostro del usuario para crear un avatar en tiempo real para videollamadas con usuarios móviles.

En términos de interacción, Meta Orion admite seguimiento ocular, seguimiento manual y comandos de voz con inteligencia artificial. Cuando se combina con la pulsera, los usuarios pueden realizar gestos manuales más precisos.

La pulsera reconoce varios gestos de la mano: juntar el pulgar y el índice permite seleccionar contenido, mientras que juntar el dedo medio y el pulgar permite abrir u ocultar el lanzador de aplicaciones. Si presiona el pulgar contra el puño cerrado, permite desplazarse hacia arriba o hacia abajo, imitando el gesto de lanzar una moneda. En general, las interacciones resultan naturales.

Demostración de gestos manuales reconocidos por pulsera

También vale la pena mencionar que la pulsera ofrece retroalimentación háptica, lo que garantiza que sepa cuándo su gesto ha sido reconocido con éxito; esto aborda un problema importante que muchos dispositivos de realidad mixta (MR) enfrentan actualmente.

La pulsera funciona leyendo señales de electromiografía (EMG) relacionadas con los gestos de las manos. The Verge Incluso lo comparó con “leer la mente”.

Imagen en primer plano de la pulsera combinada con las gafas Meta Orion, obtenida de The Verge
Crédito de la imagen: The Verge

Con esta pulsera, puedes usar tus ojos como puntero para la interfaz de Orion y pellizcar para seleccionar. La experiencia general es intuitiva. Y lo que es más importante, en público, no necesitarás mover torpemente las manos en el aire para dar órdenes. Con las manos en los bolsillos, aún puedes controlar las gafas AR de forma natural.

Meta AI, que ya causó sensación con las gafas Ray-Ban, va un paso más allá con su integración en la realidad aumentada. Ahora puede interactuar de forma más profunda con el mundo real.

Durante una demostración en vivo, The Verge Usó Orion para identificar y etiquetar rápidamente los ingredientes en una tabla y luego le pidió a Meta AI que generara una receta de batido usando esos ingredientes.

Demostración que muestra cómo Meta Orion identifica los ingredientes de los alimentos y genera una receta

Aunque Mark Zuckerberg enfatizó que Meta Orion está diseñado para consumidores, la versión actual es todavía un prototipo, disponible solo para desarrolladores y probadores seleccionados. Entre quienes lo están probando se encuentra el CEO de NVIDIA, Jensen Huang.

Jensen Huang con gafas Meta Orion

Meta Quest 3S: ¿Una versión Lite de Vision Pro?

Zuckerberg anunció el precio del Quest 3S diez segundos después de subir al escenario, algo que es sorprendentemente poco común en el lanzamiento de productos electrónicos. Debo decir que este enfoque directo y directo es realmente genial.

Precio de Meta Quest 3 vs Quest 3

En resumen, el Meta Quest 3S es esencialmente una “versión liviana” del Quest 3. El modelo base con 128 GB comienza en $ 299.99, mientras que la versión de 256 GB tiene un precio de $ 399.99.

En cuanto a las especificaciones, el Quest 3S está equipado con el procesador Snapdragon XR2 Gen 2, el mismo que el del Quest 3, y también admite seguimiento manual.

Demostración de capacidades de seguimiento de manos

Después de ver la presentación, me pareció que el nombre “Quest 3S” podría haberse llamado más apropiadamente “Quest 2 Plus”. Los informes sugieren que, como una opción más económica, el Quest 3S usa las mismas lentes que el Quest 2 y tiene un cuerpo más grueso en comparación con el Quest 3.

Aunque las especificaciones de hardware del Quest 3S no son iguales a las del Quest 3, la experiencia de software es prácticamente la misma. Al igual que su contraparte más cara, el Quest 3S funciona con HorizonOS, que ofrece una amplia gama de funciones de entretenimiento y productividad.

Cuando se lanzó el Quest 3 el año pasado, las críticas fueron variadas. Las mayores críticas se referían a un retraso y una distorsión significativos al utilizar el modo de transferencia de vídeo. Zuckerberg anunció que, tras un año de optimización, la experiencia ha experimentado mejoras importantes, en particular en tres áreas clave: funcionalidad de realidad virtual, seguimiento de manos y compatibilidad de software.

Los usuarios ahora pueden transformar páginas web 2D en un espacio de trabajo inmersivo, como con Vision Pro, y organizar múltiples ventanas abiertas en cualquier lugar del espacio virtual.

Demostración de capacidades de trabajo inmersivo

Además, el modo teatro del Quest 3S puede convertir una sola pantalla en un enorme teatro virtual que llena todo el espacio. Si bien la visualización inmersiva en los auriculares no es un concepto nuevo, la diferencia clave radica en la cantidad de plataformas y fuentes de medios compatibles, lo que definirá la experiencia del producto.

Quest 3S es compatible con las principales plataformas de medios occidentales como Netflix, YouTube y Amazon Prime, todas las cuales pueden usarse en modo cine.

Las películas y los juegos son funciones de entretenimiento esenciales para cualquier casco de realidad virtual, pero las funciones adicionales suelen resaltar las capacidades del producto. Una de las nuevas funciones reveladas en el evento es Hyperscale en Quest 3S.

Usando tu teléfono, puedes escanear el diseño de la habitación, incluidos los muebles, y luego recrear un modelo casi 1:1 de la habitación dentro de Quest 3S.

Función de recreación de salas mediante Hyperscale en Quest 3S

Según la demostración que se mostró en el evento, la escena recreada tenía una fidelidad impresionante, con bordes irregulares o distorsiones mínimas. Esta tecnología podría usarse potencialmente para realizar recorridos virtuales inmersivos de casas, museos o lugares emblemáticos, sin necesidad de salir de casa.

Sin embargo, más allá de esto, la practicidad de la recreación de la escena y cómo se puede aplicar en diferentes regiones sigue siendo una pregunta que Meta y Quest deben responder en el futuro.

Meta, abreviatura de “metaverso”, fue rebautizada por Facebook para enfatizar el compromiso de Mark Zuckerberg con las nuevas tecnologías. Meta es uno de los primeros gigantes tecnológicos en perseguir agresivamente el metaverso y el “metaverso” se ha convertido en un tema esencial en cada lanzamiento de producto de Meta, a pesar de enfrentar numerosos desafíos en el camino.

En el evento, Zuckerberg presentó nuevas mejoras en las funciones sociales inmersivas. Los usuarios de Quest ahora pueden crear avatares virtuales y formar equipos para jugar, hacer ejercicio o asistir a un concierto virtual juntos.

Interacción de avatares en entornos sociales inmersivos

Con el lanzamiento del Quest 3S, Meta también anunció que el Quest 2/Pro dejará de fabricarse y que el precio del Quest 3 se redujo de $649 a $499. Los nuevos productos estarán disponibles para envío después del 15 de octubre. 

Lanzamiento de Llama 3.2: las capacidades multimodales dan vida a las gafas de realidad aumentada

En comparación con los cambios mínimos de Meta Quest 3S, las nuevas características de Meta AI brillan más. En el evento, Llama 3.2, el último modelo de lenguaje grande (LLM) de Meta, ocupó el centro del escenario con sus impresionantes capacidades multimodales.

Mark Zuckerberg anunció que Meta AI ahora incluye una función de voz, lo que permite a los usuarios interactuar con él a través de Messenger, Facebook, WhatsApp e Instagram haciendo preguntas o chateando de otras maneras y recibiendo respuestas habladas.

Los usuarios no solo pueden interactuar con Meta AI a través de la voz, sino que también pueden elegir entre una variedad de voces de celebridades, incluidas Judi Dench, John Cena, Awkwafina y Kristen Bell.

Demostración de interacción de voz de Meta AI

Zuckerberg demostró esta función en vivo en el escenario. En general, el tiempo de respuesta fue rápido, las respuestas fueron bastante precisas y la entonación de la voz sonó aún más parecida a la de las conversaciones humanas. Los usuarios pueden incluso interrumpir la conversación en cualquier momento para insertar un nuevo tema o pregunta.

Aunque hubo algunos fallos durante la demostración, Zuckerberg reconoció abiertamente que esto es lo que se espera de una demostración de una tecnología en evolución, y enfatizó que estas son áreas en las que están trabajando para mejorar.

Además de la interacción por voz, la función AI Studio de Meta AI permite a los usuarios crear sus propios personajes de IA adaptados a sus preferencias, intereses y necesidades. Estos personajes de IA pueden ayudar a generar memes, ofrecer consejos de viaje o simplemente entablar una conversación informal.

Demostración de Meta Ray-Ban en uso en la vida cotidiana

Sin embargo, según los resultados, la próxima función de traducción con IA parece ser más práctica. Actualmente, todos los dispositivos equipados con Meta AI admiten la traducción de voz en tiempo real. Durante el evento, dos presentadores utilizaron gafas Ray-Ban de Meta para mantener una conversación en tiempo real entre inglés y español, lo que demostró la capacidad del dispositivo para realizar traducciones en vivo.

Meta Ray-Ban capta el discurso a través de su micrófono y lo traduce rápidamente al idioma nativo del usuario. Aunque la traducción es relativamente rápida, las frases más largas pueden provocar breves pausas, lo que hace que la conversación resulte un poco incómoda. En algunos casos, la IA incluso interrumpe al hablante a mitad de la frase.

Otra característica, la traducción del audio del vídeo, va un paso más allá. En comparación con la traducción en tiempo real mencionada anteriormente, se podría decir que es una "función de traducción avanzada". Meta AI es capaz de traducir el audio de los vídeos en línea a otro idioma y, sorprendentemente, puede conservar a la perfección el tono original del hablante, las características vocales e incluso los acentos de diferentes países cuando habla inglés.

Demostración de traducción de vídeo de Meta AI

Las series de actualizaciones de Meta AI en el evento comparten una fuerza impulsora común: Llama 3.2.

En julio de este año, Meta acababa de presentar el modelo Llama 3.1, que supuso un gran avance, ya que contaba con 405 mil millones de parámetros. Era el modelo de código abierto más potente que Meta había desarrollado y uno de los más sólidos a nivel mundial.

Sorprendentemente, en sólo dos meses ha llegado Llama 3.2.

Llama 3.2 es el primer modelo de inteligencia artificial de código abierto de Meta con capacidades multimodales, lo que significa que puede procesar texto e imágenes simultáneamente. Viene en dos modelos visuales (parámetros 11B y 90B) y dos modelos livianos de solo texto (1B y 3B). Los modelos livianos pueden procesar las entradas del usuario localmente sin necesidad de depender de servidores externos.

llamas 3.2

Con las nuevas capacidades de Llama 3.2, muchos dispositivos con modelos de gran tamaño se han expandido a escenarios más prácticos. Más allá de la función de traducción de IA mencionada anteriormente, Meta Ray-Ban, ahora equipado con capacidades visuales, puede ayudar a los usuarios de manera más profunda en sus tareas y rutinas diarias.

Por ejemplo, los usuarios pueden preguntar a Meta Ray-Ban qué tipo de bebidas se pueden preparar con un aguacate, y no es necesario mencionar explícitamente "aguacate" en la oración: basta con usar un pronombre como "este", ya que los anteojos pueden ver el objeto.

Muchas personas han olvidado dónde aparcaron su coche en el centro comercial. Para aquellos que olvidan con frecuencia los números de los lugares de estacionamiento, Meta Ray-Ban ahora puede ayudar guardando esa información, para que sea fácil recuperarla cuando la necesiten.

Demostración que muestra cómo Meta Ray-Ban ayuda a recordar la información sobre el lugar de estacionamiento

Desde llamar a un número en un cartel, escanear un código QR en un folleto hasta ayudar con la elección de atuendos diarios, la cámara en los anteojos, combinada con la inteligencia artificial visual recientemente mejorada, permite que Meta Ray-Ban se integre perfectamente en cada rincón de la vida diaria.

Gracias a esta cámara, se ha hecho posible la colaboración entre Be My Eyes y Meta. Be My Eyes es una plataforma sin ánimo de lucro que conecta a personas con discapacidad visual con voluntarios y empresas videntes a través de vídeo en tiempo real e inteligencia artificial. Los voluntarios u organizaciones pueden ayudar a los usuarios a resolver problemas en tiempo real a través de videollamadas en directo.

Estos avances tecnológicos no solo mejoran la vida de la mayoría, sino que también cubren importantes carencias en los servicios para grupos especiales, lo que ofrece comodidad para todos. Aquí es donde comienza a revelarse el verdadero significado de la tecnología.

Mark Zuckerberg en el evento Meta hablando sobre la asociación con Be My Eyes

El amanecer de la próxima generación de dispositivos informáticos

Aunque ya había expectativas sobre las gafas Orion de Meta, cuando Mark Zuckerberg finalmente reveló el producto real, trajo de vuelta una sensación de asombro que ha estado ausente en las innovaciones tecnológicas durante mucho tiempo.

Este asombro no se debió sólo a la convincente visión de futuro de Meta, sino también a que el rendimiento del producto en el mundo real es notablemente cercano a esa visión. The Verge Después de probarlo, me ha dado una idea clara: Orion no es ni un espejismo lejano ni un producto totalmente terminado; existe en algún punto intermedio.

Esto es lo que distingue a Orion de muchas de las exploraciones previas de Meta en conceptos futuristas: no es solo un prototipo estancado en el laboratorio. En cambio, Meta se ha comprometido a fondo con este dispositivo de próxima generación, que combina a la perfección la IA y la realidad mixta (RM).

Las nuevas gafas AR de Meta: Orion

Orion es un dispositivo de inteligencia artificial definitivo: puede ver lo que el usuario ve, oír lo que el usuario oye y combinarlo con el contexto del mundo real del usuario para ofrecer respuestas más efectivas.

También es una herramienta de interacción y comunicación definitiva: ya no está limitado por pantallas pequeñas o auriculares voluminosos, Orion permite que los mundos virtuales y reales se fusionen a la perfección, ofreciendo interacción en cualquier lugar y en cualquier momento.

En la industria, se reconoce ampliamente que el teléfono inteligente como dispositivo informático se está acercando al final de su ciclo de vida. Empresas como Apple, Meta e incluso OpenAI están explorando qué vendrá después.

Aunque Meta Orion todavía está en su fase de prototipo, el producto parece bastante prometedor hasta el momento. Queda por ver si se convertirá en el próximo dispositivo inteligente generalizado después de los teléfonos inteligentes, pero Zuckerberg confía en su potencial.

Se espera que las gafas y los hologramas se conviertan en productos omnipresentes. Si los miles de millones de personas que actualmente usan gafas pueden pasarse a las gafas de IA y realidad mixta (RM), podrían convertirse en uno de los productos más exitosos de la historia mundial y, según Zuckerberg, es probable que alcance un éxito aún mayor.

Fuente de ifanr 

Escrito por Fanático Xiao

Descargo de responsabilidad: La información establecida anteriormente es proporcionada por ifanr.com, independientemente de Chovm.com. Chovm.com no representa ni garantiza la calidad y confiabilidad del vendedor y los productos. Chovm.com renuncia expresamente a cualquier responsabilidad por violaciones relacionadas con los derechos de autor del contenido.

Deja un comentario

Su dirección de correo electrónico no será publicada. Las areas obligatorias están marcadas como requeridas *

Ir al Inicio