AirPods con cámaras para inteligencia visual: ¿la revolución de la seguridad personal de Apple?
Esta es la razón por la que poner cámaras en los AirPods podría ser una gran idea
Resumen:
- Según se informa, Apple todavía está trabajando en la integración de cámaras en los AirPods.
- La inteligencia visual de iOS 18 está en el centro de los planes de Apple.
- Las características aún están a “generaciones de distancia”.
Ya sabemos el "qué" desde hace algún tiempo (Apple está experimentando con la integración de cámaras en los AirPods) y ahora podríamos saber el "por qué". Un nuevo informe arroja luz sobre los planes de Apple para los futuros AirPods y, si la tecnología cumple lo prometido, podría ser una característica de seguridad personal verdaderamente importante. Apple está desarrollando AirPods con cámaras integradas, convirtiéndolos en un dispositivo más inteligente y capaz.
Sin embargo, hay una salvedad importante: estas características aún “distan al menos unas generaciones de llegar al mercado”.
El informe proviene de Mark Gorman, una persona bien conectada en informe de Bloomberg, quien afirma que “el plan definitivo de Apple para la inteligencia visual va mucho más allá del iPhone”. Y los AirPods son una gran parte de ese plan. Las filtraciones indican que la compañía está trabajando en integrar cámaras en los AirPods para mejorar la seguridad personal.
Según Gorman, la inteligencia visual (reconocer el mundo que te rodea y brindar información útil o asistencia) es muy importante dentro de Apple, y la empresa planea poner cámaras tanto en el Apple Watch como en el Apple Watch Ultra también. Al igual que con los AirPods, “ayudará al dispositivo a ver el mundo exterior y utilizará inteligencia artificial para proporcionar información relevante”. Los informes también han sugerido que Apple está considerando agregar cámaras a sus relojes inteligentes para mejorar sus capacidades de inteligencia visual.
¿Cómo funcionarán los AirPods con Visual Intelligence?
La Inteligencia Visual, introducida en iOS 18 para el iPhone 16, te permite apuntar la cámara a un objeto y obtener más información sobre él: el tipo de planta, la raza del perro (como se muestra en la parte superior de este artículo), el horario de apertura de la cafetería que acabas de encontrar, etc. Esta tecnología, también conocida como "inteligencia visual", es una de las características más importantes de la actualización.
La inteligencia visual también puede traducir textos y algún día podría ayudar a personas con mala memoria para nombres y caras. Esta tecnología podría facilitar la vida diaria de muchas personas.
Pero el gran problema de Visual Intelligence es que tienes que sacar el teléfono para usarla. Hay circunstancias en las que no quieres hacer eso. Recuerdo cuando Apple puso Mapas a disposición del Apple Watch: permitir usar Mapas sin mostrar a todos los vecinos. «No soy de por aquí y estoy completamente perdido. Además, tengo un teléfono caro» era una importante función de seguridad personal.
Podría ser esto también. Si Apple hiciera posible invocar Inteligencia Visual con un movimiento de cabeza y un toque en los AirPods, podrías obtener información importante (como traducir una señal de dirección en otro país) sin mover el teléfono.
Aún estamos muy lejos de tener realmente estas funciones; no las esperen en los AirPods Pro 3, que probablemente llegarán más adelante en 2025. Pero estoy entusiasmado con esta perspectiva: imaginen Apple Intelligence, pero mejor.
Los comentarios están cerrados.