Búsqueda visual en detalle: así es como Vision Pro aprende su entorno

Con el lanzamiento del SDK para VisionOS 1.0, se han filtrado los primeros detalles de cómo funcionarán los primeros auriculares de realidad mixta de Apple. Esto también incluye un nuevo tipo de búsqueda visual, conocida como «búsqueda visual». Además de textos, también puede identificar objetos. Esto debería permitir una interacción más fácil con el entorno del usuario.

anuncio

La búsqueda visual se basa en las funciones correspondientes de iPhone y iPad, lo que, entre otras cosas, se conoce como texto en vivo y se convirtió en parte del sistema por primera vez con iOS o iPadOS 16. El contenido de texto también se puede extraer de fotos en un Mac, e incluso ahora desde vídeos. Con Vision Pro, esto debería convertirse en parte del proceso de trabajo diario, porque Apple ve los auriculares no solo como un dispositivo de entretenimiento, sino también como un dispositivo de oficina.

En términos prácticos, esto significa que simplemente puede sostener una hoja de papel en su campo de visión para digitalizar el contenido y luego usarlo en un documento en Vision Pro, simplemente copiando y pegando. Además, los auriculares pueden traducir contenido en forma de texto de 17 idiomas diferentes «en pantalla»; se agregarán más más adelante. Si un clip se reconoce como una URL, puede nombrarlo inmediatamente en el navegador Safari incluido en VisionOS. También se detectan códigos QR. Apple también proporciona varias funciones de conversión, por ejemplo, para monedas, dimensiones o pesos.

Además, Vision Pro también puede reconocer y mapear objetos. Aún no está claro cómo funciona esto, pero podría ser un recordatorio de cómo la función Fotos de Apple en el iPhone ya se usa para la búsqueda visual. La característica correspondiente se llama aquí búsqueda visual – en alemán «referencia visual». Se pueden reconocer vistas, estatuas, obras de arte, plantas o mascotas conocidas y se puede aprender más sobre ellas.

READ  Informes de "destreza" de helicópteros del planeta por primera vez

En la aplicación Fotos, los objetos reconocidos se marcan con un icono en la vista de pantalla completa que permite hacer inferencias sobre el objeto, como una planta. Si lo toca, se mostrarán más detalles sobre Siri y también puede buscar en la web imágenes similares. Se puede suponer que Vision Pro realiza esto de manera similar. El desarrollador fue Steve Moser. Detalles sobre la funcionalidad en las profundidades del SDK para visionOS 1.0 Descubrir. Es probable que muchas cosas cambien antes de que los auriculares se estrenen el próximo año.

anuncio


Más Mac y yo

Más Mac y yo

Más Mac y yo


(Licenciatura)

a la página de inicio

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *