Anuncio cerrado

La tercera versión beta para desarrolladores del sistema. iOS 13 esconde muchos gadgets nuevos. Uno de ellos es la corrección automática del contacto visual. La otra parte tendrá entonces la impresión de que le está mirando directamente a los ojos.

Ahora, cuando estás en una llamada FaceTime con alguien, muy a menudo la otra parte puede ver que tienes la vista baja. Esto se debe a que las cámaras no están directamente en la pantalla, sino en el borde superior. Sin embargo, en iOS 13, Apple presenta una solución poco convencional, donde el nuevo ARKit 3 juega un papel protagonista.

El sistema ahora ajusta los datos de la imagen en tiempo real. Entonces, aunque tengas los ojos bajos, iOS 13 te muestra como si estuvieras mirando directamente a los ojos de la otra persona. En las redes sociales ya han aparecido varios desarrolladores que han probado la nueva función.

Uno de ellos fue, por ejemplo, Will Sigmon, que proporcionó fotografías claras. La foto de la izquierda muestra la situación estándar durante FaceTime en iOS 12, la foto de la derecha muestra la corrección automática a través de ARKit en iOS 13.

iOS 13 puede corregir el contacto visual durante FaceTime

La función utiliza ARKit 3, no estará disponible para iPhone X

Mike Rundle, que estuvo de guardia, está encantado con el resultado. Además, es una de las características que predijo en 2017. Por cierto, toda su lista de predicciones es interesante:

  • El iPhone podrá detectar objetos 3D en su entorno mediante escaneo espacial continuo
  • Seguimiento del movimiento ocular, que permite que el software pueda predecir el movimiento y que permite controlar la interfaz de usuario del sistema con el movimiento ocular (Apple compró SensoMotoric Instruments en 2017, que se considera líder en este campo)
  • Datos biométricos y de salud obtenidos mediante el escaneo del rostro (cuál es el pulso de la persona, etc.)
  • Edición de imágenes avanzada para garantizar el contacto visual directo durante FaceTime, por ejemplo (lo que ya sucedió)
  • El aprendizaje automático permitirá progresivamente al iPhone contar objetos (el número de personas en la habitación, el número de lápices sobre la mesa, cuántas camisetas tengo en el armario...)
  • Medición instantánea de objetos, sin necesidad de utilizar una regla AR (qué altura tiene la pared,...)

Mientras tanto, Dave Schukin confirmó que iOS 13 usa ARKit para corregir el contacto visual. Durante la reproducción más lenta, puedes ver cómo las gafas se distorsionan repentinamente antes de ponértelas en los ojos.

El desarrollador Aaron Brager luego agrega que el sistema utiliza una API especial que solo está disponible en ARKit 3 y está limitada a los últimos modelos de iPhone XS/XS Max y iPhone XR. El iPhone X anterior no admite estas interfaces y la función no estará disponible en él.

Fuente: 9to5Mac

.