Fermer l'annonce

La troisième version bêta développeur du système iOS 13 cache de nombreux nouveaux gadgets. L’un d’eux est la correction automatique du contact visuel. L’autre partie a alors l’impression que vous le regardez directement dans les yeux.

Désormais, lorsque vous passez un appel FaceTime avec quelqu'un, très souvent, l'autre partie peut voir que vos yeux sont baissés. Cela est dû au fait que les caméras ne se trouvent pas directement dans l'écran, mais sur le bord supérieur au-dessus. Cependant, dans iOS 13, Apple propose une solution non conventionnelle, dans laquelle le nouvel ARKit 3 joue un rôle de premier plan.

Le système ajuste désormais les données d'image en temps réel. Ainsi, même si vos yeux sont baissés, iOS 13 vous montre comme si vous regardiez directement dans les yeux de l'autre personne. Plusieurs développeurs ayant testé la nouvelle fonctionnalité sont déjà apparus sur les réseaux sociaux.

L’un d’eux était par exemple Will Sigmon, qui a fourni des photos claires. La photo de gauche montre la situation standard lors de FaceTime sur iOS 12, la photo de droite montre la correction automatique via ARKit dans iOS 13.

iOS 13 peut corriger le contact visuel pendant FaceTime

La fonctionnalité utilise ARKit 3, elle ne sera pas disponible pour iPhone X

Mike Rundle, qui était de garde, est ravi du résultat. De plus, c’est l’une des caractéristiques qu’il a prédites en 2017. D’ailleurs, toute sa liste de prédictions est intéressante :

  • L'iPhone sera capable de détecter des objets 3D dans son environnement grâce à un balayage spatial continu
  • Le suivi des mouvements oculaires, qui rend les logiciels capables de prédire les mouvements et qui permet de contrôler l'interface utilisateur du système avec les mouvements oculaires (Apple a racheté SensoMotoric Instruments en 2017, considéré comme un leader dans ce domaine)
  • Données biométriques et de santé obtenues en scannant le visage (quel est le pouls de la personne, etc.)
  • Retouche d'image avancée pour garantir un contact visuel direct pendant FaceTime, par exemple (ce qui est désormais arrivé)
  • Le machine learning va progressivement permettre à l'iPhone de compter les objets (le nombre de personnes dans la pièce, le nombre de crayons sur la table, le nombre de T-shirts que j'ai dans ma garde-robe...)
  • Mesure instantanée d'objets, sans avoir besoin d'utiliser une règle AR (quelle est la hauteur du mur, ...)

Pendant ce temps, Dave Schukin a confirmé qu'iOS 13 utilise ARKit pour corriger le contact visuel. Lors d'une lecture plus lente, vous pouvez constater la déformation soudaine des lunettes avant de les mettre sur les yeux.

Le développeur Aaron Brager ajoute ensuite que le système utilise une API spéciale qui n'est disponible que dans ARKit 3 et est limitée aux derniers modèles d'iPhone XS/XS Max et d'iPhone XR. L'ancien iPhone X ne prend pas en charge ces interfaces et la fonction n'y sera pas disponible.

Source: 9to5Mac

.