Es hört sich ein bisschen an wie ein Szenario aus der Serie "Black Mirror", doch soll schon mit dem Update für iOS 13 auf dem iPhone Einzug halten: die Aufmerksamkeitskorrektur. Diese neue Funktion von Apple soll beim Videochat mit FaceTime dafür sorgen, dass man seinem Gegenüber in die Augen schaut, selbst wenn man das eigentlich gar nicht tut.
Apple möchte damit das Problem lösen, dass der Blick immer am Gesprächspartner vorbei geht, was unter Umständen als irritierend oder unhöflich empfunden wird.
Bei einem Videochat schaut der User normalerweise nicht in die Kamera, sondern auf den Bildschirm, wodurch der Blick immer leicht gesenkt ist. Die "FaceTime Attention Correction" analysiert das Bild dabei live und manipuliert die Position der Augen so, dass man in die Kamera zu gucken scheint.
Entdeckt hat die Funktion Mike Rundle, der zu den Betatestern für das kommende iOS 13 gehört:
Ein anderer User stellte etwas später dann einige Bilder auf Twitter, um zu zeigen, wie die Korrektur aussieht:
Apple soll dafür die gleiche Gesichtserkennungstechnik nutzen, die schon für die Entsperrung per Gesicht (FaceID) benutzt wird. Die Kamera ist dabei in der Lage, sowohl die Blickrichtung als auch die Gesichtsausdrücke zu erkennen. Anschließend korrigiert FaceTime die Blickrichtung der Augen mithilfe von ARKit, das für Augmented Reality entwickelt wurde. Betatester Dave Schulkin zeigt auf Twitter in einem Video, wie der Blick seines Gesichts live manipuliert wird:
Im Moment ist noch unklar, welche iPhones diese Funktion mit dem Update auf iOS 13 erhalten werden. Allerdings scheint es, als würde aktuelle Hardware dazu benötigt. Das berichtet zumindest die Tech-Site The Verge. In der Beta funktioniere die Option zumindest nur bei den Modellen iPhone XS und XS Max.
(pls)