Unscheinbare Neuerung iPhone 12 Pro: Das steckt hinter dem schwarzen Punkt unter der Kamera

Der neue Lidar-Sensor im iPhone 12 ist unscheinbar
Der neue Lidar-Sensor im iPhone 12 ist unscheinbar
© Screenshot Apple/ Markierung stern
Apple hat am Dienstag das iPhone 12 Pro vorgestellt. Unter den drei Kameras auf der Rückseite verbirgt sich nun ein schwarzer Punkt. Das steckt dahinter.

Apple hat am Dienstagabend das iPhone 12 angekündigt - und zwar in gleich vier Varianten. Neben dem Standardmodell gibt es eine kleinere Mini-Variante, dazu zwei Pro-Modelle mit besserer Ausstattung. Was die einzelnen Modelle voneinander unterscheidet, können Sie hier nachlesen.

Einer der Hauptunterschiede findet sich bei der Kamera. Während Apple bei den Basismodellen erneut auf die Kombination aus Weit- und Ultraweitwinkel setzt, bekommen die beiden Pro-Modelle zusätzlich eine verbesserte Telephoto-Linse.

Der neue Lidar-Sensor im iPhone 12 ist unscheinbar
Der neue Lidar-Sensor im iPhone 12 ist unscheinbar
© Screenshot Apple/ Markierung stern

Lidar-Sensor im iPhone 12 Pro

Schaut man sich die Kamera der beiden Pro-Modelle genauer an, fällt auf: Über der Ultraweitwinkellinse befinden sich das Blitzlicht, darunter jedoch ein kleiner, schwarzer Punkt. Bei diesem handelt es sich um den sogenannten Lidar-Sensor. Lidar ist die Abkürzung für "Light Detection and Ranging", eine dem Radar verwandte Methode zur optischen Abstands- und Geschwindigkeitsmessung. Anders als beim Radar nutzt man dafür jedoch Laserstrahlen, die vom menschlichen Auge nicht wahrgenommen werden können. Der Sensor feierte im Frühjahr bereits im iPad Pro (2020) seine Premiere.

Da die Lichtgeschwindigkeit kontant ist, kann der Sensor exakt bestimmen, wie lange das Licht benötigt, um auf ein Objekt zu treffen und wieder zurückzukehren. Aus diesen Daten wird gemeinsam mit den Kameras und den Bewegungssensoren die Entfernung zum Objekt berechnet. Dieser Vorgang passiert Tausende Male pro Sekunde, sodass der Empfänger - in diesem Fall das iPhone - daraus ein Bild mit unterschiedlichen Tiefen zeichnen kann. Das benötigt viel Rechenpower, die der A14-Chip liefert. Die Technologie funktioniert sowohl drinnen als auch draußen und bei Distanzen über mehrere Meter.

Bessere Nachtfotos und AR

Für die meisten Nutzer*innen wird der größte Nutzen in der Fotografie liegen. Apple zufolge liefert das iPhone 12 Pro bessere Aufnahmen bei schlechten Lichtverhältnissen, und Lidar spielt dabei eine entscheidende Rolle. So soll der Autofokus in Low-Light-Situationen, also etwa bei schummrigem Licht, bis zu sechsmal schneller sein als zuvor.

Mit der neuen Technologie können jedoch nicht nur Tiefeneffekte realisiert werden, sondern auch virtuelle Objekte präzise im Raum positioniert werden. Apple setzt seit Jahren auf die sogenannte Erweiterte Realität ("Augmented Reality"), und immer mehr Apps implementieren solche Funktionen. Snapchat etwa bietet nun neue Effekte, mit denen virtuelle Objekte im echten Raum platziert werden können. Da die Technik nun im iPhone Einzug hält, dürfte es nur eine Frage der Zeit sein, bis weitere App-Anbieter mit AR-Anwendungen nachlegen.

Lesen Sie auch:

PRODUKTE & TIPPS