iOS 27 und iPhone 18 Pro: Apple trainiert den Kamera-Assistenten für die AR-Brille

Während die Gerüchteküche über das faltbare iPhone brodelt, arbeitet Apple an einem viel tieferen Umbau: Das iPhone soll lernen, die Welt durch die Linse zu verstehen. Nicht als Spielerei, sondern als Sprungbrett für die nächste Geräteklasse.
Bis September 2026 dürfte Apple zunächst die Pro-Modelle der 18er-Serie enthüllen, dazu das erste Foldable, das manche schon als iPhone Ultra handeln. Wer das Standard-iPhone sucht, muss sich bis Anfang 2027 gedulden. Farbvarianten geistern ebenfalls durch die Leaks, Konkretes fehlt. Hardware-seitig zeichnet sich ein Kamera-Sprung ab: Bloombergs Mark Gurman spricht von Entwicklungsfortschritten, ohne sich auf absolute Details festzulegen. Im Raum steht ein Hauptsensor mit 200 Megapixeln sowie ein neues Teleobjektiv, das mit größerer Blende arbeitet und möglicherweise eine variable Öffnung mitbringt.
Parallel dazu nimmt das Software-Fundament Gestalt an. Auf der WWDC ab 8. Juni 2026 stellt Apple iOS 27 vor. Spannend wird, wie tief der Hersteller Siri in die Kamera-App einwebt. Ein eigener Aufnahmemodus – angesiedelt neben Foto und Video – soll künftig direktes KI-Sehen ermöglichen. Wer den Auslöser in dieser Einstellung antippt, löst keine Aufnahme aus, sondern aktiviert visuelle Intelligenz. Das Apple-Intelligence-Icon im Auslöser signalisiert den aktiven KI-Modus.
Apples Kalkül: Die Kamera als primären Zugang zur künstlichen Intelligenz zu etablieren, statt die Funktion hinter einem konfigurierbaren Button zu verstecken. Das geschieht nicht ohne Grund. Funktionen wie das Scannen von Nährwerttabellen, die automatisch Kalorien und Makronährstoffe in der Health-App hinterlegen, setzen auf permanente Verfügbarkeit. Ähnlich verhält es sich mit Visitenkarten und Dokumenten, deren Daten direkt in Kontakten landen, oder physischen Tickets, die das System in die Wallet überführt. Bekannte Features – Pflanzenerkennung, Kalendereinträge und die optionale Weiterleitung an ChatGPT oder Google – bleiben erhalten.
Entscheidend ist, wo die Rechenarbeit stattfindet. Apple verlagert einen wachsenden Anteil auf das Gerät selbst. Das schont die Privatsphäre und verkürzt Latenzen. Gleichzeitig fungiert diese Kamera-KI als Prüfstand für etwas Größeres: eine AR-Brille, die dereinst die Umgebung ohne Zutun des Nutzers interpretiert. Was im iPhone mit bewusstem Kamera-Einsatz beginnt, soll auf dem Nasensteg zur Echtzeit-Analyse werden. Apple Glass könnte ohne diesen Vorlauf kaum bestehen.
Links mit einem * sind Partner-Links. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalte ich eine kleine Provision. Für euch ändert sich am Preis nichts. Danke für eure Unterstützung!
