Der iPhone-Hersteller will die „Visual Intelligence“ fest in der Kamera-App verankern – und macht sie so für Millionen Nutzer erlebbar.**
Interne Berichte und Entwickler-Codes aus dem Mai 2026 deuten auf einen strategischen Kurswechsel hin. Die kommende Version iOS 27, intern unter dem Codenamen „Rave“ entwickelt, soll die bislang versteckte KI-Funktion aus der Hardware-Taste direkt ins Herz der Kamera-App holen. Bisher war „Visual Intelligence“ vor allem über den separaten Kamera-Button oder das Kontrollzentrum erreichbar – ein Umweg, der die Nutzung künstlicher Intelligenz im Alltag unnötig erschwerte.
Apple-Fachchinesisch wie „Visual Intelligence“ oder „Liquid Glass“ macht Ihnen das Leben schwer? Dieses Gratis-Lexikon erklärt die 53 wichtigsten iPhone-Begriffe in einfachen Worten – inklusive Aussprachehilfen. Apple-Fachsprache endlich verstehen
Siri-Kamera-Modus: Der Sucher wird zum Assistenten
Die Neuerung ist deutlich sichtbar. Neben den bekannten Aufnahmemodi wie Foto, Video oder Portrait erscheint ein eigener „Siri“-Schalter. Wer ihn aktiviert, erlebt eine radikal veränderte Oberfläche: Der Auslöser verwandelt sich in ein leuchtendes Symbol, das an das Apple-Intelligence-Logo erinnert. Die Kamera wird zum Echtzeit-Assistenten, der die Umgebung scannt und interpretiert – ohne dass der Nutzer die App verlassen muss.
Besonders praktisch: Die Gesundheitsfunktion. Ein schneller Blick auf die Nährwerttabelle einer Verpackung genügt, und das System analysiert Kalorien, Makronährstoffe und Zutaten. Die Daten landen automatisch in der Health-App – Schluss mit manueller Eingabe oder Drittanbieter-Apps.
Auch im Büroalltag soll die neue Funktion glänzen. Visitenkarten oder Flyer lassen sich mit einem Fingertipp scannen, Kontaktdaten wie Telefonnummern und Adressen werden direkt in die Kontakte-App übernommen. Branchenbeobachter sehen darin den Versuch, die seit Jahren vorhandene, aber nie richtig durchgesetzte Technologie endlich massentauglich zu machen.
Siri 2.0: Apples Antwort auf ChatGPT
Die Kamera-Integration ist nur ein Baustein einer größeren Strategie. Unter dem Arbeitstitel „Siri 2.0″ plant Apple eine umfassende KI-Offensive, die auf der Worldwide Developers Conference (WWDC) am 8. Juni 2026 vorgestellt werden soll. Erstmals soll es eine eigenständige Siri-App geben, die wie ein moderner Chatbot funktioniert – mit Text- und Spracheingabe, Gesprächsverlauf und der Möglichkeit, Dokumente hochzuladen und analysieren zu lassen.
Ob Reiseplanung oder komplexe Alltagsfragen – neue KI-Tools wie ChatGPT oder Siri 2.0 bieten enorme Möglichkeiten für Nutzer. Ein kostenloser Ratgeber zeigt, wie Sie diese künstliche Intelligenz sofort für Ihren Alltag nutzen können – ganz ohne Vorkenntnisse. Kostenlosen KI-Leitfaden jetzt herunterladen
Ein entscheidender Schritt: Apple hat offenbar einen Deal mit Google geschlossen. Für komplexe Anfragen, die umfangreiches Wissen erfordern, sollen Gemini-Modelle zum Einsatz kommen. In der Kamera-App ermöglicht diese Partnerschaft eine „Rückwärts-Bildersuche“: Nutzer fotografieren ein Gebäude, eine Pflanze oder ein Produkt – und erhalten Ergebnisse aus globalen Datenbanken.
Auch die Fotos-App bekommt Zuwachs. Drei neue KI-Werkzeuge sind geplant: „Extend“ generiert Bildinhalte jenseits des ursprünglichen Ausschnitts, „Enhance“ und „Reframe“ optimieren Belichtung und Bildkomposition nach der Aufnahme. Das bisherige „Clean Up“-Tool aus früheren Versionen wirkt dagegen fast schon altmodisch.
„Liquid Glass“ und Stabilität als Schwerpunkt
Trotz des KI-Fokus vergisst Apple die Systemstabilität nicht. Nach dem visuellen Redesign der vergangenen Jahre mit der „Liquid Glass“-Sprache steht nun die Optimierung des Alt-Codes im Vordergrund. Ziel: bessere Akkulaufzeiten und flüssigere Bedienung. Insider berichten, dass Apple einige Nebenfunktionen zurückgestuft hat, um die KI-Kernfunktionen zuverlässig zum Laufen zu bringen – eine Reaktion auf Nutzerkritik an der Ressourcenlast früherer KI-Implementierungen.
Eine optische Neuerung gibt es dennoch: Ein systemweiter „Liquid Glass“-Schieberegler erlaubt es, Transparenz und Deckkraft der Benutzeroberfläche millimetergenau einzustellen. Das klingt nach Spielerei, dürfte aber Design-Fans begeistern.
Die Hardware profitiert ebenfalls. Gerüchten zufolge unterstützt iOS 27 das 5G-Satelliteninternet für die kommende iPhone-18-Serie – ein Ausbau der bisherigen Notruffunktion zu einem echten Datendienst für Gegenden ohne Mobilfunknetz.
Kompatibilität: Das Aus für das iPhone 11
Apple wird iOS 27 voraussichtlich auf der WWDC 2026 vorstellen. Eine Entwickler-Beta erscheint sofort, eine öffentliche Beta folgt im Juli. Die finale Version soll im September 2026 zusammen mit der neuen iPhone-Generation ausgerollt werden.
Doch nicht alle werden mitkommen. Branchenkreisen zufolge unterstützt iOS 27 nur noch das iPhone 12 und neuere Modelle. Das bedeutet das Ende der Software-Updates für das iPhone 11, das iPhone 11 Pro und das iPhone SE der zweiten Generation. Diese Geräte erhalten voraussichtlich noch Sicherheitsupdates über iOS 26 – auf die neuen KI-Funktionen müssen sie aber verzichten.
Führungswechsel als strategischer Hintergrund
Der Zeitpunkt ist kein Zufall. 2026 ist auch das Jahr des Führungswechsels bei Apple. Langzeit-CEO Tim Cook soll im September 2026 den Staffelstab an John Ternus übergeben. Der designierte Nachfolger steht für eine enge Verzahnung von Hardware und Software – genau das, was die neue KI-Strategie auszeichnet. Visual Intelligence in der Kamera-App ist dabei nur der Anfang: Künftige Produkte wie Smart Glasses oder kamerabestückte AirPods sollen auf derselben Technologie aufbauen.
Apple positioniert das iPhone damit neu – nicht mehr nur als Kamera, sondern als Schnittstelle zur realen Welt. Ein Angriff auf Android-Hersteller, die ähnliche Funktionen bereits seit zwei Jahren aggressiv vorantreiben. Ob der späte Einstieg gelingt, wird sich im September zeigen.

