Apple rüstet KI-Fotografie massiv auf: Neue Tools für iOS 27

Apple integriert generative Bildbearbeitung in iOS 27. Neue Tools wie Extend und Enhance laufen lokal auf dem Gerät und nutzen den M5-Chip.

**

Der iPhone-Konzern bereitet einen großen Sprung in der KI-gestützten Fotografie vor. Mit dem kommenden iOS 27 sollen drei neue generative Werkzeuge Einzug in die Fotos-App halten: „Extend“, „Enhance“ und „Reframe“. Das berichten Branchenkenner übereinstimmend. Ziel ist es, den Rückstand zu Android-Konkurrenten aufzuholen, die solche Funktionen bereits seit Jahren anbieten.

Die Neuerungen gehen weit über das bisherige „Clean Up“-Werkzeug hinaus, das Ende 2024 startete. Im Kern geht es um eine strategische Neuausrichtung der Apple Intelligence-Plattform – hin zu einer umfassenden, KI-gesteuerten Bildbearbeitung direkt auf dem Gerät.

Anzeige

Apple Intelligence und neue iOS-Funktionen versprechen enorme Erleichterungen, doch oft scheitert es an der komplexen Fachsprache. Dieses kostenlose Lexikon erklärt die 53 wichtigsten iPhone-Begriffe in einfachen Worten – inklusive Aussprachehilfen. Apple-Fachsprache endlich verstehen

Drei Werkzeuge, ein Ziel: Perfekte Fotos ohne Cloud

Das Herzstück des Updates ist eine neue Rubrik namens „Apple Intelligence Tools“. Sie bündelt die drei Funktionen, die jeweils unterschiedliche Schwachstellen der aktuellen Fotografie adressieren.

Extend erlaubt es, den Bildausschnitt nachträglich zu erweitern. Wer ein Foto gemacht hat, kann einfach herauszoomen – die KI generiert die fehlenden Bildbereiche nahtlos dazu. Das erinnert an die generative Füllfunktion professioneller Bildbearbeitungsprogramme. Apples entscheidender Vorteil: Die Berechnung läuft komplett auf dem Gerät, nicht in der Cloud. Das schützt die Privatsphäre der Nutzer.

Enhance ist die Weiterentwicklung der altbekannten Auto-Optimierung. Statt nur Helligkeit und Kontrast anzupassen, nutzt die neue Version tiefe generative Modelle. Sie können Details rekonstruieren, die bei schlechten Lichtverhältnissen verloren gingen – etwa Texturen in Schattenpartien oder feine Strukturen im Gegenlicht.

Reframe richtet sich an Besitzer der Apple Vision Pro. Das Tool ist für räumliche Fotos gedacht, also 3D-Aufnahmen. Nach der Aufnahme können Nutzer den Blickwinkel verschieben – als würden sie die Kamera in einem virtuellen Raum neu positionieren. Ein Feature, das die Grenzen zwischen Foto und 3D-Szene verschwimmen lässt.

Allerdings: Tests aus dem Mai zeigen, dass Extend und Reframe gelegentlich inkonsistente Ergebnisse liefern. Apple könnte die Funktionen daher gestaffelt ausrollen oder zum Start nachschärfen.

M5-Chip macht den Unterschied: Rechenpower für die KI

Die neuen Tools sind kein Zufall. Sie profitieren direkt von Apples rasanter Chip-Entwicklung. Vor ziemlich genau zwei Jahren, am 7. Mai 2024, startete die Ära der KI-Fotografie mit dem M4-Prozessor. Dessen 16-Kern-Neural Engine schaffte 38 Billionen Operationen pro Sekunde – genug für das erste Clean-Up-Werkzeug im Oktober 2024.

Im März 2026 legte Apple mit der M5-Familie noch einmal deutlich nach. Die neue Architektur integriert Neural Accelerators in jeden GPU-Kern. Das ist ein fundamentaler Bruch mit dem bisherigen Design, das stärker auf eine zentrale NPU setzte. Die Ergebnisse sind beeindruckend: Im Vergleich zum M4 liefert der M5 bis zu 30 Prozent schnellere Grafikleistung und 45 Prozent schnellere Raytracing-Berechnungen.

Für Fotografen bedeutet das: Komplexe KI-Aufgaben werden nahezu verzögerungsfrei verarbeitet. Die Speicherbandbreite erreicht in aktuellen Laptop-Modellen 153 GB/s – genug, um hochauflösende generative Aufgaben ohne die typische Wartezeit von Cloud-Lösungen zu bewältigen.

Anzeige

Ob neue Chips oder komplexe Software-Updates – viele Mac-Nutzer verschwenden täglich wertvolle Minuten, weil sie die effizientesten Funktionen ihres Geräts nicht kennen. Ein kostenloser PDF-Ratgeber verrät nun die 19 besten Shortcuts, mit denen Sie sofort flüssiger und entspannter arbeiten. 19 Mac-Tastenkürzel jetzt gratis sichern

Privatsphäre als Markenkern: On-Device statt Cloud

Apple bleibt seinem Prinzip treu: Die meisten Daten verlassen das Gerät nicht. Während Konkurrenten wie Google oder Samsung Bilder für komplexe Bearbeitungen auf zentrale Server hochladen, setzt Apple Intelligence auf lokale Verarbeitung.

Nur wenn die Rechenleistung des Geräts nicht ausreicht, greift die Private Cloud Compute-Architektur. Diese nutzt spezielle Apple-Silicon-Server, die die Sicherheitsstandards von iPhone und Mac in die Cloud verlängern. Die Daten werden nicht gespeichert und sind nur für die Dauer der Anfrage zugänglich.

Ein weiterer wichtiger Punkt: Transparenz. Apples Richtlinien für generative KI, zuletzt im Frühjahr 2025 aktualisiert, schreiben vor, dass KI-bearbeitete Bilder gekennzeichnet werden müssen. Aktuell zeigt die Fotos-App einen Hinweis wie „Mit Clean Up bearbeitet“ an. Das soll die Authentizität von Momentaufnahmen schützen – ein zunehmend wichtiges Thema in Zeiten perfekter KI-Fälschungen.

Wettbewerb: Apple holt auf – mit Verzögerung

Die Branche sieht den Schritt als längst überfällig. Android-Hersteller bieten generative Bildbearbeitung seit Jahren an. Samsungs „Magic Eraser“ oder Googles „Magic Editor“ sind feste Größen im mobilen Fotografie-Alltag. Apple galt lange als Nachzügler.

Doch der Konzern hat die Zeit genutzt. Statt schnell unausgereifte Funktionen zu liefern, setzte Apple auf Zuverlässigkeit und tiefe Systemintegration. Das Clean-Up-Werkzeug wurde Anfang 2025 noch kritisiert – es sei weniger aggressiv als die Konkurrenz. Mit iOS 27 soll sich das ändern. Die neuen generativen Modelle sollen komplexe Hintergründe und Texturen deutlich besser verarbeiten.

Ein weiterer Hinweis auf die strategische Richtung: Die Integration der Tools in einen einheitlichen Siri-Modus. Branchenbeobachter erwarten, dass Nutzer bis zum Sommer 2026 komplexe Bearbeitungen per Sprachbefehl ausführen können. Ein Satz wie „Mach dieses Foto knackiger und verlängere den Himmel“ würde dann ausreichen – die KI erledigt den Rest.

Ausblick: WWDC 2026 als Schicksalstag

Den vollen Umfang der KI-Offensive wird Apple auf der Worldwide Developers Conference (WWDC) präsentieren. Sie beginnt am 8. Juni 2026. Neben den Fototools wird vor allem ein komplett überarbeiteter Siri-Assistent erwartet, der Aktionen in Drittanbieter-Apps ausführen und persönlichen Kontext behalten kann.

Die finalen Versionen von iOS 27, iPadOS 27 und macOS 27 werden im Herbst erwartet. Allerdings: Die anspruchsvollsten Funktionen werden wohl nur auf aktueller Hardware laufen. Während Clean Up noch auf dem iPhone 15 Pro funktioniert, dürften Extend und Reframe für Geräte mit M4- oder M5-Chip optimiert sein.

Apple setzt im Wettbewerb um die beste KI-Fotografie auf eine klare Strategie: Hochleistungs-Chips im Gerät, gepaart mit einem strengen Datenschutzmodell. Ob das reicht, um die Cloud-basierten Lösungen der Konkurrenz zu schlagen, wird sich im Herbst zeigen. Eines ist sicher: Der Kampf um das perfekte Foto ist längst zur Schlacht der Künstlichen Intelligenz geworden.