Apple Siri: KI-Assistent wird zur eigenständigen App

Apples 'Project Campos' verwandelt Siri in eine eigenständige Chat-App mit persistentem Verlauf und öffnet das System für externe KI-Modelle wie Gemini und Claude.

Apple testet intern eine radikale Neuerfindung seines digitalen Assistenten Siri. Kern der als „Project Campos“ bekannten Überarbeitung ist eine eigenständige Chat-App, die den Umgang mit KI auf iPhone, iPad und Mac grundlegend verändern soll. Die Tests laufen aktuell mit Vorabversionen von iOS 27.

Vom System-Befehl zum KI-Chatbot

Der auffälligste Wandel: Siri verlässt sein Nischendasein als Sprachbefehl und wird zu einer vollwertigen, eigenständigen Anwendung. Diese neue App soll eine Chat-Oberfläche bieten, die an Konkurrenten wie ChatGPT oder Google Gemini erinnert. Im Gegensatz zur heutigen, flüchtigen Interaktion wird die „Project Campos“-App einen persistenten Chat-Verlauf speichern. Nutzer könnten so auf frühere Unterhaltungen zurückgreifen, darin suchen und mühelos zwischen Spracheingabe und Tippen wechseln.

Anzeige

Während Apple die Zukunft von Siri mit KI-Chatbots neu definiert, stellt die aktuelle Technik viele Nutzer noch vor Rätsel. Dieses kostenlose Lexikon erklärt die 53 wichtigsten Begriffe der Apple-Welt in einfachen Worten. Jetzt iPhone-Fachbegriffe kostenlos verstehen

Die App soll den klassischen Siri nicht ersetzen, sondern ergänzen. Während die schnelle Sprachsteuerung für einfache Aufgaben bleibt, wird die dedizierte App zum Zentrum für komplexe, mehrstufige Anfragen. Apple reagiert damit auf den seit Jahren kritisierten Rückstand von Siri gegenüber modernen Sprachmodellen. Die Strategie: Die milliardenfache Hardware-Installation nutzen, um die hauseigene KI zur primären Schnittstelle für alle Gerätefunktionen zu machen.

Siri öffnet sich für fremde KI-Modelle

Ein zweiter großer Schritt ist die Öffnung des Siri-Ökosystems. Unter dem Namen „Siri Extensions“ testet Apple ein Framework, das Drittanbietern erlaubt, ihre KI-Dienste direkt einzubinden. Nutzer könnten dann gezielt Anfragen an externe Modelle wie Googles Gemini, Anthropics Claude oder xAIs Grok weiterleiten.

Dieses Framework soll über einen neuen Bereich im App Store – einen Marktplatz für KI-Agenten – verwaltet werden. In den Testversionen finden sich Einstellungen, mit denen Nutzer granular festlegen können, welche Dienste auf ihre Daten zugreifen und welche Aktionen sie ausführen dürfen. Ein Reise-KI-Agent könnte so über Siri Flüge buchen und Daten aus verschiedenen Apps zusammenführen – stets unter Einhaltung von Apples Datenschutzstandards.

Ambitionen und technische Hürden

Die ambitionierte Neuausrichtung ist jedoch mit erheblichen technischen Schwierigkeiten verbunden. Interne Tester berichten von inkonsistenten Antwortzeiten, Fehlinterpretationen komplexer Anfragen und einem Bug, der bei schnellem Sprechen den Assistenten abschaltet. Diese Probleme haben den Zeitplan durcheinandergewirbelt.

Ursache ist der Wechsel zu einer Architektur der zweiten Generation, die auf dem Apple Foundation Model (AFM) v11 basiert. Dieses proprietäre Sprachmodell soll lokal auf Apples eigenen Chips laufen, benötigt aber erhebliche Rechen- und Speicherressourcen. Gerüchten zufolge könnte das kommende iPhone 18 Pro bis zu 12 GB RAM benötigen, um die fortschrittlichsten „agentischen“ Fähigkeiten der neuen Siri voll zu nutzen. Die Ingenieure ringen um die Balance zwischen leistungsstarker KI und der firmeneigenen Philosophie der lokalen Datenverarbeitung.

Anzeige

Der Sprung zur KI-gestützten Bedienung zeigt, wie rasant sich das iPhone weiterentwickelt – doch schon heutige Funktionen bieten versteckte Erleichterungen. Das kostenlose Starterpaket verrät einfache Gesten und Handgriffe, die den digitalen Alltag sofort mühelos machen. Kostenloses iPhone-Starterpaket hier sichern

Strategische Neuausrichtung und Marktkontext

Apples Manöver spiegelt den Branchentrend zu „agentischer“ KI wider – Systeme, die nicht nur antworten, sondern aktiv handeln. Mit einer Hybrid-Strategie, die Googles Gemini-Technologie für allgemeines Wissen und eigene On-Device-Modelle für persönlichen Kontext kombiniert, antwortet Apple auf die Vorstöße von Microsoft und Google in deren Produktivitäts-Suiten.

Analysten sehen im Erfolg von „Project Campos“ einen entscheidenden Faktor für den nächsten Hardware-Zyklus. Die RAM-Anforderung und das Versprechen eines autonomen Assistenten könnten einen iPhone-„Superzyklus“ Ende 2026 auslösen. Durch die Öffnung für Drittanbieter positioniert sich Apple zudem als neutrale Plattform für die wachsende KI-Ökonomie – mit potenziell neuen Einnahmequellen über App-Store-Provisionen.

Ausblick: WWDC als entscheidende Enthüllung

Die Tech-Branche blickt nun gespannt auf den 8. Juni 2026. Auf der Worldwide Developers Conference (WWDC) wird Apple die Ergebnisse der Testphase voraussichtlich offiziell präsentieren. Die ersten Beta-Versionen von iOS 27 und macOS 27 sollen dann die neue Siri-App und das Extensions-Framework enthalten.

Die endgültige, öffentliche Version des überarbeiteten Siri ist für September 2026 parallel zum Start der iPhone-18-Serie geplant. Einige iterative Verbesserungen könnten bereits im Mai mit iOS 26.5 kommen. Die transformativsten Features – insbesondere die Fähigkeit, mehrstufige Aufgaben über Drittanbieter-Apps hinweg auszuführen – bleiben jedoch der Hauptakt des Herbst-Updates. Gelingt Apple die Navigation durch die aktuellen Herausforderungen, könnte 2026 das Jahr werden, in dem sich das iPhone endgültig vom Smartphone zum proaktiven KI-Begleiter wandelt.