Google Gemini: Vom Chatbot zum autonomen Agenten

Google testet ein neues Interface, um seine KI Gemini in einen autonomen Agenten für Geschäftsprozesse zu verwandeln. Der Vorstoß heizt den Wettbewerb mit Microsoft und OpenAI an und wirft Sicherheitsfragen auf.

Ein neues Interface soll die KI zu einem autonomen Agenten machen, der komplexe Geschäftsprozesse steuer. Das könnte den Wettlauf um die produktivste Büro-KI neu entfachen.

Die Kommandozentrale für KI-Agenten

Die Tech-Riesen setzen nicht mehr auf simple Chatbots. Stattdessen entwickeln sie autonome Agenten, die ganze Arbeitsabläufe übernehmen. Google prescht nun mit einem neuartigen Interface für Gemini Enterprise vor. Entdeckt wurde es bereits in ersten Tests.

Die Oberfläche gliedert sich in vier Bereiche: Ziel, Agent, Verbundene Apps und Dateien. Nutzer definieren ein übergeordnetes Ziel und weisen es einem KI-Agenten zu. Dieser hat Zugriff auf Unternehmensdaten und Drittsoftware. Ein entscheidendes Detail: Ein Schalter für „Menschliche Freigabe erforderlich“. Diese Sicherheitsvorkehrung soll verhindern, dass die KI unkontrolliert handelt.

Anzeige

Mit dem zunehmenden Zugriff autonomer Agenten auf sensible Unternehmensdaten steigen auch die Anforderungen an die IT-Sicherheit in Firmen massiv. Dieses Gratis-E-Book enthüllt, wie Sie Sicherheitslücken schließen und gleichzeitig neue gesetzliche Anforderungen rechtssicher erfüllen. IT-Sicherheits-Leitfaden für Unternehmen kostenlos anfordern

Parallel vertieft Google die Integration in seine Workspace-Tools. Seit dem 13. April 2026 kann Gemini Inhalte aus Gmail, Drive, Docs und Sheets zusammenführen. So erstellt die KI automatisch komplexe Tabellen oder Präsentationen. Verfügbar ist dies für Nutzer der AI Ultra-, AI Pro- und Workspace-Pläne – vorausgesetzt, sie erteilen die nötigen Datenzugriffe.

Wettlauf mit Microsoft und OpenAI

Der Markt für Unternehmens-KI brodelt. Nur einen Tag vor Googles Leak, am 13. April, bestätigte Microsoft die Entwicklung eines eigenen Microsoft 365 Copilot Agenten. Dieser soll anders als Cloud-Modelle dauerhaft auf lokaler Hardware laufen. Ein klarer Schachzug für sicherheitsbewusste Konzerne.

Auch bei OpenAI rumort es. Interne Memos vom 13. und 14. April zeigen: Das Unternehmen will seine Abhängigkeit von Microsoft reduzieren. Die Partnerschaft habe den Zugang zu manchen Großkunden behindert, so die Führung. Als Antwort baut OpenAI nun Cloud-Partnerschaften mit Oracle, Google und Coreweave aus. Gleichzeitig betont man die „überwältigende“ Nachfrage nach seinen Modellen über Amazons AWS Bedrock.

Die Zahlen unterstreichen den Stellenwert: Das Enterprise-Geschäft macht bereits 40 Prozent von OpenAIs Gesamtumsatz aus. Bis Ende 2026 soll es den Consumer-Umsatz einholen. Ein Wachstum, das trotz öffentlicher Streits über überhöhte Marktbewertungen bei Konkurrenten wie Anthropic gelingt.

Die große Sicherheitsfrage

Je mächtiger die Agenten werden, desto lauter werden die Warnrufe. Die Sorge vor „exzessiver Handlungsfähigkeit“ – dass KI-Modelle ihre Befugnisse überschreiten – wächst. Britische Finanzaufsichten wie die Bank of England berieten diese Woche im Notfall mit dem National Cyber Security Centre. Thema: IT-Risiken und die Stabilität des Finanzsystems im Zeitalter fortschrittlicher KI.

Forscher demonstrierten Mitte April, wie real die Gefahr ist. Eine Testversion eines Anthropic-Modells identifizierte in einer abgeschotteten Umgebung tausende bisher unbekannte Sicherheitslücken. Obwohl defensiv genutzt, zeigt der Vorfall: KI kann traditionelle Sicherheitsbarrieren umgehen.

Unternehmen stehen vor einem „KI-Nachweis-Dilemma“. Eine Umfrage unter US-Managern ergab: 78 Prozent der Führungskräfte trauen sich nicht zu, binnen 90 Tagen eine KI-Governance-Prüfung zu bestehen. 46 Prozent geben zu, dass ihre KI-Projekte aufgrund mangelnder Kontrollen hinterherhinken. Nur 22 Prozent der Operations-Leiter haben eine vollständige KI-Strategie implementiert – trotz hoher Investitionen.

Was bedeutet das für deutsche Unternehmen?

Der Fokus der Tech-Konzerne verschiebt sich klar: von generativen Chatbots hin zu „handlungsfähigen“ Agenten. Die kommenden Konferenzen Google I/O und Microsoft Build im Frühjahr werden diese Richtung bestätigen.

Anzeige

Da die neue EU-KI-Verordnung bereits unmittelbar gilt, müssen Unternehmen den Einsatz autonomer Agenten rechtlich präzise vorbereiten. Dieser kostenlose Report bietet einen praxisnahen Umsetzungsleitfaden zu Risikoklassen, Übergangsfristen und Dokumentationspflichten des AI Acts. Kostenloses E-Book zum EU AI Act herunterladen

Für deutsche DAX-Konzerne und Mittelständler wird die Integration in bestehende Softwarelandschaften entscheidend sein. Können SAP, Salesforce und Co. nahtlos angebunden werden? Googles human-in-the-loop-Schalter und klare Zielvorgaben könnten der Kompromiss sein, den Compliance-Abteilungen fordern: mehr Automatisierung bei strenger Kontrolle.

Die Regulierung zieht nach. Die US-Regierung arbeitet an zentralisierten KI-Standards, um einen Flickenteppich aus Landesgesetzen zu verhindern – ein Ansatz, der der EU-KI-Verordnung ähnelt. Für Googles Vorstoß bedeutet das: Der Erfolg hängt nicht nur von der Technik ab, sondern auch davon, wie gut sie Governance-Anforderungen erfüllt.