Der neue Microsoft Fabric Database Hub droht zum Nischenprodukt für reine Microsoft-Kunden zu werden. Technische Analysen nach den FabCon- und SQLCon-Konferenzen zeigen erhebliche Adoptionshürden für das Tool, das als „Single Pane of Glass“ für die Datenverwaltung beworben wird.
Die „Microsoft-only“-Barriere für Unternehmen
Die größte Schwäche des Database Hub ist seine begrenzte Konnektivität. Das Tool vereint zwar die Verwaltung von Azure SQL, Cosmos DB und PostgreSQL unter einer Oberfläche. Doch Integrationen mit großen Drittanbieter-Plattformen wie Snowflake oder Oracle fehlen komplett.
Während Unternehmen ihre Datenstrukturen zentralisieren, rücken auch neue Sicherheitsrisiken und Compliance-Vorgaben in den Fokus. Dieser kostenlose Leitfaden zeigt Geschäftsführern, welche neuen KI-Gesetze und Cyber-Security-Trends 2024 für eine sichere IT-Infrastruktur entscheidend sind. Was Geschäftsführer über Cyber Security 2024 wissen müssen
Für die meisten Großunternehmen ist das ein Problem. Sie operieren heute auf Multi-Cloud- oder Multi-Vendor-Basis. Der Hub adressiert damit nur jene Nutzer, die ihre Dateninfrastruktur noch nicht diversifiziert haben. Solange er keine Nicht-Microsoft-Produkte „berührt“, bleibt er eine Nischenlösung – kein universeller Standard für Data Engineers.
Automatisierungslücken und ungleiche Behandlung
Auch die KI-gestützten Features des Hubs stehen in der Kritik. Microsoft demonstrierte zwar, wie Copilot langlaufende Transaktionen in SQL Server identifiziert und behebt. Für andere unterstützte Datenbanken wie PostgreSQL oder MySQL wurden ähnlich tiefgehende Automatisierungen jedoch nicht detailliert.
Das Ergebnis ist eine zweiklassige Erfahrung: SQL-Server-Nutzer profitieren von robusten KI-Funktionen. Nutzer anderer Open-Source-Engines im Hub müssen sich mit traditionellen, manuellen Workflows begnügen. Eine echte, proaktive Optimierung über alle Datenbanktypen hinweg fehlt bisher.
Metadaten-Bug gefährdet das Fundament
Ein kritischer Bug im Fabric-Ökosystem untergräbt zudem das Vertrauen in die Plattform. Ein Fehler im Arrow VOrder-Code korrumpiert seit Ende Februar Parquet-Metadaten. Das führt zu stillen Datenverlusten bei Spark-4.0-Abfragen.
Über 1.500 Workspaces weltweit sind betroffen. Der Fehler betrifft, wie Spaltenindex-Statistiken in der Dateifußzeile erfasst werden. Filtert ein Nutzer Daten, überspringt das System ganze Seiten, die es fälschlich als leer einstuft – die Abfrageergebnisse sind unvollständig.
Die Daten selbst sind zwar intakt. Doch die Metadaten-Korruption bedroht das zentrale Versprechen des Database Hub: Einheitlichkeit. Wenn die Fabric-Engines Daten im OneLake aufgrund solcher Fehler nicht zuverlässig abfragen können, ist die Rolle des Hubs als Observability- und Governance-Tool kompromittiert.
Wettbewerbsnachteil durch geschlossenen Garten
Diese Limitierungen stellen Microsoft in ein schwieriges Wettbewerbsfeld zu Rivalen wie Databricks und Snowflake. Diese setzen zunehmend auf offene Standards, um diverse Datenquellen einzubinden.
Die zunehmende Komplexität vernetzter Datenplattformen macht Unternehmen anfälliger für gezielte Cyberangriffe. Wie Sie Ihre IT-Sicherheit proaktiv stärken und sich effektiv vor kostspieligen Bedrohungen schützen, erfahren Sie in diesem Experten-Report für den Mittelstand. Effektive Strategien gegen Cyberkriminelle entdecken
Microsofts Strategie mit dem Hub scheint darauf abzuzielen, eine sort von „Gravitation“ um Azure-Dienste zu erzeugen. Durch überlegene KI-Integration für die eigenen Datenbanken sollen Migrationen forciert werden. Die Marktreaktion deutet jedoch an, dass dieser „Walled Garden“-Ansatz nach hinten losgehen könnte. Data Engineers müssten dann mehrere Management-Konsolen parallel bedienen – eines für Microsoft-Assets und ein separates für den Rest.
Verglichen mit anderen einheitlichen Datenplattformen wirkt der Database Hub derzeit eher wie ein Discovery- als ein Management-Tool. Er zeigt gut, welche Datenbanken ein Nutzer in verschiedenen Azure-Regionen besitzt. Die tiefgreifende, plattformübergreifende administrative Kontrolle, um etablierte Drittanbieter-Systeme zu ersetzen, fehlt.
Ausblick: Migrationstool und mögliche Öffnung
Trotz der Startschwierigkeiten ist der Database Hub ein Grundpfeiler von Microsofts Langzeitstrategie. Eine Roadmap vom 30. März zeigt einen neuen „Migration Assistant“ in der Vorschau. Er soll helfen, Legacy-SQL-Server und Azure-SQL-Workloads nahtlos in das Fabric-Ökosystem zu überführen.
Bis Ende März 2026 wird zudem die allgemeine Verfügbarkeit von Features wie Self-Service-Workload-Publishing erwartet. Das könnte Drittanbietern ermöglichen, eigene Connector für den Hub zu bauen – und so die aktuelle Lücke bei der Nicht-Microsoft-Unterstützung zu schließen.
Bis dahin bleibt der Hub eine „Microsoft-zentrierte“ Erfahrung. Unternehmen wird geraten, ihr aktuelles Daten-Ökosystem genau zu prüfen. Die Frage ist: Wie viel ihrer Infrastruktur wird im neuen Interface überhaupt sichtbar sein? Die Zukunft des Tools hängt davon ab, ob Microsoft die Metadaten- und Performance-Probleme im Fabric-Backend löst und von einfacher Discovery zu echter, KI-gestützter Querschnitts-Optimierung voranschreitet.





