top of page

Vom Dashboard zur Datendrehscheibe: Daten-WG Podcast mit Steffen Genz

Aktualisiert: vor 1 Tag

Fabric ist nicht einfach nur eine neue Technologie – es verändert, wie Unternehmen mit Daten arbeiten. In meinem aktuellen Gespräch mit Steffen Genz, einem echten Fabric-Pionier, haben wir ehrlich über die Chancen, Herausforderungen und Erfahrungen aus der Praxis gesprochen.



Warum Fabric mehr als nur ein neues Office 365 ist

Microsoft positioniert Fabric oft als das "Office 365 für Daten". Doch dieser Vergleich greift zu kurz. Fabric bringt eine neue Ebene der Datenmodellierung, erfordert ein tieferes Verständnis der Datenflüsse und macht pragmatisches Kapazitätsmanagement plötzlich zum Pflichtprogramm.

Während Power BI-Teams bisher oft schnelle Visualisierungen und kleine Workarounds im Dashboard gebaut haben, zwingt Fabric zu mehr Disziplin: saubere, konsistente Datenmodelle, zentrale Dataflows und klare Strukturen sind essenziell.


Der Weg vom Dashboard-Ersteller zum Datendienstleister

Früher lag der Fokus vieler BI-Teams auf der schnellen Dashboard-Erstellung für Fachbereiche. Heute entwickeln Teams wie Steffen Genz' Organisation echte Datenprodukte: saubere Tabellen, die nicht nur visualisiert, sondern direkt konsumiert werden können. Die Nutzer greifen zunehmend selbstständig auf die Daten zu, exportieren weniger und arbeiten direkter an den zentral bereitgestellten Datenmodellen.


Kapazitäten, Workspaces und Struktur: Die neue Realität

Fabric zwingt zur klaren Trennung von Entwicklungs-, Produktions- und Self-Service-Umgebungen. Kleine Hacks wie nummerierte Workspaces oder separate F2-Kapazitäten für unterschiedliche Workloads helfen, Stabilität und Übersicht zu wahren.

Auch der Support von Microsoft spielt dabei eine wichtige Rolle: Direkter Austausch über Support-Tickets hilft, komplexe Fragestellungen rund um Fabric-Workloads effizient zu lösen.


Ausblick: Self-Service und Dezentralisierung

Fabric bietet auch den Raum für Self-Service-BI. Nutzer können eigene Measures schreiben und – gut gesteuert – eigene Dataflows in dafür vorgesehenen Workspaces anlegen. Langfristig wird sich die Architektur noch stärker dezentralisieren, ohne dass dabei die Transparenz verloren geht.


Key-Learnings


  • Fabric verlangt eine tiefere Datenmodellierung: Statt schnelle Workarounds zu bauen, müssen Datenprodukte von Anfang an sauber modelliert werden, da spätere Korrekturen schwerer möglich sind.


  • Klare Workspace-Strukturen sind überlebenswichtig: Eine Nummerierung und Trennung nach Aufgaben (z.B. Public vs. Kuratiert) schafft Übersicht und verhindert Chaos im Datenmanagement.


  • Self-Service wird durch kuratierte Daten gestützt: Die Nutzer erhalten Zugriff auf zentrale Tabellen, können aber auch eigene Measures erstellen – alles unter klarer Governance.


  • Ressourcenmanagement wird zur neuen Kernkompetenz: Die Einführung von Fabric bringt die Notwendigkeit, Kapazitäten bewusst zu überwachen und verschiedene Umgebungen (Entwicklung vs. Produktion) sauber zu trennen.

 
 
 

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page