synalis IT-Blog

Datenanalyse per Sprache: Microsoft Fabric & Azure AI Foundry im Einsatz

Mit natürlicher Sprache Daten analysieren – Die Zukunft beginnt jetzt

Die neue Form der natürlichen Sprachabfrage mit Microsoft Fabric revolutioniert den Zugang zu Daten – ohne Code, direkt im Unternehmenskontext. Kein SQL, keine verschachtelten Dashboards, keine komplizierten BI-Tools. Mit der Kombination aus Azure AI Foundry und Microsoft Fabric Data Agents wird diese Vision Realität. Diese Technologien ermöglichen es erstmals, natürliche Sprache als intuitives Interface für datenbasierte Entscheidungsprozesse zu nutzen – direkt auf Grundlage verlässlicher Unternehmensdaten. Eine einfache Anfrage wie: „Welche Projekte erzielten im letzten Quartal den höchsten Deckungsbeitrag?“ genügt – und Sie erhalten automatisch eine fundierte Analyse inklusive Zahlen, Diagrammen und Interpretation. Willkommen in der Welt der natürlichen Sprachabfrage mit Microsoft Fabric.

Von SQL zur natürlichen Sprachabfrage mit Microsoft Fabric 

In der heutigen Praxis erfolgt die Analyse von Unternehmensdaten in der Regel über strukturierte Abfragen – typischerweise mit SQL, DAX oder Power BI. Dabei werden Daten aus Data Warehouses oder Data Lakes extrahiert, gefiltert, aggregiert und visualisiert. Diese Methoden setzen technisches Fachwissen voraus und erfordern spezialisierte Rollen, insbesondere in komplexen Analyseumgebungen. Zwar existieren bereits erste Ansätze, die natürliche Sprache als Einstiegspunkt für die Datenanalyse nutzen – etwa durch GPT-basierte Assistenzsysteme oder semantische Suchfunktionen innerhalb von Power BI – doch stoßen diese häufig an ihre Grenzen. 

Ein prominenter Versuch ist die Indizierung des OneLake, also des zentralen Speichers in Microsoft Fabric, der dann als Wissensquelle für ein Chatmodell dient. Dabei wird versucht, strukturierten Tabelleninhalt so aufzubereiten, dass er von einem Sprachmodell interpretiert und in einem Konversationsverlauf verwendet werden kann. Dieses Vorgehen kann in einfachen Fällen funktionieren – etwa bei beschreibenden Analysen („Wie hoch war der Umsatz im Januar?“) – verliert aber schnell an Tiefe, wenn es um mehrstufige Logiken, kontextabhängige Metriken oder unternehmensspezifische Kennzahlen geht. Hier fehlt es an Grounding – also an einer verlässlichen und kontrollierten Verbindung zwischen Modell und Daten. 

Wie Azure AI Foundry & Microsoft Fabric Data Agents Sprachabfragen ermöglichen 

Mit der Einführung der Azure AI Foundry Agents hebt Microsoft die Sprachverarbeitung auf ein neues Level.

Anwender können dort sogenannte Orchestratoren bauen – das sind agentengestützte Chat-Anwendungen, die durch Large Language Models angetrieben werden. Das Besondere: Im Preview-Modus besteht nun die Möglichkeit, Microsoft Fabric Data Agents als Grounding-Komponente einzubinden. Das heißt konkret: Ein Agent kann direkt mit Fabric verbunden werden, um semantisch aufbereitete Daten zu interpretieren und in natürlicher Sprache auszugeben – stets abgesichert durch die Originaldaten im Lakehouse oder Warehouse. 

Die Konfiguration erfolgt über eine grafische Oberfläche. Nach Auswahl des gewünschten Sprachmodells – etwa GPT-4 – kann ein Agent erstellt werden, der Microsoft Fabric Data Agents referenziert. Die Auswahl eines existierenden Semantic Models innerhalb von Fabric, beispielsweise ein Power BI Dataset mit Beziehungen, Measures und Business-Logik, ermöglicht es dem Sprachmodell, nicht nur auf Rohdaten, sondern auf semantisch definierte Informationen zuzugreifen. Der große Vorteil: Man muss dem Modell keine Tabellenstruktur erklären – es versteht automatisch, was ein Umsatz ist, welche Kennzahlen im Datenmodell definiert sind und wie diese zueinander in Beziehung stehen. 

Was ist ein Microsoft Fabric Data Agent? 

Ein Microsoft Fabric Data Agent ist eine Schnittstelle, die Large Language Models einen sicheren, semantischen Zugriff auf Unternehmensdaten erlaubt und eine zentrale Neuerung im Ökosystem von Microsoft Fabric. Es handelt sich dabei um Komponenten, die den Zugriff auf semantische Datenmodelle aus Fabric für generative KI-Anwendungen ermöglichen. Technisch gesehen bilden sie eine Abstraktionsschicht über dem Datenmodell. Sie stellen eine standardisierte Schnittstelle bereit, über die Large Language Models kontrolliert auf KPIs, Measures, Tabellenbeziehungen und beschreibende Metadaten zugreifen können. 

Voraussetzungen für die Nutzung:

  • Das zugrundeliegende Modell muss in einem Workspace mit F64-Kapazität liegen – also einer Premium Fabric-Kapazität, die ausreichend Rechenleistung für KI-Prozesse bereitstellt. 
  • Es muss ein Semantic Model vorliegen, das mit Measures, Hierarchien und Beziehungen angereichert ist. 
  • Das Modell sollte in einem veröffentlichten Zustand sein, sodass es von außen über den Agent adressierbar ist. 
  • Zugriff und Berechtigungen müssen über Azure AD gesteuert werden, um die Vertraulichkeit und Integrität der Daten sicherzustellen. 

Im Hintergrund übernimmt der Fabric Data Agent die Übersetzung zwischen natürlicher Sprache und strukturierten Abfragen. Das Modell formuliert intern DAX- oder SQL-Queries, wertet diese über das Semantic Model aus und liefert das Ergebnis samt Interpretation zurück. Der Nutzer merkt davon nichts – er erhält einfach eine präzise Antwort in Sprache oder Text, basierend auf den aktuellen Unternehmensdaten. 

Sprachbasierte Datenanalyse in der Wirtschaftsprüfung

Ein besonders vielversprechender Anwendungsfall liegt im Bereich der Wirtschaftsprüfung. Hier werden jährlich tausende Seiten an Daten gesichtet, ausgewertet und in strukturierte Gutachten überführt – ein Prozess, der bisher von manuellem Aufwand, Medienbrüchen und Interpretationsspielräumen geprägt ist. Durch den Einsatz von Azure AI Foundry Agents in Verbindung mit Fabric Data Agents ergibt sich nun die Möglichkeit, diesen Prozess zu automatisieren – und zwar vollständig. 

Mit der natürlichen Sprachabfrage über Microsoft Fabric formuliert der Prüfer eine einfache Eingabe wie: „Analysiere die Entwicklung der Verbindlichkeiten im Vergleich zum Vorjahr unter Berücksichtigung der Zahlungsziele.“ Der Agent greift über das semantische Datenmodell auf die zugrundeliegenden Finanzdaten zu, führt die Berechnungen durch, stellt Abweichungen fest, bewertet Auffälligkeiten und formuliert automatisch eine gutachterliche Einschätzung in Textform. 

Noch spannender wird es, wenn diese Funktion in bestehende Prüfungsplattformen eingebettet wird. Ein KI-gesteuerter Prüfbericht kann auf Knopfdruck erstellt werden – inklusive Diagrammen, Tabellen, Textbausteinen und Empfehlungen. Dabei ist der Prozess jederzeit nachvollziehbar, da der Agent seine Quelle dokumentiert und jeder Schritt auditierbar ist. Auf diese Weise entsteht eine hybride Form der Gutachtenerstellung: menschlich kontrolliert, aber maschinell vorbereitet und beschleunigt. 

Die Vorteile der natürlichen Sprache in der Datenanalyse 

1. Intuitive Bedienung: Fachabteilungen analysieren Daten selbstständig – ohne BI-Abteilungen.

2. Prozessautomatisierung: Analyse-Flows werden dialogisch gesteuert. Die KI fragt nach, ergänzt und interpretiert. Das spart Zeit, reduziert Fehler und erhöht die Transparenz von Entscheidungsprozessen. 

3. Demokratisierung der Daten: Jeder Mitarbeitende – vom Controlling bis zum Management – erhält Zugriff auf relevante KPIs, unabhängig von Technikkenntnissen.

4. Erhöhte Transparenz: Jeder Schritt des Analyseprozesses ist dokumentiert und auditierbar.

Fazit: Die Zukunft der Datenanalyse ist kommunikativ

Die Kombination aus Azure AI Foundry und Microsoft Fabric Data Agents revolutioniert die Datenanalyse!

Was bisher nur mit technischen Spezialkenntnissen möglich war, wird nun jedem Mitarbeitenden zugänglich – per Sprache. Gerade in der Wirtschaftsprüfung zeigt sich das Potenzial: präzisere, schnellere und nachvollziehbare Ergebnisse. Besonders im Bereich der Wirtschaftsprüfung zeigt sich das enorme Potenzial dieser Technologie: Gutachten, Analysen und Prüfberichte können nicht nur beschleunigt, sondern vollständig automatisiert werden – bei gleichzeitig erhöhter Nachvollziehbarkeit und Qualität. Die Zukunft der Datenanalyse ist nicht mehr rein technisch – sie ist kommunikativ. Und sie beginnt jetzt. 

Diesen Beitrag teilen:

Ihre Ansprechpartnerin

    Laura Krüger, Team Manager Sales