Klarheit statt KI-Chaos – Warum Ihre Datenstrategie den Unterschied macht (1/3)

In dieser dreiteiligen Artikel-Serie beleuchten wir, wie Unternehmen ihre Datenlandschaft fit für Künstliche Intelligenz machen können, um in unsicheren Zeiten handlungsfähig zu bleiben. Unsere Serie richtet sich an Vorstände, Chief Data Officer (CDOs) sowie IT- und Strategie-Verantwortliche, die vor der Aufgabe stehen, ihre Organisation KI-ready aufzustellen. Jede der drei Folgen arbeitet sich an einer spezifischen These ab und liefert Einordnung: von der Lücke zwischen KI-Euphorie und Daten-Realität, über die notwendige Modernisierung der Datenarchitektur, bis hin zu Kulturwandel und neuen organisationalen Experimentierformaten wie einer Data Lounge.

Teil 1: Datenchaos vs. KI-Vision – Warum ohne Datenfundament keine KI-Zukunft

Trotz des KI-Booms wird die KI-Transformation vieler Unternehmen wirkungslos bleiben, wenn nicht gleichzeitig die Datenbasis radikal erneuert wird. Wer KI lediglich als Add-on nutzt, ohne seine Datenstrategie grundlegend anzupassen, riskiert teure Fehlschläge – KI ohne saubere Daten ist wie ein Motor ohne Strom.

KI-Euphorie und die harte Wirklichkeit

Kaum ein Top-Management-Thema erfährt derzeit so viel Aufmerksamkeit wie KI. Nahezu jedes große Unternehmen investiert inzwischen in KI-Piloten oder generative KI – doch die Resultate bleiben oft hinter den Erwartungen zurück. Laut McKinsey nutzen fast 80 % der Unternehmen generative KI, doch etwa ebenso viele sehen bisher keinen spürbaren Geschäftserfolg dadurch. Nur rund 1 % der befragten Firmenlenker stufen ihr Unternehmen als wirklich KI-reif ein. Diesen Widerspruch nennt McKinsey das „GenAI-Paradox“ – KI ist überall eingeführt, aber ein messbarer Mehrwert bleibt aus (McKinsey, 2024: The State of AI in 2024).

Woran liegt diese Diskrepanz? Ein entscheidender Grund: KI wird vielerorts als isoliertes Tool „oben drauf“ gesetzt, statt tief in Prozesse und Entscheidungen integriert. Heute wird KI meist nur angeflanscht – nicht wirklich mit dem Kern des Geschäfts verzahnt. Um echten Impact zu erzielen, muss sie Teil des Kernprozesses werden, statt bloß Beifahrer im alten Workflow zu bleiben. Mit anderen Worten: Solange KI-Projekte losgelöst von einer umfassenden Unternehmens- und Datenstrategie laufen, bleibt ihr Effekt begrenzt.

Besonders die Daten zeigen sich dabei als Achillesferse. Zahlreiche KI-Initiativen scheitern nicht an der Algorithmus-Technik, sondern an der unzureichenden Datenbasis. Studien beziffern die durchschnittliche Scheiternquote von KI-Projekten auf über 80 % – etwa doppelt so hoch wie bei klassischen IT-Vorhaben (Informatica, 2024: Why Most AI Projects Fail).
Gartner fand heraus, dass im Schnitt nur 48 % aller KI-Prototypen den Sprung in den Produktivbetrieb schaffen (ebd.). Als Hauptursachen nennen Unternehmen mangelhafte Datenqualität und fehlende Verfügbarkeit relevanter Daten. Gartner prognostiziert außerdem, dass bis Ende 2025 mindestens 30 % aller generativen KI-Piloten nach der Proof-of-Concept-Phase abgebrochen werden – aufgrund schlechter Daten, unzureichender Risikokontrollen oder unklarem Geschäftsnutzen (ebd.).

Kurz: Vielen Firmen fehlt das Daten-Fundament, auf dem KI-Lösungen tragfähig aufbauen könnten.

Daten: viel vorhanden, wenig nutzbar

Paradox ist dabei, dass wir im Zeitalter der Datenflut leben. Unternehmen speichern heute mehr Daten denn je – doch KI-bereite Daten sind rar. In einer aktuellen CDO-Befragung nannten 43 % der Datenverantwortlichen Datenqualität und -Bereitheit als größte Hindernisse für KI, gleichauf mit fehlender technischer Reife (Informatica, 2024: [ebd.]). In Umfragen wird häufig „Datenmangel“ als Barriere genannt – und damit ist nicht absolute Datenarmut gemeint, sondern das Fehlen von AI-ready Data. Die vorhandenen Daten liegen vielfach in Silos, sind unstrukturiert oder nicht schnell genug verfügbar, um von KI-Systemen effizient genutzt zu werden.

Dabei könnten moderne KI-Modelle theoretisch viel mehr Wissen ausschöpfen: Bislang nutzten Unternehmen hauptsächlich strukturierte Daten – Datenbanken, Tabellen – was nur etwa 10 % des Datenvolumens ausmacht. Die restlichen 90 % sind unstrukturiert (Dokumente, E-Mails, Bilder, Texte) und blieben oft ungenutzt (McKinsey, 2024, Charting a path to the data- and AI-driven enterprise of 2030 ).
Generative KI wie Large Language Models eröffnet nun den Zugang zu diesen unstrukturierten Schätzen. Doch je breiter die Datenbasis, desto größer die Herausforderung, sie geordnet und kontextreich bereitzustellen. Ohne passende Infrastruktur droht Chaos: KI-Systeme könnten auf veraltete, falsche oder unautorisierte Informationen zugreifen – und folglich halluzinieren oder inkorrekte Ergebnisse liefern.

Microsoft bringt es auf den Punkt:

„There is no good AI without a solid, curated data estate.“
(Delphine Clement, Microsoft, 2024: Transforming our data culture with AI-ready data

 

KI-Tools wie Microsofts Copilot sind immer nur so gut wie die Daten, die sie speisen – falsche oder unvollständige Daten führen zu falschen Antworten.

Vom Risikofaktor zum Erfolgsfaktor

Genau wegen der kritischen Rolle der Daten ist die Datenstrategie Chefsache. Wenn KI das „Gehirn“ der digitalen Transformation ist, dann sind Daten das Blut, das dieses Gehirn nährt. Führungskräfte müssen erkennen, dass KI-Erfolg weniger von glänzenden Algorithmen abhängt, sondern von der oft unscheinbaren Vorarbeit im Daten-Fundament.

Jede KI-Initiative sollte daher immer auch ein Datenprojekt sein – angefangen bei der Frage: Haben wir die richtigen, vertrauenswürdigen Daten verfügbar, um diesen KI-Anwendungsfall zum Fliegen zu bringen?

Die aktuelle Orientierungslosigkeit rührt auch daher, dass viele Entscheider:innen den Zustand ihrer Datenlandschaft überschätzen. Traditionelle Datenmanagement-Praktiken – jahrelang gültig für Business Intelligence – reichen in der KI-Ära nicht mehr aus. AI-ready Data zu schaffen erfordert ein Umdenken und neue Investitionen. Immerhin planen laut Informatica über 75 % der Unternehmen, in den nächsten Jahren verstärkt in KI-taugliches Datenmanagement zu investieren (Informatica, 2024: [ebd.]).

Doch wo anfangen? In Teil 2 widmen wir uns den technologischen Weichenstellungen: Welche Architekturen, Konzepte und Tools machen Daten „KI-ready“ – vom Semantic Layer bis zu skalierbaren Integrationsplattformen.