Datensilos

Pünktlich zu Halloween neigte sich das Horror-Szenario endlich seinem Ende zu.
Ausgerechnet den 31. Oktober hatte man sich ausgesucht, um den Flughafen Berlin Brandenburg mit neun Jahren Verzögerung und fünf Milliarden Mehrkosten schlussendlich zu eröffnen.
Ob die Polit-Elite in Verkleidung zur Eröffnung erschienen ist, ist nicht überliefert. Gut dokumentiert hingegen sind die zahlreichen Fauxpas, die im Laufe der Errichtung stattgefunden haben.
Und zumindest aus einem dieser zahlreichen Fehler lässt sich grundsätzlich etwas lernen: Datensilos werden irgendwann sehr teuer.
Die Planer, Bauträger und ausführenden Gewerke auf der Baustelle in Berlin-Schönefeld haben alle mit den unterschiedlichsten Planungs-Tools und Softwareprodukten gearbeitet. Und jedes davon hatte sein eigenes Datenformat. Und so begab es sich beispielsweise, dass diese „Dateninkonsistenzen“, wie sie in späteren Berichten genannt wurden, dazu führten, dass der Elektriker andere Pläne hatte als der Brandschutzplaner.
Dadurch wurden Rohre, Leitungen und Kabel dort verlegt, wo sie gar nicht hingehörten.
Einen technischen Leiter, der die Datenhomogenisierung im Blick hatte, gab es nicht. Und selbst wenn es ihn gegeben hätte, so hätte er kaum etwas zu homogenisieren gehabt, da sich die unterschiedlichen Softwarehersteller bis dato noch nicht auf einen Datenstandard geeinigt hatten.
Der GAU am Bau ist sicherlich ein Desaster, das seinesgleichen sucht. Ein Problem ist es jedoch für viele.
80 Prozent aller Unternehmen weltweit haben laut einer Studie der Unternehmensberatung Accenture mit Datensilos zu kämpfen.
Großkonzerne nutzen zwischen 200 und 400 verschiedene Softwareprodukte. Und auch KMUs sind, je nach Branche, mit einer gut zweistelligen Anzahl an Software-Tools ausgestattet. So gut wie keinem Unternehmen gelingt es, die Daten zentral zusammenzuführen und sinnvoll zu verwerten.
Im Gegenteil: Jedes Jahr kommen neue Softwareprodukte hinzu, erhöhen bei 69 Prozent der Unternehmen die Komplexität und sorgen für ein hohes Maß an Datenineffizienz.
Das erschütternde Ergebnis: 70 Prozent aller Daten bleiben ungenutzt.
In einer digitalisierten Welt, in der Daten die neue Währung sind, ein Dilemma. In drei von vier Unternehmen behindern Datensilos die interne Zusammenarbeit. 74 Prozent der Führungskräfte betrachten dies als Wettbewerbsnachteil. Doch das ist nur die Spitze des Eisbergs. Unter der Oberfläche lauert die eigentliche Gefahr.
Die Unternehmensberatung Gartner prognostiziert, dass 80 Prozent aller KI-Implementierungen bei Unternehmen scheitern werden, wenn diese nicht im Vorfeld eine Datenstrategie entwickeln und eine Bereinigung ihrer Daten herbeiführen.
Bei 57 Prozent der Unternehmen führt das – einer Studie von PwC zufolge – dazu, dass sie mit ihren KI-Bemühungen feststecken und nicht skalieren können.
Um nicht ganz den Anschluss zu verlieren, führt dieses Problem bei Unternehmen zu einem halbherzigen Einsatz von künstlicher Intelligenz. Nach dem Motto: Wir probieren das jetzt mal in einem Bereich aus und schauen uns dann an, welchen Effekt der Einsatz von KI für uns hat.
Im Regelfall führt das zu der Erkenntnis, dass der Einsatz künstlicher Intelligenz nur in Maßen Vorteile bietet.
Hinter diesem Vorgehen versteckt sich nicht nur das Daten-Dilemma, sondern oftmals auch ein mangelndes Verständnis für die Technologie.
Die Betonung bei KI liegt auf „Intelligenz“. Diese kann man nicht wie eine neue Software im Unternehmen einführen, sondern muss sie aufbauen. Eine Intelligenz lebt von der Verbindung und Vernetzung, den Schnittstellen in alle Bereiche des Unternehmens.
Wie neuronale Verbindungen im Gehirn wird dieses erst intelligent, wenn es über möglichst viele Knotenpunkte verfügt.
Ein isolierter Einsatz von KI kann somit nie sein volles Potenzial entfalten. Die Nutzung von künstlicher Intelligenz kann schrittweise erfolgen, muss aber immer einen ganzheitlichen Ansatz verfolgen.
Die gute Nachricht: Datensilos lassen sich mit technologischen Lösungen aufbrechen.
Meist sind sie kein „technisches Problem“, sondern der Ausdruck einer mangelnden Datenkultur.
Um Datensilos zu beseitigen, braucht es zunächst eine klare Datenstrategie mit zentraler Governance, die Verantwortlichkeiten, Standards und Datenqualität definiert.
Anschließend müssen die Daten über zentrale Plattformen wie Data Lakehouses oder Data Fabrics technisch konsolidiert und harmonisiert werden.
Abschließend sorgt ein konsequentes Master Data Management sowie automatisierte Datenintegration dafür, dass Daten bereinigt, aktuell und KI-fähig zur Verfügung stehen.
Editors: Thomas Satori | Mathias Keswani


Catchy Headline zum Podcast oder Seminar
Nunc sed faucibus bibendum feugiat sed interdum. Ipsum egestas condimentum mi massa. In tincidunt pharetra consectetur sed duis facilisis metus. Etiam egestas in nec sed et. Quis lobortis at sit dictum eget nibh tortor commodo cursus.