Podcast
Podcaster
Beschreibung
vor 2 Wochen
Sind schlechte Daten wirklich Ihr Problem – oder nur die
bequemste Ausrede?
Ihr Unternehmen sitzt auf einem Datenschatz – warum nutzen Sie
ihn nicht?
…darüber sprechen wir in diesem Interview.
Schlechte Datenqualität gilt in vielen Unternehmen als
Haupthindernis für KI-Projekte – doch ist das wirklich so, oder
ist es nur die bequemste Ausrede, um nicht zu starten?
In dieser Episode des #KIundTECH Podcast beleuchtet
Benjamin Aunkofer, Gründer von DATANOMIQ, im
Interview mit Holger Winkler die drei größten Fehler im Umgang
mit Datenqualität und zeigt praxisnah, wie Unternehmen diese
gezielt vermeiden können.
Das Gespräch liefert konkrete Handlungsempfehlungen für alle, die
mit Daten arbeiten und den nächsten Schritt in Richtung
datengetriebenes Unternehmen gehen wollen.
Warum sollten Sie dieses Interview nicht verpassen?
Sie erfahren, warum "schlechte Daten" häufig eine Ausrede ist
und wie Sie trotzdem mit KI-Projekten starten können.
Sie verstehen, welche Rollen im Unternehmen für Datenqualität
verantwortlich sind und wie die Zuständigkeiten sinnvoll verteilt
werden.
Sie lernen den Unterschied zwischen Top-Down- und
Bottom-Up-Ansätzen bei der Datenstrategie kennen und wann welcher
Ansatz passt.
Sie bekommen einen klaren Überblick über Data Warehouse, Data
Lake und Data Lakehouse – verständlich erklärt anhand
alltagsnaher Beispiele.
Sie verstehen, warum gute Datenqualität den monetären
Unternehmenswert direkt beeinflusst und was das für Ihre
Strategie bedeutet.
Takeaways aus dem Interview:
Mut zur Lücke: Fehler 1 ist, Daten gar nicht erst zu nutzen,
weil sie vermeintlich zu schlecht sind. Datenqualität verbessert
sich erst durch die aktive Auseinandersetzung mit den Daten.
Fehler 2 ist die fehlende Verfügbarkeit von Daten. Ohne eine
geeignete Infrastruktur wie ein Data Lakehouse bleiben wertvolle
Daten ungenutzt oder gehen verloren.
Fehler 3 ist die massive Unterschätzung des Datenwerts. Gute
Datenqualität erhöht den Unternehmenswert nachweislich und ist
ein entscheidender Faktor bei Due-Diligence-Prozessen.
Process Mining ist eine Schlüsselmethodik, um Prozesse aus
Daten heraus zu rekonstruieren, Datenfehler aufzudecken und die
Datenqualität systematisch zu verbessern.
Daten aus unterschiedlichen Bereichen wie BI, Process Mining
und Data Science gehören zusammen – sie zu trennen ist ein
typischer organisatorischer Fehler.
Datenqualität lässt sich messen: Abdeckungsraten,
Anomalieerkennungen und statistische Ausreißeranalysen liefern
konkrete Indikatoren.
Das Vertrauen der Mitarbeiter in Unternehmensdaten ist ein
schneller, praktikabler Frühindikator für den tatsächlichen Stand
der Datenqualität.
#Digitalisierung #CEO #Unternehmertum
#KünstlicheIntelligenz
Über #KIundTECH – der KIundTECH Podcast:KI
& TECH in Unternehmen und Gesellschaft: Wettbewerbsvorteil
oder Sargnagel?
Was machst Du daraus?
Wir sprechen mit Anwendern und Vordenkern über Chancen, Risiken
und Auswirkungen von KI – klar, praxisnah und auf den Punkt.
Damit unsere Hörer schneller die richtigen Entscheidungen treffen
können.
Mehr erfahren: https://kiundtech.com/
Holger Winkler auf LinkedIn:
https://www.linkedin.com/in/holger-winkler/
Du möchtest einen Gast vorschlagen oder selber zu uns in die
Sendung kommen?
Alle Informationen und ein Bewerbungsformular findest du auf
unserer Webseite!
Weitere Episoden
49 Minuten
vor 1 Monat
34 Minuten
vor 1 Monat
33 Minuten
vor 2 Monaten
31 Minuten
vor 2 Monaten
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.