Data Quality
Die Qualität von Daten wertorientiert Messen, steuern und verbessern
Die Qualität von Daten wertorientiert Messen, steuern und verbessern
Im Zuge der Digitalisierung stehen Organisationen heutzutage sehr umfangreiche und immer weiter wachsende Mengen an Daten zur Verfügung (Stichwort: „Big Data“). Allerdings zeigt die Empirie, dass die analysierten und genutzten Daten häufig durch eine geringe Datenqualität charakterisiert sind – selbst in unternehmensinternen Kundendatenbanken sind durchschnittlich ca. 30% der gespeicherten Datenwerte nicht korrekt. Auf diese Weise entstehen bspw. für ein durchschnittliches amerikanisches Unternehmen jährlich Mehrkosten in Höhe von 15 Millionen Dollar. Mangelnde Datenqualität stellt allerdings nicht nur in Unternehmen ein großes Problem dar – auch in Politik und Gesellschaft steigt in Zeiten von „Fake News“ der Bedarf an zuverlässigen Informationen. Deshalb werden quantitative Methoden zur Messung, Steuerung und Verbesserung der Datenqualität benötigt.
Besonders kritisch wirkt sich diese Problematik im Zeitalter der Künstlichen Intelligenz (KI) aus, in dem mangelhafte Datenqualität unmittelbar zu Unsicherheit führt. Werden diese zugrundeliegenden Unsicherheiten bei KI-Prognosen ignoriert – etwa indem fehlende Werte schlicht durch Durchschnittswerte ersetzt werden –, geben KI-Systeme oft übermäßig selbstsichere und mitunter inkorrekte Empfehlungen ab. Für menschliche Entscheidungsträger in Mensch-KI-Teams birgt dies enorme Risiken: Es entsteht eine trügerische Illusion von Sicherheit, die zu unangebrachtem Vertrauen (Overreliance) und potenziell schwerwiegenden Fehlentscheidungen führen kann. Um das transformative Potenzial von KI verantwortungsvoll und vertrauenswürdig nutzbar zu machen, ist es daher essenziell, Unsicherheiten aus Datenqualitätsdefekten quantitativ zu erfassen, sie transparent abzubilden und den Nutzern offenzulegen.
#Datenqualität #Data Quality #Fake News
Projekte