BInEx | Medien News zu Datenqualität, Data Governance, Business Analytics

Was macht ein Solution Architect?

Der Solution Architect nimmt eine entscheidende Rolle im Unternehmen ein. Lesen Sie, warum.

Unternehmen, die ihre Geschäftsziele und -bedarfe mit IT-Produkten, -Services, Software und Infrastruktur in Einklang bringen wollen, kommen an einem Solution Architect nicht vorbei.

Quelle: "Was macht ein Solution Architect?" (bei computerwoche.de am 05.03.2021 veröffentlicht)

Read more

  • Aufrufe: 2013

Warum Unternehmen zu wenig aus ihren Daten machen

IDC-STUDIE "DATA DRIVEN INTELLIGENCE"

Dass Daten eine wesentliche Rolle für den künftigen Geschäftserfolg spielen, ist kein Geheimnis. Auf diese Weise lassen sich neue Geschäftsmodelle entwickeln oder interne Prozesse effizienter gestalten – sofern Unternehmen ihre gesammelten Daten nutzbar auswerten. Laut aktueller IDC-Studie sind viele Firmen mit dieser Aufgabe jedoch überfordert.

Quelle: "Warum Unternehmen zu wenig aus ihren Daten machen" (bei cancom.info am 04.03.2021 veröffentlicht)

Read more

  • Aufrufe: 2127

Tools zur Unterstützung von Data Governance

Datenkataloge lösen Probleme mit Datensätzen

Information ist heutzutage der wertvollste Rohstoff und kaum ein Unternehmen arbeitet nicht mit großen Mengen an Daten. Die Analysen der Daten helfen Unternehmen dabei, bessere strategische Entscheidungen zu treffen und weiter erfolgreich am Markt zu konkurrieren. Während die Anzahl der Datensätze steigt, fällt es Unternehmen immer schwerer, die Datenmengen zu verwalten und Zuständige für konkrete Datensätze zuverlässig zu identifizieren. Hier beginnt meist die Suche nach einer dedizierten Lösung, um dieses Problem zu bewältigen.

Quelle: "Tools zur Unterstützung von Data Governance" (bei lanline.de am 01.03.2021 veröffentlicht)

Read more

  • Aufrufe: 1902

Merck ruft Digitalethik-Gremium ins Leben

Der Pharma- und Spezialchemiekonzern Merck hat ein Digitalethik-Gremium eingerichtet.

Aufgabe des "Merck Digital Ethics Advisory Panel" ist es, im Rahmen der immer stärker aufkommenden digitalen Geschäftsmodelle die drei Unternehmensbereiche bei digitalethischen Fragestellungen zu beraten und ethische Handlungsempfehlung für alle Geschäftsprozesse zu geben, wie der Konzern mitteilte. Dabei gehe es unter anderem um die Nutzung von Daten, Algorithmen und neuen digitalen Technologien.

Quelle: "Merck ruft Digitalethik-Gremium ins Leben" (bei finanzen.net am 08.01.2021 veröffentlicht)

Read more

  • Aufrufe: 1931

Die richtige Datengrundlage - Eine Frage der Qualität

Die Datenqualität spielt für KI-Projekte eine entscheidende Rolle: Je besser die Beschaffenheit der Basis, desto belastbarer fallen die die Ergebnisse aus. Eine Gleichung, die bereits für die initialen Trainingsdaten gilt.

Künstliche Intelligenz, Machine Learning, Big Data – all diese Technologien basieren auf Daten. Je größer die zugrunde gelegte Datenbasis, umso mehr Lern- und Analysefähigkeit stecken darin, so die Auffassung. Das ist jedoch zu kurz gedacht. Ein gemeinsames Forschungsprojekt der Experten für Geschäftspartnerdaten bei Uniserv und dem spanischen KI-Startup Recogn.ai zeigt, dass nicht die Datenmenge allein, sondern auch die Datenqualität ausschlaggebend für den Erfolg von KI-Projekten sind. Es leuchtet ein: Aus qualitativ schlechten Daten kann eine KI nur unzureichend lernen und fehlerbehaftete Schlüsse ziehen.

Quelle: "Die richtige Datengrundlage - Eine Frage der Qualität" (bei it-zoom.de am 08.01.2021 veröffentlicht)

Read more

  • Aufrufe: 2086

5 Hürden auf dem Weg zu einer erfolgreichen Data-Governance

An einer umfassenden Data-Governance-Strategie führt heute kaum noch ein Weg vorbei – da sind sich die meisten modernen Unternehmen einig. Dass viele von ihnen aber noch weit von der tatsächlichen Umsetzung entfernt sind, belegt jetzt eine Dataversity-Studie aus dem Jahr 2020. Nur zwölf Prozent der befragten Unternehmen gaben hier an, eine entsprechende Strategie bereits vollständig implementiert zu haben.

In Deutschland scheint die Lage sogar noch verheerender zu sein, denn nur vier Prozent der deutschen Unternehmen haben überhaupt umfassende Data-Governance-Regeln und -Zuständigkeiten definiert. Das Problem: Häufig werden sie mit ungeahnten Hindernissen konfrontiert, die sie bei der Umsetzung der geplanten Strategien enorm ins Straucheln bringen – das kostet sie nicht nur mehr Zeit als ursprünglich gedacht, sondern vor allem auch mehr Geld. Arjan van Staveren, der als Managing Director Major Accounts DACH bei Snowflake tätig ist, erläutert die fünf größten Hindernisse, auf die sich Unternehmen bei der dauerhaften Einführung ihrer Data-Governance vorbereiten sollten.

Quelle: "5 Hürden auf dem Weg zu einer erfolgreichen Data-Governance" (bei netzpalaver.de am 03.09.2020 veröffentlicht)

Read more

  • Aufrufe: 2310

Unternehmen können Daten nicht gewinnbringend nutzen

Nach der neuesten Studie Data to Decisions: A Rulebook to Unlock the Power of your Data von Aruba stehen Unternehmen aktuell vor der Herausforderung, einen Mehrwert aus Daten zu generieren, während ihre Systeme durch die wachsende Anforderungen unter Druck geraten.

Für den Bericht wurden mehr als 170 IT-Entscheidungsträger und Netzwerkingenieure im gesamten EMEA-Ökosystem von Aruba befragt. Die Mehrheit der Befragten ist frustriert von Defiziten im Datenmanagement. Auf die Frage nach den größten Herausforderungen antworteten 61 Prozent, dass sie „keine vollständige Kontrolle über die Daten unseres Unternehmens haben“, 51 Prozent gaben an, dass sie „nicht in der Lage sind, Daten ganzheitlich zu betrachten“ und 52 Prozent , dass sie „nicht in der Lage sind, Daten in anwendbare Erkenntnisse umzusetzen“.

Quelle: "Unternehmen können Daten nicht gewinnbringend nutzen" (bei netzpalaver.de am 23.05.2020 veröffentlicht)

Read more

  • Aufrufe: 2867

Data Governance befeuert die Digitalisierung

Mit einer umfassenden Data-Management-Initiative verbessert der Automobilzulieferer Schaeffler die Datenqualität in allen Unternehmensbereichen und treibt die digitale Transformation voran.

Knapp 90.000 Mitarbeiter, 14 Milliarden Euro Umsatz, 170 Standorte in mehr als 50 Ländern: Die Schaeffler Gruppe mit Hauptsitz im fränkischen Herzogenaurach gehört auch im internationalen Maßstab zu den großen Automobil- und Industriezulieferern. Entsprechend anspruchsvoll sind die Anforderungen an das Management der Unternehmensdaten.

Zwar ist Data Management für das Unternehmen kein neues Thema. Schon seit geraumer Zeit gibt es den Bereich Corporate Data Management, der organisatorisch in der IT aufgehängt ist. Doch hier lag der Schwerpunkt zunächst auf dem klassischen Stammdaten-Management. Weil dessen Nutzen nicht nur für die ITler klar erkennbar war, entstand die Idee, alle Daten im Unternehmen besser zu verwalten.

Quelle: "Data Governance befeuert die Digitalisierung" (bei cio.de am 07.05.2020 veröffentlicht)

Read more

Lesen Sie auch:

  • Aufrufe: 2721

Wer digitalisieren will, muss Daten übergreifend managen

Datenmanagement bei der Schaeffler Gruppe

Vernetzte Daten mit hoher Qualität ermöglichen Industrie 4.0, fortschrittliche Analysen, effiziente End-to-End-Prozesse, digitale Geschäftsmodelle, smarte Produkte und maschinelles Lernen. Der global tätige Automobil- und Industriezulieferer Schaeffler erkannte das Potenzial früh und startete vor über zehn Jahren mit einem professionellen Datenmanagement. Hierfür erhielt Schaeffler kürzlich zum zweiten Mal den „CDQ Good Practice Award“.

„Wir haben bereits im Jahr 2008 begonnen, die defragmentierten Stammdaten im ERP-System für alle Geschäftsbereiche und alle Länder verfügbar zu machen. Heute managen wir fast alle Unternehmensdaten, nicht nur die Stammdaten“, sagt Markus Rahm, Vice President Corporate Data Management bei Schaeffler. Schaeffler verfolgt dabei einen föderalen Ansatz mit einem zentralen Governance-Team und einem dezentralen Netzwerk von Datenmanagern in den einzelnen Unternehmensbereichen.

Quelle: "Wer digitalisieren will, muss Daten übergreifend managen" (bei bigdata-insider.de am 17.04.2020 veröffentlicht)

Read more

  • Aufrufe: 2682

Chef-Bankenaufseher: Miese Datenqualität ist gefährlich

In vielen Kreditinstituten können Manager keine fundierten Entscheidungen treffen, weil es ihnen an belastbaren Daten mangelt, kritisiert Andrea Enria, oberster Bankenaufseher der Europäischen Zentralbank. Er sieht die Aufsichtsräte in der Pflicht, dem Management genauer auf die Finger zu schauen.

Banken wissen zwar viel über ihre Kunden, aber mitunter wenig über ihre eigenen Prozesse und Schwachstellen. "Bei vielen Banken stellt die schlechte Datenqualität ein Problem dar", warnt Andrea Enria. Einige Institute seien nicht einmal in der Lage, ein vollständiges Bild ihrer Risikolage einschließlich Tochterfirmen und Zweigstellen zu liefern, kritisiert der Chef-Bankenaufseher der Europäischen Zentralbank (EZB) im Interview mit der "Süddeutschen Zeitung" (SZ).

Quelle: "Chef-Bankenaufseher: Miese Datenqualität ist gefährlich" (bei fondsprofessionell.de am 17.02.2020 veröffentlicht)

Read more

  • Aufrufe: 2784

5 Tipps zu stressfreien Stammdaten

Stammdaten bilden die Basis für erfolgreiche Geschäftspartnerbeziehungen – sie sind wesentlich für eine gezielte Ansprache von Geschäftspartnern und bilden das Rückgrat für Geschäfts- und Vertriebsprozesse.

Daher schätzen 95 Prozent der befragten Fach- und Führungskräfte den Wertbeitrag eines Master Data Managements (MDM) für ihr Unternehmen als hoch und erfolgskritisch ein laut der Wirtschaftsprüfungs- und Beratungsgesellschaft PwC.

Welche Vorbereitungen IT-Abteilungen dafür treffen müssen, hat Uniserv, ein spezialisierter Anbieter von Lösungen für das Management von Geschäftspartnerdaten, in 5 Tipps zusammengefasst:

Quelle: "5 Tipps zu stressfreien Stammdaten" (bei it-daily.net am 05.02.2020 veröffentlicht)

Read more

  • Aufrufe: 3614

HR-Analytics: Ethische Datennutzung schafft Vertrauen bei Swisscom AG

Interview mit Dagmar Fresenius, Head of Rewards & HR Analytics, Swisscom AG

Frau Fresenius, welche Auswirkungen hat die digitale Transformation auf HR bei der Swisscom?

Als großes modernes Telekommunikationsunternehmen arbeiten wir verstärkt mit Daten. Dabei setzen wir hauptsächlich auf Prozessautomatisierung, Data Analytics und künstliche Intelligenz. Die digitale Transformation konzentriert sich aber nicht allein auf Prozesse. Auch das Mindset innerhalb des Unternehmens muss transformiert werden. Bei der Swisscom lautet hier das Stichwort Agilität. 4.000 unserer insgesamt 18.000 Mitarbeiter sind agil organisiert – im Vergleich zu anderen Unternehmen also sehr viele. Gerade im HR-Bereich führt das zu großen Herausforderungen. Teilweise gibt es – im herkömmlichen Sinne einer hierarchischen Struktur – keine Vorgesetzten mehr. Trotzdem müssen Entscheidungsträger Vergütungs- oder HR-Entscheidungen treffen, ohne unmittelbar über die entsprechende Datenbasis zu verfügen oder auch die Nähe zu den Mitarbeitern zu haben. Deshalb ist für uns im HR auch die Automatisierung sehr wichtig. Durch die Datennutzung können wir diese Businessfragestellungen beantworten.

Quelle: "HR-Analytics: Ethische Datennutzung schafft Vertrauen bei Swisscom AG" (bei totalrewards.de am 20.01.2020 veröffentlicht)

Read more

  • Aufrufe: 3416

Schluss mit Garbage In, Garbage Out – Smart Capture für hohe Datenqualität und wertvolle Ergebnisse

Daten sind die wichtigste Währung im Zeitalter der Digitalisierung. Doch noch immer liegen laut Gartner rund 80 Prozent der Informationen in Unternehmen in unstrukturierter Form vor. Dadurch wird der Erfolg von Unternehmenssoftware gebremst – doch durch moderne Technologie lässt sich das leicht ändern.

Nicht einmal das beste ERP-System kann aus schlechten Informationen wertvolle Datenbestände zaubern. Doch diese Informationen sind kritische Erfolgsfaktoren für Unternehmen und müssen wichtige Entscheidungen fundiert vorbereiten. James Adie, Vice President EMEA Sales bei Ephesoft, gibt in der nachfolgenden Checkliste die entscheidenden Tipps, wie Unternehmen die Qualität des Inputs für ihre Unternehmenssoftware deutlich anheben können, um von den Ergebnissen optimal zu profitieren.

Auch in Zeiten von Industrie 4.0 und Internet of Things landen noch immer zahlreiche Rechnungen und andere Dokumente in Papierform auf Büroschreibtischen. Während Enterprise Content Management Systeme (ECM) eingescannte Belege zunächst nur digitalisieren und ablegen können, bietet die optische Zeichenerkennung (Optical Character Recognition / OCR) einen detaillierten Einblick in die Informationen, die sich auf den Scans befinden. Entsprechende Lösungen lesen sämtliche Inhalte des jeweiligen Dokuments aus und speichern diese ab.

Quelle: "Schluss mit Garbage In, Garbage Out – Smart Capture für hohe Datenqualität und wertvolle Ergebnisse" (bei de.eas-mag.digital am 20.01.2020 veröffentlicht)

Read more

  • Aufrufe: 3351

Warum datengesteuerte Unternehmen einen Datenkatalog brauchen

Unternehmen brauchen bessere Tools, um den Umgang mit Datenquellen zu erlernen und mit ihnen zusammenarbeiten zu können. Datenkataloge mit bahnbrechenden maschinellen Lernfunktionen können Ihnen dabei helfen.

Relationale Datenbanken, Datenseen und NoSQL-Datenspeicher sind stark im Einsetzen, Aktualisieren, Abfragen, Suchen und Verarbeiten von Daten. Aber der ironische Aspekt der Arbeit mit Datenmanagement-Plattformen ist, dass sie normalerweise keine robusten Tools oder Benutzeroberflächen zur Verfügung stellen, um das, was sich in ihnen befindet, zu teilen. Sie sind eher wie Datensilos. Sie wissen, dass sich darin wertvolle Daten befinden, aber Sie haben keine einfache Möglichkeit, sie von außen zu beurteilen.

Die Herausforderung im Unternehmen besteht darin, mit einer Vielzahl von Datendepots umzugehen: mehrere Unternehmensdatenbanken, kleinere Datenspeicher, Rechenzentren, Clouds, Anwendungen, BI-Tools, APIs, Tabellenkalkulationen und offene Datenquellen.

Quelle: "Warum datengesteuerte Unternehmen einen Datenkatalog brauchen" (bei computerwelt.at am 15.01.2020 veröffentlicht)

Read more

  • Aufrufe: 3618

Berufsbild im Wandel: der Chief Data Officer

Technisches Know-how und Führungskompetenzen gekoppelt an eine Open Mind-Haltung machen heute einen erfolgreichen CDO aus. Doch wird das auch morgen so sein? Wie sich diese und andere Positionen des Managements verändern werden.

Von der fortschreitenden digitalen Transformation von Unternehmen sind Mitarbeiter am unmittelbarsten betroffen. Aus neuen technischen Möglichkeiten ergeben sich veränderte Anforderungen, sowohl an ganze Abteilungen als auch Einzelpersonen. Als Steuerungs-und Kontrollorgan ist die Führungsebene Initiator und Taktgeber des digitalen Wandels im Unternehmen. Wie sich das Tätigkeitsfeld des Chief Data Officer (nicht zu verwechseln mit dem Chief Digital Officer – ebenfalls CDO abgekürzt) zukünftig verändern wird und worauf Unternehmen besonders achten sollten, haben wir im Nachfolgenden zusammengefasst.

Quelle: "Berufsbild im Wandel: der Chief Data Officer" (bei industry-of-things.de am 19.12.2019 veröffentlicht)

Read more

  • Aufrufe: 3027

BARC-Studie zu BI-Trends: Datenqualität ist der größte Erfolgsfaktor

Das Business Application Research Center (BARC) hat sich im Rahmen des „BI Trend Monitors 2020“ mit der Frage befasst, welche Trends im Bereich Business Intelligence aktuell sind. Dabei zeigte sich auch, dass Datenqualität ein wesentlicher Erfolgsfaktor ist.

Für die Studie befragte das BARC insgesamt 2.865 BI-Nutzer. Als wichtigste Trends kristallisierten sich demnach Stammdaten- und Qualitätsmanagement sowie Data Discovery heraus – diese Ergebnisse entsprechen damit der Vorjahresausgabe des BI Trend Monitors.

„Die BI-Anwender sehen den Wert der Daten. Das bedeutet, dass für sie Themen wie Datenqualität, Data Governance und Datenstrategie in den Mittelpunkt rücken“, meint Dr. Carsten Bange, Gründer und Geschäftsführer des BARC. „Im Grunde haben sie erkannt, dass die schönste Aufbereitung von Daten in Dashboards oder auch die Bereitstellung von Analysefunktionalität nichts wert ist, wenn sie nicht die richtigen Daten erhalten oder die Qualität nicht stimmt“, fügt er hinzu.

Quelle: "BARC-Studie zu BI-Trends: Datenqualität ist der größte Erfolgsfaktor" (bei bigdata-insider.de am 03.12.2019 veröffentlicht)

Read more

  • Aufrufe: 3292

Data Governance: Die Guideline der Digitalisierung

Daten sind der Rohstoff des 21. Jahrhunderts. Damit Data Scientists diesen Rohstoff analysieren, interpretieren und strategisch wertvolle Entscheidungen treffen können, ist eine entsprechende Data Governance nötig. Die WU Executive Academy startet dazu nun ein Kursprogramm.

Ein neues Schlagwort ist seit kurzem in aller Munde, wenn es um Digitalisierung, Nutzung von Daten und Informationsmanagement im Unternehmen geht: Data Governance. Das Thema wurde kürzlich sogar zu einem der wichtigsten Business-Intelligence-Trends des Jahres 2020 gekürt.

Data Governance bildet einen Rahmen für strategisches Informationsmanagement im Unternehmen und gibt die Regeln vor, wie mit den Daten umgegangen wird. Damit trägt sie wesentlich zur Steigerung der Datenqualität bei, hilft bei der Erfüllung gesetzlicher Vorgaben sowie Compliance-Richtlinien und ist die Voraussetzung für gutes Risikomanagement.

Quelle: "Data Governance: Die Guideline der Digitalisierung" (bei trend.at am 02.12.2019 veröffentlicht)

Read more

  • Aufrufe: 3854

DATENQUALITÄT: DIE ACHILLESFERSE DER DIGITALISIERUNG SCHÜTZEN

In einem digitalisierten Prozess beeinflusst die Qualität der Daten direkt die Prozesseffizienz und den Unternehmenserfolg. Denn der Mensch als Korrektiv entfällt. Experten mahnen daher dringend, die Datenqualität zu verbessern. Aber rechnet sich das wirklich und wenn ja, wo anfangen?

Die Achillesferse für eine effiziente Digitalisierung liegt nicht in der Technik. Der entscheidende Schwachpunkt sind die Daten. Schleicht sich im digitalisierten Prozess eine Null zu viel ein oder fehlen wichtige Angaben, hat der gesunde Menschenverstand keine Chance mehr einzugreifen. Diese Schwäche lässt sich nur mit einem stringenten Fitnessprogramm für Daten beseitigen.

Der ERP-Hersteller proALPHA hat 10 häufige Fragen und Antworten über Data-Quality- und Stammdatenmanagement zusammengefasst:

Quelle: "DATENQUALITÄT: DIE ACHILLESFERSE DER DIGITALISIERUNG SCHÜTZEN" (bei it-daily.net am 30.10.2019 veröffentlicht)

Read more

  • Aufrufe: 3286

Wir brauchen Standardisierung und Datenqualität

In der vom Bun­des­for­schungs­minis­terium (BMBF) initiierten Medizininformatik-Initiative (MII) arbeiten die in vier großen Konsortien zusammengeschlossenen Standorte der Universitätsmedizin zusammen mit Partnern aus Forschung und Industrie seit dem vergangenen Jahr daran, Forschung und Versorgung durch innovative IT-Lösungen zu verbessern und dies anhand von konkreten Anwendungsbeispielen zu demonstrieren. Ziel ist es, den Austausch und die Nutzung von Daten aus der Versorgung sowie aus klinischer und biomedizinischer For­schung über die Grenzen von Institutionen und Standorten hin­weg durch den Aufbau von Datenintegrationszentren (DIZ) zu ermöglichen.

5 Fragen an Sebastian C. Semler, Geschäftsführer der TMF – Technologie- und Methoden­plattform für die vernetzte medizinische Forschung, zum Stand der MII.

Quelle: "Wir brauchen Standardisierung und Datenqualität" (bei aerzteblatt.de am 17.10.2019 veröffentlicht)

Read more

  • Aufrufe: 3322

Data Analytics sichert Banken Wettbewerbsvorteile

Data Analytics verheißt in vielen Branchen große Potenziale. Vor allem im Banking sind Daten ein wichtiger Faktor im harten Wettbewerb. Doch bei der Einführung entsprechender Lösungen ist Eile geboten.

Nahezu jeder Aspekt des modernen Lebens lässt sich mittlerweile über mehr oder weniger einfach verfügbare Daten und Methoden analysieren. Insbesondere Banken und Sparkassen sitzen mitunter auf gigantischen Datenschätzen, die zum Beispiel für eine zielgerichtete individuelle Kundenansprache oder maßgeschneiderte Produktangebote genutzt werden wollen. Auf die anfängliche Euphorie folgt am Ende der ersten Gehversuche jedoch oft die große Ernüchterung, weil aufwändige Analysen ohne konkreten Mehrwert verpuffen.

Quelle: "Data Analytics sichert Banken Wettbewerbsvorteile" (bei springerprofessional.de am 17.10.2019 veröffentlicht)

Read more

  • Aufrufe: 3183

Wie hohe Datenqualität die elektronische Rechnungsverarbeitung befeuert

Als Unternehmen ist es gut, Freiräume zu schaffen, um sich auf komplexe Sachverhalte sowie eigene Stärken fokussieren zu können. Das gelingt oft besser, wenn administrative Tätigkeiten wie Rechnungserfassung und -prüfung an externe Dienstleister ausgelagert werden.

Kein Wunder, dass Outsourcing in Deutschland nach wie vor gefragt ist: Laut einer Axxcon-Studie stellt beinahe die Hälfte der teilnehmenden Entscheider (47 Prozent) eine Qualitätsverbesserung bei ausgelagerten IT-Funktionen fest. Auch die REINZ-Dichtungs-GmbH, Spezialist für Dichtungstechnologie, setzt seit 2018 bei der Erfassung und Validierung der Eingangsrechnungen auf Outsourcing. Das Unternehmen erhält seitdem alle Rechnungen digital und verifiziert ins eigene SAP-Eingangsbuch zur weiteren Freigabe oder Buchung, und zwar innerhalb von maximal 48 Stunden.

Quelle: "Wie hohe Datenqualität die elektronische Rechnungsverarbeitung befeuert" (bei e-3.de am 14.10.2019 veröffentlicht)

Read more

  • Aufrufe: 2602

Metadatenmanagement hilft Banken bei der Systemmigration

Systemmigration ist ein Thema, das bei Banken ganz oben auf der Agenda steht. Allerdings können bei der Umsetzung Kosten und Aufwand schnell aus dem Ruder laufen. Warum Metadatenmanagement eine Lösung ist, erläutert IT-Experte Carsten Lux.

Angesichts der Niedrigzinsen und sinkender Erträge ringen Banken um jede Form von Kostensenkung und Effizienzgewinn. In der Folge stehen Fusionen an der Tagesordnung, nicht nur bei großen Konzernen, sondern auch bei Sparkassen und Volksbanken. Ausgebremst werden die Institute nicht selten durch ihre IT-Landschaft, die diesen Anforderungen nicht gewachsen ist. Die Legacy-Systeme sind schlichtweg zu kostenintensiv, komplex und unflexibel. Um am dynamischen Finanzmarkt weiter bestehen zu können, müssen die Altsysteme durch eine moderne konzernübergreifende IT-Plattform abgelöst und sämtliche Daten in das neue System übertragen werden.

Quelle: "Metadatenmanagement hilft Banken bei der Systemmigration" (bei springerprofessional.de am 10.10.2019 veröffentlicht)

Read more

  • Aufrufe: 2590

Datenkatalog: Mit Struktur zum effizienten Datenmanagement

Noch nie war ein effizientes Datenmanagement so wichtig für Unternehmen wie heute bei Digitalisierungsprojekten. Datenanalysen bilden die Grundlage für Reporting und wichtige Geschäftsentscheidungen. Hierbei gilt: Je verlässlicher und lückenloser die Informationen, desto bessere Entscheidungen können getroffen werden.

Voraussetzung für den Datenkatalog ist, dass die beteiligten Mitarbeiter über die Verfügbarkeit, Qualität, Vollständigkeit und Herkunft der Datenbestände genau Bescheid wissen. Einfacher gesagt, als getan, denn das Management der Daten war auch noch nie so komplex und schwierig. Einerseits wächst die Datenmenge rasant, andererseits erfordern neue Anwendungsfelder wie Big Data, Cloud-Hosting oder Self-Service-Analytics den Einsatz neuer Technologien. Hinzu kommen behördliche Regulierungen, die strenge Vorgaben für die Handhabung von Datensätzen festlegen. Angesichts dieser Herausforderungen erfahren Datenkataloge eine Renaissance. Von ihrem anfänglichen Dasein als bloße Dateninventarlisten und Suchwerkzeuge haben sie sich inzwischen zu einem entscheidenden Tool nicht nur für IT- und Daten-Spezialisten, sondern für Mitarbeiter aller Abteilungen weiterentwickelt.

Quelle: "Datenkatalog: Mit Struktur zum effizienten Datenmanagement" (bei digitalbusiness-cloud.de am 02.10.2019 veröffentlicht)

Read more

  • Aufrufe: 2857

Wie man den KI-Reifegrad erhöht

Reifegradmodelle bieten eine gute Orientierung darüber, wo ein Unternehmen bei der Nutzung von künstlicher Intelligenz steht. Demnach gibt es in vielen Unternehmen Optimierungsbedarf beim Betrieb von KI-Anwendungen. Abhilfe können IT-Abteilungen schaffen, indem sie die Datenbereitstellung und -klassifizierung optimieren und ein automatisiertes Daten-Management einführen.

Microsoft, Amazon und Google bieten eine ständig wachsende Palette an KI-Services. Diese sollen Unternehmen in die Lage versetzen, ihr Geschäft zu verbessern oder in neue Geschäftsfelder vorzustoßen. Insbesondere Microsoft konzentriert sich stark auf die Kombination seiner Cloud-Plattform Azure mit KI und deren praktische Anwendung. So lassen sich in Meetings Simultanübersetzer und automatische Transkription nutzen, während die Virtual-Assistant-Funktion Cortana zuhört und sofort einen Termin vorschlägt, wenn Floskeln fallen wie: „Darüber müssen wir nochmal gesondert reden.“ Solche Offerten kommen in der Geschäftswelt allerdings noch nicht richtig an: Nur zwei Prozent der Unternehmen hierzulande setzen die Technik aus der Public Cloud ein, wie der „Cloud-Monitor 2019“ von Bitkom Research und KPMG zeigt.

Quelle: "Umfassendes Daten-Management - Wie man den KI-Reifegrad erhöht" (bei lanline.de am 10.10.2019 veröffentlicht)

Read more

  • Aufrufe: 2789

Zentralisiertes Datenmanagement schafft Mehrwert für Kunden

Ohne Daten keine Zukunft. Das weiß auch die TeamBank. Aus diesem Grund wurden alle Weichen in Richtung digitale Zukunft gestellt. Das sogenannte „Öl des 21. Jahrhunderts“ wird in großen Mengen gesammelt und mit einer komplexen Daten-Pipeline und ebenso komplexen Algorithmen gesteuert und ausgewertet. Dieser Artikel gibt einen Überblick, wie die TeamBank mittels Machine Learning und Analytics aus Daten Mehrwert für Kunden schafft und weshalb ein zentrales Datenmanagement so wichtig ist.

Ein verantwortungsvolles und sicheres Datenmanagement sowie eine funktionierende Datenanalyse sind zentrale Themen für die TeamBank in den kommenden Jahren. Dabei spielt die Nähe zum Kunden eine zentrale Rolle für den Erfolg auf dem Markt. Wer seine Kunden kennt und deren Probleme, Wünsche und Vorlieben vorhersagen kann, hat einen klaren Wettbewerbsvorteil.

Quelle: "Zentralisiertes Datenmanagement schafft Mehrwert für Kunden" (bei bigdata-insider.de am 12.07.2019 veröffentlicht)

Read more

  • Aufrufe: 2736

Warum Firmen ihre Daten kaum monetarisieren

Obwohl viele Unternehmen den finanziellen Wert ihrer Daten erkannt haben, schöpfen wenige diesen auch aus. Zu diesem Ergebnis kam eine Studie von Tableau Software und dem Business Application Research Center.

Nach einer Studie des Business Application Research Center (BARC) im Auftrag von Tableau haben viele Unternehmen den finanziellen Wert ihrer Daten zwar erkannt, doch nur wenige schöpfen diesen auch aus. Bei gerade einmal 17 Prozent sind Datenprodukte bereits fester Bestandteil der Unternehmensprozesse. Ein Viertel hält es hingegen für gar nicht denkbar, dass ihr Unternehmen künftig Daten monetarisiert. Rund 40 Prozent der 200 Umfrage-Teilnehmer gab an, dass ihr Unternehmen plant, Daten zu monetarisieren oder sich bereits in einer Pilotphase befindet. 20 Prozent halten Datenmonetarisierung in ihrem Unternehmen zumindest für denkbar.

Quelle: "Warum Firmen ihre Daten kaum monetarisieren" (bei it-production.com am 05.07.2019 veröffentlicht)

Read more

  • Aufrufe: 2337

Künstliche Intelligenz - it’s the quality, stupid!

Künstliche Intelligenz ist längst essentieller Teil der Wirtschaft: „Ich muss mich damit beschäftigen, um überlebensfähig zu bleiben“, fasste Peter Gentsch am ersten Tag der Digital Marketing Days in Hamburg den Stand der Dinge zusammen. Marketeers haben die Disziplin zur Steigerung der Kommunikationseffizienz durchaus auf dem Radar. Doch um die damit verbundenen Erwartungen zu erfüllen, ist ein Faktor wesentlich: Die Datenqualität muss stimmen.

Auf den Digital Marketing Days in Hamburg kam bei der Beschäftigung mit Künstlicher Intelligenz immer wieder der Aspekt „Datenqualität“ zur Sprache. Sei es beim Thema Datensammlung, bei der es immer wieder Lücken gebe, die durch den Wegfall der 3rd-Party-Cookies noch größer werden. Dass dies offenbar vielen Unternehmen noch nicht bewusst ist, stellte Wenzel Drechsler von United Internet Media verwundert fest, als er Auszüge aus der gemeinsam mit der Stuttgarter Hochschule der Medien durchgeführten achten Studie Digital Dialog Insights vorstellte.

Quelle: "Künstliche Intelligenz - it’s the quality, stupid!" (bei horizont.net am 03.07.2019 veröffentlicht)

Read more

  • Aufrufe: 2519

iRights.Lab veröffentlicht dritten Data-Governance-Report

Der inhaltliche Schwerpunkt des dritten Reports liegt auf dem Thema Datenqualität. Er liefert hierzu die Ergebnisse aus der aktuellen Online-Umfrage unter den mFUND-Projekten. Die Umfrage zeigt, dass die Sicherung von Datenqualität eine oft unterschätzte Herausforderung für Unternehmen, Behörden, Verbände, sowie weitere private und öffentliche Einrichtungen darstellt.

Um den inhaltlichen Fokus näher zu beleuchten, erörtern wir gemeinsam mit dem Data-Governance-Experten Marco Geuer in einem ausführlichen Interview mögliche Strategien für mehr Datenqualität. Geuer stellt dabei unmissverständlich klar: “Ohne Datenqualitätsmanagement gibt es keine Data-Governance”. Der Report liefert auch einen Einblick in zentrale Kriterien für die Evaluation von Datenqualität.

Der Data-Governance-Report erscheint im Rahmen der mFUND-Begleitforschung des iRights.Labs. Seit 2016 fördert das Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) Forschungs- und Entwicklungsprojekte rund um digitale datenbasierte Anwendungen für das Feld der Mobilität 4.0. Durch die Entwicklung eines Self-Governance-Konzepts wollen wir Behörden und Unternehmen dazu befähigen, eigene Regeln und Strukturen für einen verantwortungsbewussten Umgang mit den von ihnen verwalteten und verwendeten Daten aufzusetzen.

Quelle:"iRights.Lab veröffentlicht dritten Data-Governance-Report" (bei irights-lab.de am 16.05.2019 veröffentlicht)

Read more

  • Aufrufe: 2628

Digitale Geschäftsmodelle bei Bosch:

Kennzahlen und Controller-Qualifikation als Erfolgsfaktoren

Während andere Unternehmen noch analysieren, setzt Bosch die Digitalisierung bereits konzernweit um. Das praktische Vorgehen bezüglich neuer Geschäftsmodelle, agiler Organisation und Qualifikation der Controller stellte ein Congress-Highlight dar. Konkret stellte Prof. Stefan Asenkerschbaumer das Kennzahlen-Set für digitale Projekte und die Schwerpunkte der Controller-Weiterbildung vor.

Trends wie Individualisierung und Kundenorientierung bestimmen Gegenwart und Zukunft vieler Unternehmen. Sie müssen nicht nur begleitet, sondern auch hinreichend bewertet werden. In seiner Key Note erläuterte Prof. Dr. Stefan Asenkerschbaumer (stellv. Vorsitzender der Geschäftsführung der Robert Bosch GmbH) die veränderten Rahmenbedingungen im Controlling am Beispiel der Bosch Gruppe. Dabei sieht er seinen Finanzbereich vier Herausforderungen ausgesetzt, denen sich auch das Controlling widmen muss: Agilität, Kompetenz als Business Partner, Zukunftsfokussierung und Maßnahmenfokussierung. Diese Kernherausforderungen führen zu einer Reihe an Themen, die auf der Agenda der CFOs sehr weit oben stehen:

  • Analyse,
  • Kennzahlen,
  • Zusammenwachsen von Finanzen und Controlling,
  • Shares Services,
  • Agilität und
  • Ausbildung und Enablement.

Quelle:"Digitale Geschäftsmodelle bei Bosch" (bei haufe.de am 04.06.2019 veröffentlicht)

Read more

  • Aufrufe: 3255

Digitalisierung: Datenqualität als Erfolgsfaktor

Akribische Datenpflege und gut strukturierte Datentransformation sind wesentlich für Industrie 4.0. Bis dahin ist es in vielen Unternehmen aber noch ein weiter Weg.

Vor ein paar Wochen kam der Sohn eines Mitarbeiters bei uns ins Büro. Er trug ein knallrotes T-Shirt mit dem Spruch: "Das kannst du schon so machen, aber dann isses halt Kacke…" Seitdem habe ich manchmal die Vorstellung, ich sollte solch ein T-Shirt unter meinem Hemd tragen. Wenn ich dann beim Kunden im Meeting sitze und alle reden davon, dass man einfach mal digitalisiert und dann wird der Prozess, die Produktion und überhaupt alles einfach gut, dann klettere ich in meiner Vorstellung wortlos auf den Tisch und knöpfe ganz langsam mein Hemd auf.

Fakt ist, dass irgendwie alle und jeder nur noch über Digitalisierung reden und nicht über das, was man tun muss, um daraus auch einen Nutzen zu ziehen. Lass uns mal an dieser oder jener Stelle Daten erheben und dann in Software xy einen tolle Auswertung dazu machen - so einfach ist es eben nicht. Worauf es im ersten Schritt ankommt, ist die Datenqualität. Im zweiten Schritt die einfache und fehlerfreie Datentransformation. Und im dritten Schritt muss jemand intensiv darüber nachdenken, welche Bezüge zwischen Daten wirklich sinnvoll sind, um zu neuen Erkenntnissen zu gelangen.

Quelle:"Datenqualität als Erfolgsfaktor" (bei computerwoche.de am 20.12.2018 veröffentlicht)

Read more

  • Aufrufe: 3167

Unternehmen kämpfen mit Datenqualität

Schlechte Daten sind teuer. Dies gilt insbesondere für Kundendaten, denn hier haben Vollständigkeit, Aktualität und Präzision eine besonders hohe Bedeutung. So haben 37 Prozent der Unternehmen mit postalisch falschen Kundendaten zu kämpfen.

Dennoch scheint der Großteil der von Uniserv zur Homepage dieses Unternehmens Relation Browser befragten Unternehmen (82 Prozent) sich im Klaren darüber zu sein, dass es konkrete Maßnahmen erfordert, um die Datenqualität zu erhalten und zu verbessern. Allerdings sank dieser Anteil im Vergleich zur Vorjahresumfrage um acht Prozentpunkte (2017: 90 Prozent). Führen Unternehmen Maßnahmen auch wirklich durch, beschränkten sich 97 Prozent lediglich auf das Überprüfen der Datenqualität. Eine Bewertung hingegen findet wieder nur in knapp zwei Drittel (62 Prozent) der Unternehmen statt. Mitarbeiterschulungen führt knapp die Hälfte durch (49 Prozent). Lediglich ein Viertel der Befragten versucht, Daten zum sogenannten "Golden Record" zu aggregieren. Um sogar ein "Golden Profile", also die Ergänzung des Golden Records und damit der Stammdaten um die Bewegungsdaten, wie Transaktions- und Interaktionsdaten, anzulegen, sind nur noch 15 Prozent der Unternehmen bemüht.

Quelle:"Unternehmen kämpfen mit Datenqualität" (bei ibusiness.de am 04.12.2018 veröffentlicht)

Read more

  • Aufrufe: 2739

Künstliche Intelligenz – Viel mehr als ein Buzzword

Warum es sinnvoll ist, einen KI-basierten Produktivitätsindex zu definieren, der der Rechtfertigung der KI-Anwendbarkeit und deren Wertschöpfungspotenziale dient. Ein Gastkommentar von Wilfried Sihn, Geschäftsführer der Fraunhofer Austria Research GmbH.

In der jüngsten Vergangenheit wird künstliche Intelligenz (KI) oft als eine Enabling-Technologie diskutiert, die menschliche, körperliche und kognitive Fähigkeiten reproduziert und imitiert. In der Praxis der Fertigungs- und Logistiksysteme hat die KI drei große Herausforderungen zu bewältigen:

Quelle: "Künstliche Intelligenz – Viel mehr als ein Buzzword" (bei diepresse.com am 12.06.2019 veröffentlicht)

Read more

  • Aufrufe: 2379

Erfolg der digitalen Transformation erfordert Radikalisierung

Hat die Digitalisierung der Unternehmenssteuerung eher revolutionären oder evolutionären Charakter? Diese Frage analysierte Stefan Tobias auf dem Forum Digitale Unternehmenssteuerung. Um die möglichen Potenziale auszuschöpfen, sieht er radikalere und ganzheitlichere Veränderungen als notwendig an.

Die Digitalisierung der Unternehmenssteuerung kann entweder in großen und „revolutionären“ oder in eher kleinen, inkrementellen und „evolutionären“ Schritten geschehen. Möglich ist es ebenso, dass beide Vorgehensweisen parallel verlaufen. Die Frage, welche der beiden Seiten überwiegt, suchte Stefan Tobias, Partner im Bereich Controlling & Finance bei Horváth & Partners zu beantworten.

Quelle: "Erfolg der digitalen Transformation erfordert Radikalisierung" (bei haufe.de am 11.06.2019 veröffentlicht)

Read more

  • Aufrufe: 2465

Neue Geschäftsmodelle auf sicherer Datenbasis

Datenlage fundiert beurteilen und neue Anwendungen auf sichere Beine stellen

Neue Geschäftsmodelle entwickeln, Berichte und Steuerungskennzahlen an veränderte Märkte anpassen - in der digitalisierten Geschäftswelt müssen heute alle am Ball bleiben und prüfen, welche Entwicklungen das eigene Unternehmen voranbringen. Die meisten Unternehmen sind bereit und starten an verschiedensten Stellen Digitalisierungs-Initiativen.

Das Problem: Viele Projekte bewegen sich noch im absolutem Neuland und laufen nach dem Prinzip "Try and Error", mit dem hohen Risiko, dass Zeit, Ressourcen und Geld vergeudet werden. Eine entscheidende Ursache liegt darin, dass die Meisten den Rohstoff ihrer Digitalisierungsmaßnahmen nicht gut genug kennen: Sie können ihre Datenlage nicht überblicken bzw. die Tauglichkeit der Datenbasis für ihre Geschäftsidee nicht beurteilen. Dazu wären Fragen zu beantworten wie: Welche Daten sind aus verschiedenen Systemen wie ERP- und CRM-Lösungen in welcher Form rauszuholen? Wie sieht deren Qualität aus und wo genau liegen welche Schwächen? Sind die Daten nach konsistenten Business-Regeln strukturiert? Wie kann man sie technisch und logisch sinnvoll verknüpfen? Was würde die Einführung von Advanced Analytics bringen? Wer diese Fragen präzise beantworten kann - und zwar am besten direkt in der zuständigen Fachabteilung - setzt seine Initiativen auf realistischer Basis mit guten Erfolgsaussichten auf.

Quelle:"Neue Geschäftsmodelle auf sicherer Datenbasis" (bei pressebox.de am 27.09.2018 veröffentlicht)

Read more

  • Aufrufe: 2789

Mehrzahl der Versicherer investieren nicht in Datenqualität

In der heutigen Zeit ist es immer wichtiger, Daten sorgfältig auszuwählen und zu filtern. Wie eine aktuelle Studie des Beratungsunternehmens Accenture zeigt, sind diese Maßnahmen für viele Versicherer aber noch Zukunftsmusik.

Aufgrund der Digitalisierung werden in der Versicherungswirtschaft immer mehr strategische Entscheidungen datenbasiert getroffen. So gab laut der Accenture-Studie die Mehrheit (80 Prozent) der 623 weltweit befragten Versicherungsmanager an, Daten als Grundlage für zentrale Entscheidungen zu nutzen. Trotzdem validieren bisher lediglich 26 Prozent von ihnen ihre Daten. Weitere 19 Prozent versuchen zwar, die Daten zu überprüfen, sind allerdings nicht von deren Qualität überzeugt.

Quelle:"Mehrzahl der Versicherer investieren nicht in Datenqualität" (bei pfefferminzia.de am 06.08.2018 veröffentlicht)

Read more

  • Aufrufe: 2606

Behindert mangelnde Datenqualität die Digitalisierung?

Mangelhafte Datenqualität kann die digitale ­Transformation von Unternehmen behindern. Ein konsistentes Stammdatenmanagement hilft, dies zu vermeiden.

Alle Welt spricht von der Digitalisierung. Gefragt nach den aktuellen Herausforderungen für ihre Unternehmen steht laut der 2016 von Bitkom Research vorgelegten Studie „Digitale Transformation der Wirtschaft“ nach der Fachkräftesicherung und noch vor internen Herausforderungen wie Wachstum oder Restrukturierung die „Digitalisierung unseres Unternehmens“ an zweiter Stelle. 64 Prozent der befragten Verantwortlichen sagen, dass sich als Folge der Digitalisierung ihr Geschäftsmodell verändere. 57 Prozent passen als Folge der Digitalisierung bereits bestehende Produkte und Dienstleistungen an.

„Zentraler Rohstoff dieses digitalen Wandels sind Daten”, heißt es in der „Digitalen Strategie 2025“ der Bundesregierung. „Der Umgang mit ihnen ist entscheidender Erfolgsfaktor modernen Wirtschaftens. (…) Die Schlüsselkompetenzen erfolgreicher Unternehmen werden auf lange Sicht in der Erfassung, Verarbeitung, Verknüpfung und dem Schutz von Daten liegen – und in der Ableitung konkreter Maßnahmen und Methoden.“

Quelle:"Behindert mangelnde Datenqualität die Digitalisierung?" (bei it-zoom.de am 16.08.2018 veröffentlicht)

Read more

  • Aufrufe: 3115

Digitalisierung im Rechnungswesen ist meist Chefsache

Unternehmen, die im Rechnungswesen auf digitale Lösungen setzen, verbessern die Qualität ihrer Daten bzw. deren Konsistenz. Zudem erhöht sich meist die Schnelligkeit im Reporting. Dennoch setzen überraschend wenige Unternehmen derzeit im Rechnungswesen schon auf Cloud-Lösungen.

Das sind wesentliche Erkenntnisse aus einer gemeinsamen Umfrage des Marktforschungsunternehmens KPMG und der Ludwig-Maximilians-Universität München unter knapp 150 deutschen Unternehmen zur Digitalisierung im Rechnungswesen. Die Umfrage zeigt vor allem: Digitalisierung des Rechnungswesens ist in erster Linie Chefsache. Bei 28 Prozent der Unternehmen wird diese vom CFO verantwortet und bei weiteren 50 Prozent vom Leiter Rechnungswesen – und nicht etwa von der IT-Abteilung.

Für elf ausgewählte digitale Lösungen gaben die Teilnehmer an, ob diese in ihrem Unternehmen bereits umgesetzt wurden oder für die nahe Zukunft auf der Agenda stehen. Zu einer ausgereiften digitalen Transformation des Rechnungswesen zählen demnach: Papierlose Buchhaltung, Schnittstellen zu (externen) Systemen, Management der Datenqualität, Prozessautomatisierung, Homogenität der Systeme, ein integriertes Konsolidierungssystem, Realtime-Reporting, Schaffung von Transparenz, Big-Data-Analysen, Tools zur Visualisierung sowie der Einsatz von Applikationen aus der Cloud.

Quelle:"Digitalisierung im Rechnungswesen ist meist Chefsache" (bei cloudcomputing-insider.de am 10.08.2018 veröffentlicht)

Read more

  • Aufrufe: 2769

Künstliche Intelligenz: Datenqualität entscheidend für Investition in KI-Lösungen

Jedes zweite Unternehmen plant größere KI-Investitionen in Beschaffung und Supply Chain innerhalb von zwei Jahren, eine Marktstudie von Ivalua zeigt jedoch, dass die schlechte Datenqualität diese Pläne behindern könnte.

Ivalua hat eine weltweite Umfrage unter Supply-Chain-, Beschaffungs- und Finanzmanagern in Auftrag gegeben. Die Studie wurde von Forrester Consulting durchgeführt. Danach planen 55 % der Unternehmen größere Investitionen in Künstliche Intelligenz (KI) innerhalb der nächsten zwei Jahre. Weitere 25 % planen kleinere Investitionen in diesem Bereich, um den potentiellen ROI in den nächsten zwei Jahren bestimmen zu können.

Die Umfrage zeigt, dass Finanz-, Supply-Chain- und Beschaffungsmanager glauben, dass die größte Herausforderung bei der Einführung von KI die schlechte Qualität der Unternehmensdaten sei. Nahezu zwei Drittel der Befragten (59 %) sagen, die schlechte Datenqualität mache es der KI unmöglich, genaue und informierte Entscheidungen zu treffen. Das untergrabe das Ziel, mit Investitionen in KI Gewinne zu machen.

Quelle:"Datenqualität entscheidend für Investition in KI-Lösungen" (bei process.vogel.de am 09.06.2018 veröffentlicht)

Read more

  • Aufrufe: 3766

Hälfte der Unternehmen hält Qualität der eigenen Kundendaten für „niedrig“

Zu diesem Ergebnis kommt eine Umfrage von Uniserv, die sich mit dem Zusammenhang von Künstlicher Intelligenz und Machine Learning, Kundendatenmanagement und Datenqualität in Marketing, Vertrieb und Service beschäftigt.

„Künstliche Intelligenz und Machine Learning in Marketing, Vertrieb und Service: Zukunftsvision oder Realität?“ – so lautete das Motto der mittlerweile dritten Ausgabe der Trendstudie Kundendatenmanagement der Uniserv GmbH. Ziel der Umfrage war es, das Thema Künstliche Intelligenz (KI) und Machine Learning im Zusammenhang mit dem Thema Customer Experience Management sowie neuen Methoden in Marketing und Kundendienst zu durchleuchten. War es bei der Premiere der Befragung 2016 noch hauptsächlich darum gegangen, den Zusammenhang zwischen professionellem Kundendatenmanagement und digitaler Transformation in Unternehmen im deutschsprachigen Raum zu erkunden, so wurde bei der letztjährigen Umfrage bereits ein zusätzlicher Schwerpunkt auf das Thema Datenqualität gelegt. Im Vergleich zu den Umfragen der beiden Vorjahre liefert die Trendstudie Kunden-datenmanagement 2018 einige Überraschungen:

Quelle:"Hälfte der Unternehmen hält Qualität der eigenen Kundendaten für niedrig" (bei computerwelt.at am 05.06.2018 veröffentlicht)

Read more

  • Aufrufe: 3000

Datascience: So steigert Struktur die Qualität im Datencocktail

Strukturierte Daten werden zunehmend zu einem Wettbewerbsfaktor. Doch Komplexität, fehlende Datenqualität und der wachsende Talentmangel durchkreuzen allzu oft die Pläne.

Im digitalen Zeitalter werden Daten immer wichtiger für den zukünftigen Unternehmenserfolg. Gleichwohl operieren viele Unternehmen jedoch in einer fragmentierten IT-Landschaft und kämpfen mit zunehmender Komplexität. Nach einer Befragung von mehr als 500 IT-Führungskräften aus Unternehmen in Australien, Brasilien, China, Deutschland, Frankreich, Großbritannien Japan, Kanada und den USA durch SAP, offenbart die "Data 2020: State of Big Data"-Studie, dass sich Unternehmen auf breiter Front noch immens schwer damit tun, ihre Daten effektiv einzusetzen. Hier sind fünf Gründe warum:

Quelle:"Datascience: So steigert Struktur die Qualität im Datencocktail" (bei cio.de am 19.04.2018 veröffentlicht)

Read more

  • Aufrufe: 2659

Data Stewardship bringt Analytik voran

Der NoSQL-Spezialist MarkLogic hat in Zusammenarbeit mit dem Business Application Research Center (BARC) die Studie „Data Stewardship als Wegbereiter für Analytik“ vorgestellt.

Dabei handelt es sich um eine DACH-weite Umfrage zur Relevanz von Daten und einem effizientem Datenmanagement für Business Intelligence (BI) und Analytik. Wie die Studie zeigt, wollen viele Unternehmen eine Data Stewardship etablieren. Allerdings sehen deutlich mehr Firmen den Bedarf, handeln aber noch nicht. Dabei sind klar definierte Data-Governance-Rollen ein wichtiger Baustein, um Daten zu beherrschen und als Produktionsfaktor nutzbar zu machen. Der Begriff Data Governance umfasst dabei alle Steuerungsmaßnahmen, die dem Schutz und der Verwaltung unternehmenseigener, korrekter und vertrauenswürdiger Daten dienen.

Qualitätsmanagement gefragt

Die Studie machte vor allem das Stammdaten- und Datenqualitätsmanagement als wichtige BI-Trends für das aktuelle Jahr aus. Qualitätsgesicherte Daten sind die Basis für Analytics und damit auch das Hauptziel bei der Einführung von Data-Governance-Rollen wie Data Stewardship und Data Owner. 78 Prozent der Befragten nannten eine verlässliche und konsistente Datenbasis als wichtigstes Ziel. Weitere 55 Prozent wollen Analyseergebnisse durch bessere Datenqualität optimieren. Für 52 Prozent ist ein Single Point of Truth für Stammdaten das wichtigste Ziel.

Quelle:"Data Stewardship bringt Analytik voran" (bei bigdata-insider.de am 23.04.2018 veröffentlicht)

Read more

  • Aufrufe: 2724

Banking Technology Vision 2018

Datenqualität und Transparenz werden Erfolgsfaktoren für Banken

Künstliche Intelligenz (KI) wird die Finanzbranche als Schlüs­sel­tech­no­lo­gie zukünftig signifikant prägen und erfordert von Banken deutliche Verbesserungen bei der gewissenhaften Überprüfung ihrer Datenquellen. Das ist ein Ergebnis der Studie „Banking Technology Vision“ des Be­ra­tungs­un­ter­neh­mens Ac­cen­ture. Die­se er­mit­telt je­des Jahr die wich­tigs­ten Tech­no­lo­gie­trends mit Dis­rup­ti­ons­po­ten­zi­al für die Ban­ken­bran­che. Dem­zu­fol­ge in­ves­tie­ren die Hälf­te der be­frag­ten Ban­ken welt­weit (51%) zu we­nig in die Über­prü­fung ih­rer Da­ten. Um je­doch Fehl­ent­schei­dun­gen auf­grund von un­ge­nau­en oder gar ma­ni­pu­lier­ten Da­ten zu ver­mei­den und das Ver­trau­en von Kun­den und Re­gu­la­to­ren zu hal­ten, wer­den für Ban­ken die Da­ten­qua­li­tät so­wie die Trans­pa­renz au­to­ma­ti­sier­ter Pro­zes­se er­folgs­kri­tisch sein.

Quelle:"Banking Technology Vision 2018" (bei it-finanzmagazin.de am 07.05.2018 veröffentlicht)

Read more

  • Aufrufe: 2797

Big-Data-Analyse: Gute Daten, schlechte Daten

Wie sich mit Augmented Intelligence die Datenqualität verbessern lässt.

Eine hohe Datenqualität sorgt dafür, dass die Erkenntnisse aus Analytik und KI präzise und zuverlässig sind. Das bedeutet, dass die richtigen Daten an der richtigen Stelle vorhanden sein müssen. Schließlich gibt es keine KI ohne perfekte Daten, und es gibt keine perfekten Daten ohne Menschen. Auf diese Weise lässt sich die Künstliche Intelligenz als Erweiterung der menschlichen Intelligenz betrachten. KI ist nur so gut, wie die Daten, die der Mensch zur Verfügung stellt. Schließlich ist KI dazu bestimmt, Ergebnisse zu präsentieren, die ein Mensch nutzen kann. Man könnte sie daher auch als Augmented Intelligence bezeichnen, also eine Art erweiterte Intelligenz.

Quelle:"Big-Data-Analyse: Gute Daten, schlechte Daten" (bei funktschau.de am 23.05.2018 veröffentlicht)

Read more

  • Aufrufe: 2997

Post-Privacy: Sind viele Daten automatisch auch gute Daten?

Zustimmung erhöht Datenqualität

Die DSGVO bringe aber auch für das Online-Marketing Chancen mit sich, glaubt Christoph Truppe von der Mediaagentur Mindshare. Denn Daten würden noch wichtiger – vor allem qualitativ hochwertige, mit Einwilligung der Nutzer eingeholte Daten, die einen entscheidenden Wettbewerbsvorteil ausmachen könnten.

Quelle:"Post-Privacy: Sind viele Daten automatisch auch gute Daten?" (bei diepresse.com am 25.05.2018 veröffentlicht)

Read more

  • Aufrufe: 3206

Stammdaten in der Industrie

Datenqualität als Erfolgsfaktor

Die produzierende Industrie hat im Stammdatenmanagement noch einiges zu tun, wie aktuelle Studien zeigen.

Laut einer aktuellen Studie von Bitkom Research fehlt vielen Unternehmen nicht nur das Bewusstsein für den umwälzenden Charakter der Digitalisierung, vielmehr hapert es in vielen Unternehmen auch an den Grundlagen. Und diese Grundlagen sind nichts anderes als Daten in Größenordnungen, die die Vorstellungskraft übersteigen. Einen wichtigen Teil dieser riesigen Datenmenge bilden Stammdaten, also statische Grunddaten oder Referenzdaten zu betriebsrelevanten Objekten wie beispielsweise Produkten, Lieferanten, Kunden und Mitarbeitern.

Quelle:"Datenqualität als Erfolgsfaktor" (bei it-zoom.de am 08.03.2018 veröffentlicht)

Read more

  • Aufrufe: 3081

DSGVO: 4 Schritte für Nachzügler

Am 25. Mai 2018 ist es so weit: Die EU-Datenschutz-Grundverordnung (EU-DSGVO) tritt in Kraft. Jedes Unternehmen, das personenbezogene Daten von EU-Bürgern sammelt oder auch nur verarbeitet, unterliegt dem neuen Gesetz. Benedict Geissler von Snow Software hat vier Schritte für den Start in die DSGVO-Compliance zusammengestellt.

Quelle:"DSGVO: 4 Schritte für Nachzügler" (bei it-daily.net am 07.03.2018 veröffentlicht)

Read more

  • Aufrufe: 2954

Reisebüros haben die bessere Datenqualität

Bei nahezu jeder fünften Buchungsanfrage ändert sich der Preis im Verlauf des Buchungsprozesses.Zudem sind bis zu 20 Prozent der dargestellten Angebote zum Zeitpunkt der Anfrage gar nicht mehr verfügbar. Das geht aus der Jahresauswertung der Flug-Pauschalreisen hervor, die Traveltainment und Amadeus Germany im Jahr 2017 über ihre Beratungs- und Buchungsprodukte für stationäre und Online-Reisebüros abgewickelt haben.

Stationäre Reisebüros können dabei immerhin mit einer höheren Datenqualität arbeiten als der Online-Vertrieb. Das hat eine Auswertung der Amadeus-Tochter Traveltainment auf der Basis der Buchungsanfragen des vergangenen Jahres ergeben.

Quelle:"Reisebüros haben die bessere Datenqualität" (bei gloobi.de am 27.02.2018 veröffentlicht)

Read more

  • Aufrufe: 2861

Warum für die DSGVO die Datenqualität stimmen muss

Die Datenqualität ist nicht nur ein Thema für den Qualitätsbeauftragten, sie sollte auch jeden Datenschutzbeauftragten interessieren. Denn die besten Sicherheitsmaßnahmen scheitern, wenn das Datenmanagement nicht stimmt.

Auf den ersten Blick scheint die Qualität der personenbezogenen Daten kein Schutzziel zu sein. Neben Vertraulichkeit, Verfügbarkeit und Integrität taucht sie meist nicht auf. Tatsächlich aber hängt zum Beispiel die Integrität mit der Qualität zusammen: Werden Daten unerlaubt oder ungewollt verändert, stimmt die Qualität nicht mehr.

Die Datenschutz-Grundverordnung (DSGVO) sagt noch mehr zur Qualität der personenbezogenen Daten. Zu den Grundsätzen für die Verarbeitung personenbezogener Daten (Artikel 5 DSGVO) gehört danach die Datenrichtigkeit: „Personenbezogene Daten müssen sachlich richtig und erforderlichenfalls auf dem neuesten Stand sein; es sind alle angemessenen Maßnahmen zu treffen, damit personenbezogene Daten, die im Hinblick auf die Zwecke ihrer Verarbeitung unrichtig sind, unverzüglich gelöscht oder berichtigt werden.“

Quelle:"Warum für die DSGVO die Datenqualität stimmen muss" (bei datenschutz-praxis.de am 19.02.2018 veröffentlicht)

Read more

  • Aufrufe: 3512

Venlo: Workshop nahm „Datenqualität 2.0“ unter die Lupe

Unternehmen aus dem Lebensmitteleinzelhandel investieren immer mehr in die Automatisierung ihrer Distributionszentren, in digitales Category Management und Online-Handel.

Inwiefern kann und muss sich auch der Fruchthandel darauf einstellen, indem er z.B. seine Datenbasis und den Datenfluss angesichts der immer größer werdenden Artikelvielfalt verbessert? Wie kann die Qualität der Masterdaten optimiert werden?

Der Handlungsbedarf liegt offen zutage, denn eine vom Verband veranlasste Befragung hatte ergeben, dass derzeit lediglich 60 % der Artikel-Masterdaten korrekt sind. „Wir informieren  die Handelsbetriebe und Erzeugerorganisationen derzeit über die Inhalte und Ziele des Programms und hoffen, dass eine rege Diskussion einsetzt.

Quelle:"Workshop nahm Datenqualität 2.0 unter die Lupe" (bei fruchthandel.de am 07.06.2017 veröffentlicht)

Read more

  • Aufrufe: 3238

Unternehmen kämpfen weiterhin mit der Datenqualität

Obwohl sich die Unternehmen des Erfolgsfaktors Datenqualität bewusst sind, sind viele mit selbiger unzufrieden, ebenso wie mit ihrem Kundendatenmanagement.

Ein Drittel aller Unternehmen beurteilt die Qualität der eigenen Kundendaten als niedrig. Das geht aus einer Studie von Uniserv hervor. Vor allem mit unvollständigen (95 Prozent), veralteten (84 Prozent) und mehrfach vorhandenen (64 Prozent) Kundendatensätzen haben die Firmen zu kämpfen.

Diese Diagnose hat unter anderem mit technischen Fragen zu tun, denn: Um ihre Kundendaten zu speichern und zu verwalten, nutzen mehr als die Hälfte der Befragten weiterhin mehrere Abteilungslösungen, sprich: Datensilos.

Quelle:"Unternehmen kämpfen weiterhin mit der Datenqualität" (bei haufe.de am 04.04.2017 veröffentlicht)

Read more

  • Aufrufe: 3498

Weitere Beiträge ...

Copyright © 2014 - 2022 by Marco Geuer
Business Information Excellence | Transparenz schafft Handlungsalternativen
www.business-information-excellence.de | www.datenanalyse.org | www.datenqualitätsmanagement.com

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.