Datenqualität beschreibt die Güte und Eigenschaften bestimmter Daten in Bezug auf Genauigkeit, Einzigartigkeit, Konsistenz, Vollständigkeit, Gültigkeit und Aktualität. Datenqualität ist ein Aspekt der Data Governance.
Metadaten sind Daten, die Informationen über Daten liefern und in einem Datenkatalog gespeichert sind. Es gibt verschiedene Arten von Metadaten, z. B. beschreibende, strukturelle, administrative, statistische und rechtliche.
Konsistenz bedeutet, dass das Datenformat für jeden Nutzer einheitlich und korrekt ist. Eine konsistente Datenbank ermöglicht ein gesteigertes Vertrauen in Analyse-Ergebnisse und vereinfachte Durchführung von Datenbanktransaktionen. Inkonsistente Daten können hingegen zu schwerwiegenden Analysefehlern und infolgedessen zu falschen Geschäftsentscheidungen führen.
Datenmanagement umfasst die Gesamtheit aller Maßnahmen, um Daten als wertvolle Ressource nutzen zu können. Diese Prozesse umfassen die Aufnahme, Speicherung, Organisation und Pflege der Daten.
Eine Data Management-Software ist ein Werkzeug, das die effektive Organisation von Daten unterschiedlicher Herkunft und Eigenschaften ermöglicht. Die umfassende Verwaltung auch großer Datenmengen beinhaltet die Konsolidierung, Kontextualisierung, Nutzbarmachung für Analysen und Berichten und Ermöglichung von Technologien wie künstlicher Intelligenz.
Data Governance definiert die Prozesse und Verantwortlichkeiten, die die Qualität und Sicherheit der Daten gewährleisten. Folgenden Maßnahmen sind typische Aufgaben der Data Governance: Zuweisung und Definition von Benutzerrechten, Aufgaben- und Verantwortungsmanagement, Kontrolle und Überwachung von Daten.
Stammdatenmanagement ist eine Kombination aus Prozessen und Technologien zur Synchronisierung und Harmonisierung von Stammdaten in einer Organisation. Es ermöglicht die Schaffung einer einheitlichen Grundlage, die allen Mitarbeitern des Unternehmens genaue und vollständige Stammdaten zur Verfügung stellt.
Erfahren Sie mehr →Datenqualitätsmanagement umfasst Maßnahmen und Praktiken, welche die Eignung von Daten für Analyse und Entscheidungsfindung sicherstellen und ein Höchstmaß an Datenqualität ermöglichen. Je besser die Datenqualität einer Organisation ist, desto genauere Analyseergebnisse können erzielt werden.
Ein Data Dictionary, auch Metadaten-Repository, ist ein zentraler Ort, an dem Metadaten, einschließlich Informationen über Daten und deren Herkunft, Format, Bedeutung und Beziehungen, gespeichert werden. Das Data Dictionary sichert die Datenkonsistenz, wenn Daten in verschiedenen Abteilungen des Unternehmens verarbeitet werden.
Ein Data Repository ist eine Einheit, in der Datensätze für einen bestimten Zweck gesammelt und gespeichert werden. Ein Data Repository bietet Nutzern einen konsolidierten Raum, in dem insbesondere die für den laufenden Betrieb relevanten Daten aufbewahrt werden können.
Ein Metadaten-Repository ist ein Ort, an dem Metadaten gespeichert und systematisiert werden. Es gibt vier verschiedene Arten von Daten in einem Metadaten-Repository: historische, aktuelle, generische und integrierte Daten.
Data Maintenance umfasst Maßnahmen, deren Ziel die Verbesserung der Datenbankleistung ist. Wartungsmaßnahmen tragen dazu bei, die Geschwindigkeit zu verbessern, Kapazitäten zu optimieren, Fehler und Hardwareausfälle zu finden und zu beheben. Eine gute Datenpflege gewährleistet den ständigen Zugang und die Nutzbarkeit der Daten.
Ein Data Model beschreibt die Anordnung und Klassifizierung von Daten und spaltet strukturelle Informationen und ihre Attribute auf. Vorteile eines sauberen Data Models sind flexible Integrationsmöglichkeiten, einfachere Skalierung, die ermöglichte Prüfung historischer Daten und schnellere Anpassungen an veränderte Datenlandschaften.
Die Aufgaben des Metadatenmanagements bestehen darin, Strategien und Maßnahmen zu definieren und zu gestalten, die den Zugang, die Pflege, die Analyse und die Integration von Daten im Unternehmen ermöglichen. Die Rolle des Metadatenmanagements wird immer wichtiger, da die Menge und Vielfalt der Daten zunimmt.
Big Data Management beschreibt die Verwaltung, Organisation und Steuerung großer Mengen unstrukturierter und strukturierter Daten. Zentrale Ziele sind die Sicherstellung einer guten Datenzugänglichkeit und eines hohen Niveaus an Datenqualität.
Ein Datenkatalog ist eine Inventar aller Datenbestände in einer Organisation. Der Katalog hilft dabei, den Ursprung der Daten, ihre Verwendung, Qualität, Beziehungen und den geschäftlichen Kontext zu verstehen. Ein wichtiger Anwendungsbereich ist die Suche nach Daten für analytische oder geschäftliche Zwecke.
Erfahren Sie mehr →Ein KI-gesteuerter Datenkatalog ist ein Datenkatalog, der auf der Grundlage von künstlicher Intelligenz (KI) oder maschinellem Lernen (ML) ein hohes Maß an Automatisierung bietet. Der Katalog hilft dabei, den Ursprung der Daten, ihre Verwendung, Qualität, Beziehungen und den geschäftlichen Kontext zu verstehen. Datenkataloge der nächsten Generation setzen KI ein, um automatisiertes Metadaten-Tagging, die Verfolgung der Datenherkunft und die Analyse des Datenverbrauchs zu ermöglichen.
Ein Metadaten-Repository ist ein Ort, an dem Metadaten gespeichert und systematisiert werden. Es gibt vier verschiedene Arten von Daten in einem Metadaten-Repository: historische, aktuelle, generische und integrierte Daten.
Data Owner sind Personen, die für Datensätze, ihre Zugänglichkeit und Pflege verantwortlich sind. Dateneigentümer haben somit einen direkten Einfluss auf die Qualität eines Datenkatalogs.
Data Stewards sind Personen, die für Datenbestände innerhalb des Datenkatalogs verantwortlich sind. Sie gewährleisten seine Aktualität und den Zustand der Metadaten. Sie übernehmen die Rolle eines Vermittlers zwischen Data Ownern und Nutzern.
Datenintegration umfasst Technologien, um Daten aus verschiedenen Quellen zusammenzuführen und sie in einer kombinierten und harmonisierten Ansicht darzustellen. Eine typische Anwendung der Datenintegration ist das Data Mining.
Datenintegrationstools sind Tools, die die Zusammenführung von Daten aus verschiedenen Quellen umsetzen. Datenintegrationstools fungieren als Bindeglied zwischen Quellsystemen und Analyseplattformen. Sie enthalten in der Regel optimierte native Konnektoren für das Batch-Laden aus verschiedenen gängigen Datenquellen.
Bei der Datenvirtualisierung handelt es sich um eine Technik zur Datenverwaltung, die es einer Anwendung ermöglicht, Daten zu extrahieren und zu verwalten ohne technische Details darüber abzufragen. Bei der Datenvirtualisierung wird keine physische Kopie der Daten erstellt, sondern eine virtuelle Schicht erzeugt, um die Komplexität der zugrundeliegenden Datenlandschaft zu maskieren. Dieser Ansatz bietet eine schnelle, flexible Alternative zur klassichen Integration.
Der Bereich Business Intelligence (BI) umfasst Strategien und Technologien, die von Unternehmen zur Analyse aktueller und historischer Geschäftsdaten eingesetzt werden. Die zentrale Aufgabe von Business Intelligence ist die datenbasierte Beantwortung strategischer Fragestellungen.
Eine Business-Intelligence-Plattform ist ein Werkzeug, das den BI-Bereich bei der Extraktion, Analyse und Visualisierung der Daten eines Unternehmens unterstützt. Auf Grundlage der so generierten Ergebnisse werden dann Geschäftsentscheidungen getroffen. Business Intelligence-Plattformen umfassen typischerweise drei Hauptbereiche: Analyse, Informationsbereitstellung und Plattformintegration.
Data Profiling beschreibt Verfahren zur Analyse und Bewertung von Daten hinsichtlich ihrer zentralen Merkmale wie Inhalt, Charakteristika, Verknüpfungen und Abhängigkeiten. Die Datenprofilierung liefert ein entscheidendes Verständnis der Daten, das Unternehmen als Vorteil nutzen können.
Ein Data Profiler ist ein Tool, das die Analyse und Prüfung von Datenbeständen ermöglicht und die frühzeitige Erkennung von Problemen erlaubt. Durch die Anwendung deskriptiver Statistik bei der Analyse des Inhalts und der Struktur kann der Aufwand der Datenaufbereitung besser eingeschätzt werden.
Data compliance umfasst eine Reihe von Maßnahmen, mit denen sichergestellt werden soll, dass sensible Daten in Übereinstimmung mit internen Unternehmensrichtlinien und externen rechtlichen und regulatorischen Anforderungen verwaltet werden.
Die Datenschutzgrundverordnung (DSGVO) ist eine Verordnung des EU-Rechts, die sich auf den Datenschutz und den Schutz der Privatsphäre in der Europäischen Union konzentriert. Auch externe Datenübermittlungen werden von der Verordnung erfasst.
Als Datensilos werden Datenbestände bezeichnet, die allein von einer begrenzten Gruppe von Nutzern in einer Organisation kontrolliert und verwaltet werden. Diese Datenbestände verursachen Probleme, wenn die enthaltenen Informationen von anderen Abteilungen benötigt werden, da diese keinen Zugang haben.
Bei Big Data handelt es sich um Daten, die aus einer Vielzahl von Informationen bestehen und deren Volumen immer schneller und größer wird. Es gibt fünf Hauptmerkmale von Big Data- die fünf Vs: Volumen, Geschwindigkeit (velocity), Vielfalt, Wahrhaftigkeit (veracity) und Wert (value). Big Data ermöglicht es, mehr wertvolle Einsichten zu gewinnen, führt aber auch zu neuen technologischen Herausforderungen.
CI/CD ist die Abkürzung für Continuous Integration (CI) und Continuous Delivery & Continuous Deployment (CD). CI/CD umfasst Techniken, Tools und Vorgehensweisen um Softwareoperations (häufig kurz Ops) zu verbessern und zu vereinfachen. Zentraler Aspekt ist die Automatisierung von Updates, Tests und Deployment von Software.
Helm ist Tool zum Verwenden, Verwalten und Veröffentlichen von Kubernetes-Anwendungen. Mit sogenannten Helm-Charts (Diagrammen) werden Nutzer bei der Definition, Installation und Aktualisierung unterstützt. Das Helm-Konfigurationsframework ist vor allem bei komplexeren Anwendungen mit notwendiger Versionierung und Freigabemanagement hilfreich. Das Projekt wird von der Cloud Native Computing Foundation betreut.
Erfahren Sie mehr →