19 Beziehungen: Aggregator, Bedienfehler, Data-Mining, Data-Warehouse-Prozess, Deduplikation, Differenzielle Fehleranalyse, Duplikaterkennung, Elektronischer Datenaustausch, ETL-Prozess, Global-as-View, Informationsintegration, Informationsqualität, Knowledge Discovery in Databases, Maskenprogrammierung, Mediator-basiertes Informationssystem, Modellfehler, Persistent Staging Area, Statistik, Waikato Environment for Knowledge Analysis.
Aggregator
Ein Aggregator (zu für „hinzunehmen“ oder „ansammeln“) ist eine Software oder ein Dienstleister, der (digitale) Medieninhalte sammelt, aufbereitet und ggf.
Neu!!: Datenbereinigung und Aggregator · Mehr sehen »
Bedienfehler
Bedienfehler (besser: Bedienungsfehler) sind Fehler, die sich aus der falschen Bedienung eines technischen Systems, einer technischen Anlage oder eines Geräts ergeben.
Neu!!: Datenbereinigung und Bedienfehler · Mehr sehen »
Data-Mining
Unter Data-Mining (von, aus ‚Daten‘ und ‚graben‘, ‚abbauen‘, ‚fördern‘) versteht man die systematische Anwendung statistischer Methoden auf große Datenbestände (insbesondere „Big Data“ bzw. Massendaten) mit dem Ziel, neue Querverbindungen und Trends zu erkennen.
Neu!!: Datenbereinigung und Data-Mining · Mehr sehen »
Data-Warehouse-Prozess
Der Data-Warehouse-Prozess ist der Prozess zur Bewirtschaftung und Auswertung eines Data-Warehouses (Datenlager), der die folgenden Schritte umfasst.
Neu!!: Datenbereinigung und Data-Warehouse-Prozess · Mehr sehen »
Deduplikation
Deduplikation (aus englisch deduplication), auch Datendeduplikation oder Deduplizierung, ist in der Informationstechnik ein Prozess, der redundante Daten identifiziert (Duplikaterkennung) und eliminiert, bevor diese auf einen nichtflüchtigen Datenträger geschrieben werden.
Neu!!: Datenbereinigung und Deduplikation · Mehr sehen »
Differenzielle Fehleranalyse
Die differentielle Fehleranalyse (kurz DFA) ist eine Art aktiver Seitenkanalangriff im Bereich der Kryptographie, insbesondere der Kryptoanalyse.
Neu!!: Datenbereinigung und Differenzielle Fehleranalyse · Mehr sehen »
Duplikaterkennung
Unter Duplikaterkennung oder Objektidentifizierung (auch englisch Record Linkage) versteht man verschiedene automatische Verfahren, mit denen sich in Datensätzen Fälle identifizieren lassen, die dasselbe Objekt in der realen Welt repräsentieren.
Neu!!: Datenbereinigung und Duplikaterkennung · Mehr sehen »
Elektronischer Datenaustausch
Elektronischer Datenaustausch (EDI) bezeichnet innerhalb der elektronischen Datenverarbeitung (EDV) als Sammelbegriff den Datenaustausch unter Nutzung elektronischer Transferverfahren.
Neu!!: Datenbereinigung und Elektronischer Datenaustausch · Mehr sehen »
ETL-Prozess
Extract, Transform, Load (ETL) ist ein Prozess, bei dem Daten aus mehreren, gegebenenfalls unterschiedlich strukturierten Datenquellen in einer Zieldatenbank vereinigt werden.
Neu!!: Datenbereinigung und ETL-Prozess · Mehr sehen »
Global-as-View
Global-as-View (GaV, Global-als-Sicht) ist ein Fachbegriff aus der Informatik, der sich auf die Art der Verarbeitung von Daten bezieht.
Neu!!: Datenbereinigung und Global-as-View · Mehr sehen »
Informationsintegration
Unter Informationsintegration versteht man das Zusammenführen von Informationen aus verschiedenen Datenbeständen (Datenquellen) mit in der Regel unterschiedlichen Datenstrukturen in eine gemeinsame einheitliche Datenstruktur.
Neu!!: Datenbereinigung und Informationsintegration · Mehr sehen »
Informationsqualität
Informationsqualität ist das Maß für die Erfüllung der „Gesamtheit der Anforderungen an eine Information bzw.
Neu!!: Datenbereinigung und Informationsqualität · Mehr sehen »
Knowledge Discovery in Databases
Knowledge Discovery in Databases (KDD), auf Deutsch Wissensentdeckung in Datenbanken, ergänzt das oft synonym gebrauchte Data-Mining um vorbereitende Untersuchungen und Transformationen auszuwertender Daten.
Neu!!: Datenbereinigung und Knowledge Discovery in Databases · Mehr sehen »
Maskenprogrammierung
Die Maskenprogrammierung bezeichnet das Erzeugen des vom Anwender gewünschten Dateninhalts eines Festwertspeichers (ROM) mittels einer oder mehrerer Masken durch den Halbleiterhersteller.
Neu!!: Datenbereinigung und Maskenprogrammierung · Mehr sehen »
Mediator-basiertes Informationssystem
Ein Mediator-basiertes Informationssystem ist ein Informationssystem, das mehrere Informationsquellen durch virtuelle Integration zusammenfasst.
Neu!!: Datenbereinigung und Mediator-basiertes Informationssystem · Mehr sehen »
Modellfehler
Ein Modellfehler ergibt sich aus einem fehlerhaften Modellansatz.
Neu!!: Datenbereinigung und Modellfehler · Mehr sehen »
Persistent Staging Area
Die Persistent Staging Area (für dauerhafter Bereitstellungsbereich, kurz PSA) ist in SAP BW eine Datenbanktabelle, die der Struktur (Transferstruktur) der Schnittstelle zum Quellsystem (meistens ein SAP-R/3-System) entspricht.
Neu!!: Datenbereinigung und Persistent Staging Area · Mehr sehen »
Statistik
Statistik „ist die Lehre von Methoden zum Umgang mit quantitativen Informationen“ (Daten).
Neu!!: Datenbereinigung und Statistik · Mehr sehen »
Waikato Environment for Knowledge Analysis
Weka (Waikato Environment for Knowledge Analysis) ist eine Software, die verschiedene Techniken aus den Bereichen Maschinelles Lernen und Data-Mining bereitstellt.
Neu!!: Datenbereinigung und Waikato Environment for Knowledge Analysis · Mehr sehen »
Leitet hier um:
Data Cleaning, Data Cleansing, Data scrubbing, Datenaufbereitung, Datenfehler.