Logo
Unionpedia
Kommunikation
Jetzt bei Google Play
Neu! Laden Sie Unionpedia auf Ihrem Android™-Gerät herunter!
Frei
Schneller Zugriff als Browser!
 

Datenbereinigung

Index Datenbereinigung

Zur Datenbereinigung (oder data editing) gehören verschiedene Verfahren zum Entfernen und Korrigieren von Datenfehlern in Datenbanken oder anderen Informationssystemen.

19 Beziehungen: Aggregator, Bedienfehler, Data-Mining, Data-Warehouse-Prozess, Deduplikation, Differenzielle Fehleranalyse, Duplikaterkennung, Elektronischer Datenaustausch, ETL-Prozess, Global-as-View, Informationsintegration, Informationsqualität, Knowledge Discovery in Databases, Maskenprogrammierung, Mediator-basiertes Informationssystem, Modellfehler, Persistent Staging Area, Statistik, Waikato Environment for Knowledge Analysis.

Aggregator

Ein Aggregator (zu für „hinzunehmen“ oder „ansammeln“) ist eine Software oder ein Dienstleister, der (digitale) Medieninhalte sammelt, aufbereitet und ggf.

Neu!!: Datenbereinigung und Aggregator · Mehr sehen »

Bedienfehler

Bedienfehler (besser: Bedienungsfehler) sind Fehler, die sich aus der falschen Bedienung eines technischen Systems, einer technischen Anlage oder eines Geräts ergeben.

Neu!!: Datenbereinigung und Bedienfehler · Mehr sehen »

Data-Mining

Unter Data-Mining (von, aus ‚Daten‘ und ‚graben‘, ‚abbauen‘, ‚fördern‘) versteht man die systematische Anwendung statistischer Methoden auf große Datenbestände (insbesondere „Big Data“ bzw. Massendaten) mit dem Ziel, neue Querverbindungen und Trends zu erkennen.

Neu!!: Datenbereinigung und Data-Mining · Mehr sehen »

Data-Warehouse-Prozess

Der Data-Warehouse-Prozess ist der Prozess zur Bewirtschaftung und Auswertung eines Data-Warehouses (Datenlager), der die folgenden Schritte umfasst.

Neu!!: Datenbereinigung und Data-Warehouse-Prozess · Mehr sehen »

Deduplikation

Deduplikation (aus englisch deduplication), auch Datendeduplikation oder Deduplizierung, ist in der Informationstechnik ein Prozess, der redundante Daten identifiziert (Duplikaterkennung) und eliminiert, bevor diese auf einen nichtflüchtigen Datenträger geschrieben werden.

Neu!!: Datenbereinigung und Deduplikation · Mehr sehen »

Differenzielle Fehleranalyse

Die differentielle Fehleranalyse (kurz DFA) ist eine Art aktiver Seitenkanalangriff im Bereich der Kryptographie, insbesondere der Kryptoanalyse.

Neu!!: Datenbereinigung und Differenzielle Fehleranalyse · Mehr sehen »

Duplikaterkennung

Unter Duplikaterkennung oder Objektidentifizierung (auch englisch Record Linkage) versteht man verschiedene automatische Verfahren, mit denen sich in Datensätzen Fälle identifizieren lassen, die dasselbe Objekt in der realen Welt repräsentieren.

Neu!!: Datenbereinigung und Duplikaterkennung · Mehr sehen »

Elektronischer Datenaustausch

Elektronischer Datenaustausch (EDI) bezeichnet innerhalb der elektronischen Datenverarbeitung (EDV) als Sammelbegriff den Datenaustausch unter Nutzung elektronischer Transferverfahren.

Neu!!: Datenbereinigung und Elektronischer Datenaustausch · Mehr sehen »

ETL-Prozess

Extract, Transform, Load (ETL) ist ein Prozess, bei dem Daten aus mehreren, gegebenenfalls unterschiedlich strukturierten Datenquellen in einer Zieldatenbank vereinigt werden.

Neu!!: Datenbereinigung und ETL-Prozess · Mehr sehen »

Global-as-View

Global-as-View (GaV, Global-als-Sicht) ist ein Fachbegriff aus der Informatik, der sich auf die Art der Verarbeitung von Daten bezieht.

Neu!!: Datenbereinigung und Global-as-View · Mehr sehen »

Informationsintegration

Unter Informationsintegration versteht man das Zusammenführen von Informationen aus verschiedenen Datenbeständen (Datenquellen) mit in der Regel unterschiedlichen Datenstrukturen in eine gemeinsame einheitliche Datenstruktur.

Neu!!: Datenbereinigung und Informationsintegration · Mehr sehen »

Informationsqualität

Informationsqualität ist das Maß für die Erfüllung der „Gesamtheit der Anforderungen an eine Information bzw.

Neu!!: Datenbereinigung und Informationsqualität · Mehr sehen »

Knowledge Discovery in Databases

Knowledge Discovery in Databases (KDD), auf Deutsch Wissensentdeckung in Datenbanken, ergänzt das oft synonym gebrauchte Data-Mining um vorbereitende Untersuchungen und Transformationen auszuwertender Daten.

Neu!!: Datenbereinigung und Knowledge Discovery in Databases · Mehr sehen »

Maskenprogrammierung

Die Maskenprogrammierung bezeichnet das Erzeugen des vom Anwender gewünschten Dateninhalts eines Festwertspeichers (ROM) mittels einer oder mehrerer Masken durch den Halbleiterhersteller.

Neu!!: Datenbereinigung und Maskenprogrammierung · Mehr sehen »

Mediator-basiertes Informationssystem

Ein Mediator-basiertes Informationssystem ist ein Informationssystem, das mehrere Informationsquellen durch virtuelle Integration zusammenfasst.

Neu!!: Datenbereinigung und Mediator-basiertes Informationssystem · Mehr sehen »

Modellfehler

Ein Modellfehler ergibt sich aus einem fehlerhaften Modellansatz.

Neu!!: Datenbereinigung und Modellfehler · Mehr sehen »

Persistent Staging Area

Die Persistent Staging Area (für dauerhafter Bereitstellungsbereich, kurz PSA) ist in SAP BW eine Datenbanktabelle, die der Struktur (Transferstruktur) der Schnittstelle zum Quellsystem (meistens ein SAP-R/3-System) entspricht.

Neu!!: Datenbereinigung und Persistent Staging Area · Mehr sehen »

Statistik

Statistik „ist die Lehre von Methoden zum Umgang mit quantitativen Informationen“ (Daten).

Neu!!: Datenbereinigung und Statistik · Mehr sehen »

Waikato Environment for Knowledge Analysis

Weka (Waikato Environment for Knowledge Analysis) ist eine Software, die verschiedene Techniken aus den Bereichen Maschinelles Lernen und Data-Mining bereitstellt.

Neu!!: Datenbereinigung und Waikato Environment for Knowledge Analysis · Mehr sehen »

Leitet hier um:

Data Cleaning, Data Cleansing, Data scrubbing, Datenaufbereitung, Datenfehler.

AusgehendeEingehende
Hallo! Wir sind auf Facebook! »