Webbasierte Datenintegration Ansätze zur Messung und Sicherung der Informationsqualität in heterogenen Datenbeständen unter Verwendung eines vollständig webbasierten Werkzeuges

Unternehmen und Organisationen verwenden heute enorme Menge an Daten, die durch verschiedene IT-Systeme erzeugt werden. Durch die Heterogenität der Datensätze ist eine ganzheitliche Sicht auf Informationen eine große Herausforderung, deren Lösung aber einen immensen Vorteil bietet. Um eine Integrati...

Full description

Bibliographic Details
Main Authors: Helmis, Steven, Hollmann, Robert (Author)
Format: eBook
Language:German
Published: Wiesbaden Vieweg+Teubner Verlag 2009, 2009
Edition:1st ed. 2009
Series:Ausgezeichnete Arbeiten zur Informationsqualität
Subjects:
Online Access:
Collection: Springer eBooks 2005- - Collection details see MPG.ReNa
LEADER 03055nmm a2200361 u 4500
001 EB000393889
003 EBX01000000000000000246942
005 00000000000000.0
007 cr|||||||||||||||||||||
008 130626 ||| ger
020 |a 9783834892805 
100 1 |a Helmis, Steven 
245 0 0 |a Webbasierte Datenintegration  |h Elektronische Ressource  |b Ansätze zur Messung und Sicherung der Informationsqualität in heterogenen Datenbeständen unter Verwendung eines vollständig webbasierten Werkzeuges  |c von Steven Helmis, Robert Hollmann 
250 |a 1st ed. 2009 
260 |a Wiesbaden  |b Vieweg+Teubner Verlag  |c 2009, 2009 
300 |a XXI, 198 S.  |b online resource 
505 0 |a Datenbereinigung und Konsolidierung von heterogenen Datenbeständen -- Datenqualität -- Dimensionen und Architektur der Informationsintegration -- Data Cleaning -- Konzeption des Data Cleaning Toolkits -- Implementierung -- Zusammenfassung und Ausblick -- Auffinden und Bereinigen von Duplikaten in heterogenen Datenbeständen -- Informationen, Daten und Wissen- ein Definitionsversuch -- Informationsintegration im Fokus der Datenqualität -- Duplikate in Datenbeständen -- Konkrete Verfahren zur Dublettenauffindung und Klassifikation -- Konzept der Datenqualitätsanwendung „DCT“ -- Implementierung, ausgewählte Algorithmen- und Datenstrukturen -- Fazit und Ausblick 
653 |a Computer science 
653 |a Computer Science 
653 |a Data Structures and Information Theory 
653 |a Database Management 
653 |a Information theory 
653 |a Data structures (Computer science) 
653 |a Database management 
700 1 |a Hollmann, Robert  |e [author] 
041 0 7 |a ger  |2 ISO 639-2 
989 |b Springer  |a Springer eBooks 2005- 
490 0 |a Ausgezeichnete Arbeiten zur Informationsqualität 
028 5 0 |a 10.1007/978-3-8348-9280-5 
856 4 0 |u https://doi.org/10.1007/978-3-8348-9280-5?nosfx=y  |x Verlag  |3 Volltext 
082 0 |a 003.54 
082 0 |a 005.73 
520 |a Unternehmen und Organisationen verwenden heute enorme Menge an Daten, die durch verschiedene IT-Systeme erzeugt werden. Durch die Heterogenität der Datensätze ist eine ganzheitliche Sicht auf Informationen eine große Herausforderung, deren Lösung aber einen immensen Vorteil bietet. Um eine Integration verschiedener Ausgangssysteme zu erhalten, spielt die Informationsqualität, das Messen dieser, wie auch die Sicherung der Datenqualität eine große Rolle. Die Autoren diskutieren die Problematik der Datenqualität im Fokus eines Integrationsprozesses. Sie stellen am Markt verfügbare Systeme zur Datenintegration und –analyse vor und entwickeln, basierend auf einer Anforderungsanalyse, ein webbasiertes Werkzeug, welches die Integration der Daten ermöglicht und die Qualität der Datenbestände testet. Die Analyse der Bestände, das Auffinden von Duplikaten und die Bereinigung der Daten stehen dabei im Fokus dieses Werkzeuges, welches eine Grundlage für eine umfassende Datenqualitäts- und Bereinigungslösung darstellen kann