|
|
|
|
LEADER |
03055nmm a2200361 u 4500 |
001 |
EB000393889 |
003 |
EBX01000000000000000246942 |
005 |
00000000000000.0 |
007 |
cr||||||||||||||||||||| |
008 |
130626 ||| ger |
020 |
|
|
|a 9783834892805
|
100 |
1 |
|
|a Helmis, Steven
|
245 |
0 |
0 |
|a Webbasierte Datenintegration
|h Elektronische Ressource
|b Ansätze zur Messung und Sicherung der Informationsqualität in heterogenen Datenbeständen unter Verwendung eines vollständig webbasierten Werkzeuges
|c von Steven Helmis, Robert Hollmann
|
250 |
|
|
|a 1st ed. 2009
|
260 |
|
|
|a Wiesbaden
|b Vieweg+Teubner Verlag
|c 2009, 2009
|
300 |
|
|
|a XXI, 198 S.
|b online resource
|
505 |
0 |
|
|a Datenbereinigung und Konsolidierung von heterogenen Datenbeständen -- Datenqualität -- Dimensionen und Architektur der Informationsintegration -- Data Cleaning -- Konzeption des Data Cleaning Toolkits -- Implementierung -- Zusammenfassung und Ausblick -- Auffinden und Bereinigen von Duplikaten in heterogenen Datenbeständen -- Informationen, Daten und Wissen- ein Definitionsversuch -- Informationsintegration im Fokus der Datenqualität -- Duplikate in Datenbeständen -- Konkrete Verfahren zur Dublettenauffindung und Klassifikation -- Konzept der Datenqualitätsanwendung „DCT“ -- Implementierung, ausgewählte Algorithmen- und Datenstrukturen -- Fazit und Ausblick
|
653 |
|
|
|a Computer science
|
653 |
|
|
|a Computer Science
|
653 |
|
|
|a Data Structures and Information Theory
|
653 |
|
|
|a Database Management
|
653 |
|
|
|a Information theory
|
653 |
|
|
|a Data structures (Computer science)
|
653 |
|
|
|a Database management
|
700 |
1 |
|
|a Hollmann, Robert
|e [author]
|
041 |
0 |
7 |
|a ger
|2 ISO 639-2
|
989 |
|
|
|b Springer
|a Springer eBooks 2005-
|
490 |
0 |
|
|a Ausgezeichnete Arbeiten zur Informationsqualität
|
028 |
5 |
0 |
|a 10.1007/978-3-8348-9280-5
|
856 |
4 |
0 |
|u https://doi.org/10.1007/978-3-8348-9280-5?nosfx=y
|x Verlag
|3 Volltext
|
082 |
0 |
|
|a 003.54
|
082 |
0 |
|
|a 005.73
|
520 |
|
|
|a Unternehmen und Organisationen verwenden heute enorme Menge an Daten, die durch verschiedene IT-Systeme erzeugt werden. Durch die Heterogenität der Datensätze ist eine ganzheitliche Sicht auf Informationen eine große Herausforderung, deren Lösung aber einen immensen Vorteil bietet. Um eine Integration verschiedener Ausgangssysteme zu erhalten, spielt die Informationsqualität, das Messen dieser, wie auch die Sicherung der Datenqualität eine große Rolle. Die Autoren diskutieren die Problematik der Datenqualität im Fokus eines Integrationsprozesses. Sie stellen am Markt verfügbare Systeme zur Datenintegration und –analyse vor und entwickeln, basierend auf einer Anforderungsanalyse, ein webbasiertes Werkzeug, welches die Integration der Daten ermöglicht und die Qualität der Datenbestände testet. Die Analyse der Bestände, das Auffinden von Duplikaten und die Bereinigung der Daten stehen dabei im Fokus dieses Werkzeuges, welches eine Grundlage für eine umfassende Datenqualitäts- und Bereinigungslösung darstellen kann
|