Algorithmische Informationstheorie Statistische Informationstheorie und Anwendungen auf algorithmische Fragestellungen

Dieses Buch beinhaltet eine Einführung in die statistische Informationstheorie, die von Shannon 1948 begründet wurde. Ich gebe dieses Buch heraus, da die Vorlesung auch den Anwendungen dieser Theorie auf algorithmische Probleme nachgeht. Daß die Entropie einer Quelle als untere Schranke für die Lauf...

Full description

Bibliographic Details
Main Author: Hotz, Günther
Format: eBook
Language:German
Published: Wiesbaden Vieweg+Teubner Verlag 1997, 1997
Edition:1st ed. 1997
Series:Teubner Texte zur Informatik
Subjects:
Online Access:
Collection: Springer Book Archives -2004 - Collection details see MPG.ReNa
LEADER 02971nmm a2200349 u 4500
001 EB000637973
003 EBX01000000000000000491055
005 00000000000000.0
007 cr|||||||||||||||||||||
008 140122 ||| ger
020 |a 9783322810366 
100 1 |a Hotz, Günther 
245 0 0 |a Algorithmische Informationstheorie  |h Elektronische Ressource  |b Statistische Informationstheorie und Anwendungen auf algorithmische Fragestellungen  |c von Günther Hotz 
250 |a 1st ed. 1997 
260 |a Wiesbaden  |b Vieweg+Teubner Verlag  |c 1997, 1997 
300 |a 143 S. 2 Abb  |b online resource 
505 0 |a 1 Statistische Informationstheorie im Falle diskreter ungestörter Kanäle -- 1.1 Definition der Entropie einer Quelle -- 1.2 Der Kodierungssatz im störungsfreien Fall -- 1.3 Ordnungserhaltende Kodierungen -- 1.4 Anwendungen des Kodierungstheorems -- 1.5 Kritische Würdigung des Kodierungstheorems -- 2 Informationstheorie bei Markovketten -- 2.1 Quellen mit Gedächtnis -- 2.2 Definition von Markovketten -- 2.3 Entropie von Markovprozessen -- 2.4 Das Kodierungstheorem für Markovprozesse -- 2.5 Suchgraphen -- 2.6 ?-Zerlegungen von Markovquellen -- 2.7 ?-Überdeckungen von Markovprozessen -- 2.8 Sortieren und andere Anwendungen -- 3 Die Kapazität von diskreten Kanälen -- 3.1 Gestörte diskrete Kanäle ohne Gedächtnis -- 3.2 Der Satz von Fano -- 3.3 Das Kodierungstheorem für Kanäle ohne Gedächtnis -- Ausblick -- Historische Bemerkungen -- Aufgaben -- zu Kapitel 1 -- zu Kapitel 2 -- zu Kapitel 3 
653 |a Applied mathematics 
653 |a Coding theory 
653 |a Engineering mathematics 
653 |a Coding and Information Theory 
653 |a Information and Communication, Circuits 
653 |a Applications of Mathematics 
653 |a Information theory 
653 |a Data structures (Computer science) 
653 |a Data Structures 
041 0 7 |a ger  |2 ISO 639-2 
989 |b SBA  |a Springer Book Archives -2004 
490 0 |a Teubner Texte zur Informatik 
856 4 0 |u https://doi.org/10.1007/978-3-322-81036-6?nosfx=y  |x Verlag  |3 Volltext 
082 0 |a 003.54 
520 |a Dieses Buch beinhaltet eine Einführung in die statistische Informationstheorie, die von Shannon 1948 begründet wurde. Ich gebe dieses Buch heraus, da die Vorlesung auch den Anwendungen dieser Theorie auf algorithmische Probleme nachgeht. Daß die Entropie einer Quelle als untere Schranke für die Laufzeit von Suchprogrammen verwendet werden kann, ist seit 20 Jahren bekannt, ohne daß aber die Konzepte der Informationstheorie eine systematische Anwendung in diesem Bereich erfahren haben. So wurden Markovquellen im Zusammenhang mit effizienten Suchverfahren bei geordneten Schlüsseln erstmals 1992 vom Autor diskutiert. Die Vorlesung geht auf die Frage der Gewinnung unterer Schranken für die mittlere Laufzeit von Algorithmen ein und versucht die Kodierungstheoreme zur Konstruktion effizienter Algorithmen zu nutzen. Günter Hotz