|
|
|
|
LEADER |
02000nmm a2200253 u 4500 |
001 |
EB000644713 |
003 |
EBX01000000000000000497795 |
005 |
00000000000000.0 |
007 |
cr||||||||||||||||||||| |
008 |
140122 ||| ger |
020 |
|
|
|a 9783322894434
|
100 |
1 |
|
|a Henze, Ernst
|
245 |
0 |
0 |
|a Einführung in die Informationstheorie
|h Elektronische Ressource
|b Studienbuch für Mathematiker, Informatiker, Naturwissenschaftler und Ingenieure ab 3. Semester
|c von Ernst Henze
|
250 |
|
|
|a 4th ed. 1974
|
260 |
|
|
|a Wiesbaden
|b Vieweg+Teubner Verlag
|c 1974, 1974
|
300 |
|
|
|a 82 S.
|b online resource
|
505 |
0 |
|
|a 1. Einleitung -- 1.1. Ziele der Informationstheorie, Überblick -- 1.2. Mathematische Hilfsmittel -- 2. Die Entropie -- 2.1. Die Entropie eines endlichen Wahrscheinlichkeitsraumes -- 2.2. Der Eindeutigkeitssatz für die Entropie -- 3. Informationsquellen -- 3.1. Grundlegende Definitionen -- 3.2. Stationäre Quellen -- 3.3. Ergodische Quellen -- 3.4. Der Satz von McMillan und die asymptotische Gleichverteilung -- 3.5. Beweis des Satzes von McMillan -- 4. Kanäle -- 4.1. Definition des Kanals, Eigenschaften spezieller Kanäle -- 4.2. Anschluß eines Kanals an die speisende Quelle -- 4.3. Die Transinformation oder die Übertragungsgeschwindigkeit der Information -- 4.4. Die Kanalkapazität oder Durchlaßkapazität -- 4.5. Ein Beispiel für einen Kanal mit Störungen -- 5. Der Satz von Feinstein -- 5.1. Formulierung des Satzes -- 5.2. Ein Hilfssatz -- 5.3. Beweis des Satzes von Feinstein -- 6. Die Sätze von Shannon -- 6.1. Codierungen, Übertrager -- 6.2. Hilfssätze -- 6.3. Der erste Satz von Shannon -- 6.4. Der zweite Satz von Shannon -- 7. Abschließende Bemerkungen -- Literatur -- Sachwortverzeichnis
|
653 |
|
|
|a Mathematics, general
|
653 |
|
|
|a Mathematics
|
041 |
0 |
7 |
|a ger
|2 ISO 639-2
|
989 |
|
|
|b SBA
|a Springer Book Archives -2004
|
490 |
0 |
|
|a uni-texte
|
856 |
4 |
0 |
|u https://doi.org/10.1007/978-3-322-89443-4?nosfx=y
|x Verlag
|3 Volltext
|
082 |
0 |
|
|a 510
|