Reinforcement Learning Aktuelle Ansätze verstehen – mit Beispielen in Java und Greenfoot

In uralten Spielen wie Schach oder Go können sich die brillantesten Spieler verbessern, indem sie die von einer Maschine produzierten Strategien studieren. Robotische Systeme üben ihre Bewegungen selbst. In Arcade Games erreichen lernfähige Agenten innerhalb weniger Stunden übermenschliches Niveau....

Full description

Bibliographic Details
Main Author: Lorenz, Uwe
Format: eBook
Language:German
Published: Berlin, Heidelberg Springer Berlin Heidelberg 2024, 2024
Edition:2nd ed. 2024
Subjects:
Online Access:
Collection: Springer eBooks 2005- - Collection details see MPG.ReNa
LEADER 04198nmm a2200373 u 4500
001 EB002203618
003 EBX01000000000000001340819
005 00000000000000.0
007 cr|||||||||||||||||||||
008 240502 ||| ger
020 |a 9783662683118 
100 1 |a Lorenz, Uwe 
245 0 0 |a Reinforcement Learning  |h Elektronische Ressource  |b Aktuelle Ansätze verstehen – mit Beispielen in Java und Greenfoot  |c von Uwe Lorenz 
250 |a 2nd ed. 2024 
260 |a Berlin, Heidelberg  |b Springer Berlin Heidelberg  |c 2024, 2024 
300 |a XVI, 204 S. 76 Abb., 63 Abb. in Farbe  |b online resource 
505 0 |a Bestärkendes Lernen als Teilgebiet des Maschinellen Lernens -- Grundbegriffe des Bestärkenden Lernens -- Optimale Entscheidungen in einem bekannten Umweltsystem -- Entscheiden und Lernen in einem unbekannten Umweltsystem -- Neuronale Netze als Schätzer für Zustandsbewertungen und Aktionspräferenzen -- Werden digitale Agenten bald intelligenter als Menschen sein? -- Leitbilder in der KI. 
653 |a Machine learning 
653 |a Machine Learning 
653 |a Artificial Intelligence 
653 |a Data mining 
653 |a Java 
653 |a Artificial intelligence 
653 |a Data Mining and Knowledge Discovery 
653 |a Java (Computer program language) 
041 0 7 |a ger  |2 ISO 639-2 
989 |b Springer  |a Springer eBooks 2005- 
028 5 0 |a 10.1007/978-3-662-68311-8 
856 4 0 |u https://doi.org/10.1007/978-3-662-68311-8?nosfx=y  |x Verlag  |3 Volltext 
082 0 |a 006.31 
520 |a In uralten Spielen wie Schach oder Go können sich die brillantesten Spieler verbessern, indem sie die von einer Maschine produzierten Strategien studieren. Robotische Systeme üben ihre Bewegungen selbst. In Arcade Games erreichen lernfähige Agenten innerhalb weniger Stunden übermenschliches Niveau. Wie funktionieren diese spektakulären Algorithmen des Bestärkenden Lernens? Mit gut verständlichen Erklärungen und übersichtlichen Beispielen in Java und Greenfoot können Sie sich die Prinzipien des Bestärkenden Lernens aneignen und in eigenen intelligenten Agenten anwenden. Greenfoot (M. Kölling, King’s College London) und das Hamster-Modell (D. Bohles, Universität Oldenburg) sind einfache, aber auch mächtige didaktische Werkzeuge, die entwickelt wurden, um Grundkonzepte der Programmierung zu vermitteln. Wir werden Figuren wie den Java-Hamster zu lernfähigen Agenten machen, die eigenständig ihre Umgebung erkunden.  
520 |a Der Inhalt Bestärkendes Lernen als Teilgebiet des Maschinellen Lernens Grundbegriffe des Bestärkenden Lernens Optimale Entscheidungen in einem bekannten Umweltsystem Entscheiden und Lernen in einem unbekannten Umweltsystem Neuronale Netze als Schätzer für Zustandsbewertungen und Aktionspreferenzen Werden digitale Agenten bald intelligenter als Menschen sein? Leitbilder in der KI Die Zielgruppen Fortbildung für Lehrkräfte, Dozenten, die Einblicke in die Programmierung von lernfähigen Agenten bekommen möchten Techniker, Informatiker, die ML-Algorithmen besser verstehen wollen Programmierer, die Lernalgorithmen selbst implementieren wollen Schüler und Studierende,  
520 |a die sich mit Maschinellem Lernen und intelligenten Agenten beschäftigen Der Autor Uwe Lorenz war nach seinem Studium der Informatik und Philosophie mit Schwerpunkt Künstliche Intelligenz und Maschinelles Lernen an der Humboldt-Universität in Berlin und einigen Jahren als Projektingenieur für 10 Jahr als Gymnasiallehrer für Informatik und Mathematik tätig. Seit seinem Erstkontakt mit Computern Ende der 80er Jahre hat ihn das Thema Künstliche Intelligenz nicht mehr losgelassen. Derzeit arbeitet er als wissenschaftlicher Mitarbeiter in der Arbeitsgruppe Didaktik der Informatik an der Freien Universität Berlin in einem Projekt zur Thematik "Verantwortungsvolle Künstliche Intelligenz in der Lehramtsausbildung" 
520 |a Die zweite Auflage enthält neue Themen wie „Genetische Algorithmen“ und „Künstliche Neugier“ sowie Erklärungen zu aktuellen Algorithmen wie A3C und PPO (wurde u.a. für das Finetuning von ChatGPT verwendet) außerdem Korrekturen und Überarbeitungen.