Inhaltsverzeichnis:
Definition - Was bedeutet Deep Q-Networks?
Deep-Q-Netzwerke (DQN) sind neuronale Netzwerke (und / oder verwandte Tools), die Deep-Q-Lernen nutzen, um Modelle wie die Simulation intelligenten Videospiels bereitzustellen. Deep Q Networks ist kein spezifischer Name für einen bestimmten Aufbau eines neuronalen Netzwerks, sondern kann aus Faltungs-neuronalen Netzwerken und anderen Strukturen bestehen, die bestimmte Methoden verwenden, um verschiedene Prozesse kennenzulernen.
Techopedia erklärt Deep Q-Networks
Die Methode des Deep-Q-Lernens verwendet in der Regel eine sogenannte allgemeine Richtlinieniteration, die als Verbindung von Richtlinienbewertung und Richtlinieniteration beschrieben wird, um Richtlinien aus hochdimensionalen sensorischen Eingaben zu lernen.
Ein weit verbreitetes Deep-Q-Netzwerk, das in technischen Publikationen wie "Medium" behandelt wird, verwendet beispielsweise sensorische Informationen aus Atari 2600-Videospielen, um die Ergebnisse zu modellieren. Dies geschieht auf einer sehr grundlegenden Ebene, indem Samples gesammelt, gespeichert und für die Wiedergabe von Erfahrungen verwendet werden, um das Q-Netzwerk zu aktualisieren.
Im Allgemeinen trainieren Deep-Q-Netzwerke Eingaben, die aktive Spieler in Bereichen oder anderen erfahrenen Samples darstellen, und lernen, diese Daten mit den gewünschten Ausgaben abzugleichen. Dies ist eine leistungsstarke Methode für die Entwicklung künstlicher Intelligenz, mit der Spiele wie Schach auf hohem Niveau gespielt oder andere kognitive Aktivitäten auf hohem Niveau ausgeführt werden können Arten von Schnittstellen, die traditionell von menschlichen Agenten verwendet wurden.
Mit anderen Worten, durch intensives Q-Lernen wird der KI-Spieler eher zu einem menschlichen Spieler, der lernt, um die gewünschten Ergebnisse zu erzielen.