Inhaltsverzeichnis:
Definition - Was bedeutet Gated Recurrent Unit (GRU)?
Eine Gated Recurrent Unit (GRU) ist Teil eines spezifischen Modells eines wiederkehrenden neuronalen Netzwerks, das Verbindungen über eine Folge von Knoten verwenden möchte, um maschinelle Lernaufgaben auszuführen, die mit Speicher und Clustering verbunden sind, beispielsweise bei der Spracherkennung. Gated Recurrent Units helfen dabei, die Eingangsgewichte des neuronalen Netzwerks anzupassen, um das Problem des verschwindenden Gradienten zu lösen, das bei wiederkehrenden neuronalen Netzwerken häufig auftritt.
Techopedia erklärt Gated Recurrent Unit (GRU)
Als Verfeinerung der allgemeinen Struktur eines wiederkehrenden neuronalen Netzwerks haben getaktete wiederkehrende Einheiten ein sogenanntes Update-Gate und ein Reset-Gate. Unter Verwendung dieser beiden Vektoren verfeinert das Modell die Ausgaben, indem der Informationsfluss durch das Modell gesteuert wird. Wie andere Arten von wiederkehrenden Netzwerkmodellen können Modelle mit getakteten wiederkehrenden Einheiten Informationen über einen bestimmten Zeitraum hinweg speichern. Daher besteht eine der einfachsten Möglichkeiten zur Beschreibung dieser Technologietypen darin, dass es sich um einen "speicherzentrierten" Typ eines neuronalen Netzwerks handelt . Im Gegensatz dazu können andere Typen von neuronalen Netzen ohne getastete wiederkehrende Einheiten häufig keine Informationen speichern.
Zusätzlich zur Spracherkennung können neuronale Netzwerkmodelle, die getastete wiederkehrende Einheiten verwenden, für die Erforschung des menschlichen Genoms, die Handschriftenanalyse und vieles mehr verwendet werden. Einige dieser innovativen Netzwerke werden in der Börsenanalyse und in der Regierungsarbeit eingesetzt. Viele von ihnen nutzen die simulierte Fähigkeit von Maschinen, sich Informationen zu merken.