Glossar zum maschinellen Lernen: Sequenzmodelle

Mit Sammlungen den Überblick behalten Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.

Diese Seite enthält Begriffe aus dem Glossar für Sequenzmodelle. Alle Glossarbegriffe finden Sie hier.

B

Bigram

#seq
#language

Ein N-Gramm, in dem N = 2.

E

Problem mit explodierendem Farbverlauf

#seq

Die Neigung von Gradienten in tiefen neuronalen Netzwerken (insbesondere wiederkehrende neuronale Netzwerke) zu überraschend steilen (hohen). Steile Gradienten verursachen häufig sehr große Aktualisierungen der Gewichtung jedes Knotens in einem neuronalen Deep-Learning-Netzwerk.

Modelle, die an einem explodierenden Gradientenproblem leiden, werden schwer oder unmöglich zum Trainieren. Dieses Problem lässt sich durch Verlaufsüberschneidungen beheben.

Vergleichen Sie sie mit Problem mit Farbverlauf beheben.

F

Tor vergessen

#seq

Der Teil einer Zelle des langfristigen Gedächtnisses, der den Informationsfluss durch die Zelle reguliert. Vergiss Tore, um den Kontext beizubehalten, indem du entscheidest, welche Informationen aus dem Zellenstatus verworfen werden sollen.

G

Farbverlaufs-Clipping

#seq

Ein häufig verwendeter Mechanismus, um das Problem mit explodierenden Farbverläufen zu reduzieren, indem der Höchstwert von Gradienten beim Gradientenabstieg zum Trainieren eines Modells künstlich begrenzt wird.

l

Langzeitspeicher (LSTM)

#seq

Ein Zellentyp in einem wiederkehrenden neuronalen Netzwerk, der zur Verarbeitung von Datensequenzen in Anwendungen wie Handschrifterkennung, maschineller Übersetzung und Bilduntertiteln verwendet wird. LSTMs beheben das vorläufige Gradientenproblem, das beim Trainieren von RNNs aufgrund langer Datensequenzen auftritt, indem der Verlauf in einem internen Speicherstatus basierend auf neuen Eingaben und Kontext aus vorherigen Zellen in der RNN beibehalten wird.

Logo: LSTM

#seq

Abkürzung für Long Short-Term Memory.

N

N-Gramm

#seq
#language

Eine geordnete Folge von N Wörtern. Beispiel: wahrhaftig ist ein 2 Gramm. Da die Reihenfolge relevant ist, ist wirklich ein anderes 2 Gramm als echt verrückt.

N Name(n) für diese Art von N-Gramm Beispiele
2 Bigram oder 2 Gramm gehen, zu essen gehen, zu essen gehen, zu essen gehen
3 Trigramm oder 3 Gramm Ich habe zu viel, drei blinde Mäuse gezögert, die Mautglocken
4 4 Gramm gehen im Park, Staub im Wind, der Junge hat Linsen gegessen

Viele Natural Language Understanding-Modelle verwenden N-Gramme, um das nächste Wort vorherzusagen, das der Nutzer eingeben oder sagen wird. Beispiel: Ein Nutzer gibt drei Jalousien ein. Ein NLU-Modell auf Basis von Trigrammen würde wahrscheinlich vorhersagen, dass der Nutzer als Nächstes Mäuse eingibt.

Kontrastiere N-Gramme mit Bag of Words, bei denen es sich um ungeordnete Wörter handelt.

R

wiederkehrendes neuronales Netzwerk

#seq

Ein neuronales Netzwerk, das absichtlich mehrmals ausgeführt wird, wobei Teile von jeder Ausführung in die nächste Ausführung eingespeist werden. Insbesondere enthalten ausgeblendete Ebenen aus der vorherigen Ausführung einen Teil der Eingabe für dieselbe ausgeblendete Ebene bei der nächsten Ausführung. Wiederkehrende neuronale Netzwerke sind besonders nützlich, um Sequenzen auszuwerten. So können die verborgenen Ebenen aus vorherigen Ausführungen des neuronalen Netzwerks in früheren Teilen der Sequenz lernen.

Die folgende Abbildung zeigt beispielsweise ein wiederkehrendes neuronales Netzwerk, das viermal ausgeführt wird. Beachten Sie, dass die Werte, die bei der ersten Ausführung in den ausgeblendeten Ebenen erkannt wurden, in die ausgeblendeten Ebenen der zweiten Ausführung aufgenommen werden. Analog dazu werden die bei der zweiten Ausführung in der ausgeblendeten Ebene erlernten Werte Teil der dritten ausgeblendeten Ebene. Auf diese Weise wird das wiederkehrende neuronale Netzwerk schrittweise trainiert und die Bedeutung der gesamten Sequenz vorhergesagt, anstatt nur die Bedeutung einzelner Wörter.

Eine RNN, die viermal ausgeführt wird, um vier Eingabewörter zu verarbeiten.

RMN

#seq

Abkürzung für wiederkehrende neuronale Netzwerke.

S

Sequenzmodell

#seq

Ein Modell, dessen Eingaben eine sequenzielle Abhängigkeit haben. Zum Beispiel die Vorhersage des nächsten angesehenen Videos aus einer Sequenz zuvor angesehener Videos.

T

Timestep

#seq

Eine nicht gerollte Zelle in einem wiederkehrenden neuronalen Netzwerk. Die folgende Abbildung zeigt beispielsweise drei Zeitschritte (mit den tiefgestellten Zeichen t-1, t und t+1):

Drei Zeitschritte in einem wiederkehrenden neuronalen Netzwerk. Die Ausgabe des ersten Timestep wird zum Eingabe in den zweiten Timestep. Die Ausgabe des zweiten Schritts wird zum dritten Schritt.

Trigramm

#seq
#language

Ein N-Gramm, in dem N = 3.

V

Problem mit Farbverlauf

#seq

Die Neigung der Gradienten früher verborgener Schichten einiger tiefer neuronaler Netzwerke, die erstaunlich flach (niedrig) werden. Immer niedrigere Gradienten führen zu immer kleineren Änderungen der Gewichtungen für Knoten in einem neuronalen Deep-Learning-Netzwerk, was zu wenig oder gar keinem Lernprozess führt. Modelle, die an dem verschwindenden Gradienten leiden, sind schwer oder unmöglich zu trainieren. Langzeit-Arbeitsspeicher-Zellen beheben dieses Problem.

Vergleichen Sie das Problem mit einem explodierenden Farbverlauf.