Neuronale Netzwerke mit mehreren Klassen: Eins im Vergleich zu allen

Mit Eine im Vergleich können Sie die binäre Klassifizierung nutzen. Bei einem Klassifizierungsproblem mit N möglichen Lösungen besteht eine Ein-gegen-Alle-Lösung aus N separaten binären Klassifikatoren – einem binären Klassifikator für jedes mögliche Ergebnis. Während des Trainings wird das Modell eine Reihe von binären Klassifikatoren durchlaufen, die jeweils so trainiert werden, dass eine separate Klassifizierungsfrage beantwortet wird. Wenn ein Bild von einem Hund aufgenommen wird, werden z. B. fünf verschiedene Erkennungssysteme trainiert, bei denen vier das Bild als negatives Beispiel sehen (nicht ein Apfel, kein Bär usw.) und eines mit einer positiven Darstellung (ein Hund). Das bedeutet:

  1. Ist dieses Bild ein Apfel? Nein.
  2. Ist dieses Bild ein Bär? Nein.
  3. Ist dieses Bild eine Süßigkeit? Nein.
  4. Ist dieses Bild ein Hund? Ja.
  5. Ist dieses Bild ein Ei? Nein.

Dieser Ansatz ist ziemlich vernünftig, wenn die Gesamtzahl der Klassen klein ist, aber mit zunehmender Anzahl von Klassen auch zunehmend ineffizienter wird.

Wir können ein erheblich effizienteres One-vs-All-Modell mit einem tiefen neuronalen Netzwerk erstellen, in dem jeder Ausgabeknoten eine andere Klasse darstellt. Die folgende Abbildung empfiehlt diesen Ansatz:

Ein neuronales Netzwerk mit fünf verborgenen Ebenen und fünf Ausgabeebenen.

Abbildung 1: Ein neuronales Netzwerk im Vergleich zu allen.