Neuronale Netzwerke mit mehreren Klassen

Früher stießen Sie auf binäre Klassifizierungsmodelle, die aus zwei möglichen Optionen auswählen konnten, z. B.:

  • Eine bestimmte E-Mail ist Spam oder kein Spam.
  • Ein bestimmter Tumor ist bösartig oder gutartig.

In diesem Modul untersuchen wir die Klassifizierung mit mehreren Klassen, wobei verschiedene Möglichkeiten zur Auswahl stehen. Beispiel:

  • Ist der Hund ein Bär, ein Bhut oder ein Bluthund?
  • Ist diese Blume eine sibirische Iris, die niederländische Iris, die Blaue Flaggen-Iris oder die Zwergbart-Iris?
  • Ist das ein Flugzeug Boeing 747, Airbus 320, Boeing 777 oder Embraer 190?
  • Ist das ein Bild von einem Apfel, Bär, Süßigkeit, Hund oder Ei?

Bei einigen realen Problemen mit mehreren Klassen müssen Millionen separate Klassen ausgewählt werden. Stellen Sie sich beispielsweise ein Klassifizierungsmodell mit mehreren Klassen vor, das das Bild so gut wie alles identifizieren kann.

Neuronale Netzwerke mit mehreren Klassen

  • Die logistische Regression bietet nützliche Wahrscheinlichkeiten für Probleme mit binären Klassen.
    • Spam / Kein Spam
    • Klick / Kein Klick
  • Was ist mit Problemen mit mehreren Klassen?
    • Apfel, Banane, Auto, Kardiologe, ..., Fußschild, Zebra, Zoo
    • Rot, Orange, Gelb, Grün, Blau, Indigo, Violett
    • Tier, Gemüse, Mineralien
  • Eine eindeutige Ausgabe für jede mögliche Klasse erstellen
  • Trainiert dies mit dem Signal meiner Klasse & im Vergleich zu allen anderen Klassen
  • Kann in einem tiefen Netzwerk oder mit separaten Modellen ausgeführt werden
Ein neuronales Netzwerk mit fünf verborgenen Ebenen und fünf Ausgabeebenen.
  • Fügen Sie eine weitere Einschränkung hinzu: Legen Sie fest, dass die Ausgabe aller Ein-gegen-Alle-Knoten zusammen 1,0 ergeben muss
  • Die zusätzliche Einschränkung hilft, das Training schnell zu konvergieren.
  • Außerdem können Ausgaben als Wahrscheinlichkeiten interpretiert werden
Ein tiefes neuronales Netz mit einer Eingabeebene, zwei nicht versteckten Ebenen, dann einer Softmax-Ebene und schließlich einer Ausgabeebene mit derselben Anzahl von Knoten wie die Softmax-Ebene.
  • Klassifizierung mit einem einzigen Label:
    • Ein Beispiel kann nur in einem Kurs Mitglied sein.
    • Die Einschränkung, dass sich Klassen gegenseitig ausschließen, ist eine hilfreiche Struktur.
    • Dies ist nützlich, um dies im Verlust zu codieren.
    • Verwenden Sie für alle möglichen Klassen einen Softmax-Verlust.
  • Klassifizierung mit mehreren Klassen, mehrere Labels:
    • Ein Beispiel kann Mitglied mehrerer Klassen sein.
    • Keine zusätzlichen Einschränkungen bei der Klassenmitgliedschaft zur Ausnutzung.
    • Ein logistischer Regressionsverlust für jede mögliche Klasse.
  • Softmax
    • Brute-Force-Wert; berechnet für alle Klassen.
  • Softmax
    • Brute-Force-Wert; berechnet für alle Klassen.
  • Kandidatenauswahl
    • Berechnet für alle positiven Labels, jedoch nur für eine zufällige Stichprobe mit negativen Ergebnissen.