AI-United » Allgemein » Der Entscheidungsbaum

Der Entscheidungsbaum

Der Entscheidungsbaum

Der Entscheidungsbaum ist eine serielle Verbindung von Knoten, ein Richtungsdiagramm, das an der Basis mit dem einzelnen Knoten beginnt und sich auf viele Endknoten erweitert, die die Kategorien darstellen, die dieser Baum klassifiziert. Anders gesagt, der Entscheidungsbaum ist ein Schaltungsaufbau, wo der Fluss an den Wurzelknoten anfängt und mit der Entscheidung endet, die an den Blättern getroffenen wird. Es ist ein Instrument der Entscheidungsunterstützung. Es verwendet einen baumähnlichen Graph, um die Vorhersagen zu zeigen, die aus der Reihe von charakteristischen Spaltungen resultieren.

Hier sind einige nützliche Fachbegriffe, die den Entscheidungsbaum beschreiben:

  • Der Wurzelknoten: Der Wurzelknoten befindet sich am Anfang des Baums. Er repräsentiert die Gesamtheit, die analysiert wird. Die Gesamtheit aus den Wurzelknoten wird laut verschiedener Merkmale geteilt, die Untergruppen werden der Reihe nach an jedem Punkt der Beschlussfassung unter dem Wurzelknoten gespaltet.
  • Die Spaltung: Dies ist ein Prozess der Aufteilung des Knotens in zwei oder mehr Unterknoten.
  • Der Entscheidungsknoten: Wenn der Unterknoten in andere Unterknoten gespaltet wird, heißt er Entscheidungsknoten.
  • Der Endknoten: Die Endknoten sind die Knoten, die nicht gespaltet werden.
  • Das Beschneiden: Das Beschneiden ist die Behebung von Unterknoten des Stammknotens. Der Baum wird größer, wenn er gespaltet wird, und kleiner, wenn er beschnitten wird.
  • Der Subbaum: Der Unterabschnitt des Entscheidungsbaums heißt der Subbaum.
  • Der Stammknoten und der absteigende Knoten: Dies sind die Relativgrößen. Jeder Knoten, der zum anderen Knoten gehört, ist der absteigende Knoten oder der Unterknoten. Jeder Knoten, der diesem absteigenden Knoten vorangeht, heißt Stammknoten.

Der Entscheidungsbaum ist ein populärer Algorithmus aus folgenden Gründen:

  • Die Erklärungskraft: Die Ausgabedaten des Entscheidungsbaums sind interpretierbar. Es kann von Menschen ohne mathematische oder analytische Vorbereitung verstanden werden. Es werden keine statistischen Kenntnisse benötigt, um sie zu interpretieren.
  • Die explorative Datenanalyse: Entscheidungsbäume geben den Analytikern die Möglichkeit veränderliche Parameter und wichtige Verhältnisse zwischen zwei oder mehr veränderlichen Parametern zu erkennen. Sie helfen, das Signal in den Eingangsvariablen aufzubringen.
  • Die minimale Datenlöschung: Da die Entscheidungsbäume den Ausreißern und den abwesenden Werten gegenüber fehlertolerant sind, erfordern sie weniger Datenlöschung als andere Algorithmen.
  • Jeder Datentyp: Entscheidungsbäume erledigen Klassifikationen, die sich auf den numerischen und diskreten Variablen gründen.
  • Nichtparametrisch: Der Entscheidungsbaum ist ein nichtparametrischer Algorithmus im Unterschied zu den Neuronennetzen, die über die Tensormultiplikation unter Einsatz der großen Menge von Faktoren in einen Tensor verwandelte Eintrittsdaten bearbeiten.
Nachteile
  • Das übermäßige Lernen: Das übermäßige Lernen ist ein standardmäßiger Defekt von Entscheidungsbäumen. Das Festsetzen von Beschränkungen für die Modellparameter (die Tiefenbegrenzung) und das Vereinfachen des Modells durch das Beschneiden sind Methoden, die helfen, den Entscheidungsbaum zu berichtigen.
  • Das Vorhersagen von kontinuierlichen Variablen: Entscheidungsbäume können kontinuierlichen numerischen Eingaben vornehmen, deshalb sind sie keine gute Methode solche Werte vorherzusagen. Die Vorhersagen von Entscheidungsbäumen sollten in diskrete Kategorien eingeteilt werden. Das führt zum Informationsverlust, falls das Modell mit den kontinuierlichen Werten gebraucht wird.
  • Das schwere Konstruieren von Merkmalen: Die Kehrseite der Erklärungskraft des Entscheidungsbaums besteht darin, dass es das schwere Konstruieren von Merkmalen verlangt. Der Umgang mit unstrukturierten Daten macht Entscheidungsbäume suboptimal. Neuronennetze sind dabei eindeutig besser.

Es ist bemerkenswert, dass die Konzeption von Entscheidungsbäumen einfach, aber ihre Implementierung nicht trivial ist. Sie benötigen, naiv implementiert, etwas nach Art von O(kNlogN) für jede Spaltung. Man sollte das mit der Anzahl von Blättern (2^depth) und mit der Anzahl von Bäumen im Wald multiplizieren.

Quelle

AI-United-Redaktion

Kommentar hinzufügen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.