AI-United » Allgemein » Das Gedankenexperiment (Chinesisches Zimmer) in der künstlichen Intelligenz

Das Gedankenexperiment (Chinesisches Zimmer) in der künstlichen Intelligenz

Eine Parallele zwischen Hidden Markov Modellen in einer realen KI-Situation.

Chinesisches Zimmer in der künstlichen Intelligenz

Wir haben bereits darüber gesprochen, „was in einem Hidden Markov Modell verborgen ist.“ Eine andere reale Situation bezieht sich auf das Gedankenexperiment (Chinesisches Zimmer) in der künstlichen Intelligenz. In diesem Artikel wird das Experiment aus der Perspektive dieser Zustände untersucht. Markov Modelle basieren auch auf Zuständen. Erinnern wir uns zunächst an die Grundlagen der HMMs, da sie auch das Gedankenexperiment betreffen. Durch HMMs kann man Prozesse mit einem verborgenen Zustand auf der Basis der Beobachtungsparameter modellieren.

Zu den Hauptproblemen, die mit Hilfe von HMMs gelöst werden, gehören das Ermitteln der Wahrscheinlichkeit, dass eine Reihe von Beobachtungen von einem bestimmten Modell stammen, sowie auch das Ermitteln der wahrscheinlichsten Sequenz verborgener Zustände.

Das Gedankenexperiment (Chinesisches Zimmer): Definition

Das Gedankenexperiment wurde von John Searle in seinem Aufsatz Minds, Brains and Programs eingeführt, der 1980 in der Zeitschrift Behavioral and Brain Sciences veröffentlicht wurde. Laut dem Gedankenexperiment kann ein Programm einem Computer keine „menschliche Intelligenz“ oder kein „menschliches Verständnis“ vermitteln, wenn sich das Computerprogramm intelligent oder menschenähnlich benimmt.

Quelle: Wikicomms

Die Bedeutung des Gedankenexperiments heutzutage

Dies wird in der Welt der Chatbots immer wichtiger. In diesem Gedankenexperiment bekommt ein Mensch im „chinesischen Zimmer“ (d.h. in einem geschlossenen Raum) Fragen von außerhalb des Raums und benutzt eine Bibliothek mit Büchern, um eine Antwort zu formulieren. Die Person im Raum verfügt über eine Liste chinesischer Zeichen und ein Handbuch, das ausführlich die Regeln erläutert, nach denen Zeichenreihen (-sequenzen) gebildet werden können, ohne jedoch die Bedeutung der Zeichen zu erklären. Sie formuliert Antworten anhand des Buches. Dies ist mit heutigen Online-Chatbots vergleichbar. Wenn dem Chatbot Fragen gestellt werden, konsultiert er eine Antwortbibliothek, basierend auf diese Fragen, und gibt eine Antwort. Dies ähnelt HMMs. In einem HMM werden die Ergebnisse im Laufe der Zeit beobachtet, um, basierend auf der Wahrscheinlichkeit, die Sequenz zu ermitteln, die dieses Ergebnis erzeugen würde.

Sehen wir uns ein Beispiel für einen Wetterbot an. Abhängig vom Wetter liefert Ihnen der Wetterbot die Informationen, was Sie den ganzen Tag tragen oder mitnehmen müssen. Je nach Wetter ändert sich Ihre Bekleidung. Aufgrund weiterer Beobachtungen des Wetters trifft der Bot bessere Entscheidungen, was zu tragen ist. Aus der HMM-Perspektive sieht es so aus:

HMMs: Angepasst von Russel und Norvig, Kapitel 15.

Der Chatbot beobachtet die Wetterbedingungen und liefert die Ausgabe, ob ein Regenschirm benötigt wird oder nicht. Wenn man einen Schritt tiefer geht, lernt der Bot schließlich, dass bei einem starken Regen ein Regenschirm erforderlich ist und bei einem leichten Nieselregen nicht. Der Bot bietet dies jedoch auf der Basis der Bibliothek der Wetterzustände, die er in Bezug auf die Kleidung gespeichert hat, die getragen oder mitgenommen werden muss. Der Bot versteht das Wetter eigentlich nicht wie ein Mensch. Beim Problem mit dem Gedankenexperiment handelt es sich darum, dass die Person innerhalb des Zimmers nicht Chinesisch spricht, aber trotzdem gelingt es ihr/ihm, mit der Person außerhalb auf Chinesisch perfekt zu kommunizieren.

Schlussfolgerungen

Es ist sehr wichtig, die Rolle des Gedankenexperiments in der künstlichen Intelligenz und seine Parallelität zu HMMs sowie auch die Anwendungsmöglichkeiten für heutige Chatbots zu verstehen. Die Maschine/der Chatbot in der Konfiguration hat kein Verständnis für diese Fragen und Antworten. Ohne Verständnis kann man nicht beschreiben, was die Maschine denkt, und da sie nicht denkt, hat sie keine Intelligenz im normalen Sinne des Wortes. Aus diesem Grund kann die Maschine nicht als intelligent betrachtet werden. Dies ist der Kern des Gedankenexperiments in der KI.

Sollten Sie weitere Anregungen haben, wie das Gedankenexperiment in der KI verwendet werden kann, so können Sie sich an das Team von AI-United.de per Mail oder Q&A wenden.

Quelle

AI-United-Redaktion

Kommentar hinzufügen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.