Die Wahrheit hinter Facebook AI. Die Erfindung einer neuen Sprache

6 min read

Die Wahrheit hinter Facebook AI

Es wurden so viele Artikel über Facebook veröffentlicht, in denen die Roboter heruntergefahren wurden, nachdem sie ihre eigene Sprache entwickelt hatten. Die Medien lieben diese Clickbait-Titel. Einige dieser Artikel lassen Sie glauben, dass es sehr knapp war, dass die Wissenschaftler bei Facebook AI gerade noch herunterfahren konnten, bevor sie die Welt erobern . Glücklicherweise gibt es immer noch vernünftige Menschen. Es gibt also einige Artikel, in denen erklärt wird, warum alles von diesem Weltuntergangsgespräch vollkommener Unsinn ist(wie die von Snopes oder CNBC veröffentlichten). Sogar einige der Medien, die ursprünglich eine sehr skandalöse Version dieses Ereignisses darboten, bearbeiteten den Inhalt schließlich weniger dramatisch (wie beispielsweise The Independent).

Das Problem ist, dass falsche, aber einzigartige Nachrichten viel breiter als die anderen verbreitet sind. Wir finden es auch merkwürdig, dass keiner der Artikel in einer Sprache, die die Leute verstehen können, tatsächlich erklärte, was geschehen ist. Wir haben versucht, einigen unserer Freunde die Situation zu erklären, und entschieden schließlich, dass es sich lohnt, es aufzuschreiben. Vielleicht können die Leute dann nachts besser schlafen,, ohne an SKYNET zu denken. Unser Ziel ist es jedoch, aufzuklären – zu zeigen, wie die sogenannte AI funktioniert -, und nicht Partei zu ergreifen.

Facebook AI Research (FAIR)

Also, was hat Facebook eigentlich gemacht? Und wie wurden die Roboter „fast fühlend“? Das gesamte Projekt ist gut dokumentiert und für die breite Öffentlichkeit verfügbar. Jeder kann diese AI herunterladen und sowie die neue Sprache selbst beobachten und ausführen. Seien Sie bitte vorsichtig und schließen Sie es rechtzeitig, so wie die Facebook-Ingenieure es gemacht haben.

Das System versucht, den Dialog und die Verhandlung zu simulieren. Der sogenannte Roboter erhält eine Reihe von Gegenständen (die aus Büchern, Hüten und Bällen besteht) und einige Präferenzen, für die will er mehr als andere. Dann soll er mit seiner Gegenpartei, sei es ein Mensch oder ein anderer Roboter, darüber verhandeln, wie der Schatz untereinander aufgeteilt wird.

Die Forschungsarbeit wurde im Juni veröffentlicht und enthielt alle Code- und Trainingsdaten, die für das Experiment verwendet wurden. Wenn Sie an weiteren Details interessiert sind, lesen Sie den offiziellen Artikel oder holen Sie sich einfach den Code von “github“.

Also einfach ausgedrückt, wie funktioniert es?

Machine Learning

Wir  werden Sie nicht mit allen technischen Details belästigen, aber es ist wichtig, einige grundlegende Prinzipien über die Funktionsweise dieser Technologie zu verstehen.

Bei der Entwicklung eines solchen Roboters beginnt man mit einem so genannten „Trainingsdatensatz“. Das sind gut beschriebene Beispiele für das Verhalten, das der Roboter simulieren möchte. Im speziellen Fall des Facebook-Aushandlungs-Chat-Bot gibt man ihm Beispiele für Verhandlungsdialoge, in denen die gesamte Situation richtig kommentiert wird – wie der Ausgangszustand war, die Präferenzen des Verhandlungsführers, was gesagt wurde, welche Ergebnis erzielt wurden usw.

Das Programm analysiert alle diese Beispiele, extrahiert einige Funktionen aus jedem Dialog und weist diesen Funktionen eine Nummer zu, die angibt, wie oft Dialoge mit dieser Funktion für den Verhandlungsführer zu positiven Ergebnissen geführt haben. Um sich besser vorstellen zu können, was für eine „Funktion“ das ist , denken Sie an Wörter, Ausdrücke und Sätze. In Wirklichkeit ist es noch viel komplizierter, aber es reicht aus, um das Prinzip zu verstehen.

Um es genauer darzustellen, wenn der Roboter die Hüte will, wird der Satz „You can have all the hats“ eine sehr niedrige Punktzahl haben, da dieser Satz in jedem Szenario mit einem schlechten Ergebnis aus den Trainingsdaten endete – der Verhandlungsführer bekam nicht das, was er wollte.

Diagramm, das eine Beispieldialogauswertung darstellt (Deal or No Deal? End-to-End Learning for Negotiation Dialogues, 2017)

Dadurch erhält man grundsätzlich die Version Null von AI. Sie weiß jetzt, welche Sätze von den Verhandlungen wahrscheinlich eher zu einem guten Geschäft kommen werden. Man kann sie verwenden, um einen Dialog zu starten. Sie wird versuchen, die Wahrscheinlichkeit eines positiven Ergebnisses zu maximieren, basierend auf den während der Trainingsphase gesammelten Zahlen. Der Begriff AI fühlt sich hier irgendwie komisch an – sie ist sehr künstlich, aber nicht sehr intelligent. Sie versteht nicht die Bedeutung dessen, was sie sagt. Sie kann sich nur auf eine sehr begrenzte Anzahl von Dialogen beziehen, und sie nimmt nur ein paar Worte oder Phrasen, die auf Wahrscheinlichkeiten basieren und aus diesen historischen Dialogen berechnet sind. Sie kann nichts anderes tun. Sie berechnet nur die Wahrscheinlichkeit, um die gewünschte Menge an Hüten, Bällen oder Büchern zu erhalten und darauf basierend schreibt sie etwas auf den Bildschirm.

Der nächste Schritt ist die Verwendung einer Technik, die als Verstärkungslernen bezeichnet wird. Da unsere Fähigkeit, gut kommentierte Trainingsdaten bereitzustellen, ziemlich begrenzt ist, benötigen wir einen anderen Weg, um diese AI zu lernen. Einer der häufigsten Ansätze ist, die AI eine Simulation ausführen lassen und aus ihren eigenen Ergebnissen zu entnehmen. Bevor erklärt wird, was dies für die für die Verhandlung im Fall des Roboters bedeutet, möchten wir zu einer anderen AI gehen.

AlphaGo

Google Deepmind AlphaGo ist ein Programm, von dem Sie im letzten Jahr gehört haben. Es war die erste AI, die einen professionellen Go-Spieler besiegte. Und es ist ein perfektes Beispiel für die Verstärkung des Lernens in Aktion.

AlphaGo lernte von echten Spielen, die von echten Menschen gespielt wurden. Basierend auf diesem Wissen wurde jede mögliche Bewegung analysiert und bewertet. Das machte AlphaGo selbstständig spielfähig, wenn auch sehr schlecht – es hat das Spiel nicht verstanden, aber es war eine Möglichkeit, die Züge basierend auf zuvor analysierten Spielen zu zählen.

Go ist jedoch ziemlich einfach zu simulieren. Wir haben ein genaues Regelwerk und ein sehr gutes Ziel für die AI – das Spiel zu gewinnen. Wir können also zwei Instanzen einer solchen AI erstellen und gegen sich selbst spielen lassen. Da uns viel Rechenleistung zur Verfügung steht, können Millionen von Spielen problemlos trainiert werden, viel mehr als jeder Mensch jemals könnte. Es aktualisiert dann die Wahrscheinlichkeiten eines Gewinns für jede Bewegung, die basierend auf allen diesen simulierten Ergebnissen, immer besser werden, um mit den Zügen gut zu punkten.

Das berühmte Match von AlphaGo gegen Lee Sedol. Die lange Lernphase mit Verstärkung macht sich bezahlt.

Wieder vereinfachen wir das Konzept. Wenn Sie mehr über AlphaGo erfahren möchten, können wir diesen Artikel von Christopher Burger empfehlen. Wir möchten nur, dass Sie von diesem Beispiel eine Sache wegnehmen. Verstärkungslernen funktioniert wirklich sehr gut (wie von AlphaGo und vielen anderen bewiesen), wenn wir drei Bedingungen erfüllen können:

  1. Ein gut definierter Optionsraum für AI. Im Falle von AlphaGo, können nur gültige Go-Moves gespielt werden.
  2. Eine gute Möglichkeit, das Ergebnis zu bewerten. Bei AlphaGo ist ein Gewinn gut, ein Verlust ist schlecht.
  3. Eine gute Möglichkeit, die Situation zu simulieren und AI lernen zu lassen. In diesem Fall können wir einfach die AI gegen sich selbst spielen lassen (vorzugsweise gegen verschiedene Versionen von sich selbst, da es einfacher ist, etwas Neues zu lernen, wenn Ihr Gegner anders als Sie spielt).

Zurück zu Facebook

Schauen wir uns das ursprüngliche Thema an. Facebook versuchte, einen Roboter zu schaffen, der verhandeln konnte. Wie gut passt es zu den drei oben genannten Bedingungen? Es gibt eine großartige Möglichkeit, das Ergebnis zu bewerten, da jedem Element, das Teil der Verhandlung ist, ein Wert zugewiesen wird. Wir haben eine gute Möglichkeit, die Situation zu simulieren und die AI lernen lassen. Das ist genau dasselbe, was Facebook gemacht hat – lassen Sie zwei Instanzen des Roboters miteinander verhandeln. Der letzte Punkt ist jedoch etwas problematisch.

Anders als beim Go-Spiel gibt es keine einfache Definition der englischen Sprache. Der ursprüngliche Trainingsdatensatz war in englischer Sprache, aber die extrahierten Funktionen waren nur Wörter und Ausdrücke und der Roboter stellte sie einfach zusammen, basierend auf der numerischen Darstellung der Wahrscheinlichkeit, mit der sie das gewünschte Ergebnis erzielen würden.

Zwei Roboter, die eigentlich kein Englisch verstehen, sprachen miteinander und lernten voneinander. Der einzige Maßstab für ihren Erfolg war, wie gut sie Bücher, Hüte und Bälle verteilten. Die einzige Regel, die zu befolgen war, war die Wörter auf den Bildschirm zu setzen. Sie begannen mehr oder weniger auf Englisch zu sprechen, aber sie lernten aus ihren eigenen Fehlern, ohne zu wissen, dass sie tatsächlich selbst Fehler waren. Das hat zu dem gewünschten Ergebnis in Form von Hüten, Büchern und Bällen geführt. Einige Wörter sind untergegangen, sie trugen nicht zum Verhandlungsergebnis bei. Einige wurden multipliziert. Wenn man etwas mit „I want“ sagt, erhöhen sich die Chancen etwas zu bekommen. Warum sollten wir es dann nicht mehrmals sagen, richtig? Und wenn das funktioniert, nimmt die AI es als die Bestätigung an, dass das eine gute Strategie ist.

Wenn es ein Training gegen ein menschliches Wesen gewesen wäre, wäre das wahrscheinlich kein so großes Problem, da die andere Seite die richtige Sprache verwenden würde. Es würde allerdings ein anderes Problem geben. Es wäre schwierig, eine ausreichend große Anzahl von Simulationen auszuführen, um die AI zu trainieren.

Wie die Facebook Ingenieure feststellten, könnte das besser funktionieren, wenn die Bewertungsfunktion auch eine Sprachüberprüfung beinhaltet hätte und nicht nur der Gesamtwert der Gegenstände, die nach der Verhandlung erhalten wurden. Aber das passierte nicht. Die Tatsache, dass die Sprache degeneriert ist, ist weder überraschend noch in irgendeiner Weise interessant. Es passiert jedem Wissenschaftler, der mit solchen Problemen arbeitet, und wir sind sicher, dass die Facebook Ingenieure dieses Ergebnis tatsächlich erwartet haben. Sie haben die Simulation ausgeschaltet, sobald sie nach vielen Iterationen zu stark degeneriert war und keine nützlichen Ergebnisse mehr lieferte.

Übrigens, wenn Sie den Bericht oder das veröffentlichte Papier lesen, gibt es von dem im gesamten Internet verbreiteten Fachchinesich abgesehen tatsächlich auch viele gute Ergebnisse. Das Experiment funktionierte wie vorgesehen, und wir würden sagen, dass es insgesamt ziemlich erfolgreich ist.

Am Ende ist nichts überraschend

Nichts Unheimliches, Schockierendes oder gar nichts Bemerkenswertes passierte. Nur ein ganz normaler Tag mit einem regelmäßigen wissenschaftlichen Experiment. Und dann brach die Hölle los, die Journalisten einen Weltuntergang-Artikel nach dem anderen posteten. Ein Chat-Bot herunterzufahren, wenn er nicht mehr ein vernünftiges Ergebnis zeigt, ist ungefähr so ominös wie das Wechseln einer defekten Glühbirne.

Schlussfolgerung

Und wie verwenden Sie Facebook Al in Ihrem Bereich?

Vielleicht haben Sie mehr Nachteile als die Vorteile bei der Verwendung von Facebook Al bemerkt, dann teilen Sie diese mit uns!

Haben Sie alle Antworten betreffs Facebook Al von uns bekommen?

Wenn nein, dann beantwortet das Al United Team Ihre Fragen gerne per E-Mail oder im Q & Bereich.

Quelle: https://towardsdatascience.com/the-truth-behind-facebook-ai-inventing-a-new-language-37c5d680e5a7

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.