5 Methoden der Verarbeitung natürlicher Sprache, die die Welt um uns herum schnell verändern

11 min read

5 Methoden der Verarbeitung natürlicher Sprache

Was ist die Verarbeitung natürlicher Sprache?

Die Verarbeitung natürlicher Sprache (NLP – Natural Language Processing) ist ein Bereich, der an der Schnittstelle von Informatik, künstlicher Intelligenz und Linguistik liegt. Das Ziel ist es, die natürliche Sprache zu verarbeiten und zu “verstehen”, um den Text zu übersetzen und Fragen zu beantworten.

Mit der Entwicklung von Sprachschnittstellen und Chat-Bots hat sich NLP zu einer der wichtigsten Technologien der künstlichen Intelligenz entwickelt. Aber das vollständige Verständnis und die Wiedergabe der Bedeutung der Sprache ist eine sehr schwierige Aufgabe, weil die menschliche Sprache ihre eigenen Besonderheiten hat:

  1. Die menschliche Sprache ist ein speziell entwickeltes System, um die Bedeutung des Gesagten oder Geschriebenen zu vermitteln. Es ist nicht nur ein exogenes Signal, es ist eine bewusste Übertragung von Informationen. Außerdem ist die Sprache so verschlüsselt, dass auch Kleinkinder sie schnell beherrschen können.
  2. Die menschliche Sprache ist ein diskretes, symbolisches oder kategorisches Signalsystem mit Zuverlässigkeit.
  3. Kategorische Symbole der Sprache werden als Signale für die Kommunikation über mehrere Kanäle kodiert: Ton, Gesten, Buchstaben, Bilder und so weiter. Die Sprache kann sich in jeder Hinsicht ausdrücken.

Anwendung des NLP

Heute wächst die Zahl der sinnvollen Anwendungen in diesem Gebiet schnell:

  • Suche (schriftlich oder mündlich);
  • Darstellung geeigneter Online-Werbung;
  • Übersetzung (automatisch);
  • Stimmungsanalyse für Marketingaufgaben;
  • Spracherkennung und Chat-Bots,
  • Sprachassistenten (automatisierte Kundenbetreuung, Bestellung von Waren und Dienstleistungen).

Deep Learning in NLP

Die NLP-Technologie funktioniert zu einem großen Teil dank Deep Learning, einem Bereich des Machine Learning, der heute aus folgenden Gründen von großer Bedeutung ist:

  1. Große Mengen an Trainingsdaten wurden gesammelt.
  2. Die Rechenleistungen wurden entwickelt: Multi-Core-CPUs und GPUs.
  3. Neue Modelle und Algorithmen mit verbesserten Funktionen und Leistungen, mit flexiblem Lernen auf Zwischenansichten wurden entwickelt.
  4. Kontextbasierte Trainingsmethoden und neue Methoden der Regularisierung und Optimierung sind entstanden.

Die meisten Machine Learning-Methoden funktionieren gut wegen der vom Menschen entwickelten Darstellungen von Daten und Eingaben sowie der Optimierung von Gewichten, um die endgültige Vorhersage zu verbessern.

Beim Deep Learning versucht der Algorithmus, die besten Zeichen oder Darstellungen automatisch aus den Rohdaten zu extrahieren.

Die von Hand erstellten Features sind oft zu spezialisiert, unvollständig und brauchen Zeit für die Erstellung und Validierung. Im Gegensatz dazu sind Zeichen von Deep Learning leicht anpassbar.

Deep Learning bietet einen flexiblen, vielseitigen und trainierbaren  Rahmen für die visuelle und sprachliche Darstellung der Welt. Dies führte zunächst zu Durchbrüchen in den Bereichen Spracherkennung und Computer Vision. Diese Modelle werden oft mit einem gemeinsamen Algorithmus trainiert und erfordern keine traditionelle Konstruktion von Merkmalen für eine bestimmte Aufgabe.

Vektoransicht (Texteinbettungen)

In der traditionellen NLP werden Wörter als diskrete Symbole betrachtet, die dann als einfließende Vektoren dargestellt werden. Das Problem mit diskreten Zeichenwörtern liegt darin, dass es keine Ähnlichkeit für one-hot Vektoren gibt. Daher ist die Alternative, zu lernen, Ähnlichkeit in den Vektoren selbst zu kodieren.

Vektoransicht – eine Methode, um Zeichenketten als Vektoren mit Werten darzustellen. Für jedes Wort wird ein dichter Vektor aufgebaut, so dass die in ähnlichen Kontexten gefundenen Wörter ähnliche Vektoren haben. Die Vektoransicht gilt als Ausgangspunkt für die meisten NLP-Aufgaben und macht ein intensives Training auch bei kleinen Datensätzen effektiv. Techniken der Vektoransichten Word2vec und GloVe, erstellt von Google (Mikolov) Stanford (Pennington, Socher, Manning), sind beliebt und werden häufig für NLP-Aufgaben verwendet.

Word2Vec

Word2vec akzeptiert einen großen Textkorpus, in dem jedes Wort in einem festen Dictionary als Vektor dargestellt wird. Dann läuft der Algorithmus durch jede Position t im Text, die das zentrale Wort c und das kontextuelle Wort o ist. Als nächstes wird die Ähnlichkeit der Wortvektoren für c und o verwendet, um die Wahrscheinlichkeit von o für ein gegebenes s (oder umgekehrt) zu berechnen, und der Wortvektor wird weiterhin angepasst, um diese Wahrscheinlichkeit zu maximieren.

Um das beste Word2vec-Ergebnis zu erreichen, werden sinnlose Wörter (oder Wörter mit hoher Häufigkeit, in Englisch – a, the, the, of, then) aus dem Datensatz entfernt. Dies wird dazu beitragen, die Genauigkeit des Modells zu verbessern und die Trainingszeit zu verkürzen. Zusätzlich wird für jeden Eingang eine negative Abtastung verwendet, bei der die Gewichtungen für alle korrekten Etiketten aktualisiert werden, jedoch nur für eine geringe Anzahl von falschen Etiketten.

Word2vec ist in 2 Versionen verfügbar:

  1. Skip-Gram: Ein Kontextfenster mit k aufeinanderfolgenden Wörtern wird betrachtet. Als nächstes wird ein einzelnes Wort übersprungen und ein neuronales Netzwerk trainiert, das alle Wörter enthält, außer dem übersprungenen, das der Algorithmus vorherzusagen versucht. Wenn also zwei Wörter regelmäßig einen ähnlichen Kontext im Körper haben, haben diese Wörter dichte Vektoren.
  2. Continuous Bag of Words: Jedes Mal, wenn wir ein Wort im Algorithmus sehen, nehmen wir das nächste Wort. Als nächstes werden die Kontextwörter dem neuronalen Netzeingang zugeführt und das Wort wird im Zentrum dieses Kontextes vorhergesagt. Bei Tausenden von solchen Kontextwörtern und einem zentralen Wort erhalten wir eine Kopie des Datensatzes für unser neuronales Netzwerk. Das neuronale Netzwerk wird trainiert und schließlich stellt die Ausgabe der kodierten versteckten Schicht eine Einbettung für ein bestimmtes Wort dar. Das Gleiche geschieht, wenn ein neuronales Netzwerk auf eine große Anzahl von Sätzen trainiert wird und Wörtern in einem ähnlichen Kontext ähnliche Vektoren zugeordnet werden.

GloVe

GloVe strebt danach, dieses Problem zu lösen, indem es den Wert eines Wortes erfasst, das in die Struktur des gesamten sichtbaren Gehäuses eingebettet ist. Dazu sucht das Modell nach globalen Übereinstimmungen in der Anzahl der Wörter und verwendet genügend Statistiken, minimiert die Standardabweichung, gibt dem Raum des Wortvektors mit einer sinnvollen Unterstruktur. Dieses Schema ermöglicht uns, die Ähnlichkeit eines Wortes mit einem Vektorabstand in ausreichendem Maße zu erkennen.

Darüber hinaus wurden viele neu entwickelte Technologien eingesetzt: FastText, Poincare Embeddings, sense2vec, Skip-Thought, Adaptive Skip-Gram.

Maschinelle Übersetzung

Maschinelle Übersetzung – eine Übersetzung eines Textes durch einen Computer ohne menschliche Interaktion. Die maschinelle Übersetzung verwendet Statistiken über den Gebrauch von Wörtern in der Nachbarschaft. Maschinelle Übersetzungssysteme sind kommerziell weit verbreitet, denn Übersetzungen aus den Sprachen der Welt sind eine Branche mit einem Volumen von 40 Milliarden Dollar pro Jahr. Einige berühmte Beispiele:

  1. Google Translate übersetzt 100 Milliarden Wörter pro Tag.
  2. Facebook verwendet maschinelle Übersetzung, um Texte in Beiträgen und Kommentaren automatisch zu übersetzen, um Sprachbarrieren zu überwinden und Menschen aus verschiedenen Teilen der Welt die Möglichkeit zu geben, miteinander zu kommunizieren.
  3. eBay setzt Technologien der maschinellen Übersetzung ein, um den grenzüberschreitenden Handel zu ermöglichen und Käufer und Verkäufer aus verschiedenen Ländern zu verbinden.
  4. Microsoft verwendet künstliche Intelligenz für Endnutzer und Entwickler auf Android, iOS und Amazon Fire, unabhängig vom Internetzugang.
  5. Systran wurde der erste Softwareanbieter, der 2016 einen neuronalen maschinellen Übersetzungsmechanismus in 30 Sprachen auf den Markt gebracht hat.

Neural Machine Translation ist ein Ansatz zur Modellierung von Übersetzungen unter Verwendung des Recurrent Neural Network (RNN). RNN – ein neuronales Netzwerk in Abhängigkeit von früheren Zuständen, das Verbindungen zwischen Durchgängen aufweist. Neuronen erhalten Informationen aus den früheren Schichten und auch aus sich selbst im letzten Schritt. Das bedeutet, dass die Reihenfolge, in der die Daten eingegeben und das Netzwerk trainiert wird, wichtig ist.

Das Standardmodell von Neural Machine Translation ist ein neuronales Durch-Netzwerk, wo der ursprüngliche Satz mit Encoder kodiert wird und das Zielwort mit einem Decoder vorbestimmt wird. Der Encoder “liest” den Originalsatz mit einer Rate von einem Zeichen pro Zeiteinheit und kombiniert dann den Originalsatz in der letzten verborgenen Schicht. Der Decoder verwendet die umgekehrte Ausbreitung des Fehlers, um diese Zuordnung zu untersuchen und gibt die übersetzte Version zurück. Es ist überraschend, dass Neural Machine Translation, die 2014 am Rande der Forschungstätigkeit stand, 2016 zum Standard für Machine Translation wurde. Die Ergebnisse der Übersetzung auf der Grundlage des neuronalen Netzes werden im Folgenden dargestellt:

  1. End-to-End-Training: Die Parameter in der NMT (Neural Machine Translation) werden gleichzeitig optimiert, um die Verlustleistung des neuronalen Netzwerks zu minimieren.
  2. Verteilte Ansichten: Die Ähnlichkeiten in Wörtern und Phrasen werden von der NMT besser eingesetzt.
  3. Bessere Kontextforschung: Die NMT funktioniert besser als die Ausgangs- und Zieltexte.
  4. Fließendere Textgenerierung: Die auf Deep Learning basierende Textübersetzung ist der Parallelkorpusmethode in ihrer Qualität weit überlegen.

Das Hauptproblem bei RNN ist der Gradientenverlust, wenn Informationen im Laufe der Zeit verloren gehen. Intuitiv scheint dies kein ernsthaftes Problem zu sein, da es sich nur um die Gewichtung, nicht um den Zustand der Neuronen handelt. Aber mit der Zeit werden Gewichtungen zu Orten, an denen Informationen aus der Vergangenheit gespeichert werden. Wenn die Gewichtung 0 oder 100000 wird, ist der letzte Zustand nicht sehr informativ. Dadurch wird es für RNN schwierig sein, sich die weiter in der Sequenz stehenden Wörter zu merken. Die Vorhersagen werden auf der Grundlage extremer Wörter getroffen, die zu Schwierigkeiten führen.

Long/Short Term Memory (LSTM)-Netzwerke versuchen, das Problem des Gradientenverlustes des Verschwindens zu überwinden, indem sie Gates und eine Speicherzelle betreten. Jedes Neuron ist eine Speicherzelle mit drei Toren: Eingang, Ausgang und Verlust. Sie fungieren als Personenschützer für Informationen und erlauben oder verbieten den Fluss:

  • Das Input-Gate bestimmt, wie viele Informationen aus der vorherigen Schicht in dieser Zelle gespeichert werden.
  • Das Ausgabe-Gate bestimmt, welcher Teil der nächsten Schicht über den Zustand der aktuellen Zelle informiert wird.
  • Das Verlust-Gate kontrolliert das Maß der Speicherung des Wertes im Speicher: Wenn ein neues Kapitel während des Lesens des Buches beginnt, wird es manchmal notwendig, dass das neuronale Netzwerk einige Wörter aus dem vorherigen Kapitel vergisst.

Die LSTM können von komplexen Sequenzen lernen und z.B. im Stil von Shakespeare schreiben oder primitive Musik komponieren. Man muss beachten, dass jedes der Tore mit einer Zelle auf dem vorherigen Neuron mit einem bestimmten Gewichtung verbunden ist, was mehr Ressourcen für die Arbeit erfordert.

Gated Recurrent Units (GRU) unterscheiden sich von LSTM, obwohl sie auch eine Erweiterung für Neural Network Machine Learning sind. GRU hat ein Gate weniger, und die Arbeit ist anders aufgebaut: Statt Eingang, Ausgang und Verlust gibt es ein Update Gate. Es bestimmt, wie viele Informationen aus dem letzten Zustand gespeichert und wie viele Informationen aus den vorherigen Schichten  übersprungen werden müssen.

Die Reset-Gate-Funktionen ähneln den LSTM-Funktionen zum Vergessen des Verschlusses, aber der Standort ist anders. In der Praxis neigen sie dazu, sich gegenseitig zu neutralisieren, weil sie ein großes neuronales Netzwerk benötigen, um die Expressivität wiederherzustellen. Aber in Fällen, in denen keine zusätzliche Aussagekraft erforderlich ist, zeigen GRUs bessere Ergebnisse als LSTM.

In den letzten Jahren kann man viele Verbesserungen bei der maschinellen Übersetzung neuronaler Netze sehen. Unten sind einige wichtige Entwicklungen dargestellt:

  1. Sequence-to-Sequence-Learning mit neuronalen Netzwerken hat die Leistungsfähigkeit von LSTM für die neuronale maschinelle Übersetzung bewiesen.  Diese Methode verwendet ein mehrschichtiges LSTM, um die eingehende Sequenz als Vektor mit einer festen Dimension anzuzeigen. Dann wird ein anderes LSTM eingesetzt, um die Zielsequenz aus dem Vektor zu dekodieren.
  2. Neuronale Machine Translation by Jointly Learning to Align and Translate präsentierte den Aufmerksamkeitsmechanismus in NLP. Die Modelle können automatisch nach Teilen des ursprünglichen Satzes suchen, die für die Vorhersage des Zielworts relevant sind, ohne Notwendigkeit diese Teile zu bilden.
  3. Convolutional over Recurrent Encoder for Neural Machine Translation erweitert den Standard RNN Encoder im NMT mit einer zusätzlichen Faltungsschicht, um den breiteren Kontext am Encoderausgang zu erfassen.
  4. Google’s Neural Machine Translation wurde von Google entwickelt, das die Probleme der Genauigkeit und Benutzerfreundlichkeit löst. Das Modell besteht aus einem Deep LSTM-Netzwerk mit 8 Codier- und 8 Decodierschichten und verwendet sowohl Rest- als auch Aufmerksamkeitsverbindungen vom Decoder zum Coder-Netzwerk.
  5. Ein neuronales Faltungsnetzwerk wird von den KI-Forschern von Facebook verwendet, statt rekurrenter neuronaler Netzwerke für Sequence-to-Sequence-Lernaufgaben in der NMT.

Sprachassistenten

Man kann heute viel über Amazon Alexa, Apple Siri, Facebook M, Google Assistant, Microsoft Cortana, Yandex Alice lesen. Die Fähigkeit der KI, die natürliche Sprache zu verstehen, ist noch begrenzt, deshalb steht die Frage der Erstellung eines vollwertigen Sprachassistenten noch offen. Die unten vorgestellten Arbeiten sind jedoch ein Ausgangspunkt für Menschen, die an einem Durchbruch im Bereich der Sprachassistenten interessiert sind.

Die Forscher von Montreal, Georgia Tech, Microsoft und Facebook haben ein neuronales Netzwerk geschaffen, das kontextsensitive Antworten im Gespräch erzeugen kann. Dieses System kann auf eine große Anzahl von unstrukturierten Dialogen auf Twitter trainieren. Eine rekurrente neuronale Netzwerkarchitektur wird verwendet, um spärliche Fragen zu beantworten, die entstehen, wenn kontextuelle Informationen in ein klassisches statistisches Modell integriert werden. Das Modell zeigt eine sichere Verbesserung des Ergebnisses über die inhaltssensitive und inhaltsunempfindliche Basislinie der maschinellen Übersetzung und Informationssuche.

Die in Hongkong entwickelte Neural Responding Machine ist ein Response-Generator für Kurztextgespräche. NRM verwendet einen gemeinsamen Framework-Encoder. Zunächst wird die Erzeugung einer Antwort formalisiert, ebenso wie der Entschlüsselungsprozess, der auf einer versteckten Darstellung des Eingangstextes basiert, während Codierung und Decodierung unter Verwendung von rekurrenten neuronalen Netzwerken implementiert werden. NRM kann korrekte grammatikalische und in diesem Zusammenhang relevante Antworten auf 75% der Eingabetexte generieren, die moderne Modelle mit den gleichen Einstellungen übertreffen.

Google Neural Conversational Model bietet einen einfachen Ansatz für die Dialogmodellierung mit dem Sequence-to-Sequence-Framework. Das Modell unterstützt das Gespräch, indem es den nächsten Satz voraussagt und dabei frühere Sätze aus dem Dialog verwendet. Die Stärke dieses Modells liegt in seiner Fähigkeit, End-to-End-Learning zu ermöglichen, was weitaus weniger künstliche Regeln erfordert.

Das Modell kann einfache Dialoge auf der Grundlage eines umfangreichen Dialogtrainingssets erstellen, Wissen aus hochspezialisierten Datensätzen extrahieren sowie große und verrauschte gemeinsame Datensätze von Untertiteln zu Filmen. In einem hochspezialisierten Helpdesk-Bereich für IT-Lösungen findet das Modell im Dialog Lösungen für ein technisches Problem. Auf geräuschvollen Filmtranskript-Datensätzen kann das Modell einfache Vernunftübungen durchführen.

Frage- und Antwortsysteme (QA)

Die Idee von Frage-Antwort-Systemen (QA) besteht darin, Informationen direkt aus einem Dokument, einem Gespräch, einer Online-Suche oder einem anderen Ort zu extrahieren, der den Bedürfnissen des Benutzers entspricht. Anstatt den Benutzer zu zwingen, den Volltext zu lesen, ziehen es QA-Systeme vor, kurze und präzise Antworten zu geben. Heute können QA-Systeme problemlos mit Chat-Bots kombiniert werden. Sie können über die Suche nach Textdokumenten hinausgehen und Informationen aus einer Reihe von Bildern extrahieren.

Dabei wurde speziell für QA-Aufgaben eine leistungsfähige Architektur des Deep Learning – Dynamic Memory Network (DMN) – entwickelt und optimiert. Das DMN, das auf einem Trainingsset von Eingabedaten und Fragen trainiert wird, generiert episodische Erinnerungen und verwendet diese, um angemessene Antworten zu generieren. Diese Architektur besteht aus den folgenden Komponenten:

  • Das semantische Speichermodul ist ähnlich wie die Wissensdatenbank aufgebaut und besteht aus vorbereiteten GloVe-Vektoren, mit denen Sequenzen von Vektorrepräsentationen von Wörtern aus eingehenden Sätzen erzeugt werden. Diese Vektoren werden als Modelleingangsdaten verwendet.
  • Das Eingangsmodul recycelt die eingehenden Vektoren in den Vektorsätzen, die sich auf die Fakten beziehen. Dieses Modul wird durch die Gated Recurrent Unit (GRU) implementiert, die es dem Netzwerk ermöglicht, die Relevanz des betreffenden Vorschlags zu kennen.
  • Das Fragemodul verarbeitet die Frage Wort für Wort und gibt den Vektor mit der gleichen GRU wie im Eingangsmodul mit den gleichen Gewichtungen aus.
  • Das episodische Speichermodul speichert die am Eingang extrahierten Fakten- und Fragevektoren, die als Anhänge kodiert sind. Das Antwortmodul erzeugt eine geeignete Antwort. Der letzte Schritt enthält die für die Antwort erforderlichen Informationen.

Text-Zusammenfassung

Es ist für eine Person schwierig, eine Zusammenfassung in einem großen Textvolumen von Hand zu markieren. Daher steht NLP vor dem Problem, eine genaue und präzise Zusammenfassung für das Quelldokument zu erstellen. Die Textverdichtung ist ein wichtiges Werkzeug, um die Interpretation von Textinformationen zu erleichtern. Push-Benachrichtigungen und Artikel-Digests erregen viel Aufmerksamkeit, und die Anzahl der Aufgaben, um vernünftige und genaue Lebensläufe für große Textfragmente zu erstellen, wächst von Tag zu Tag.

Das automatische Extrahieren einer Zusammenfassung aus dem Text funktioniert folgendermaßen. Zuerst wird die Häufigkeit des Auftretens eines Wortes in einem Volltextdokument gezählt, dann werden die 100 häufigsten Wörter gespeichert und sortiert. Jeder Satz wird dann anhand der Anzahl der häufig verwendeten Wörter bewertet, und die Gewichtung des häufigeren Wortes ist  höher. Schließlich werden die ersten X Vorschläge nach dem Originaltext sortiert.

Mit der Erhaltung der Einfachheit und Verallgemeinerungsfähigkeit, kann der Algorithmus der automatischen Extraktion einer Zusammenfassung in komplexen Situationen funktionieren. Beispielsweise scheitern viele Implementierungen bei Texten mit Fremdsprachen oder eindeutigen Vokabeln, die nicht in Standardtextarrays enthalten sind.

Es gibt zwei grundlegende Konzepte, um einen Text zu verkürzen: außerschulisch und abstrakt. Das erste extrahiert Wörter und Phrasen aus dem Originaltext, um einen Lebenslauf zu erstellen. Das zweite untersucht die innere Sprachrepräsentation, um eine humanoide Erzählung zu schaffen, die den Originaltext paraphrasiert.

Die Extraktionskürzelmethoden funktionieren auf der Grundlage der Auswahl einer Teilmenge. LexRank und TextRank sind bekannte Vertreter dieses Ansatzes.

LexRank ist ein grafikbasierter Lernalgorithmus ohne Lehrer, der eine modifizierte Cosinus-Inversfrequenz als Maß für die Ähnlichkeit der beiden Sätze verwendet. Die Ähnlichkeit wird als Gewichtung der Kante des Graphen zwischen den beiden Sätzen verwendet. LexRank führt auch einen intelligenten Nachbearbeitungsschritt ein, der sicherstellt, dass die Hauptvorschläge nicht zu ähnlich sind. TextRank ist dem LexRank-Algorithmus ähnlich, hat aber einige Verbesserungen. Diese sind:

  • Verwendung von Lemmatisierung statt Stampfen.
  • Verwendung von Frequenzmarkierungen und Objektnamenerkennung.
  • Extrahieren von Schlüsselwörtern und Vorschlägen auf der Grundlage dieser Wörter.
  • TextRank extrahiert zusammen mit einer Zusammenfassung des Artikels wichtige Schlüsselwörter.

Modelle für abstrakte Zusammenfassungen verwenden ein intensives Training. Nachfolgend sind die bemerkenswerten Ergebnisse großer NLP-Unternehmen dargestellt:

  • Facebook Neural Attention ist eine neuronale Netzwerkarchitektur, die ein lokales Modell mit einem Mechanismus der Aufmerksamkeit verwendet, der jedes Wort der Zusammenfassung abhängig vom Eingabesatz erzeugen kann.
  • Google Sequence-to-sequence hält sich an die Encoder-Architektur. Der Encoder ist dafür verantwortlich, das Ausgangsdokument zu lesen und in die interne Ansicht zu kodieren. Der Decoder ist für die Erzeugung jedes Wortes in der Ausgabezusammenfassung verantwortlich und verwendet eine kodierte Darstellung des Ausgangsdokuments.
  • IBM Watson verwendet ein ähnliches Sequence-to-Sequence-Modell, jedoch mit den Eigenschaften eines aufmerksamen und bidirektionalen rekurrenten neuronalen Netzwerks.

Welche Fragen im Bereich NLP werden am häufigsten gestellt?

Wie setzt man NLP in Ihrem Umfeld ein?

Diese und weitere Fragen beantwortet gerne das AI United Team per Email oder in dem Q&A Bereich.

Quelle: https://github.com/khanhnamle1994/natural-language-processing

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.