Künstliche Intelligenz – KI und Machine Learning by AI-United

27. September 2019

fastMRI: Wettbewerb zur Wiederherstellung tomographischer Bilder

Filed under: Allgemein — Tags: , , , , , — AI-United-Redaktion @ 16:28

FastMRI ist ein gemeinsames Forschungsprojekt von FAIR und NYU School of Medicine. Das Ziel dieses Projekts liegt darin, die Tomographie um das Zehnfache zu beschleunigen und die Prozedur zugänglicher zu machen. Heute hat Facebook die Tomographieergebnisse bekanntgegeben und den Wettbewerb gestartet. 

Die Aufgabe liegt darin, die anderen Bilder aufgrund eines Teils der Tomographiebilder eines Patienten wiederherzustellen. Dieser Wettbewerb dauert bis zum 19. September.

Im vorigen Jahr publizierte das Projektteam die rohen Ergebnisse der Tomographie und die Referenzmodelle für ihre Analyse. Um den fortgeschrittenen Ansatz (zum Wiederherstellen von Tomographiebildern) zu verbessern, wurde dieser Wettbewerb gestartet.

Das Beispiel der Objekte im Datensatz

Der Arbeitszweck besteht darin, die tomographische Untersuchungstechnik zugänglicher zu machen. Die Tomographieergebnisse sind Bilder, die unnötige Information enthalten. Das lässt die Bilder ohne Qualitätsverlust zusammendrängen. Nun verläuft der Prozess wie folgt: der Patient durchläuft das MRT-Gerät und der Arzt wartet, bis das Gerät die Resultate für jedes Bild liefert. Der Hauptnachteil der aktuellen Prozedur ist die große Zeitaufwendung. Die Methode, die die Wissenschaftler vorschlagen, liegt darin, einige der Rohmessungen zu sammeln. Dann soll man das Neuronennetz auf sie lehren. Dieses Neuronennetz wird ein komplettes tomografisches Bild basierend auf einem Teil von Messungen wiederherstellen. Das Sammeln eines Teils der Bilder erfordert weniger Zeit zur Untersuchung des Patienten.

Der Datensatz von FastMRI ist jetzt der größte öffentliche Datensatz der tomografischen Untersuchungen. Die Wettbewerbsteilnehmer müssen nur die vorgeschlagenen Daten einsetzen. Die Aufgabe besteht in der Rekonstruktion der Ergebnisse der Knietomographie. Die Metrik zur Einschätzung der Qualität von den Modellen ist Structural Similarity measure (SSIM).

Die Gewinner werden eingeladen, ihre Architektur auf Medical Imaging Meets NeurIPS Workshop von NeurIPS 2019 zu präsentieren.

Quelle

Das Neuronennetz analysiert Videos von Kameras während der Operationen

Filed under: Allgemein — Tags: , , , , , — AI-United-Redaktion @ 16:15

Kaliber Labs entwickeln ein Neuronennetz, das die Videos von den Kameras innerhalb der Patienten während Operationen interpretiert. Das Modell bestimmt den Bereich, der operiert wird, und gibt Empfehlungen, die auf dem Monitor im Operationsraum gezeigt werden. Kaliber Labs ist ein Startup mit dem Sitz in San Francisco.

Offene Operationen erfordern in der Regel breite Einschnitte. Sie geben den Ärzten eine Vorstellung vom Bereich, der operiert wird. Doch Chirurgen versuchen häufig, den Schnittbereich zu minimieren und gebrauchen Videokameras. Diese Videokameras zeichnen den Körperzustand im Echtzeitmodus auf. 

Das lässt die Informationen über den operierten Bereich bekommen, wobei die Kosten minimal sind Die Patienten geben weniger Ressourcen für die Erholung nach der Operation aus.

Der Einsatz von den kleinen Kameras erfordert von den Chirurgen mehr Vorsichtigkeit. Das ist damit verbunden, dass der Überblick des operierten Bereichs begrenzt ist und die Anwendung der kleinen Instrumenten die Genauigkeit erfordert.

Das Unternehmen Kaliber Labs lehrt das Neuronennetz, um Ärzten zu helfen. Dieses Neuronennetz bearbeitet die Kameraaufnahmen innerhalb des Patienten in Echtzeit. Die Operation besteht aus einigen Schritten. Das Modell begleitet den Operationsprozess in allen Etappen, um das Fehlerrisiko zu senken. Das Unternehmen arbeitet auch an einem Neuronennetz, das die Videoaufzeichnungen von Operationen markiert. Das verbessert die Offenheit der Kommunikation zwischen den Patienten und Ärzten.

Die Modelle wurden auf Keras, PyTorch und TensorFlow unter Einsatz von NVIDIA RTX GPU gelehrt. Durch die Anwendung von GPU wurde die Zeit für das Lehren der Modelle um das Fünffache reduziert. Um die Instrumenten zur Videobearbeitung in Echtzeit zu entwickeln, verwenden die Forscher JetPack SDK und NVIDIA Jetson TX2. 

Wie funktioniert das?

Am Anfang der Operation gebraucht das System die Videos, um zu erkennen, welcher Typ der Operation stattfindet (z. B. welches Organ operiert wird). Dann wird das Modell ausgewählt, das speziell für diesen Typ der Operationen gelehrt wurde. Das ausgewählte Modell gibt im Echtzeitmodus Empfehlungen für das Operieren eines Bereichs.

Zu diesem Zeitpunkt hat das Unternehmen die Entwicklung des Neuronennetzes zur Bearbeitung von Video aus Operationen an der Schulter beendet. Die Entwickler arbeiten an Modellen zur Bearbeitung von Video aus Operationen an Knie und Hüfte. Diese Modelle werden auf tausenden Stunden von Videoaufzeichnungen von realen Operationen gelehrt.

Quelle

Das Neuronennetz sagt die Wahrscheinlichkeit des Austritts aus dem Koma mit der Präzision von 88% vorher

Filed under: Allgemein — Tags: , , , , — AI-United-Redaktion @ 16:03

Nach Ermittlung der Chinesischen Akademie der Wissenschaften und PLA Army General Hospital liegen jetzt 500.000 Patienten in China im Koma. Diese Ziffer steigert sich jedes Jahr um 70.000 – 100.000 Menschen. 

Die Forscher haben ein Neuronennetz entwickelt, das die Wahrscheinlichkeit des Austritts aus dem Koma vorhersagt. Die Verwandten fassen im Endergebnis einen Beschluss davon, einen Menschen vom Gerät zu trennen oder mit dem lebenserhaltenden Gerät verbunden zu lassen.

Wie funktioniert das?

Der Zustand der Patienten wird mit Hilfe von der Analyse der Ergebnisse der funktionellen Magnetresonanztomografie, der Ursachen der Krankheit, des Alters und der Aufenthaltszeit im Koma bewertet. Diese Technologie kontrolliert auch die Aktivität der Gehirnregione, die für verschiedene Funktionen zuständig sind: die Bewegung, die Stimme, der Gehörsinn, der Gesichtssinn.

«Das Neuronennetz nimmt an, dass jeder Patient noch das Bewusstsein hat. Die Aufgabe liegt darin, die Wahrscheinlichkeit zu bestimmen, mit der ein Mensch innerhalb eines bestimmten Zeitabstands wach wird» — sagen die Wissenschaftler.

Die Ergebnisse

Das Modell erreichte eine Präzision von 88% in der Vorhersage der Genesung von 112 Patienten aus zwei medizinischen Versorgungszentren. Derzeit verwenden die Ärzte aus PLA Army General Hospital diese Technologie in ihrer täglichen Arbeit. 

Dieser Algorithmus half den Zustand von 300 Patienten vorherzusagen. Aber das Modell kann die Ärzte nicht ersetzen. Das ist ein Instrument, das Ärzten und Angehörigen der Patienten hilft, durchdachte Entscheidungen zu treffen.

Quelle

Das Neuronennetz generiert einen Anime-Charakter aus dem Bild

Filed under: Allgemein — Tags: , , , , — AI-United-Redaktion @ 15:52

U-GAT-IT ist ein erzeugendes gegnerisches Netzwerk zur Bildsynthese, das unüberwacht lernt. Die Forscher testeten seine Arbeit an der Aufgabe der Generierung der Bilder der Anime-Charaktere aus gewöhnlichen Fotos von Menschen. Die Versuchsergebnisse zeigen, dass das Neuronennetz U-GAT-IT die Image-to-Image Generierung besser durchführt als fortgeschrittene Methoden. U-GAT-IT enthält das neue Aufmerksamkeitsmodul und die Normalisierungsfunktion. So kann das Modell end-to-end trainiert werden. 

Das Aufmerksamkeitsmodul lehrt dieses Modell, sich auf wichtige Teile des Bildes zu konzentrieren (beim Generieren des Zielbildes). Bisherige Modelle mit dem Aufmerksamkeitsmodul waren gegen Formänderungen (zwischen dem Zielbild und dem Vergleichsbild) nicht resistent. AdaLIN (Adaptive Layer-Instance Normalization) Funktion hilft dem Modell die Veränderungen der Form und Textur von Objekten auf dem Eingangsbild zu kontrollieren. Die Parameter sind für die Kontrolle des Änderungsbetrags zuständig.

Die Architektur

Der Kodierer im Generator besteht aus zwei Faltungsschichten und vier residual Blöcken. Der Dekodierer des Generators besteht aus vier residual Blöcken und zwei Faltungsschichten. Für den Kodierer wird die Instanznormalisierung eingesetzt, für den Dekodierer – AdaLIN. Zur Klassifizierung funktioniert die Schichtnormalisierung schlimmer als die Batchnormalisierung. Die Spektrumnormalisierung wird für den Diskriminator gebraucht.

Im Diskriminator ist PatchGAN realisiert. Es klassifiziert, ob der globale und der lokale Teil des Bildes ein generiertes Bild sind.

Die Visualisierung der Komponenten des Neuronennetzes

Der Vergleich der Arbeit des Neuronennetzes mit anderen Methoden

Die Wissenschaftler verglichen den Ansatz mit konkurrierenden Methoden, einschließlich CycleGAN, UNIT, MUNIT und DRIT. Alle Bezugsmodelle wurden mit Hilfe vom Originalkode implementiert.

CycleGAN gebraucht die gegnerische Verlustfunktion, um den Vergleich der Objekte aus dem Raum X in den Raum Y zu lernen. Das ist die Regularisierungsmethode des Vergleichs durch cycle consistency der Verlustfunktion. CycleGAN besteht aus zwei Faltungsblöcken, 9 residual Blöcken, 2 Dekonvolutionblöcken und 4 Diskriminatorschichten.

UNIT besteht aus zwei VAE-GAN mit dem gemeinsamen versteckten Raum. Die Struktur dieses Modells ähnelt CycleGAN, aber sie unterscheidet sich durch die Struktur des Diskriminators.

MUNIT kann verschiedene Ausgangsbilder aus einem Eingangsbild generieren. Das Modell nimmt an, dass die Darstellung des Bildes in Inhaltskodierung und Stilkodierung verteilt werden kann.

DRIT kann (wie MUNIT) einige Ausgangsbilder aus einem Eingangsbild generieren.

Die Arbeit der Modelle wurde mit Hilfe von 5 Datensätzen mit Bildern eingeschätzt. Zu diesen Datensätzen gehört selfie2anime (der Satz der realen Fotos und Anime-Bilder). Die Umfrageteilnehmer wählten die U-GAT-IT Resultate häufiger als die Resultate anderer Modelle (für 4 von 5 Aufgaben) aus.

Die Befragungsergebnisse zeigen, welche Modellvorhersage glaubwürdiger ist

Quelle

Bagging und Boosting im maschinellen Lernen: Konzepte, Funktionsweisen, Unterschiede

Filed under: Allgemein,FinTech — Tags: , , , , , , — AI-United-Redaktion @ 15:25

Erläuterung, wie Bagging und Boosting funktionieren und Modelle des maschinellen Lernens helfen 

Das Ziel dieses Artikels ist es, einen kurzen Überblick über die Konzepte von Bagging und Boosting im maschinellen Lernen als die zwei bekanntesten Ensemble-Methoden zu geben.

Zuerst wird Bagging behandelt, dann wird dokumentiert, was Boosting ist, und schließlich werden die Unterschiede zwischen diesen beiden Ensemble-Methoden erklärt.

Diese Methoden werden in Python dargestellt.

Konzept des Baggings

  • Bagging, kurze Form von Bootstrap-Aggregation, befindet sich über dem Mehrheitsentscheidungprinzip.
  • Der ursprünglichen Trainingsdatenmenge werden wiederholt Bootstrap-Stichproben entnommen. Nachdem die Stichproben ausgewählt worden sind, werden sie zum Trainieren und Validieren von Vorhersagen verwendet. Die Stichproben werden dann in den Trainingssatz zurückgelegt. Die Auswahl der Stichproben erfolgt nach dem Zufallsprinzip. Diese Methode wird also Bagging genannt.
  • Zusammenfassend lässt sich sagen, dass jedem grundlegenden Klassifizierer, bei dem es sich typischerweise um Entscheidungsbäume handelt, eine zufällige Teilmenge der ursprünglichen Trainingsdatenmenge zugewiesen wird. Die einzelnen Vorhersagen werden dann durch Auswahl oder Mittelwertbildung aggregiert. Die Endergebnisse werden als Vorhersagen verwendet. Dies führt zur Reduzierung der Varianz eines Black-Box-Estimators. 

Die nachfolgende Abbildung fasst das Konzept von Bagging zusammen:

Dank der rekursiven Art der zufälligen Auswahl der Stichproben mit Ersetzung kann die Korrektklassifizierungsrate instabiler Modelle des maschinellen Lernens verbessert, das Ausmaß der Überanpassung gesenkt sowie die Verallgemeinerung der Modelle auf unsichtbare Daten verbessert werden.

Konzept des Boostings

  • Im Grunde genommen geht es beim Konzept des Adaptiven Boostings um die Korrektur früherer Fehler des Klassifizierers. Jeder Klassifizierer wird am Stichprobensatz trainiert und lernt, Vorhersagen zu treffen. Bei jedem Trainingsdurchlauf werden die Fehlklassifizierungsfehler dem nächsten Klassifizierer in der Kette zugewiesen und zur Korrektur der Fehler verwendet. Das Endergebnis ist ein Klassifizierer, der eine möglichst höhere Genauigkeit hat.
  • Der kleine Unterschied zwischen AdaBoost und Boosting besteht darin, dass beim Boosting die Stichproben von einem Klassifizierer trainiert werden und die Fehlerkorrektur auf Basis der Fehler erfolgt.
  • Die Hauptidee des Boostings basiert auf den spezifischen schwer zu klassifizierenden Trainingsstichproben. Wie bekannt werden diese Trainingsstichproben von den Klassifizierern falsch klassifiziert. Diese Modelle (Klassifizierer) werden auch schwache Klassifizierer genannt.
  • Bei falscher Klassifizierung einer Trainingsstichprobe von einem schwachen Klassifizierer werden genau diese Stichproben vom Algorithmus zur Verbesserung der Leistung des Ensembles verwendet.
  • Der gesamte Trainingssatz wird dem AdaBoost hinzugefügt. Das Endergebnis ist ein starker Klassifizierer, der aus den Fehlern der vorherigen schwachen Lerner, d. h. schwachen Klassifizierer, im Ensemble lernt.

Angenommen es gibt drei schwache Klassifizierer namens WC1, WC2 und WC3. Sie können auf dem Algorithmus der Entscheidungsbäume basieren.

Jede Iteration dient der Aktualisierung der Gewichtungen, wobei die vorhergesagten und tatsächlichen Trainingsdaten verglichen werden. Die Fehlerrate wird Fehlklassifizierungsrate genannt.

AdaBoost kann an dem Trainingssatz überanpassen. Im Vergleich zu Bagging-Modellen führen Boosting-Algorithmen zur Verringerung der Verzerrung und Varianz.

Bagging und Boosting: Unterschied 

  1. Durch die Bagging-Methode kann die Varianz eines Modells verringert, eine Überanpassung verhindert und die Genauigkeit instabiler Modelle erhöht werden.
  2. Boosting dagegen ermöglicht, ein starkes Modell durch das Kombinieren einer Reihe von schwachen Modellen zu implementieren.
  3. Im Gegensatz zum Bagging werden die aus dem Trainingsdatensatz entnommenen Proben während des Boosting-Vorgangs nicht wieder in den Trainingssatz zurückgeführt. 
  4. Im Vergleich zu den von Entscheidungsbäumen berechneten Entscheidungsgrenzen (auch als Stümpfe bekannt) können die vom Adaptive Boosting-Algorithmus berechneten Entscheidungsgrenzen sehr komplex sein.
  5. Obwohl dies dazu beitragen kann, dass ein starkes Vorhersagemodell implementiert wird, erhöht das Ensemble-Lernen die Komplexität der Berechnung verglichen mit einzelnen Klassifizierern.

Python Code Bagging

Im diesem Abschnitt wird dargestellt, wie die Bagging-Methode in Python implementiert werden kann.

Im Scikit-learn ist bereits ein Bagging-Klassifizierer implementiert:

sklearn.ensemble.BaggingClassifier
from sklearn.ensemble import BaggingClassifier
ds = DecisionTreeClassifier(criterion='entropy',max_depth=None)
bag = BaggingClassifier(max_samples=1.0,bootstrap=True)
bag.fit(X_train, y_train)

Im obigen Code wird der standardmäßige base_estimator eines Entscheidungsbaums verwendet. Er wird an die Zufallsstichproben mit Ersetzungen angepasst. Stichproben werden für alle Merkmale des Trainingssatzes genommen.

Python Code Boosting

Mit dem weiteren von Scikit-learn bereitgestellten Modul können auch die Vorteile des Adaptive Boosting-Algorithmus genutzt werden:

from sklearn.ensemble import AdaBoostClassifier
tree = DecisionTreeClassifier(criterion='entropy')
booster = AdaBoostClassifier(base_estimator=tree)
booster = booster.fit(x, y)

Der AdaBoost-Algorithmus kann eine viel höhere Genauigkeit erreichen als die Entscheidungsbäume alleine.

Fazit

In diesem Artikel wurde ein kurzer Überblick über die Konzepte von Bagging und Boosting im maschinellen Lernen als die zwei bekanntesten Ensemble-Methoden gegeben.

Zuerst wurde Bagging behandelt, dann wurde Boosting erläutert und schließlich wurden kurz die Unterschiede zwischen diesen beiden Ensemble-Methoden beschrieben.

Sollten Sie weitere Fragen zu Bagging und Boosting haben, so können Sie sich an das Team von AI-United.de per Mail oder Q&A wenden.

Quelle

Verwenden von Cython zur Beschleunigung des Python-Codes um mehr als das 30-Fache

Filed under: Allgemein — Tags: , , , , , — AI-United-Redaktion @ 14:18

Python ist die derzeit beliebteste Programmiersprache der Welt, gefolgt von C++ und C! Ihr größter Vorteil besteht darin, dass sie bei weitem am einfachsten zu bedienen ist, da der Code auf eine intuitiv und menschenlesbare Weise geschrieben ist. 

Sie hat jedoch einen Nachteil, über den immer wieder gesprochen wird, überwiegend von den C-Code-Gurus: Python ist langsam.

Und dies stimmt.

Verglichen mit anderen allgemein verwendeten Programmiersprachen ist Python wirklich langsam. Dies wurde von Benchmark game bewiesen, das einige solide Benchmarks zur Verfügung stellt, mit denen die Geschwindigkeit einer Reihe von Programmiersprachen für verschiedene Aufgaben verglichen wird.

Zwei der wichtigsten Möglichkeiten, den ganzen Prozess zu beschleunigen, sind:

  1. Einsatz der Multi-Processing-Bibliotheken, die das Verwenden aller CPU-Kerne ermöglichen
  2. Einsatz von Rapids zur Beschleunigung der Verarbeitung auf der GPU bei der Arbeit mit Numpy, Pandas oder Scikit-Learn.

Diese Möglichkeiten sind dann sehr hilfreich, wenn es sich um Parallelisierung der Prozesse handelt wie beispielsweise Datenvorverarbeitung oder Matrixoperationen.

Es gibt jedoch eine Reihe von Fällen, bei denen eine Möglichkeit bestehen sollte, Python selbst zu beschleunigen: Der Code ist reines Python; Es gibt eine große for-Schleife, die nur verwendet werden muss und nicht in eine Matrix eingefügt werden kann, weil es notwendig ist, Daten nacheinander zu verarbeiten. 

In diesen Fällen wird Cython eingesetzt. Neben der Anbindung von externen Bibliotheken an den CPython-Interpreter ist das zweite Haupteinsatzgebiet von Cython die Beschleunigung von rohem Phyton-Code.

Cython: Definition

Im Grunde genommen handelt es sich bei Cython um einen Zwischenschritt zwischen Python und C/C ++. Mit ihrer Hilfe kann der reine Python-Code mit einigen kleinen Änderungen geschrieben und dann direkt in die Zielsprache C übersetzt werden.

Am Python-Code muss nur eine einzige Anpassung vorgenommen werden. Dies ist das Hinzufügen von Typinformationen zu jeder Variablen. In der Regel sieht eine Variable in Python wie folgt aus:

x = 0.5

Nach dem Hinzufügen des Typs mit Cython wird diese Variable auf folgende Weise dargestellt:

cdef float x = 0.5

Ähnlich wie bei C sagt auch Cython, dass die Variable ein Gleitkomma ist. Bei reinem Python wird der Typ der Variablen spontan bestimmt. Durch die explizite Typdeklaration in Cython wird die Konvertierung nach C ermöglicht, da explizite Typdeklarationen + erforderlich sind. 

Um Cython zu installieren, wird nur eine einzige Pip-Zeile benötigt:

pip install cython

Typen in Cython

Man unterscheidet zwei verschiedene Typenreihen für Variablen und Funktionen in Cython.

Typen von Variablen sind:

  • cdef int a, b, c
  • cdef char *s
  • cdef float x = 0.5 (einfache Genauigkeit)
  • cdef double x = 63.4 (doppelte Genauigkeit)
  • cdef list names
  • cdef dict goals_for_each_play
  • cdef object card_deck

Es sollte darauf hingewiesen werden, dass alle diesen Typen aus C/C ++ stammen! 

Typen von Funktionen sind:

  • def — Grundsätzlich ist es Python. def-Funktion wird von Python aus aufgerufen.
  • cdef — Grundsätzlich ist es C. cdef-Funktion wird für Cython-Funktionen verwendet, die reine C-Funktionen sein sollen, und wird von C aus aufgerufen werden.
  • cpdef —kombiniert sowohl def- als auch cdef-Funktion, indem sie zwei Funktionen erstellt: die def-Funktion für den Python-Typ und die cdef-Funktion für den C-Typ. Sie kann also sowohl von Python als auch von C aus aufgerufen werden.

Nachdem man den Überblick über den Begriff und Typen in Cython bekommen hat, kann man fortfahren und die Beschleunigung implementieren!

Beschleunigung des Codes mit Cython

Der erste Schritt besteht darin, einen Python-Code-Benchmark einzurichten: Eine for-Schleife wird verwendet, um die Fakultät einer Zahl zu berechnen. Nachfolgend wird der rohe Python-Code dargestellt:

def test(x):
    y = 1
    for i in range(1, x+1):
        y *= i
    return y

Beachten Sie, dass der Cython-Äquivalent mit der gleichen Funktion auf ähnliche Weise dargestellt wird. Zunächst ist es jedoch notwendig, sicherzustellen, dass die Cython-Codedatei die Erweiterung .pyx hat. Die einzige Änderung wird am Code selbst vorgenommen, und zwar wird der Typ jeder Variablen und Funktion deklariert.

cpdef int test(int x):
    cdef int y = 1
    cdef int i
    for i in range(1, x+1):
        y *= i
    return y

Darüber hinaus muss man darauf achten, dass die Funktion cpdef verwendet wird, um sicherzustellen, dass sie von Python aus aufgerufen werden kann. Beachten Sie auch, wie sogar die Loop-Variable i einen Typ hat. Für alle Variablen in der Funktion muss der Typ festgelegt werden, was dem C-Compiler erleichtert zu verstehen, welchen Typ er verwenden soll!

Beim nächsten Schritt wird eine setup.py-Datei erstellt, deren Aufgabe es ist, den Cython-Code in C-Code zu kompilieren:

from distutils.core import setup
from Cython.Build import cythonize

setup(ext_modules = cythonize('run_cython.pyx'))

Dann wird das Kompilieren durchgeführt:

python setup.py build_ext --inplace

Man hat ein fertiges Ergebnis: Der C-Code wurde erfolgreich kompiliert und ist einsatzbereit!

Man kann sehen, dass sich im Ordner mit dem Cython-Code alle zum Ausführen von C-Code notwendigen Dateien befinden, darunter die run_cython.c -Datei. Bei Interesse kann man einen Blick darauf werfen, um den C-Code zu sehen, den Cython generiert hat!

Der neue, superschnelle C-Code ist fertig und kann getestet werden! Der nachfolgende Code implementiert einen Geschwindigkeitstest, mit dem der Python-Code mit dem Cython-Code verglichen werden kann.

import run_python
import run_cython
import time

number = 10

start = time.time()
run_python.test(number)
end =  time.time()

py_time = end - start
print("Python time = {}".format(py_time))

start = time.time()
run_cython.test(number)
end =  time.time()

cy_time = end - start
print("Cython time = {}".format(cy_time))

print("Speedup = {}".format(py_time / cy_time))

Wie man sieht ist der Code sehr einfach. Auf die gleiche Weise wie beim regulären Python werden die Dateien importiert und die Funktionen ausgeführt!

Cython liefert gute Möglichkeiten zur Beschleunigung für fast jeden  rohen Python-Code, ohne dass viel zusätzlicher Aufwand benötigt wird. Das Wichtigste ist, dass je mehr Schleifen man durchläuft und je mehr Daten man verarbeitet, desto besser kann Cython helfen.

Die nachfolgende Tabelle zeigt, wie viel Geschwindigkeit Cython für verschiedene Fakultätswerte gegeben hat. Mit Cython kann man über 36-fache Geschwindigkeitsbeschleunigung erreichen!

Number Python Time Cython Times Speedup
10 1.6689300537109375e-06 4.76837158203125e-07 3.5
100 3.337860107421875e-06 4.76837158203125e-07 7.0
1000 2.193450927734375e-05 9.5367431640625e-07 23.0
10000 0.0002090930938720703 6.4373016357421875e-06 32.481
100000 0.0021562576293945312 6.008148193359375e-05 35.89
1000000 0.02128767967224121 0.0005953311920166016 35.75
10000000 0.2148280143737793 0.00594782829284668 36.1187317112278

Sollten Sie weitere Fragen zu Cython haben, so können Sie sich an das Team von AI-United.de per Mail oder Q&A wenden.

Quelle

KI revolutioniert die globale Logistik und das Lieferkettenmanagement

Filed under: Allgemein — Tags: , , , , — AI-United-Redaktion @ 13:48

Künstliche Intelligenz nimmt in Bezug auf globale Logistik und Lieferkettenmanagement an Brisanz rasant zu. Nach Ansicht einer Reihe von Führungskräften aus dem Verkehrswesen werden diese Bereiche voraussichtlich einen bedeutenderen Wandel erleben. Das heißt, dass kontinuierliche Weiterentwicklung in den Bereichen Technologien wie künstliche Intelligenz, maschinelles Lernen und ähnliche neue Technologien über das Potenzial verfügt, Störungen hervorzurufen und Innovationen in diesen Wirtschaftszweigen zu fördern.

Künstliche Intelligenz wird mit hochentwickelten Computertechniken geliefert, die bei der Auswahl großer Datenmengen aus der Logistik und Lieferkette sehr behilflich sind. Man kann solche Methoden einsetzen und basierend auf ihrer Analyse Ergebnisse erhalten, die Abläufe und komplexe Funktionen auslösen können. 

Viele Unternehmen profitieren inzwischen von Investitionen in künstliche Intelligenz. Laut John Watton, Senior Director, Enterprise Marketing, EMEA, bei Adobe, verwenden derzeit bereits 15% KI, während weitere 31% ihre Umsetzung in diesem Jahr planen. In erster Linie können Umsätze aus folgenden Bereichen generiert werden: Forschung und Entwicklung, Produktinnovation, Lieferkette und Kundenservice.

Wie beeinflusst künstliche Intelligenz die Logistik? 

Die Vorhersagefähigkeiten werden steigen.

KI kann dazu beitragen, die Effizienz des Unternehmens in den Bereichen Netzwerkplanung und prädiktive Nachfrage zu verbessern. Durch die Verwendung von Tools, die bei der Kapazitätsplanung und genauen Bedarfsprognosen behilflich sind, können Unternehmen viel proaktiver werden. Wenn sie sich über die Markterwartungen im Klaren sind, können sie die Fahrzeuge schnell in die Gebiete mit höherer Nachfrage verlegen und damit die Betriebskosten senken.

Anhand von Daten können Techniker heutzutage viele Ziele erreichen, beispielsweise Risiken vermeiden, Lösungen finden oder Ereignisse antizipieren. Die Daten können dazu beitragen, dass Unternehmen ihre Ressourcen richtig einsetzen, um maximalen Nutzen zu erzielen, und künstliche Intelligenz kann ihnen dabei helfen, genauer und schneller zu arbeiten.

Robotik.

Im Zusammenhang mit der künstlichen Intelligenz sollte man unbedingt die Robotik erwähnen. Auch wenn die Robotik als futuristisches Technologiekonzept betrachtet wird, wird sie bereits von der Lieferkette verwendet. Beispielsweise kann mithilfe von Robotik der Bestand in den Lagern verfolgt, lokalisiert und verschoben werden. Solche Roboter sind mit Algorithmen des tiefen Lernens ausgestattet, die den Robotern helfen, autonome Entscheidungen über verschiedene im Lager ausgeführte Abläufe zu treffen.

Big Data.

Wenn man über künstliche Intelligenz spricht, sollte man neben Robotern auch Big Data erwähnen. Mithilfe von Big Data können Logistikunternehmen die zukünftige Leistung optimieren und genauere Aussichten besser als je zuvor vorhersagen. Die Kombination der Erkenntnisse von Big Data und der künstlichen Intelligenz kann dazu beitragen, verschiedene Aspekte der Lieferkette wie Transparenz der Lieferkette und Routenoptimierung zu verbessern. 

Für künstliche Intelligenz in der Logistik ist die Bereitstellung sauberer Daten ein großer Schritt. Für ihre Umsetzung sind solche nutzbaren Zahlen unbedingt notwendig. Es ist keine einfache Aufgabe, die Effizienz zu messen, da Daten aus verschiedenen Quellen stammen. Wie bekannt ist es nicht möglich, Daten auf der Quellenebene zu verbessern. Aus diesem Grund werden bestimmte Algorithmen verwendet, mit denen Daten analysiert werden, die Qualität der Daten verbessert wird sowie Probleme identifiziert werden, um Transparenz zu erreichen, die zum Nutzen des Unternehmens verwendet werden kann.

Computer Vision.

Wenn sich Ihre Fracht auf der ganzen Welt bewegt, sorgen Sie dafür, ein Paar Augen zu haben, um sie zu überwachen. Viel besser ist es jedoch, wenn modernste Technologie dabei eingesetzt wird. Die Verwendung von Computer Vision, das auf künstlicher Intelligenz für die Logistik basiert, erleichtert Ihnen, Dinge auf eine neue Art und Weise zu sehen und zu verfolgen.

Selbstfahrende Fahrzeuge.

Selbstfahrende Fahrzeuge sind das weitere große Produkt, das künstliche Intelligenz der Lieferkette bietet. Selbstverständlich kann es einige Zeit dauern, bis fahrerlose Lkws verfügbar sind, aber das Hightech-Fahren wird bereits in der Logistik eingesetzt, um die Effizienz und Sicherheit zu erhöhen. Man erwartet eine signifikante Änderung auf diesem Gebiet in Bezug auf das unterstützte Bremsen, den Spurassistenten und den Autopiloten auf der Autobahn.

Die modernen hochentwickelten Antriebssysteme können dazu beitragen, den Kraftstoffverbrauch zu senken. Sie führen mehrere Lastwagen zu Formationen zusammen, die von Computern gesteuert werden. Sie sind auch miteinander verbunden. Eine solche Konfiguration sollte den Lkws helfen, deutlich Kraftstoff zu sparen. 

Wie beeinflusst künstliche Intelligenz die Lieferkette? 

KI bietet kontextbezogene Intelligenz.

KI stellt der Lieferkette kontextbezogene Intelligenz zur Verfügung, die zur Senkung von Betriebskosten und Verwaltung von Lagerbeständen verwendet werden kann. Die kontextbezogenen Informationen helfen Unternehmen, schnell zu den Kunden zurückzukehren. 

Die Verwendung der KI zusammen mit maschinellem Lernen erleichtert es Unternehmen, neue Einblicke in verschiedene Bereiche zu erhalten, darunter Logistik, Lieferkettenmanagement und Lagerverwaltung. Einige der in diesen Bereichen verwendeten Technologien sind KI-basierte Sichtprüfungen zur Erkennung von Schäden und Durchführung von notwendigen Korrekturen durch Aufnahme der Ladung mit Hilfe von Spezialkameras und Intelligent Robotic Sorting, um palettierte Sendungen, Pakete und Briefe zu sortieren.

KI bietet Einblicke zur Steigerung der Produktivität.

Die Verwendung der KI im Lieferkettenmanagement erleichtert es, die Leistung zu analysieren und neue Faktoren zu finden, die denselben Bereich beeinflussen. Um die Faktoren und Probleme zu ermitteln, die die Leistung der Lieferkette beeinträchtigen können, werden die Möglichkeiten verschiedener Arten von maschinellem Lernen wie überwachtes Lernen, unüberwachtes Lernen und bestärkendes Lernen kombiniert. 

KI hilft bei der Bedarfsprognose, wobei große Datenmengen analysiert werden.

KI ermöglicht es, alle Faktoren zu messen und zu verfolgen, die dazu beitragen können, die hohe Genauigkeit der Bedarfsprognose sicherzustellen. Auf Basis des Wetters, den Echtzeitverkäufen und anderen Faktoren werden kontinuierliche Vorhersagen in einer Schleife geliefert. Diese Informationen können bei der automatischen Sortierung, der Verbesserung der Lagerverwaltung, der Selbstverwaltung von Lagersystemen sowie selbstfahrenden Gabelstaplern sehr nützlich sein. 

KI kann dazu beitragen, die Auswahl des Lieferanten und dessen Effektivität zu verbessern.

KI kann lieferantenbezogene Daten wie Audits, uneingeschränkte Lieferleistung, Kreditwürdigkeit und Bewertungen analysieren und basierend auf diesen Daten Informationen liefern, die beim Treffen zukünftiger Entscheidungen sehr hilfreich sein können. Dieser Schritt erleichtert es dem Unternehmen, bessere Entscheidungen als Lieferant zu treffen sowie den Kundenservice zu verbessern.

KI wird bei der Verbesserung des Kundenerlebnisses verwendet.

Laut Pega, einem US-amerikanischen Software-Unternehmen, sind 38 Prozent der Verbraucher davon überzeugt, dass KI den Kundendienst wesentlich verbessern kann. KI personalisiert die Beziehung von Kunden zu Logistikdienstleistern und bietet Kunden eine Möglichkeit, den sprachbasierten Dienst zu verwenden, um ihre Sendung zu verfolgen. Falls Probleme auftreten, wird der Kunde an den Mitarbeiter des Kundendienstes weitergeleitet.

KI verbessert die Fabrikplanung und Produktionsplanung.

Die Einführung der KI ermöglicht es Unternehmen, die Fabrikplanung und Produktionsplanung deutlich zu verbessern. Dies bedeutet, dass sie daran arbeiten können, die verschiedenen Probleme zu analysieren und anschließend zu optimieren. Da die KI über die Fähigkeit verfügt, Einschränkungen auszugleichen, kann dies für Situationen, wenn ein Produkt erst nach der Bestellung des Kunden hergestellt wird, automatisch gut funktionieren. Es handelt sich um Fertigung nach Auftrag, aus dem Englischen Build-to-Order.

Auswirkungen der künstlichen Intelligenz im Verkehrswesen.

Probleme im Verkehrswesen entstehen, wenn es ziemlich schwierig ist, das Systemverhalten auf Basis des vorhersehbaren Musters, das von menschlichen Fehlern, Verkehr oder Unfällen beeinflusst wird, zu bestimmen. In solchen Fällen kommt KI zu Hilfe, wobei sie Entscheidungen auf Basis der Datenanalyse voraussagt. Heutzutage wird KI auf verschiedene Arte und Weise in der gesamten Transportbranche implementiert. Nachfolgend werden einige davon erläutert: 

Unternehmensentscheidungen.

Durch den Einsatz von KI-Methoden kann das Güterverkehrssystem Vorhersagemethoden verwenden, um das Volumen zu ermitteln, wodurch die Planung für das Transportunternehmen vereinfacht werden kann. Darüber hinaus ist es möglich, eine Reihe von Entscheidungstools zu entwickeln, die von KI ausgeführt werden können. Von solchen Investitionen in KI können Unternehmen in Zukunft stark profitieren. 

Verbesserung der öffentlichen Sicherheit.

Die Echtzeit-Verfolgung von Kriminalitätsdaten in städtischen Gebieten ermöglichte es, die Sicherheit der Menschen zu gewährleisten, die mit öffentlichen Verkehrsmitteln fahren. Anhand solcher Daten kann die Polizei ihre Patrouillenbemühungen effizienter gestalten und die Sicherheit der Fahrgäste gewährleisten. 

Selbstfahrende Fahrzeuge.

In den letzten Jahren waren selbstfahrende Pkws und Lkws für die Menschen von Interesse. Um die Produktivität zu steigern und Unfallhäufigkeit auf den Autobahnen zu verringern, haben Elon Musk und Uber selbstfahrende Lkws entwickelt. 

Sicherheit von Fußgängern.

Verletzungen und Verkehrsunfälle können verringert werden, indem man den Weg von Radfahrern und Fußgängern vorhersagt. Die Erfassung von Verkehrsinformationen ermöglicht es, die Gesamtemissionen und die verschiedenen Transportnutzungen zu reduzieren. 

Verkehrsmuster.

Anscheinend beeinflusst der Verkehrsfluss den Verkehr erheblich. Bei der Analyse der verkehrsbezogenen Daten für das Verkehrsmanagement unter Verwendung von KI können diese Informationen dazu beitragen, Verkehrsstaus drastisch zu reduzieren sowie zu rationalisieren. Heutzutage können mithilfe einer Reihe von KI-basierten Lösungen intelligentere Verkehrslösungen entwickelt werden, und sie sollen ihre Rolle effektiv spielen.

Fazit

Mit den jüngsten Durchbrüchen bei Technologien wie Big Data und Algorithmen des maschinellen Lernens sollte KI in naher Zukunft ungewöhnliche Lösungen für die Logistik, Lieferkette und das Verkehrswesen entwickeln.

Sollten Sie weitere Anregungen dazu haben, wie KI in der Logistik und dem Lieferkettenmanagement verwendet werden kann, können sich an das Team von AI-United.de per Mail oder Q&A wenden.

Quelle

Ein genauerer Überblick über die Hauptarten von Modellen des maschinellen Lernens

Filed under: Allgemein — Tags: , , , , — AI-United-Redaktion @ 11:03

Das Ziel dieses Artikels ist, einen genaueren Überblick über die wichtigsten Arten von Modellen des maschinellen Lernens zu geben. Er ist sehr hilfreich für diejenige, die mit maschinellem Lernen nicht vertraut sind und einen Überblick über das maschinelle Lernen erhalten möchten.

Hauptarten von Modellen des maschinellen Lernens

Einfach ausgedrückt, wird maschinelles Lernen eingesetzt, um anhand der vergangenen und aktuellen Daten Vorhersagen über zukünftige Daten zu machen. Dies wird in vielen realen Fällen angewendet, von der Empfehlung von Filmen zum Anschauen bis hin zur Identifizierung von Arten von Krebszellen. Der Prozess der Erstellung eines ML-Modells kann ziemlich komplex sein und muss so durchgeführt werden, dass er für das jeweilige Problem funktioniert, das er behandelt sollte. 

Wo Daten vorhanden sind, kann maschinelles Lernen für die Lösung eines Problems, Vermittlung von Erkenntnissen und für viele andere Zwecke eingesetzt werden. Beachten Sie jedoch, dass bei Modellen des maschinellen Lernens nicht eine einzige Art von Algorithmus für alle Fälle verwendet werden kann. Es stehen verschiedene Kategorien von Algorithmen zur Verfügung, die für den Umgang mit unterschiedlichen Daten und die Lösung verschiedener Probleme anhand unterschiedlicher Ansätze entwickelt wurden. Die bereitgestellten Eingaben, die ausgeführte Aufgabe sowie die für jede Klasse gelieferten Ausgaben unterscheiden sich sehr.

Man unterscheidet die folgenden Hauptarten des maschinellen Lernens, die in diesem Artikel im Detail behandelt werden:

  • Überwachtes Lernen
  • Unüberwachtes Lernen
  • Bestärkendes Lernen.

Überwachtes Lernen

Um Algorithmen des überwachten Lernens zu verstehen, betrachten wir zunächst ein bildliches Beispiel:

Es gibt zwei Schiffe, Schiff A und Schiff B, und beide befördern eine Vielzahl von Autos. Während alle Autos auf Schiff A in einer Datenbank beschriftet sind, enthalten die Autos auf Schiff B keine Beschriftungen. Stellen Sie sich nun vor, dass jemand die Aufgabe bekommt, jedes Auto auf Schiff B zu identifizieren und in der Datenbank zu beschriften. Er kann dies tun, indem er ein Modell auf der Grundlage der Daten des Schiffs A entwickelt und es dann auf die Daten des Schiffs B anwendet. Erfährt er beispielsweise von Schiff A, dass Autos mit vier Rädern und mehr als vier Sitzen SUVs genannt werden, weist er das Modell an, aufgrund dieser Informationen solche Autos auf Schiff B auch als SUVs zu identifizieren.

Dies ist eine kurze, bildliche Darstellung des Modells des überwachten Lernens. Es handelt es sich um eine Art von maschinellem Lernen, bei der eine Lösung für das aktuelle Problem auf Basis der bereits vorhandenen Daten gefunden wird.

Stellen wir dies jetzt technisch dar. Überwachtes Lernen ist eine Art von ML-Algorithmus, bei dem ein Modell oder eine Funktion auf Basis der gepaarten Eingabe-Ausgabe-Daten in den Trainingsdaten erstellt wird und die Eingabe der Testdaten auf ihre jeweilige Ausgabe abbildet. Dabei versteht man unter Trainingsdaten oder einem Trainingsdatensatz einen Datensatz mit beschrifteten Daten und unter Testdaten oder dem Testdatensatz einen Satz von Eingaben ohne Beschriftungen. Kurz zusammengefasst, kann überwachtes Lernen als eine Art maschinelles Lernen betrachtet werden, bei dem ein Lehrer notwendig ist, technisch gesehen Trainingsdaten.

Überwachtes Lernen lässt sich grob in zwei Unterarten einteilen: Regression und Klassifikation. Während bei der Regression das Modell des überwachten Lernens numerische (oder kontinuierliche) Werte verwendet, werden bei der Klassifikation kategoriale Werte verwendet, die in der Regel binäre Werte (0 oder 1) sind.

Beim überwachten Lernen gibt es zwei zentrale Probleme:

  • Da diese Modelle mit Verzerrungen und Varianzparametern erstellt werden, gibt es hier einige Probleme. Erstens können durch Verzerrungen Fehler in den Ergebnissen entstehen. Dies lässt sich dadurch erklären, dass sie nicht auf den Daten selbst, sondern auf Annahmen über die Daten basieren. Zweitens kann eine Varianz, besondere eine hohe Varianz, dazu führen, dass Modelle bei Trainingsdaten gut und bei Testdaten schlecht funktionieren. 
  • Rauschen in den Daten: Durch Fehler in den Daten können Dateninkonsistenzen entstehen.

Überwachtes Lernen ist weit verbreitet und umfasst folgende Algorithmen:

  • Support Vector Machines
  • Lineare Regression
  • Logistische Regression
  • Naive Bayes
  • Diskriminanzfunktion
  • Entscheidungsbäume
  • k-Nearest-Neighbor-Algorithmus
  • Neuronale Netzwerke (Mehrschichtiges Perzeptron)
  • Similarity Learning.

Unüberwachtes Lernen

Um unüberwachte Lernalgorithmen zu verstehen, betrachten wir ein weiteres Beispiel:

Angenommen es gibt anstelle von zwei Schiffen, dem Schiff A und dem Schiff B, nur ein einziges Schiff. Und anstelle von Autos befördert es mehrere Obstsorten und Ihnen ist unbekannt, um welche Obstsorten es sich handelt. Um dieses Problem zu lösen, sollten Sie alle Früchte auf dem Schiff nach ihren physikalischen Eigenschaften in Gruppen unterteilen. Zunächst können Sie beispielsweise nach Größe, dann nach Farbe, danach nach Form und so weiter und so fort unterteilen. Dies ist die bildliche Darstellung der Funktionsweise der Modelle des unüberwachten Lernens.

Versuchen wir jetzt dies technisch darzustellen. Unüberwachtes Lernen ist eine Art von maschinellem Lernen, bei dem Schlussfolgerungen aus einem Datensatz ohne Beschriftungen gezogen werden. Eine der beliebtesten Kategorien des unüberwachten Lernens ist das Clustering. Man kann es als ein Verfahren betrachten, bei dem der Prozess der explorativen Datenanalyse durchgeführt wird, um verborgene Muster oder Gruppierungen in Daten zu finden. Anders gesagt, unüberwachte Lernalgorithmen sind Modelle, die aus den Testdaten selbst lernen, im Gegensatz zu Modellen des überwachten Lernens, die von einem Lehrer, d.h. Trainingsdaten, lernen. 

Die am häufigsten von unüberwachten Lernmodellen verwendeten Algorithmen sind:

Clustering-Modelle

  • Hierarchisches Clustering
  • K-means
  • Mischungsmodelle
  • DBSCAN (Density-Based Spatial Clustering of Applications with Noise, etwa: Dichtebasierte räumliche Clusteranalyse mit Rauschen)
  • OPTICS-Algorithmus (Ordering Points To Identify the Clustering Structure, etwa: Punkte ordnen, um die Clusterstruktur zu identifizieren) 

Modelle zur Anomalieerkennung

  • LOF: Local Outlier Factor (etwa: Lokaler Ausreißerfaktor)

Neuronale Netzwerkmodelle

  • Autoencoders
  • Deep-Belief-Netzwerke
  • Hebbsches Lernen
  • GAN: Generative Adversarial Networks (etwa: erzeugende gegnerische Netzwerke).

Bestärkendes Lernen

Modelle des bestärkenden Lernens können mit dem Dressieren eines Hundes verglichen werden. Das heißt, mit der Art und Weise, wie ein Hund trainiert wird und bei der Ausführung einer Zielaufgabe von Ihnen mit einer Leckerei immer belohnt wird. In diesen Algorithmen erfüllt der Hund die Rolle eines Agenten und die Hundeleckerei die Rolle der Belohnung. Beachten Sie, dass es hier eine Aktion oder eine zu ausführende Zielaufgabe gibt. Darüber hinaus zählen zu den zwei wichtigen Elementen dieser Modelle die Umgebung und der Interpreter. Dementsprechend können sie am Ort verstanden werden, an dem die Zielaufgaben vom Hund ausgeführt werden, und die Person, die dem Hund befiehlt und ihn mit Leckereien belohnt.  

Wie können Algorithmen des bestärkenden Lernens technisch erklärt werden? Sie sind die Art des ML-Modells, bei dem die Ausführung der Aufgaben von einem Agenten in einer bestimmten Umgebung erfolgt. In diesem Modell wird dem Agenten entweder eine Belohnung oder eine Strafe für jede ausgeführte Aufgabe gegeben. Wie der Name verrät, handelt es sich um die Durchführung kontinuierlicher Verbesserungen basierend auf bestimmten Regeln. Der Algorithmus des bestärkenden Lernens unterscheidet sich von anderen Ansätzen des maschinellen Lernens dadurch, dass ihm nicht mitgeteilt wird, wie eine Aufgabe ausgeführt werden sollte, sondern er muss von selbst lernen. 

Da die Modelle des bestärkenden Lernens eine Vielzahl von Daten erfordern, funktionieren sie dort, wo leicht verfügbare Daten vorhanden sind. Die typischen Anwendungsfälle sind Gameplay- und Roboterszenarien. Beispielsweise wurde bestärkendes Lernen bei Brettspielen wie Backgammon, Dame und Schach angewendet. Um die Ergebnisse der Modelle des bestärkenden Lernens zu testen, wird die Lehrkraft eines Agenten gegen einen Menschen getestet. 

Zu den wichtigsten Algorithmen des bestärkenden Lernens gehören:

  • Monte Carlo
  • Q-Learning
  • State Action Reward State Action (SARSA)
  • Deep Q Network (DQN)
  • Asynchronous Actor-Critic Agent (A3C)
  • Deep Deterministic Policy Gradient (DDPG)
  • Normalized Advantage Functions (NAF).

Schlussfolgerungen

Maschinelles Lernen lässt sich in drei Hauptarten unterteilen: überwachtes Lernen, unüberwachtes Lernen und bestärkendes Lernen. Für Modelle des überwachten Lernens können die Beschriftungen von Testdaten durch das Training eines Modells basierend auf den Beschriftungen von Trainingsdaten vorhergesagt werden. Abhängig von der Art der verwendeten Daten können Modelle des überwachten Lernens in Regressions- und Klassifizierungsmodelle unterteilt werden. In Modellen des unüberwachten Lernens werden versteckte Muster und Gruppierungen in den Daten ohne Hilfe von Trainingsdaten gefunden. Schließlich können Modelle des bestärkenden Lernens als die Modelle betrachtet werden, bei denen ein einbezogener Agent die Aufgaben in einer Umgebung auf Basis der Belohnungen ausführt. 

Möchten Sie mehr über die wichtigsten Arten von maschinellem Lernen erfahren, so können Sie sich an das Team von AI-United.de per Mail oder Q&A wenden.

Quelle

26. September 2019

Rolle der KI-Technologien in der Entwicklung der Banken und FinTech-Startups

Filed under: Allgemein,FinTech — Tags: , , , , , , — AI-United-Redaktion @ 17:51

Die Finanzindustrie war eine der ersten Industriebranchen, die die Stärken der künstlichen Intelligenz übernommen und genutzt hat. Die jährlichen Haushalte großer Banken, die sich auf Milliarden von Euro belaufen, können mit den Staatshaushalten einiger Entwicklungsländer verglichen werden. Deshalb wird es erwartet, dass gerade Banken und Finanzinstitute die Haupttreiber für KI-Forschung und -Entwicklung in FinTech sein werden. Darüber hinaus werden sie dazu beitragen, die KI-Wissenslücken in anderen Branchen zu überbrücken und das Ökosystem der FinTech-Startups zu unterstützen. 

Die größten und erfolgreichsten Kreditorganisationen verfügen bereits über offizielle gut entwickelte KI-Strategien.

Von den meisten dieser Strategien wird das Gründen interner oder ausgelagerter KI-Abteilungen bzw. -Teams vorausgesetzt. Im neulich veröffentlichen Autonomous Research wurde vorhergesagt, dass die Verwendung der KI-Technologien den Banken bis 2030 ermöglicht, die Betriebskosten um 22% zu senken. Über 1 Billion US-Dollar der heutigen Kostenstruktur für Finanzdienstleistungen werden durch maschinelles Lernen und KI ersetzt. 

Gleichzeitig stehen große Banken vor einem dramatischen Problem: Ihnen fehlen hoch qualifizierte KI-Entwicklern, -Forscher, -Praktiker und Datenanalysespezialisten. Der Mangel an Fachleuten führt dazu, dass die Entwicklung der Technologie in vielen Branchen verlangsamt wird, wobei FinTech am meisten beschädigt wird.

Die vorherige Etappe in der Verbreitung von FinTech-Startups und Kundenanwendungen auf dem Gebiet der Finanzdienstleistungen war von Smartphones bestimmt. Etwa zur selben Zeit erschien der Begriff selbst. Smartphones ermöglichten den FinTech-Projekten und führenden Banken, die Vorteile der Standortbestimmung, Verschlüsselung, digitalen Signatur, des sicheren Fernzugriffs usw. zu nutzen. Durch die Entwicklung öffentlicher und privater Cloud-Computing-Plattformen wurde die Arbeit mit Finanzdaten zu vereinfacht und erleichtert. 

Künstliche Intelligenz und Finanztechnologie: glücklich verheiratet?

Eine neue Etappe in der Entwicklung der Anwendungen und Diensten auf dem Finanzmarkt wurde von KI hervorgebracht. Wie bekannt ist KI in der Lage, unstrukturierte Daten wie Bilder, Präsentationen, Video, Audio, Ort und Zeitreihen perfekt zu verarbeiten.  Deshalb bieten die bereits vorhandenen KI-basierten Lösungen viele Möglichkeiten: Mit ihrer Hilfe kann der Betrug erkannt, die Kreditwürdigkeit und Risiken bewertet sowie eine Person auf Basis ihrer digitalen Fußspuren identifiziert werden. Im Versicherungsbereich dienen sie zum Erkennen der Versicherungsbetrüge, Automatisieren der Schadensfälle und Verbessern des Risikomanagements.

Die KI-gesteuerten Chatbots, über die in letzten Jahren sehr viel gesprochen wird, tragen dazu bei, dass das Nutzererlebnis in Echtzeit und auf die effizienteste Weise überhaupt personalisiert werden kann. Dadurch können Banken den nächsten Reifegrad in ihren Kundenbeziehungen und –erlebnissen erreichen.

Zum Schluss sind virtuelle Assistenten zu nennen. Dies ist eine weitere KI-Produktkategorie, die sich großer Beliebtheit bei Banken und Finanzunternehmen erfreuen, und genau wie Bots hilft, den Benutzer durch die Dienstleistungen und Produkte der Bank zu führen und somit die Reise des Nutzers zu verbessern, Einblicke zu geben und gezielte Handlungsaufforderungen zur Steigerung der Zielkonversation zu setzen. 

Verschaffen wir uns einen kurzen Überblick über einige der spannendsten KI-Initiativen, die von Banken und Finanzinstituten gestartet wurden.

Wirksamer Einsatz der KI-Technologien von Banken

JP Morgan setzt KI zur Automatisierung der Analyse von Kreditverträgen ein. Vor kurzem hat JP Morgan ein neues Programm namens COIN implementiert, das für Contract Intelligence steht. Diese Plattform ermöglicht den Benutzern, die Verträge zu analysieren, die wichtigsten Bedingungen sowie kritische Daten hervorzuheben. Bisher haben Bankangestellten jedes Jahr insgesamt 360.000 Arbeitsstunden damit verbracht, diese banalen Aufgaben zu erledigen.

Wells Fargo kündigte die Schaffung eines speziellen KI-Teams an, das sich mit der Entwicklung der innovativen Zahlungstechnologien und Verbesserung der Dienstleistungen für seine Firmenkunden beschäftigen wird. Eine besondere Aufgabe des KI-Teams von Wells Fargo besteht in der Entwicklung der Technologien, die der Bank ermöglichen sollten, einen persönlicheren Online-Kundenservice zu bieten.

Zu den aktuellen Projekten, an denen das KI-Team im Auftrag von Bank arbeitet, zählen Systeme, die einen Zahlungsbetrug oder Fehlverhalten von Mitarbeitern erkennen können, sowie Technologien, die Kunden persönlichere Empfehlungen zu verschiedenen Finanzprodukten geben können.

Die Bank of America entwickelte einen KI-basierten virtuellen Finanzassistenten namens Erica. Dies ist ein Chatbot, der bereits den 25 Millionen Mobilfunkkunden der Bank in der BofA-App kostenlos zur Verfügung steht. Erica ist KI-gesteuert und kombiniert prädiktive Analysen und natürliche Sprache, um BofA-Kunden den Zugriff auf Kontostandsinformationen, den Geldtransfer zwischen Konten, das Geldsenden mit Zelle und die Planung von Besprechungen in Finanzzentren zu erleichtern. Kunden können mit Erica auf jede beliebige Weise interagieren, einschließlich Sprachbefehlen, SMS oder Tippen auf Optionen auf dem Bildschirm ihres Telefons. 

CityBank legt einen besonderen Wert auf die Entwicklung und das Investieren in die KI-basierten Startups und Projekte, die mithilfe der KI Betrüge im Online-Banking aufdecken und bekämpfen sollen. Sie hat beispielsweise in ein datenwissenschaftliches Unternehmen Feedzai investiert, das maschinelles Lernen in Echtzeit verwendet, um auf Grund der Analyse der Big Data betrügerische Zahlungstransaktionen zu identifizieren und das Risiko in der Finanzindustrie zu minimieren. Ein weiteres Beispiel ist eine persönliche Finanzapp Clarity Money, das maschinelles Lernen mit KI kombiniert, um ein Produkt zu entwickeln, mit dem Kunden ihre Finanzen verwalten können. Diese App begleitet Kunden auf ihren finanziellen Reisen und helfen ihnen dabei, klügere Entscheidungen in Bezug auf Budgetierung, Geldmanagement und Ausgaben zu treffen. 

Laut einer Pressemitteilung „passt die Methode des maschinellen Lernens von Feedzai die Kontrollen automatisch an, um Abweichungen und Änderungen im Zahlungsverhalten der Kunden zu überwachen. Auf diese Art und Weise wird die Analyse und das Identifizieren potenzieller Anomalien bei betroffenen Zahlungen noch vor dem Senden zur Abwicklung ermöglicht. Dies wird unter Gewährleistung einer schnellen und effizienten Zahlungsabwicklung erfolgen.“ CitiBank rechnet damit, dass ihre innovative Lösung dieses Jahr auf den Markt gebracht wird. 

Wie wird KI von FinTech-Startups eingesetzt?

Die Finanzdienstleistungsbranche ist bei Startups sehr beliebt. Während sich einige von Startups bemühen, eine Revolution im traditionellen Bankwesen zu machen, versuchen andere, Banken dabei zu helfen, ihre Leistungen mit neuen und fortschrittlichen Produkten zu erweitern und verbessern. Die KI-Anwendungsfälle aus einer FinTech-Startup-Welt umfassen beispielsweise Betrugserkennungs- und Beratungsdienste, persönliches Finanzmanagement, Transaktionenunterstützung und so weiter.

Beim Vergleichen des Verbraucherverhaltens mit zahlreichen historischen Daten können kleinste Details gefunden und Cyberbetrüge im Voraus verhindert werden. KI-Tools sammeln Daten und erhalten Aktualisierungen, deshalb werden sie kontinuierlich trainiert und verbessert.

Anhand der KI-basierten Beratungsroboter können Risiken für Kunden verringert werden, da sie in der Lage sind, geeignete Finanzprodukte und -objekte für Investitionen über eine große Menge von Informationsquellen zu empfehlen.

Ein besonders vielversprechender Bereich für FinTech-Startups ist persönliches Finanzmanagement. Die erfolgreichen Startups hier sind Online-Budgetplaner Mint und persönlicher Finanzmanager Wallet.

Diese Plattformen erfüllen folgende Aufgaben: Sammeln von Informationen über persönliche Finanzen, Verwalten von Daten über die Zeit und Treffen von fundierten Entscheidungen und Empfehlungen. Einer ihrer Vorteile ist eine bequeme Bedienung. Darüber hinaus sind sie bei denjenigen Verbrauchern beliebt, die zuvor ungenügend Geduld hatten, ihre Finanzen zu kontrollieren.

Einige der vielversprechendsten KI-Startups im Finanzbereich

DreamQuark entwickelt eine Softwareplattform, die den Einsatz künstlicher Intelligenz demokratisiert und dem Entwickeln und Entwerfen von KI-Anwendungen speziell für den Banken- und Versicherungsbereich dient. Die Lösung deckt alle ihre Hauptaktivitäten mit dedizierten Anwendungen ab, wie Kundensegmentierung, Targeting, Underwriting, Kreditbewertung, Vermögensverwaltung, Bekämpfung von Geldwäsche, Betrug, Mahnwesen, Zufriedenheit und Kundenbindung.

Alpaka kombiniert menschliche Ressourcen und KI, um eine neue Kollaborationsplattform für globale Kapitalmärkte zu entwickeln, und bietet einzigartige KI-basierte Marktvorhersage-Lösungen für globale Finanzinstitute. Für ihre Marktprognosemodelle wird ein detailliertes hochfrequentes Datentraining (maschinelles Lernen) verwendet, wodurch typische Szenarien erkannt werden, die die Preisänderungen andeuten. Für eine schnelle, skalierbare Datenspeicherung bietet Alpaka MarketStore. Dies ist ein OpenSource-Datenbankserver, der umfassend für Finanzzeitreihendaten optimiert ist.

DataVisor bietet die weltweit fortschrittlichsten KI-basierte Lösungen, um Betrüge und andere Finanzverbrechen aufzudecken und Unternehmen vor Betrug und Missbrauch zu schützen. Das Unternehmen verwendet unüberwachtes maschinelles Lernen, um moderne, hochentwickelte Cyberangriffe zu erkennen und zu verhindern. Infolgedessen sind die Leistungen der Unternehmen, die DataVisor-Produkte einsetzen, 50% effizienter ist als die der Wettbewerber.

Quantexa ist ein Big-Data-Analyseunternehmen, das umsetzbare Informationen im Kampf gegen Finanzkriminalität und Kundenerkenntnisse liefert. Es verwendet die neuesten Entwicklungen in Big Data und KI, um Ausfallrisiken vorherzusagen, Betrug proaktiv aufzudecken, Geldwäsche zu verhindern, Profile von skrupellosen Akteuren und vertrauenswürdigen Kunden zu erstellen sowie die Verbindungen zwischen ihnen zu beschreiben.

Dank der FinTech haben die Banken gelernt, benutzerzentrisch zu sein und zukünftige Bedürfnisse zu antizipieren

Verglichen mit Tesla, die heutzutage mehr als nur ein Fahrzeug wahrgenommen wird, werden auch die Bankdienstleistungen zu ganzen Ökosystemen. Als Benutzer sind wir in glücklicher Lage, dass jemand derzeit einen neuen Roboterberater entwickelt, der Ihnen mitteilt, worin Sie ihr Geld investieren sollen, und der die Stimme Ihres Vaters verwendet, um die Empfehlung so persönlich wie möglich zu gestalten. Auf diese Weise hilft künstliche Intelligenz Banken und FinTech-Startups, einen Wettbewerbsvorteil zu erzielen und einen Unterschied in Bezug auf die Benutzerfreundlichkeit zu machen.

Sollten Sie Fragen oder weitere Anregungen dazu haben, wie KI Banken und Startups helfen kann, so können Sie sich an das Team von AI-United.de per Mail oder Q&A wenden.

Quelle
Older Posts »

Powered by WordPress