Accenture Research: künstliche Intelligenz benötigt keine Big Data, sie benötigt die Vernunft

2 min read

Accenture Research: künstliche Intelligenz benötigt die Vernunft

Die ausschließliche Rolle von Massendaten gehört der Vergangenheit an. Die Zukunft der künstlichen Intelligenz liegt in Wahrscheinlichkeitsmodellen und Learning by Experience (das Lehren durch eigene Erfahrung). Die Forscher meinen, dass in den nächsten 5 Jahren die Computer weniger „künstlich“ und „intellektueller“ werden. Sie werden sich weniger auf die Massendaten und mehr auf die logischen Konsequenzen verlassen, gleichwie ein Mensch die Probleme löst.

Einschränkungen von Big Data

Heutzutage entwickelt sich die künstliche Intelligenz mittels Deep Learning. Dabei wird eine sehr große Anzahl von lehrenden Daten verwendet. Zum Beispiel, selbstfahrende Autos werden auf der möglichst großen Anzahl von Daten über verschiedene Verkehrssituationen gelehrt. Doch es gibt unvorhergesehene Situationen, die vom Lehren nicht erfasst werden können. Solch ein Auto kann Fußgänger, Straßen-Verkehrszeichen gut erkennen.

Die Gesichtserkennung bei iPhone X funktioniert nicht gleich nach dem Aufwachen am Morgen, wenn das Gesicht geschwollen ist.

Die Algorithmen erlernten beim Schach zu gewinnen. Doch wenn man das Bild dreht oder ein wenig verändert, irrt sich das Neuronennetzwerk.

Informationsverarbeitungssysteme stoßen auf praktische und ethische Einschränkungen. Nicht jedes Unternehmen hat den notwendigen Datenumfang zur Herstellung von Produkten unter Benutzung des Neuronennetzwerks. Der Einsatz der großen Menge von Daten der Staatsangehörigen bringt die Frage des Datenschutzes auf. Die Neuronennetzwerke werden manchmal mit der Black Box verglichen. Es ist unklar, wie diese die Eingangsdaten verwendet und wie sie den Entschluss trifft.

Weniger Daten, mehr Logik

Experten meinen, dass die Neuronennetze in der Zukunft weniger Daten anwenden werden, die Denkweise des Computers flexibler sein wird, wie bei Menschen. Manche Unternehmen und Startups arbeiten bereits in diese Richtung.

Das Startup Vicarious arbeitet an der Entwicklung der künstlichen Intelligenz, die aufgrund einiger Beispiele generalisieren kann. Die Investoren dieses Startups sind Mark Zuckerberg, Jeffrey Preston Bezos und Marc Russell Benioff. Im vergangenen Jahr hat das Unternehmen einen Algorithmus erarbeitet, der das Captcha mit einer Genauigkeit von 67% hackt. Dabei wurde er nur auf 5 Beispielen gelehrt, im Unterschied zu 200 Tausend Beispiele, die das moderne Modell benötigt.

Die Modellierung, was ein Mensch unter Bedingungen der Ungewissheit macht, und die kleine Anzahl von Daten ließen Siemens die künstliche Intelligenz zur Regelung des Brennens in den Gasturbinen anwenden (der Luft- und Gaszutritt, die Temperaturüberwachung innerlich und äußerlich von Gasturbinen). Das Sammeln der Bedarfsmenge von Daten zum Lehren würde mehr als 100 Jahren dauern.

Siemens setzt den Apparat GT-ACO in den Operationen zur Regelung der großen Gasturbinen ein. Siemens in den USA und Südkorea.

Menschen können die Wahrscheinlichkeit eines Ereignisses basierend auf der geringen Erfahrung bewerten. Die Wissenschaftler modellieren solche Schlussfolgerungen für Computer, wobei sie die Gauß-Methoden einsetzen. Das sind die Wahrscheinlichkeitsmodelle, die mit der Ungewissheit funktionieren können. Sie basieren auf die geringe Anzahl von Daten. Das Unternehmen Alphabet hat das Projekt Loop anlaufen lassen. Das bietet die Internetverbindung via riesigen Luftballons, die in der Stratosphäre gleiten. Ihre Navigationssysteme nutzen Gauß-Prozesse.

Die Erarbeiter wollen die künstliche Intelligenz «Vernunft» lehren: die natürliche Kommunikation, die Reaktionen auf die voraussehbaren Situationen und die Fähigkeit durch eigene Erfahrung zu lernen. DARPA investiert $2 Milliarden in das Programm Machine Common Sense. Microsoft entwickelt die Algorithmen, die die Mehrdeutigkeit von Wörtern bei den Aufgaben von NLP verstehen können.

Die Idee des Einsatzes der geringen Anzahl von Daten zum Lehren ist nicht neu. Wissenschaftler haben in den 1950 Jahren solche Entwicklungsarbeiten ausgeübt. Sie wurden nach dem Erfolg von großen Daten beiseite gelegen. Nun gibt es viele Möglichkeiten und Untersuchungen, die darauf hindeuten, dass diese Richtung der Entwicklung der künstlichen Intelligenz zukunftsfähig ist.

Quelle

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.