AI-United » Allgemein » Wie funktionieren Roboter-Boten

Wie funktionieren Roboter-Boten

Wie funktionieren Roboter-Boten

Roboter-Boten ist eine von zukunftsfähigen Bereichen in der Robotertechnik. Die Firmen aus den USA, Europa, Korea und Japan setzen autonome Roboter in Betrieb, die die Lebensmittel und Waren aus den Geschäften nach Hause oder ins Büro der Käufer liefern. Die Roboter Kiwi, Starship, Marble, Nurо, Cleveron, Postamates und viele andere wandern bereits durch die Straßen. In der Zukunft werden sie die  menschlichen Boten völlig ersetzen. 

DRU — der Roboter-Bote für die Zustellung von Pizza
Der Roboter-Bote Starship

Tanel Pärnamaa, Ingenieur für Deep Learning bei Starship Technologies, erzählte, wie die Neuronennetze de Roboter-Boten helfen die Umgebung zu erkennen, die Information zu analysieren und geschützt durch die Straßen zu wandern. 

Die ersten Roboter-Boten (Starship) erschienen in den USA im März 2017. Im Oktober 2018 gründete das Unternehmen in den USA und Großbritannien einen autonomen Zustelldienst. Im Dezember fingen die Roboter-Boten Starship mit der Lieferung von Waren in Tallinn an. 

Die Kodierung der Information

Die Roboter-Boten sind mit Videokameras, GPS und den Bewegungssensoren ausgerüstet. Durch sie erhalten sie Informationen über das Umfeld. Aber der Großteil der Information hat ein niedriges Niveau und ist nicht semantisch. Der Roboter versteht, dass sich das Objekt 10 Meter weg von ihm befindet, aber er weiß nicht, zu welcher Kategorie es gehört (ein Fußgänger, ein Fahrrad, ein Tier). Es ist für ihn schwer zu entscheiden, was er nun machen soll. Das maschinelle Lernen und die Neuronennetze helfen diese unstrukturierte Daten des niedrigen Niveaus in die Daten des hohen Niveaus zu transformieren.

Die Roboter-Boten sollen von dem Umfeld eine Vorstellung haben. Im Beispiel mit dem Fußgänger und dem Fahrradfahrer soll der Roboter sie sehen und verstehen, in welchee Richtung und wie schnell sie sich bewegen.

Die Erkennung von Objekten

Das Modul der Erkennung von Objekten hilft solche Information zu erhalten. Dieses Programm erhält auf das Input die Bilder und bringt die Liste von Objektgruppen zurück. Das ist nicht einfach, weil das Bild das Massiv ist, das aus vielen Zahlen besteht, die die Intensität von Pixeln abbilden. Diese Zahlen verändern sich in verschiedenen Umgebungen: in der Nacht, wenn sich die Farbe, der Maßstab oder die Stellung des Objekts verändern.

Das Bild, das ein Mensch sieht ist links abgebildet, und das Bild, das ein Computer sieht ist rechts abgebildet

In solchen Fällen funktioniert das maschinelle Lernen besser als die Programmierung. Bei Starship werden die Neuronennetze angewandt, die selbständig lernen. Der Kode wird vom Modell geschrieben. Das Programm ist vom Satz von Gewichten dargestellt. Das hilft zu visualisieren, was jedes Neuron erkennen will. Die ersten Schichten des Netzwerks erkennen horizontale und vertikale Kanten von Objekten. Die nächste Gruppe von Schichten erkennt komplizierte Texturen. Und die hohen Schichten erkennen die Details. Wenn man die Gewichte ändert, sagt der Algorithmus die begrenzenden Rahmen um die Objekte herum immer präziser hervor.

Die Funktion des Algorithmus der Optimierung. Man sieht, wie sich die Gewichte und die Präzision der Erkennung des Objekts ändern

Das Pretraining von Modellen

Bei Starship werden partiell gelehrte Modelle eingesetzt. Das schränkt die Suche bis auf Situationen ein, die am häufigsten in der realen Welt passieren. Das ist bequem, was die autonome Zustellung betrifft, wenn das Modell versteht, wo sich der Roboter befindet. Die Entwickler kodieren den entsprechenden globalen Kontext in die Architektur und das Modell wählt aus, was es verwendet.

Die Neuronennetze helfen den Roboter-Boten sich geschützt auf den Fußwegen und den Zebrastreifen zu bewegen, die Bewegungsrichtung von Objekten zu analysieren und Hindernisse ohne Hilfe der Menschen zu vermeiden. Ende 2018 betrug der Kilometerstand der Roboter-Boten Starship 200.000 Kilometer in 20 Staaten, in denen sie Lebensmittel und andere Waren lieferten. 

Der Roboter-Bote NURO zur Lieferung von Lebensmitteln

Fehler in der Arbeit

Am 14. Dezember fing einer der Roboter-Boten im Studentencampus der University of California, Berkeley (San Francisco) Feuer. Dabei wurden keine Menschen verletzt.

Der Hersteller des Roboters KiwiBot betonte, dass der Fehler der Flammenbildung der Batterie durch menschliches Versagen verursacht wurde. Jemand hatte ein defektes Teil eingesetzt.

Die Entwickler versprachen eine zusätzliche Nachprüfung in den Algorithmus einzubauen, damit sich solche Fehler nicht wiederholen.

Quelle

AI-United-Redaktion

Kommentar hinzufügen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.