AI-United » Allgemein » Ungewissheit in den Algorithmen — die Methode die KI ethischer zu machen

Ungewissheit in den Algorithmen — die Methode die KI ethischer zu machen

Ungewissheit — die Methode die KI ethischer zu machen

Algorithmen sollten imstande sein, komplizierte ethische Beschlüsse zu fassen. Die KI, die den Richtern die Urteile zu verlesen hilft, sollte die Risiken sowohl für die Gesellschaft, als auch für den Beschuldigten berücksichtigen. Selbstfahrende Autos müssen im Falle eines unabwendbaren Zusammenstoßes mit zwei Fußgängern eine Entscheidung fassen. Autonome Waffen müssen den relativen Wert des Lebens von Soldaten und Zivilisten analysieren.

Solche Dilemmas sind nicht nur für die Algorithmen, sondern auch für die Menschen unlösbar. Fachleute in der Ethik haben sie jahrzehntelang untersucht und nennen sie das Theorem der Unmöglichkeit.

Peter Eckersley (der Direktor von Partnership on AI & EFF) hat einen Artikel publiziert, der die ethische Beschlussfassung im Zusammenhang mit der künstlichen Intelligenz untersucht. Damit das Neuronennetz mit einigen konkurrierenden Zielen funktionieren kann, schlägt der Wissenschaftler vor, die Ungewissheit in die Algorithmen einzubetten.

Zur Implementierung des Ansatzes wird vorgeschlagen, die partielle Zuordnung (partial ordering) und die undefinierte Zuordnung (uncertain ordering) zu verwenden. Im ersten Fall werden die Algorithmen so programmiert, damit sie die eindeutigen Beschlüsse nur zwischen dem Anteil von Elementen (nicht allen) fassen würden. Zum Beispiel, die autonome Waffe trifft die Wahl den einheimischen Soldaten zugunsten des Feindes und den Zivilisten zugunsten vor des feindlichen Soldaten. Aber die Wahl zwischen den einheimischen Soldaten und den Zivilisten wird nicht programmiert.

Im zweiten Fall haben die Algorithmen einige Listen mit den absoluten Bevorzugungen. Aber jede von ihnen weist eine Wahrscheinlichkeit auf. Zum Beispiel, in 75% Fällen treffen die Algorithmen die Wahl des einheimischen Soldaten zugunsten des  Zivilisten und des feindlichen Soldaten. Und in 25% Fällen treffen sie die Wahl den Zivilisten zugunsten des einheimischen und des feindlichen Soldaten.

Der Algorithmus kann die vorhandene Ungewissheit berücksichtigen und den Menschen einige Beschlüsse mit entsprechenden Kompromissen anbieten. Zum Beispiel, in der Medizin könnte er drei mögliche Varianten vorschlagen, anstatt nur eine Variante der Behandlung zu empfehlen: die erste Variante zum Verlängern der Lebensdauer des Patienten, die zweite – zum Minimieren des Leidens des Patienten und die dritte – zur Kostenminimierung.

«Das System soll deutlich nicht sicher sein und die Lösung des ethischen Problems den Menschen übergeben» — sagt der Autor.

«Es gibt viele Situationen mit hohen Einsätzen, wenn es wirklich unangemessen und auch gefährlich ist, mit einer Zielfunktion zu programmieren» — sagt Eckersley. Das Programmieren von Ungewissheiten hilft die ethischen Paradoxe zu vermeiden. Menschen werden die ausgerechneten Varianten mit Rücksicht auf die meisten Faktoren erhalten, die dazu beitragen, ausgewogenen Beschlüsse zu fassen.

Quelle

AI-United-Redaktion

Kommentar hinzufügen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.