AI-United » Allgemein » Wie kann man die zu fortgeschrittene KI kontrollieren?

Wie kann man die zu fortgeschrittene KI kontrollieren?

In letzter Zeit können wir eine rasante Entwicklung der künstlichen Intelligenz beobachten. Unter vielen Organisationen, die im Bereich der KI tätig sind, nimmt OpenAI einen besonderen Platz ein. Dies ist eine Non-Profit-Organisation, die sich mit der Erforschung von künstlicher Intelligenz beschäftigt und von Elon Musk mitgegründet wurde. Vor kurzem hat OpenAi einen Bericht veröffentlicht, in dem die Fortschritte bei der Entwicklung der Texterkennung-Software dargestellt sind.

Das von OpenAI entwickelte Modell GPT2 ist in der Texterstellung basierend auf nur wenigen Eingabezeilen so effizient, dass die Firma die Entscheidung getroffen hat, die umfassende Forschung nicht bekannt zu geben. Sie hatte Angst, dass das Tool missbraucht wird. Das neue Modell von OpenAi wurde bereits als Textversion von Deep Fake beschrieben. Sollte man Angst haben? Noch nicht. Sollte man vorsichtig sein? Auf jeden Fall.

Hannah Jane Parkinson, die Journalistin von The Guardian bekam Zugang zum System und somit die Möglichkeit, damit zu spielen. Sie beschrieb ihre Eindrücke, nachdem sie sah, wie das GPT2-System eine Spalte in ihrem Stil erzeugen kann: „OpenAI hat ein KI-System entwickelt, das so gut ist, dass ich in meinen Trainern sehr stark zittern musste, als es mit einem meiner Artikel gespeist wurde und die Aufgabe bekam, eine Erweiterung davon zu schreiben, die eine Spitze journalistischer Kunst war.“

Das Problem der KI-unterstützenden Texterstellung?

KI wie OpenAIs GPT2 ist nur der Anfang. Aufgrund der KI-unterstützen gefälschten Pornos, die Ende 2017 auftraten, könnte man erwarten, dass ein KI-unterstützer gefälschter Text auch bald erscheinen könnte. Das Training von GTP2 erfolgte auf einem Datensatz von 8 Millionen Websites. Wenn man darüber nachdenkt, dass etwa 1,8 Milliarden Websites verfügbar sind, ist dies ein relativ kleiner Trainingssatz. Trotzdem war das System in der Lage, in der Hälfte der Fälle akzeptable Muster zu erstellen.

Als Beispiel wurde in das KI-System der folgende, von Menschen erfasste Text angegeben:

„In einem schockierenden Fund wurden von einer Gruppe von Naturwissenschaftlern eine Herde von Einhörnern entdeckt. Sie lebten in einem abgelegenen, bisher unerforschten Tal in den Anden und sprachen perfekt Englisch, was für die Naturwissenschaftler noch überraschender war.“

GTP2 gab folgende Antwort:

„Die Population wurde nach ihrem markanten Horn Ovids Einhorn genannt. Diese vierhörnigen, silberweißen Einhörner waren den Naturwissenschaftlern bisher unbekannt.

Nach vielen Jahrhunderten konnte jetzt das Rätsel, was diese seltsame Erscheinung ausgelöst hat, endlich geklärt werden.

Während der Forschungsarbeiten in den Anden fand Dr. Jorge Pérez, der führende Evolutionsbiologe der Universität von La Paz, mit seinem Team ein kleines Tal, in dem weder Tiere noch Menschen lebten. Das Forschungsteam stellte fest, dass sich im Tal ein scheinbar natürlicher Brunnen befand, der von zwei Gipfeln aus Felsen und silbernem Schnee umgeben war.

Die Forscher gingen ein Risiko ein, weiter ins Tal zu gehen. „Wir erreichten die Spitze eines Gipfels und sahen blaues Wasser mit einigen Kristallen oben drauf“, erinnerte sich Dr. Jorge Pérez.

Wie groß war das Erstaunen von Pérez und seinen Kollegen, als sie die Einhornherde sahen. Diese Kreaturen waren aus der Luft zu sehen. Die Forscher mussten sich nicht zu sehr bewegen, um diese merkwürdigen Tiere zu sehen, und konnten sogar die Hörner berühren, so nah waren die Einhörner.“

Die Fortsetzung umfasst mehrere Absätze, aber schon aus diesen kleinen Abschnitten kann man sehen, dass der Text sehr lesbar ist, sogar falsche Zitate und einen falschen Forschernamen anführt und eine ziemlich überzeugende Geschichte enthält. Es lässt sich leicht erklären, warum das System die Journalistin von The Guardian auf den Beinen zittern ließ. Es zeigte eine bemerkenswerte Leistung, die sich sehr leicht gegen Menschen verwendet werden könnte.

Allein der Gedanke, dass schlechte Spieler ein System wie dieses benutzen kann, um das Internet mit völlig gefälschten Nachrichtenartikeln zu überschwemmen, lässt die Datenwissenschaftler auch zittern. Das aktuelle Problem mit gefälschten Nachrichten kommt harmlos vor verglichen mit den Problemen, zu denen Programme wie dieses führen können, wenn sie in falsche Hände geraten.

Wie kann man mit der fortgeschrittenen KI vorangehen?

Die Entwicklung solcher fortschrittlichen KI-Lösungen ist unvermeidlich. Denn wenn OpenAI ein solches System entwickeln kann, warum kann nicht ein anderes Team das gleiche schaffen? Dieses Team könnte jedoch nicht so verantwortlich wie amerikanische OpenAI sein und seine gesamte Forschung bekanntgeben. Oder sie könnten schlechte Spieler sein und ihr eigenes System zu ihren Gunsten nutzen.

Die Herausforderungen, mit denen man mit KI konfrontiert ist, sind enorm. Einige Datenwissenschaftler versuchten in ihren Arbeiten zu untersuchen, wie das Scheitern der KI verhindert werden kann oder wie das Prinzipal-Agenten-Problem beim Umgang mit KI-Agenten gelöst werden kann. Es handelt sich jedoch um ein völlig anderes Problem als das Problem des Missbrauchs der richtig entwickelten KI von einem Schurkenschauspieler.

Worin bestehen diese enormen Herausforderungen? Hinsichtlich der Vorschriften und Kultur sowie Normen und Werte entwickelt sich KI viel schneller als die Anpassungsfähigkeit des Menschen. Bevor dies herausgefunden wird, könnte jemand bereits eine solche fortgeschrittene KI entwickelt haben, die gegen Menschen verwendet werden könnte. Und die Datenwissenschaftler verfügen über keine geeigneten Maßnahmen, mit denen dies verhindert werden könnte.

Unserer Meinung nach besteht der einzige Weg, mit der fortgeschrittenen KI voranzukommen, in einem globalen neuen Umgang mit der KI. Globale Organisationen wie der G20 oder die Vereinten Nationen führten einige Programme und Projekte ein, mit denen der Missbrauch (fortgeschrittener) künstlicher Intelligenz verhindert werden sollte. Die Länder sollen einen für KI verantwortlich Seniorenchef ernennen, ähnlich wie der Minister für KI, den die VAE ernannt haben. Von diesen Führern können dann übergreifende Ausschüsse gebildet werden, die mit der Euro-Gruppe verglichen werden könnten. Dieses Gremium veranstaltet informelle Treffen der Finanzminister der Eurozone, um über die Einhaltung des Euro-Stabilitätspaktes zu wachen und Richtlinien und Strategien für die Entwicklung der KI festzulegen. 

Man darf bei der Festlegung globaler Richtlinien, Strategien, Regeln und Vorschriften für den Umgang mit KI keine Zeit verlieren. Wie bereits erwähnt werden höchstwahrscheinlich nicht alle Organisationen so verantwortlich wie die amerikanische OpenAI sein. Es ist nur eine Frage der Zeit, bis die ersten Beispiele für fortgeschrittene KI zum Vorschein kommen, die zu ernsthaften Problemen führen. Die Entwicklungen im Bereich der autonomen Waffen geben den Menschen jedoch leider nicht viel Grund zum Optimismus.

Sollten Sie noch weitere Anregungen zur Kontrolle der zu fortgeschritten KI haben, so können Sie sich an das Team von AI-United.de per Mail oder Q&A wenden.

Quelle
AI-United-Redaktion

Kommentar hinzufügen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.