Berechnungen zeigen, dass es unmöglich sein wird, superintelligente KI zu kontrollieren

Berechnungen zeigen, dass es unmöglich sein wird, superintelligente KI zu kontrollieren

Die Idee der künstlichen Intelligenz zum Sturz der Menschheit wird seit Jahrzehnten diskutiert, und Wissenschaftler haben gerade ihr Urteil darüber abgegeben, ob wir die Superintelligenz von Computern auf hoher Ebene kontrollieren können.

Antworten? Mit ziemlicher Sicherheit nicht.

Der Haken ist, dass die Kontrolle einer Superintelligenz, die weit über das menschliche Verständnis hinausgeht, eine Simulation dieser Superintelligenz erfordern würde, die wir analysieren können. Wenn wir dies jedoch nicht verstehen können, ist es unmöglich, eine solche Simulation zu erstellen.

Regeln wie „Menschen keinen Schaden zufügen“ können nicht festgelegt werden, wenn wir nicht verstehen, welche Szenarien AI bieten wird, schlagen die Autoren des neuen Artikels vor. Wenn ein Computersystem auf einem Niveau arbeitet, das über die Fähigkeiten unserer Programmierer hinausgeht, können wir keine Grenzen mehr setzen.

Superintelligenz stellt ein grundlegend anderes Problem dar als die, die üblicherweise unter dem Banner der Roboterethik untersucht werden, schreiben die Forscher.

Dies liegt daran, dass Superintelligenz vielfältig ist und daher möglicherweise in der Lage ist, eine Vielzahl von Ressourcen zu mobilisieren, um Ziele zu erreichen, die für den Menschen möglicherweise unverständlich sind, geschweige denn sie kontrollieren.

Einige der Überlegungen des Teams stammen aus dem Stoppproblem, das Alan Turing 1936 vorbrachte. Das Problem besteht darin, zu wissen, ob das Computerprogramm zu einer Ausgabe und einer Antwort kommt (weshalb es stoppt), oder einfach ins Unendliche zu gelangen, um die Antwort zu finden.

Wie Turing bewiesen hat, ist es logischerweise unmöglich, einen Weg zu finden, der es uns ermöglicht, dies für jedes potenzielle Programm zu wissen, das jemals geschrieben werden könnte, obwohl wir vielleicht wissen, dass dies für bestimmte Programme der Fall ist. Dies bringt uns zurück zur KI, die in einem superintelligenten Zustand tatsächlich alle möglichen Computerprogramme auf einmal in ihrem Speicher halten könnte.

Jedes Programm, das zum Beispiel geschrieben wurde, um eine KI zu stoppen, die Menschen schadet und die Welt zerstört, kann zu einem Ergebnis kommen (und aufhören) oder nicht - es ist mathematisch unmöglich, auf jeden Fall absolut sicher zu sein, was bedeutet, dass es unmöglich ist kontrollieren.

Tatsächlich macht dies den Steueralgorithmus unbrauchbar, sagt der Wissenschaftler Iyad Rahwan vom Institut für Entwicklung. Max Planck in Deutschland.

Daher stellt sich die Frage, ob es irgendwann unkontrollierbar und gefährlich für die Menschheit werden kann.

Die Studie wurde im Journal of Artificial Intelligence Research veröffentlicht.