Sam Altman, CEO von OpenAI, dem Unternehmen hinter ChatGPT und die Mitgründer Greg Brockman und Ilya Sutskever treten für eine Kontrolle und Steuerung der Entwicklungen von künstlicher Intelligenz ein.
Die Superintelligenz, die KI darstellt, werde in Bezug auf die potenziellen Vor- als auch die Nachteile mächtiger sein als andere Technologien, mit denen die Menschheit in der Vergangenheit zu kämpfen hatte, schreiben die drei Informatiker in ihrem Beitrag. Diese Technologie könne eine dramatisch wohlhabendere Zukunft ermöglichen, es gelte aber die Risiken beherrschen, um dorthin zu gelangen. Das Risiko beschreiben die Autoren des Beitrags drastisch als existenziell. Und deshalb könne man nicht nur reaktiv sein. KI vergleichen sie mit der Kernenergie, die ein häufig verwendetes historisches Beispiel für eine Technologie mit dieser Eigenschaft sei. Auch die synthetische Biologie sei ein Beispiel.
In ihrem Blogbeitrag sehen die drei OpenAI-Gründer drei Pfeiler, wie sich KI zum Wohle der Menschheit nutzen lässt, ohne die Risiken zu übersehen.
Erstens brauche es ein gewisses Maß an Koordinierung zwischen den führenden Entwicklungsanstrengungen, um sicherzustellen, dass die Entwicklung der Superintelligenz in einer Weise erfolge, die die Aufrechterhaltung der Sicherheit als auch eine reibungslose Integration dieser Systeme in die Gesellschaft ermöglichen würden. Es könnten dafür etwa große Regierungen auf der ganzen Welt ein Projekt ins Leben rufen, an dem sich viele aktuelle Bemühungen beteiligen. Oder man könnten sich darauf einigen, dass die Wachstumsrate der KI-Fähigkeiten auf eine bestimmte Rate pro Jahr begrenzt ist.
Zweitens werden es wohl eine Art IAEO (Internationale Atomenergie-Organisation) für die Superintelligenz brauchen. Alles was etwa eine bestimmte Fähigkeitsschwelle überschreite, müssen einer internationalen Behörde unterstellt werden, die Systeme inspizieren, Audits verlangen, die Einhaltung von Sicherheitsstandards prüfen könne, fordern das Trio. Diese Organisation müsse dann auch Beschränkungen für den Einsatzgrad und das Sicherheitsniveau auferlegen können. Die Nachverfolgung des Rechen- und Energieverbrauchs könnte dafür einen wichtigen Beitrag leisten. In einem ersten Schritt könnten sich die Unternehmen freiwillig verpflichten, mit der Umsetzung von Elementen dessen zu beginnen, was eine solche Agentur eines Tages verlangen könnte, und in einem zweiten Schritt könnten die einzelnen Länder dies umsetzen, heißt es im Beitrag.
Drittens brauche es technischen Möglichkeiten, um KI sicher zu machen. Dies sei eine offene Forschungsfrage, mit der sich OpenAI und andere intensiv befassen würden.
Die Steuerung der leistungsfähigsten Systeme sowie die Entscheidungen über ihren Einsatz müssen einer starken öffentlichen Kontrolle unterliegen, glauben die Autoren. Angesichts der Risiken und Schwierigkeiten lohne es sich auch, darüber nachzudenken, warum wir diese Technologie überhaupt entwickeln. Bei OpenAI gebe es zwei Gründe dafür. Man glaube, dass sie zu einer viel besseren Welt führen wird, als wir sie uns heute vorstellen können. Die Welt stehe vor vielen Problemen, zu deren Lösung man Hilfe brauchen werden; diese Technologie könne unsere Gesellschaften verbessern. Das Wirtschaftswachstum und die Steigerung der Lebensqualität werden erstaunlich sein, heißt es im Beitrag.
Zweitens glauben man, dass es riskant und schwierig wäre, die Entwicklung der Superintelligenz zu stoppen. Da die Vorteile so enorm seien, die Kosten für ihren Aufbau jedes Jahr sinken würden, die Zahl der Akteure, die sie aufbauen, rapide zunehme und sie bereits Teil des technologischen Weges ist, auf dem wir uns befinden, würde ihr Stoppen so etwas wie ein globales Überwachungssystem erfordern, und selbst das sei nicht garantiert.
Der Beitrag OpenAI plädiert für Steuerung der Superintelligenz erschien zuerst auf Linux-Magazin.