Gefährlich wie ein Atomkrieg – Erneute Warnung vor KI-Risiken
Mehrere hundert Experten aus Wissenschaft, Industrie und weiteren Bereichen haben in einem drastischen Statement vor den Gefahren der künstlichen Intelligenz (KI) gewarnt.
Das Risiko des Aussterbens der Menschheit durch KI zu minimieren sollte neben anderen solchen Risiken wie Pandemien und Atomkrieg globale Priorität bekommen, fordern die Unterzeichner des Statements. Darunter befinden sich die für KI zuständigen Manager von Google, Microsoft, OpenAI und weiteren namhaften Unternehmen, die mit KI befasst sind. Außerdem sind viele Wissenschaftler dabei und auch der KI-Forscher Geoffrey Hinton, der bei Google maßgeblich an der Entwicklung von KI beteiligt war, das Unternehmen aber verlassen hat. Hinton hat für seine Forschung an Deep neuronal Networks zusammen mit dem ebenfalls bei den Unterzeichnern vertretenen Yoshua Bengio den Turing Award erhalten. Das Statement ist auf der Website eines Center for AI-Safety veröffentlicht. Dieses Zentrum für KI-Sicherheit sei eine gemeinnützige Einrichtung, deren Aufgabe es sei, die von KI ausgehenden Risiken für die Gesellschaft zu verringern. Dies geschehe durch Forschung und Feldarbeit.
Das knappe Statement solle es KI-Experten, Journalisten, politischen Entscheidungsträger und der Öffentlichkeit ermöglichen, ohne Hindernisse über Bedenken und schwerwiegendste Risiken der fortgeschrittenen KI zu sprechen. Die Erklärung solle auch eine Diskussion in Gang bringen und die wachsende Zahl von Experten und Persönlichkeiten des öffentlichen Lebens bekannt machen, die die Risiken der KI ebenfalls ernst nehmen.
Warnungen von Personen, die eng mit KI verbunden sind, wie dem OpenAI-Chef Sam Altman, tauchen inzwischen öfter auf. Altman etwa fordert eine Regulierung von KI.
Der Beitrag Gefährlich wie ein Atomkrieg – Erneute Warnung vor KI-Risiken erschien zuerst auf Linux-Magazin.