Geraune von Atombombe und Weltuntergang, bildhaft

»Die Entschärfung des Risikos einer Auslöschung durch KI sollte neben anderen Risiken von gesellschaftlichem Ausmaß, wie Pandemien und Atomkrieg, eine globale Priorität sein«, heißt es in einem offenen Brief von KI-Entwicklern

Bild:
Mit dem KI-Programm Stable Diffusion von Stability AI generiertes Bild