»Die Entschärfung des Risikos einer Auslöschung durch KI sollte neben anderen Risiken von gesellschaftlichem Ausmaß, wie Pandemien und Atomkrieg, eine globale Priorität sein«, heißt es in einem offenen Brief von KI-Entwicklern
Bild:
Mit dem KI-Programm Stable Diffusion von Stability AI generiertes Bild