„KI ist, denke ich, eine Art Faulheitsfalle. Alles wird leichter, schneller und angenehmer. Dann muss man sich nicht anstrengen. Aber dann kann man auch keine neuen Fähigkeiten, keine neuen Skills lernen."
— Sven Nyholm
KI entscheidet, KI produziert, KI schreibt — aber wer trägt die Verantwortung, wenn etwas schiefgeht? Und wer bekommt den Lob, wenn es gut läuft?
Die rasante Entwicklung künstlicher Intelligenz stellt nicht nur Techniker und Regulierer vor neue Aufgaben, sondern stürzt uns mitten in eine der tiefsten philosophischen Debatten der Menschheitsgeschichte: Was sind wir, wenn Maschinen das übernehmen, was uns einmal definiert hat — Denken, Schreiben, Urteilen, Entscheiden? Aristoteles, Kant und Bentham hatten keine Antwort auf autonome Waffensysteme, digitale Zwillinge oder Grief-Bots. Brauchen wir also neue Ethik für eine neue Welt?
Sven Nyholm ist Professor für Ethik der Künstlichen Intelligenz an der LMU München und Principal Investigator am Munich Center for Machine Learning — einer der meistzitierten Philosophen in diesem Feld weltweit. Im Gespräch mit uns erklärt er, warum KI nicht einfach den kategorischen Imperativ lesen und befolgen kann, was es bedeutet, wenn Bots miteinander eine eigene „Religion" entwickeln — und warum KI vielleicht die größte Faulheitsfalle der Menschheitsgeschichte ist. Außerdem: Was europäische Regulierung und Jazz gemeinsam haben, warum Anthropic von Bewerbern handgeschriebene Texte verlangt — und ob KI unser Leben sinnvoller oder nur bequemer macht.
---
Warum alte Ethiktheorien für KI nicht ausreichen
KI-Agenten als soziales Gefüge und neue Risiken
Verantwortung bei autonomen Systemen und Unfällen
Die Asymmetrie zwischen Lob und Tadel in der KI-Nutzung
KI, Wissen und die Enteignung menschlicher Fähigkeiten
Digitale Zwillinge, Grief-Bots und das Ende der Echtheit
Europa vs. USA: Regulierung als Motor der Innovation
KI als Faulheitsfalle — und was das für unser Leben bedeutet