Konrad Paul Liessmann stellt die Sache auf den Kopf – und zwar gründlich.
Ach je…
Die Behauptung, die Maschine ersetze den gebildeten Menschen, ist nicht scharf gedacht, sondern schlicht falsch. Eine Maschine versteht nichts. Sie hat kein Bewusstsein, keine Verantwortung, kein Urteil. Sie produziert Antworten, mehr nicht. Bildung aber ist kein Antwortgenerator. Bildung ist die Fähigkeit, Fragen zu stellen, Zweifel auszuhalten, Widersprüche zu erkennen und Entscheidungen zu verantworten. Das kann keine KI. Punkt.
Wenn Menschen anfangen, das zu verlernen, dann liegt das nicht an der KI. Dann liegt das daran, dass sie bequem werden. Das Problem ist nicht die Maschine, sondern der Mensch, der sie falsch benutzt.
Liessmann tut so, als gäbe es nur zwei Möglichkeiten: Entweder du denkst selbst – oder die Maschine denkt für dich. Diese Gegenüberstellung ist bequem, aber dumm. Denn sie ignoriert die einzige Frage, die wirklich zählt: Wer behält die Kontrolle?
Ein Taschenrechner hat das Rechnen nicht abgeschafft. Ein Buch hat das Denken nicht ersetzt. Und eine KI nimmt dir nicht die Verantwortung ab, wenn du sie nicht freiwillig abgibst. Wer eine Antwort übernimmt, ohne sie zu prüfen, hat kein KI-Problem. Er hat ein Denkproblem.
Die nächste Schwäche: dieses Gerede vom „Prompten“. Als wäre das bloß Befehle geben, weil man selbst nichts kann. Das ist intellektuell unter Niveau. Wer eine KI sinnvoll nutzt, muss wissen, was er fragt, warum er fragt und was eine brauchbare Antwort ist. Ohne eigenes Denken ist das Ergebnis wertlos. Mit eigenem Denken wird es ein Werkzeug. Der Unterschied liegt nicht in der Maschine, sondern im Kopf davor.
Und dann dieser Satz: Wir hätten KI erfunden, weil uns der Mensch ein Ärgernis ist. Das klingt tief, ist aber nur eine Projektion. Menschen bauen Werkzeuge, um Probleme zu lösen: Zeit sparen, Fehler reduzieren, Dinge skalieren. Dass man dabei manchmal unangenehme Interaktionen vermeidet, ist ein Nebeneffekt, kein Weltbild. Wer daraus eine allgemeine Menschenverachtung ableitet, verrät mehr über sich als über die Gesellschaft.
Der eigentliche Punkt wird komplett verfehlt. Es geht nicht darum, ob KI Bildung ersetzt. Es geht darum, ob Menschen bereit sind, weiterhin Verantwortung für ihr eigenes Denken zu übernehmen. Das ist die einzige humanistische Messlatte.
Humanismus heißt: Der Mensch bleibt verantwortlich. Für das, was er denkt. Für das, was er sagt. Für das, was er tut. Auch dann, wenn er Werkzeuge benutzt. Gerade dann.
Wenn jemand eine KI nutzt, um sich Arbeit zu sparen, ist das legitim. Wenn er aufhört zu verstehen, was er tut, ist das ein Problem. Aber dieses Problem hat er selbst erzeugt. Nicht die Maschine.
Die Angst vor der KI ist oft nichts anderes als die Angst davor, dass die eigene Bequemlichkeit sichtbar wird.
Die Maschine liefert Material. Der Mensch muss daraus ein Urteil machen. Wenn er das nicht mehr tut, ist nicht die KI gescheitert – sondern er.
Keine Kommentare