KI wird gemacht. Von wem eigentlich?

Unser Berlin KI-Radar zeigt: Die Medien haben zwei Arten, über KI zu reden — Werkzeug oder Bedrohung. Beide greifen zu kurz.

Die zwei falschen Rahmungen und ihr struktureller Grund

Die erste: KI als Werkzeug. Produktivitätsgewinn, Wettbewerbsvorteil, Wachstumschance. Deutschland muss aufholen, Unternehmen müssen investieren, alle müssen sich anpassen. Der Subtext ist immer gleich: Wer nicht mitmacht, bleibt zurück. Die Frage, wohin, stellt sich nicht.

Die zweite: KI als Bedrohung. Jobverlust, Deepfakes, Regulierungslücken, existenzielle Risiken. Der Subtext hier: Es passiert uns. Wir müssen es bremsen, kontrollieren, einhegen. Auch hier stellt sich die Frage wohin nicht — weil die Antwort schon feststeht: irgendwo, wo es nicht wehtut.

Beide Rahmungen haben eines gemeinsam: Die Gesellschaft ist Objekt. Sie reagiert, passt sich an, schützt sich. Sie gestaltet nicht.

Das hat einen Grund, der tiefer liegt als schlechter Journalismus. Soziale Medien belohnen Zuspitzung. Die lautesten Stimmen — die Euphoriker:innen und die Apokalyptiker:innen — dominieren die Aufmerksamkeit. Redaktionen greifen auf, was sich verkauft. So schreibt sich Populismus in die Rahmung ein: nicht durch bösen Willen, sondern durch die Logik der Aufmerksamkeitsökonomie. Was sich nicht zuspitzen lässt, kommt nicht vor. Und eine differenzierte Gestaltungsperspektive lässt sich nun mal nicht in einen Schlagzeilen-Schrei übersetzen.

Was stattdessen gebraucht wird: Urteilskompetenz

Was fehlt, ist eine dritte Rahmung — und sie ist nicht kompliziert, nur unbequem.

KI ist keine Naturgewalt. Sie wird von Menschen gebaut, für Menschen eingesetzt, nach Maßstäben bewertet, die Menschen setzen — oder eben nicht setzen. Die Frage, welche KI wir wollen, welche Kompetenz wir brauchen, um sie zu beurteilen, welche Werte wir in Systeme einschreiben — das sind keine Expert:innenfragen. Das sind Bürger:innenfragen.

Aber dafür fehlt die Sprache. Oder genauer: die Sprache wird nicht geübt.

Partizipative Gestaltung von KI klingt nach Bürgerrat und Ethikkommission — also nach etwas, das andere tun, in Gremien, weit weg. Das ist nicht gemeint. Gemeint ist: Können die Menschen in einer Organisation gemeinsam beurteilen, ob ein KI-System ihrer Arbeit nützt oder schadet? Können sie diese Beurteilung artikulieren, vertreten, durchsetzen? Können sie unter Unsicherheit handeln — nicht nur reagieren?

Das ist keine technische Kompetenz. Es ist eine Urteilskompetenz. Und sie wird nirgendwo systematisch trainiert.

Warum das pragmatisch ist, nicht utopisch

Die Medien haben diese Lücke nicht erfunden. Sie bilden ab, was gesellschaftlich verfügbar ist. Eine Rahmung, die nicht existiert, kann nicht berichtet werden.

Aber das ist kein Trost — es ist das eigentliche Problem.

Solange Urteilskraft über KI als Expert:innenprivileg gilt, wird die Gesellschaft weiter zwischen Euphorie und Angst pendeln. Beides ist bequem. Beides entlastet von der Anstrengung, tatsächlich zu urteilen.

Die dritte Rahmung wäre: KI als Gestaltungsaufgabe. Nicht für Expert:innen. Für alle, die von ihr betroffen sind — also alle.

Das klingt utopisch. Es ist in Wirklichkeit pragmatisch. Organisationen, die KI einsetzen, ohne dass ihre Menschen urteilen können, werden schlechte Entscheidungen automatisieren. Gesellschaften, die KI-Regulierung dem Parlament überlassen, ohne eine politische Öffentlichkeit, die mitreden kann, werden Gesetze bekommen, die niemand versteht und niemand durchsetzt.

Urteil braucht Übung. Übung braucht Formate. Formate braucht jemand, der sie baut.

Das ist die Arbeit.

Nach oben scrollen