[Artikel] Bender/Innie: We Need to Talk About How We Talk About 'AI' (Jan 7, 2026)

In dem Artikel geht es darum, dass die Anthropomorphisierung (Vermenschlichung :slightly_smiling_face: ) von KI-Systemen die begrenzten Möglichkeiten dieser Systeme verdeckt. Wenn ich also sage ChatGPT ist ein guter Zuhörer oder Tutor oder da hat DeepSeek wohl halluziniert oder Grok hat einen Fehler gemacht, dann sorgt das mit dafür, dass diese Systeme falsch wahrgenommen werden, was sicherlich das Marketing der KI-Firmen freut. Und es verschiebt die Verantwortung von den für die Erstellung des KI-Systems verantwortlichen Menschen auf das KI-System. “Grok entschuldigt sich” aber die Menschen, die für Grok verantwortlich sind, sind diejenigen, die sich entschuldigen und die Konsequenzen tragen müssten. Das KI-System trägt keine Konsequenzen.

Hat mich sehr gefreut das zu lesen, weil ich diese Vermenschlichung immer mal wieder wahrnehme, auch wenn Bibliotheken etwas in diesem Bereich machen (habe kein Beispiel zur Hand).

Schön war der Hinweis auf einen Artikel aus dem Journal of Marketing: “Lower Artificial Intelligence Literacy Predicts Greater AI Receptivity” (https://doi.org/10.1177/00222429251314491)

Bei dem im Abstract steht: “These findings suggest that companies may benefit from shifting their marketing efforts and product development toward consumers with lower AI literacy. In addition, efforts to demystify AI may inadvertently reduce its appeal.

Wenn Personen mit einer höheren AI-Literacy bzw. allgemein Personen, die mehr darüber wissen wie KI-Systeme funktionieren diese Systeme weniger wahrscheinlich nutzen wollen, dann könnte das ja auch eine Zielformulierung sein für Bibliotheksangebote zum Thema.

Am Ende vom Artikel wird dann auch vorgeschlagen wie über KI(-Systeme) gesprochen werden sollte.

A more deliberate and thoughtful way forward is to talk about “AI” systems in terms of what we use systems to do, often specifying input and/or output. That is, talk about functionalities that serve our purposes, rather than “capabilities” of the system. Rather than saying a model is “good at” something (suggesting the model has skills) we can talk about what it is “good for”. Who is using the model to do something, and what are they using it to do?

Habt ihr Tipps für eine Sprache über das Thema, die nicht vermenschlicht?

5 Likes