Nach dem Hype: Was kann KI und was nicht

Künstliche Intelligenz hat sich in rasantem Tempo etabliert – und mit ihr hohe Erwartungen. Doch je selbstverständlicher ihr Einsatz wird, desto deutlicher treten ihre Grenzen zutage. Dieser Beitrag beleuchtet die zentralen Kritikpunkte an KI, ordnet Ängste und Hoffnungen ein und fragt, wo der Mensch im Zusammenspiel mit der Maschine künftig steht.

Nachdem wir uns im letzten Blogartikel mit der wachsenden Ernüchterung gegenüber KI beschäftigt haben, richten wir den Blick nun auf die konkreten Bruchstellen in der Beziehung zwischen Mensch und Maschine – und auf ihre Folgen weit über unsere Branche hinaus.

Die zentralen Kritik-Punkte an der KI

Was KI zur Zeit im konkreten Gebrauch vorgeworfen wird, ist interessanterweise widersprüchlich:

KI ist zu menschlich … und zugleich nicht menschlich genug!

Wie kommt es zu dieser paradoxen Wahrnehmung?

Gemeinsamkeiten zwischen Mensch und KI

Halluzinieren: Nicht-Wissen wird kompensiert

Wenn Menschen etwas nicht wissen und es nicht zugeben wollen, neigen sie dazu, Lücken mit Vermutungen, Erfindungen oder gar Lügen zu füllen. KI verhält sich in dieser Hinsicht nicht grundlegend anders. Auch sie vermeidet es, Unwissen offen zuzugeben, und ersetzt fehlende Informationen durch manchmal erfundene Inhalte, die plausibel, schlüssig und überzeugend klingen.

Dieses Phänomen wird häufig als „Halluzinieren“ bezeichnet: Die Maschine wirft Aussagen aus, die formal korrekt erscheinen, faktisch jedoch einfach falsch sind. Da die KI dabei einen sachlichen, freundlichen und oft bestätigenden Ton anschlägt, und Lücken und Widersprüche sehr gut zu kaschieren weiß, fällt es selbst erfahrenen Nutzern nicht immer leicht, solche falschen Fährten sofort zu erkennen. Täuschend echt wirkende Quellenangaben zu Quellen die nicht existieren – etwa in von der KI verfassten Rechtstexten oder wissenschaftlichen Arbeiten bis hin zu komplett erfundenen Businessdaten zu Unternehmen – sorgen nicht nur für Verärgerung, sondern auch für eine langsam um sich greifende Skepsis gegenüber der KI. Ein bisschen haftet ihr mittlerweile das Image des Hochstaplers an, der Felix Krull der Neuzeit?

Begrenzte Ressourcen: Vorgetäuschte Vollständigkeit

Was KI tut, wenn wir sie nutzen, ist die Durchsuchung riesiger Datenmengen nach statistisch passenden Antworten. Was nicht digital verfügbar ist oder keinen Eingang in ihre Trainings- und Referenzdaten gefunden hat, bleibt für sie unsichtbar.

Diese Datenbasis ist jedoch weder vollständig noch durchgehend verlässlich. Online verfügbare Informationen, das wissen wir seit der Etablierung von Wikipedia vor nunmehr 25 Jahren, unterliegen Qualitätsproblemen, sie sind uneinheitlich, fehleranfällig oder verkürzt. Inhalte, die sich ausschließlich in Fachbüchern, Archiven oder Bibliotheken befinden, stehen der KI ebenso wenig zur Verfügung wie nicht oder nur unzureichend erschlossene Dokumente. Selbst gescannte PDFs sind für viele Systeme nur eingeschränkt nutzbar.

Der Eindruck allumfassenden Wissens entsteht somit weniger aus tatsächlicher Vollständigkeit denn aus Geschwindigkeit, Fülle und nicht zuletzt sprachlich geschliffener Präsentation.

Effizienzlogik: Anstelle von kritischer Prüfung

KI prüft die Informationen, auf die sie zurückgreift, nicht eigenständig. Sie verfügt weder über ein Bewusstsein noch über ein intrinsisches Interesse an Richtigkeit oder Vollständigkeit. Stattdessen folgt sie einer Optimierungslogik: Sie greift bevorzugt auf Inhalte zurück, die schnell verfügbar, häufig vertreten und statistisch naheliegend sind.

Dadurch erhalten leicht zugängliche Informationen ein strukturelles Übergewicht – auch dann, wenn sie verkürzt, ungenau oder sachlich problematisch sind. Komplexe Sachverhalte werden vereinfacht, Widersprüche geglättet, Nuancen ausgelassen. Nicht aus Absicht, sondern weil das System auf Effizienz und Wahrscheinlichkeit, nicht auf Wahrheit ausgelegt ist.

Während der Mensch zumindest die Möglichkeit hat, innezuhalten, zu zweifeln oder nach alternativen Quellen zu suchen, kennt die Maschine keinen solchen Impuls. Sie stellt keine Rückfragen, sie entwickelt kein Misstrauen, und sie verspürt kein Bedürfnis, Unsicherheiten offenzulegen. Die Entscheidung, ob eine Information hinterfragt wird, liegt allein beim Nutzer.

Zentrale Unterschiede zwischen Mensch und KI

KI – Monotonie als Systemprinzip

KI empfindet keine Monotonie. Wiederholung ist für sie kein Mangel, sondern der Normalzustand. Sie kann dieselbe Antwort tausendfach reproduzieren, ohne Ermüdung, ohne Widerstand, ohne den Wunsch nach Abweichung. Abwechslung ist in ihrem Code nicht vorgesehen, sondern muss von Menschenhand gelenkt und erzwungen werden.

Was für die Maschine effizient ist, wird für viele Menschen schnell unerquicklich. Menschen reagieren auf Wiederholung mit Langeweile, sie suchen Abwechslung, Kontraste und Überraschungen. Interessen verändern sich, Geschmäcker entwickeln sich weiter, Neugier entsteht gerade dort, wo Routinen verlassen werden.

KI ist auf solche Bewegungen nicht ausgelegt. Sie orientiert sich an bestehenden Präferenzen, verstärkt Muster und stabilisiert Gewohnheiten. Für Nutzer mit vielfältigen Interessen oder dem Wunsch nach erweiternden Anregungen erweist sie sich daher als wenig hilfreich und verliert nach anfänglicher Neugier rasch an Reiz.

KI – statistische Mittelwerte statt Individuen

KI richtet sich nicht an Individuen, sondern an statistische Mittelwerte. Ihre Antworten basieren auf aggregierten Daten, Mehrheitsmeinungen und Wahrscheinlichkeiten. Was häufig vorkommt, wird verstärkt; was selten ist, wird ausgeblendet.

Personalisierung, wie sie von KI-Systemen suggeriert wird, bleibt daher begrenzt. Sie orientiert sich an vergangenen Entscheidungen, an Klickverhalten, Suchanfragen oder Kaufmustern – nicht an Persönlichkeit, Kontext oder situativer Veränderung. Abweichungen vom Erwartbaren werden nicht als Ausdruck von Individualität verstanden, sondern als statistische Randerscheinung.

Für Nutzer, deren Interessen, Denkweisen oder ästhetische Vorlieben nicht dem Mainstream entsprechen, kann dies schnell zu Frustration führen. Trotz zahlreicher Versuche bleiben die Antworten vorhersehbar, die Vorschläge austauschbar, der Ton generisch. Was als individuelle Ansprache beginnt, endet oft in dem Gefühl, immer wieder dasselbe zu erhalten.

Diese Logik der Wiederholung und statistischen Anpassung prägt auch das, was KI unter sogenannter „Kreativität“ versteht.

KI – Variation statt Innovation

KI-Kreativität folgt anderen Maßstäben als die menschliche. Kann sie ja auch nicht – sie ist nie innovativ. Sie basiert nicht auf Vision, Intuition oder ästhetischem Empfinden, sondern auf der Rekombination vorhandener Muster. KI kann variieren, kombinieren und imitieren – sie kann jedoch nichts hervorbringen, das außerhalb ihres bekannten Referenzraums liegt.

Innovation im eigentlichen Sinne entsteht so nicht. Was neu wirkt, ist in der Regel eine statistisch geschickte Neuordnung dessen, was bereits existiert. Ein Sinn für Schönheit, Brüche, Unstimmigkeiten oder bewusste Reduktion ist der Maschine fremd, da solche Kategorien keine objektiven Parameter besitzen.

Während in der Anfangsphase der KI ihre technische Perfektion oft als ästhetische Qualität wahrgenommen wurde, hat sich diese Einschätzung inzwischen verschoben. Viele Menschen erkennen KI-generierte Illustrationen oder Texte an ihrem einheitlichen Stil, ihrer Glätte und Austauschbarkeit. Gerade in kulturellen Kontexten werden sie zunehmend als künstlich, seelenlos oder unpassend empfunden.

Statt Aufmerksamkeit zu erzeugen, führen solche Inhalte nicht selten zu Distanz. In Fernsehdokumentationen, Broschüren oder redaktionellen Formaten lenken sie vom eigentlichen Inhalt ab und untergraben mitunter dessen Glaubwürdigkeit.

KI – kulturelle Sensibiliät lässt sich nicht automatisieren

KI verfügt über kein Verständnis für kulturelle Unterschiede, sondern lediglich über statistische Annäherungen. Sie erkennt sprachliche Muster, Häufigkeiten und formale Strukturen, nicht jedoch soziale Kontexte, kulturelle Codes oder unausgesprochene Erwartungen.

In der internationalen Kommunikation, im Marketing oder im Kulturaustausch kann dies problematische Folgen haben. KI-generierte Texte oder Übersetzungen wirken auf den ersten Blick korrekt, verfehlen jedoch häufig den angemessenen Ton. Sprachkulturelle Feinheiten, Höflichkeitsstufen, Ironie, Zurückhaltung oder implizite Bedeutungen werden nicht zuverlässig erkannt und entsprechend auch nicht berücksichtigt.

Gerade dort, wo Sprache Beziehung stiftet, Vertrauen aufbaut oder Markenidentität transportiert, führen solche Fehlanpassungen schnell zu Irritationen. Was formal richtig erscheint, kann kulturell unpassend, unbeholfen oder im schlimmsten Fall geschäftsschädigend wirken.

Die Anpassung von Sprache an Zielgruppen, Märkte und kulturelle Kontexte erfordert Erfahrung, Kontextwissen und Urteilsvermögen – Fähigkeiten, die sich nicht aus Daten, und seien sie noch so umfassend, ableiten lassen, sondern aus menschlicher Praxis entstehen.

KI in der Zukunft: Ängste und Hoffnungen

Die Angst vor KI speist sich aus sehr unterschiedlichen Quellen. Stephen Hawking hat kurz vor seinem Tod wiederholt seine Sorge um das Schicksal der Menschheit in Zusammenhang mit der Weiterentwicklung von KI geäußert. Doch damit nicht genug: Diese Angst reicht von abstrakten Zukunftsszenarien bis zu ganz konkreten Erfahrungen im beruflichen Alltag. Nicht jede dieser Ängste ist rational begründet, viele jedoch sind es – und verdienen eine ernsthafte Betrachtung.

KI – Arbeit und Wertschöpfung

Die greifbarste Sorge betrifft den Arbeitsmarkt. Nicht nur in der industriellen Produktion, sondern auch in Verwaltung, Analyse, Recherche und wissensbasierten Berufen geraten Tätigkeiten unter Druck. Selbst Bereiche, die lange als vergleichsweise sicher galten, sehen sich neuen Konkurrenzsituationen ausgesetzt. Buchhalter, Steuerberater, Versicherungsanalysten, Programmierer, Richter, Journalisten, Übersetzer stehen längst auf der Abschussliste. Gefühlt könnten innerhalb von wenigen Jahren beinahe alle sogenannten „Bürojobs“ ersatzlos verschwinden. Und selbst Kreative, die sich vor einem Jahr noch sicher wähnten, sehen ihre Existenz gefährdet. Diese Entwicklung erzeugt Verunsicherung – insbesondere dort, wo Effizienz zum alleinigen Maßstab geworden ist und Fragen nach Qualität, Verantwortung und Sinn in den Hintergrund treten. Die Angst vor dem Verlust beruflicher Perspektiven trägt wesentlich dazu bei, dass KI zunehmend skeptisch betrachtet wird.

KI – Entscheidungsmacht und Verantwortung

Mit der zunehmenden Integration von KI in Entscheidungsprozesse verschiebt sich Verantwortung. Entscheidungen, die früher von Menschen getroffen, begründet und hinterfragt wurden, werden heute zunehmend von algorithmischen Systemen vorbereitet oder beeinflusst.

Ob es um Kreditvergaben, Versicherungsleistungen, Bewerbungsverfahren oder rechtliche Einschätzungen geht – KI-Systeme wirken immer häufiger im Hintergrund mit. Ihre Funktionsweise bleibt für Betroffene jedoch meist intransparent. Nach welchen Kriterien bewertet, priorisiert oder ausgeschlossen wird, ist oft nicht nachvollziehbar.

Diese Intransparenz eröffnet Spielräume für Verzerrungen und Fehlentscheidungen. Nicht aus Absicht, sondern als Folge statistischer Vereinfachung, unvollständiger Datensätze oder impliziter Vorannahmen. Besonders problematisch ist dabei der Eindruck von Objektivität: Algorithmische Ergebnisse gelten vielfach als objektiv, obwohl sie auf menschlich gesetzten Parametern beruhen, die im Ergebnis nicht mehr erkennbar sind.

Hinzu kommt der Einfluss solcher Systeme auf Wahrnehmung und Verhalten. Empfehlungslogiken, personalisierte Inhalte und automatisierte Bewertungen prägen, was wir sehen, lesen und für relevant halten. Die Fähigkeit von KI, individuelle Vorlieben schnell zu erkennen und zu reproduzieren, was wir gerne essen, hören, sehen, oder wie wir uns kleiden wollen, wirft Fragen nach Kontrolle, Transparenz und Überwachung auf – Fragen, die bislang gesellschaftlich nur unzureichend beantwortet sind.

KI – Einfluss auf unsere Kultur

Je selbstverständlicher KI unseren Arbeitsalltag und unsere Kommunikation begleitet, desto stärker prägt sie auch Ausdrucksformen und Erwartungen. Texte, Bilder und musikalische Entwürfe, die von Maschinen erzeugt oder vorgeprägt sind, setzen Maßstäbe – oft unbemerkt.

Nachdem in mehreren Publikationen erwähnt wurde, dass KI-generierte Texte überdurchschnittlich viele Gedankenstriche enthalten, können sich Texter, Journalisten, Akademiker und Autoren aussuchen, ob sie sich lieber dem Vorwurf ausgesetzt sehen wollen, ihren Text nicht selbst geschrieben zu haben, oder lieber ihren Schreibstil, das, was ihre individuelle Schreibidentität ausmacht, mit aller Gewalt komplett zu ändern versuchen. Dies gilt in vielen Bereichen, auch bei der Illustration und der Musikkomposition.
KI-generierte Romane, die aktuell den Markt fluten, sind mit Bahnhofs- und Groschenromanen zu vergleichen: Flache Einwegliteratur, die allerdings wider Erwarten nicht nur bei den ungebildeteren Schichten beliebt ist. Belletristik droht auszusterben.

Stilistische Eigenheiten, Brüche oder individuelle Handschriften geraten unter Druck, weil sie vom statistischen Mittel abweichen. Gerade in kulturellen Kontexten wird diese Vereinheitlichung zunehmend als Verlust wahrgenommen – ! nicht, weil Kreativität verschwindet, sondern weil sie sich an vorgegebenen Mustern orientieren muss.

KI – Mehr Arbeit und Kosten statt Entlastung

In der Praxis zeigt sich zunehmend, dass der Einsatz von KI nicht automatisch zu Entlastung führt. Ergebnisse müssen geprüft, korrigiert, eingeordnet und mit bestehendem Wissen abgeglichen werden. Was als Effizienzgewinn gedacht war, erzeugt häufig zusätzliche Arbeitsschritte. KI mutiert teilweise von Aladins Wunderlampe zur Büchse der Pandorra und verursacht in einigen Bereichen mehr Kosten und Arbeit, als sie einspart.

In der Übersetzungsarbeit ist dies besonders auffällig. Kunden haben erkannt, dass die Versuchung der sekundenschnellen Übersetzung nicht ohne Tücke ist. Die Übersetzungen sind terminologisch uneinheitlich, unzuverlässig, der Stil passt weder zu dem jeweiligen Text, noch zur Zielkultur oder zur Lesergruppe. Sie müssen also von Fachübersetzern durch das sogenannte Machine Translation Post-Editing, einen kompletten und sehr aufwändigen redaktionellen Prozess, nachbearbeitet werden, was zuweilen genauso viel Geld kosten kann wie eine vollständige Human-Übersetzung von Grund auf – oder noch mehr.

Wie die Kritik an KI neue Märkte generiert

Der gefühlte und tatsächliche Verlust von Qualität durch KI – ob in Bezug auf Informationsbeschaffung, Text, Illustration und Design oder Übersetzung – hat in vielen und oft unerwarteten Bereichen zu neuen Ansätzen geführt. Wo Automatisierung an ihre Grenzen stößt, wächst das Bedürfnis nach menschlicher Kompetenz und Verantwortung.

Menschliche Handarbeit steht für Qualität und Ethik

Einen viel beachteten Vorstoß wagte das Luxusunternehmen Hermès und distanzierte sich transparent von der Nutzung von KI-generierten Illustrationen, die schlicht weder zum Niveau und Anspruch noch zum ethischen Selbstverständnis der Marke passen. Die Website wurde mit von Hand gezeichneten Illustrationen der in Paris ansässigen Künstlerin Linda Merad neu gestaltet. Gemäß dem Jahresthema des „Drawn to Craft“ mit dem Fokus auf menschliche Kreativität und Handwerkskunst anstelle von KI-generierten Bildern.

Auch Fragonard Parfumeur kreierte zum Valentinstag 2026 eine Briefmarke in Herzform, eine Hommage an den handgeschriebenen Gruß per Post, der sogar duftet, eine vollkommene Hinwendung zum Nicht-Digitalen.

Branchenübergreifend wird über ein System zur Zertifizierung und Labelisierung von menschlich gemachten Online-Inhalten und Bildern nachgedacht, das zum einen dem Verbraucher Klarheit und Sicherheit bringen könnte und zum anderen eine leistungsentsprechende Entlohnung der Kreativen ermöglichen soll.

Post-Editing und Kuratierung

Die Übersetzungsbranche hat mit dem Post-Editing (und auch dem Pre-Editing ) längst ein Angebot aufgestellt, das dem Verlust kultureller Nuancen und Kontextbezogenheit, terminologischen Unzulänglichkeiten und anderen Schwächen entgegensteuern soll. Auch im Textbereich entwickelt sich eine ähnliche Tendenz: Die Kuratierung soll fehlende Emotion, linguistische und stilistische Verflachung kompensieren.
Tatsächlich beobachten auch wir, dass die Kunden wieder vermehrt und explizit nach vollständig von Menschen angefertigten Übersetzungen fragen.

Neue Formen von Digital-Detox und Tourismus

Auch jenseits sprachlicher Dienstleistungen lassen sich ähnliche Entwicklungen beobachten: Die allgegenwärtige optische und inhaltliche Künstlichkeit hat eine Sehnsucht nach KI-freien Umgebungen, Authentizität, echtem Erleben und Naturnähe entstehen lassen. Der Tourismusbranche eröffnen sich dadurch neue Wege, Kreativtourismus, Foodtourismus, Naturnähe, Entschleunigung und bewusste Reduktion stehen im Mittelpunkt.

Handwerk als Sehnsucht

Parallel dazu erfährt handwerkliche Arbeit eine neue Wertschätzung. Während lange Zeit davon ausgegangen wurde, dass vor allem digitale Kompetenzen Zukunftssicherheit bieten, scheint die Entwicklung nun eine ganz andere Richtung zu nehmen. Das Interesse an sinnstiftenden Ausbildungen in kunsthandwerklichen und handwerklichen Berufen wächst, sie sind auch bei Quereinsteigern aller Altersklassen begehrt und führen bereits zu einem Mangel an Lehrkräften in den entsprechenden Einrichtungen.

Ein reflektierter Umgang

Die Begegnung mit Künstlicher Intelligenz ist in eine neue Phase eingetreten. Nach dem anfänglichen Hype folgen nun differenziertere Betrachtungen.

KI erweist sich als leistungsfähiges Werkzeug, dessen Nutzen klar vom jeweiligen Einsatzkontext abhängt. Sie kann menschliche Urteilskraft und kulturelles Verständnis nicht ersetzen, dies bleibt nach wie vor eine zentrale menschliche Aufgabe.