top of page

KI Texte und Qualität: Warum der Mensch entscheidend bleibt

  • Autorenbild: Yvonne Ineichen
    Yvonne Ineichen
  • vor 6 Tagen
  • 2 Min. Lesezeit

Seit Kurzem lese und höre ich überall: Die Qualität von Texten aus ChatGPT lasse nach. Die Antworten wirkten generischer, austauschbarer, voller Floskeln. Stimmt. Warum das so ist? Die Antwort ist einfach. Und zugleich komplex. Oder äbe gliich: ganz einfach.


Wie Sprachmodelle tatsächlich lernen

Sprachmodelle wie ChatGPT werden in mehreren Schritten trainiert.


Im ersten Schritt analysieren sie riesige Textmengen: Bücher, Websites, Artikel, frei verfügbare Inhalte aus dem Internet. Dabei geht es nicht um Verstehen im menschlichen Sinn. Das Modell lernt statistische Zusammenhänge. Es berechnet, welches Wort mit welcher Wahrscheinlichkeit auf ein anderes folgt. Dieses Verfahren nennt sich Pretraining.(Brown et al., 2020, OpenAI)


Im zweiten Schritt folgt der Feinschliff. Menschen bewerten Antworten nach Kriterien wie Verständlichkeit, Nützlichkeit oder Sicherheit. Auf dieser Basis wird das Modell weiter optimiert. Dieses Verfahren heisst Reinforcement Learning from Human Feedback. (Ouyang et al., 2022, OpenAI)


Die technische Grundlage dafür bildet die Transformer-Architektur, die Beziehungen zwischen Wörtern im Kontext berechnet. (Vaswani et al., 2017, Google Brain)


Das Entscheidende dabei: Ein Sprachmodell produziert keine eigenen Gedanken. Es bildet Muster ab.

Warum viele KI-Texte ähnlich klingen

Wenn ein System auf Wahrscheinlichkeiten basiert, entsteht automatisch ein Effekt: Es bevorzugt das Durchschnittliche.

Das gilt für:

  • häufige Formulierungen

  • typische Satzstrukturen

  • gängige Tonalitäten

  • bekannte Argumentationsmuster

Je verbreiteter ein Sprachmuster ist, desto höher die Wahrscheinlichkeit, dass es wieder erscheint.

Deshalb entstehen viele Texte mit:

  • vielen Adjektiven

  • allgemeinen Aussagen

  • vorsichtigen Formulierungen

  • bekannten Floskeln

Das Modell entscheidet sich statistisch für das, was «am ehesten passt».


Der Faktor Mensch

Hier kommt ein Punkt ins Spiel, der oft übersehen wird.


Die Qualität von KI-Texten hängt stark davon ab,

  • wie präzise die Anfrage formuliert ist

  • wie kritisch die Antwort geprüft wird

  • wie konsequent überarbeitet wird


Wenn du Texte ungeprüft übernimmst und einen mit Adjektiven überfüllten Floskelgarten einfach abnickst, zirkulieren genau diese durchschnittlichen Formulierungen weiter. Sie prägen Erwartungen, Trainingsdaten und Bewertungsmuster.

Sprachmodelle verstärken vorhandene Sprachgewohnheiten. Sie schaffen keine neue Sprachkultur. Sie spiegeln die bestehende und verstärken «Schwäche», die schon da waren.


Ein realistischer Blick auf KI und Qualität

KI ist kein Autor. Sie ist ein Werkzeug zur Sprachproduktion auf Basis von Wahrscheinlichkeiten.

Das bedeutet:

  • Gute Ergebnisse entstehen durch klare Führung.

  • Qualität entsteht durch Auswahl und Überarbeitung.

  • Sprachkompetenz wird wichtiger, nicht überflüssig.


Wer KI nutzt, ohne zu prüfen, bekommt Durchschnitt. Wer sie führt, kürzt und schärft, gewinnt – vielleicht – Zeit, ohne Qualität zu verlieren.


Die entscheidende Frage lautet deshalb nicht: Wird KI schlechter? Sondern: Wie bewusst gehen wir mit Sprache um? Wie sattelfest sind wir, wenns um «gute Texte» geht?

Übrigens: Das Bild habe ich mit KI generiert. Dazu dann in einem späteren Beitrag mehr.


Quellen

Vaswani, A. et al. (2017). Attention Is All You Need. Google Brain.Brown, T. B. et al. (2020). Language Models are Few-Shot Learners. OpenAI.Ouyang, L. et al. (2022). Training language models to follow instructions with human feedback. OpenAI.


 
 
 

Kommentare


bottom of page