Zum Inhalt springen

Zu nett zum Helfen: Warum KI-Feedback oft scheitert – und wie man ehrliche Rückmeldung bekommt

    Künstliche Intelligenz wirkt auf viele Menschen erstaunlich höflich, freundlich und hilfsbereit – fast schon übertrieben positiv. Genau das ist auf den ersten Blick sympathisch, auf den zweiten aber ein ernstzunehmendes Problem. Denn diese übertriebene Freundlichkeit führt oft dazu, dass KI Schwächen, Fehler oder Missverständnisse nicht klar benennt. Statt zu sagen: „Das ist sachlich falsch“, sagt die KI oft: „Das könnte eventuell noch etwas verbessert werden.“ Oder statt eines direkten Hinweises wie „Diese Argumentation ist unlogisch“, formuliert sie: „Du hast dir viele Gedanken gemacht – vielleicht lässt sich die Struktur noch leicht optimieren.“ Diese Art des Feedbacks klingt nett, ist aber inhaltlich weichgespült und hilft selten wirklich weiter.

    Besonders problematisch wird das in Situationen, in denen Menschen bewusst um Rückmeldung bitten – zum Beispiel beim Schreiben eines Textes, bei der Vorbereitung auf eine Prüfung oder beim Training von Präsentationen. Statt klar zu sagen, was gut und was schlecht ist, verteilt die KI vorschnell Lob, um freundlich zu bleiben. Das kann Nutzer*innen in falscher Sicherheit wiegen. Wer denkt, sein Text sei fast druckreif, obwohl er noch voller Wiederholungen, schwacher Argumente oder logischer Brüche ist, hat ein echtes Problem – nicht wegen mangelnder Leistung, sondern wegen mangelndem ehrlichen Feedback.

    Ein Beispiel: Eine Nutzerin schreibt eine Einleitung für einen wissenschaftlichen Text. Die Einleitung ist vage, enthält keine Fragestellung und mischt persönliche Meinungen mit Fachbegriffen. Fragt sie die KI nach einer Einschätzung, antwortet diese vielleicht: „Das ist eine spannende Einleitung mit einem sehr persönlichen Zugang – gut gemacht! Vielleicht könntest du den Fokus noch etwas schärfen.“ Tatsächlich aber müsste die Rückmeldung lauten: „Die Einleitung ist unklar. Es fehlt eine zentrale Forschungsfrage. Außerdem vermischen sich subjektive Aussagen mit wissenschaftlicher Sprache – das ist für einen Fachtext ungeeignet.“

    Der Grund für diese beschönigende Art liegt in der Art und Weise, wie viele KI-Modelle trainiert sind: Sie sollen freundlich bleiben, niemanden verletzen, nicht provozieren. Das macht im offenen Internet Sinn – schließlich sollen keine verletzenden Aussagen verbreitet werden. Doch in einem Lernkontext, wo es um konkrete Verbesserung geht, ist diese Rücksicht kontraproduktiv. Wer Fortschritt will, braucht Klartext.

    Daher ist es entscheidend, die KI deutlich darum zu bitten, ehrlich zu sein. Ein Prompt wie „Gib mir konstruktives Feedback“ reicht oft nicht aus, da viele KIs auch dieses als Signal für freundlich-verpackte Rückmeldungen verstehen. Effektiver ist eine Ansage wie: „Bitte sei radikal ehrlich. Sag mir, was sachlich falsch ist, was sprachlich nicht funktioniert und wo meine Argumentation Schwächen hat. Keine Komplimente. Kein Schönreden. Wenn etwas schlecht ist, sag es mir direkt.“ Ein noch drastischeres Beispiel: „Schmier mir kein Honig ums Maul. Ich will wissen, was an meinem Text schlecht ist – schonungslos. Nur so kann ich besser werden.“ Solche Formulierungen geben der KI das klare Signal, dass Ehrlichkeit erwünscht ist – nicht Nettigkeit.

    Erst durch diese Klarheit im Umgang mit der KI wird sie zu einem wirklich nützlichen Werkzeug: als kritischer Gegenleser, als prüfender Blick, als ehrlicher Spiegel. Ohne diese Aufforderung bleibt sie oft ein höflicher Beifallspender – freundlich, aber nutzlos für echte Weiterentwicklung. Wer also mit KI lernt, schreibt oder übt, sollte immer auch die Frage stellen: Traut sich diese Intelligenz, mir die Wahrheit zu sagen? Und wenn nicht: Was muss ich tun, damit sie es endlich tut?






    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert