Die Verwendung von generativer KI im Bildungsbereich und darüber hinaus wird weiterhin kontrovers diskutiert, insbesondere im Hinblick auf Authentizität und akademische Integrität. Manche Universitäten haben bereits Richtlinien, in denen die Offenlegung jeglicher KI Nutzung gefordert wird, allerdings muss man ohne Kontrollmechanismus auf die Redlichkeit der Studierenden hoffen.
Die teilweise eingesetzten KI Detektoren funktionieren nicht zuverlässig KI-Erkennungssoftware? Wenn Du abgibst, dann ist es zu spät!. Der Marktführer für generative KI, OpenAI, hatte zunächst selber ein Tool zur Herkunftsanalyse von Text entwickelt, dies aber wegen mangelnder Genauigkeit bald wieder eingestellt (New AI classifier for indicating AI-written text).

Daher ist es nicht verwunderlich, dass Versuche unternommen wurden, den KI-generierten Texten ein „Wasserzeichen“ zur leichten (Wieder-)Erkennung und Klassifizierung mitzugeben. Dabei integriert das Sprachmodell bei der Wortauswahl (bzw. technische korrekter „Tokenauswahl“) einen kleinen Bias, also die Nutzung bestimmter Wörter um dem Text ein statistisch spezielles, wiedererkennbares Muster zu geben (A Watermark for Large Language Models). Dadurch wird sich der Text mit „Wasserzeichen“ ein wenig von solchem ohne Wasserzeichen unterscheiden, da die Wortauswahl nicht ganz frei erfolgt – die Qualität der Texte wird dadurch in der Regel etwas monotoner und eher schlechter.

OpenAI hat kürzlich berichtet, dass dieses Verfahren mit einer hohen Wiedererkennungsrate funktioniert (Understanding the source of what we see and hear online).
Im gleichen Artikel wird allerdings auch berichtet, warum man dieses Verfahren nicht zum regulären Einsatz bringen wird. Es gibt drei Wege um das Wasserzeichen-Muster zu ändern und somit die Klassifizierung zu verhindern:

  • Den Text mit einer Übersetzungssoftware in eine anderen Sprache und wieder zurück zu übersetzen (ein einfacher Trick den Betrüger schon bei Copy&Paste Plagiaten erfolgreich eingesetzt haben).
  • Den Text von einem anderen Sprachmodell umformulieren lassen.
  • Das Sprachmodell selbst könne bei der Generierung des Textes ‘überlistet’ werden, indem man es via Prompt beauftrage spezifische Wörter oder Zeichen zwischen jedes Wort einzufügen, um diese dann im Nachgang mit einem einfachen ‘Suche&Ersetze’ zu entfernen. Daher sei die Umgehung des Wasserzeichen-Verfahrens „trivial für böswillige Akteure“.

Davon abgesehen würde eine einseitige Einführung von OpenAI vermutlich als Wettbewerbsnachteil gegenüber anderen Sprachmodellen wie Google’s Gemini oder Anthropic’s Claude gesehen. Immerhin könnten dann auch Texte außerhalb des akademischen Kontexts als KI-generiert klassifiziert werden, ohne Wissen der Ersteller – was möglicherweise zu deren Nachteil ausgelegt würde.
Weiterhin ist eine Unterscheidung der Einsatzart auch nicht möglich – also etwa ob ein Text mit Argumenten und Ideen vom Autor selbst entwickelt und geschrieben wurde, und KI nur am Ende den sprachlichen Feinschliff lieferte oder komplett ohne Grundlage aus der KI kommt. Dadurch könnten bspw. Nicht-Muttersprachler benachteiligt werden, wenn dann vermutet würde, dass keine Eigenleistung vorliegt.

Daher scheint die Dokumentation des Forschungs- und Schreibprozesses weiterhin als sehr viel verlässlicher, um transparent und fair zu beurteilen, wie hoch der Eigenanteil des Autors an der Textentstehung war.

Empfohlene Beiträge

Noch kein Kommentar, Füge deine Stimme unten hinzu!


Kommentar hinzufügen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert