Werkzeuge zum Erkennen

Hat das eine KI geschrieben – oder ein Mensch?

Mit dem Chatbot kann man sich im Internet nicht nur unterhalten. Er verfasst mithilfe künstlicher Intelligenz (KI) auf Kommando auch Aufsätze, Gedichte, Briefe und alle möglichen anderen Texte – und begeistert dabei mit seinen Fähigkeiten.

Mit dem Chatbot kann man sich im Internet nicht nur unterhalten. Er verfasst mithilfe künstlicher Intelligenz (KI) auf Kommando auch Aufsätze, Gedichte, Briefe und alle möglichen anderen Texte – und begeistert dabei mit seinen Fähigkeiten.

In unserer digitalen Welt werden immer häufiger Texte von künstlicher Intelligenz (KI) geschrieben. Ob es sich dabei um Nachrichten­artikel, Social-Media-Beiträge oder sogar Romanzen handelt: KI-Systeme sind in der Lage, menschen­ähnliche Texte zu produzieren. Diese Texte können jedoch manchmal schwer von echten menschlichen Schreiben zu unterscheiden sein, was zu einer Herausforderung für die Öffentlichkeit und die Medienbranche werden kann.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Es ist wichtig zu erkennen, welche Texte von KI geschrieben wurden, um sicherzustellen, dass die Öffentlichkeit nicht von falschen oder irreführenden Informationen beeinflusst wird. In diesem Artikel werden wir uns genauer mit der Herausforderung befassen, Texte, die von KI geschrieben wurden, zu erkennen und zu diskutieren, welche Faktoren berücksichtigt werden müssen, um eine eindeutige Identifikation zu garantieren.

Das Leben und wir

Der Ratgeber für Gesundheit, Wohlbefinden und die ganze Familie - jeden zweiten Donnerstag.

Mit meiner Anmeldung zum Newsletter stimme ich der Werbevereinbarung zu.

Das ist ziemlich treffend formuliert und bringt das Problem auf den Punkt. Das Dumme ist nur: Der Text, der hier – vielleicht ein bisschen dröge, aber doch inhaltlich richtig – auf diesen Artikel hinleitet, ist Teil des Problems. Er wurde von einer KI geschrieben. Hätten Sie es gemerkt?

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Seit das Unternehmen OpenAI den Textgenerator ChatGPT öffentlich und kostenlos zugänglich gemacht hat, finden sich die Antworten, Texte und Werke des Chatbots scheinbar überall wieder. Das Potenzial für Missbrauch ist dabei groß. Unter anderem Universitäten, Medienhäuser und Schulen stehen plötzlich mehr denn je vor der Herausforderung, menschliche von maschineller Leistung zu unterscheiden. Doch woran erkennt man einen von einer KI geschriebenen Text?

KI und Bewusstsein

Eine künstliche Intelligenz mit Bewusstsein? Warum das unser kleinstes KI-Problem ist

Die Nachricht ging um die Welt: Ein Google-Entwickler glaubt, seine KI sei eine Persönlichkeit mit Bewusstsein. Damit tritt ein, wovor zahlreiche Forscher und Forscherinnen seit geraumer Zeit warnen. Wir haben ein Problem mit KI – doch das hat wenig mit Science-Fiction zu tun.

Logik- und Rechtschreibfehler

Eine KI wie ChatGPT oder auch andere vergleichbare Textgeneratoren verstehen nicht, was sie schreiben. Sie berechnen lediglich die Wahrscheinlichkeit, das ein Wort auf das nächste folgt. Leichter zu erkennen ist ein KI-generierter Text also derzeit dann, wenn sich darin zum Beispiel eindeutige Logikfehler eingeschlichen haben, die ein Mensch nie machen würde. So wissen Menschen in der Regel, dass das Mixen von Cranberrysaft und Traubensaft nicht tödlich ist.

Weitere Hinweise, an denen man einen KI-Text eventuell erkennen könnte, sind laut dem Forschungs­projekt „Real or Fake Text?“ zum Beispiel: generische und langweilige Sprache, Widersprüche in aufeinander­folgenden Sätzen oder Wiederholungen. „Bei genauem Hinsehen erkennt man, dass die Texte von Chatbots wie ChatGPT eine reine Reproduktion textlicher Versatzstücke darstellen. Sie stecken voller Klischees und Allgemeinplätze und weisen nicht die Ecken und Kanten auf, die Texte von Menschen auszeichnen“, erklärte Gernot Bauer, Professor für Software-Engineering und Mensch-Computer-Interaktion an der FH Münster, kürzlich gegenüber dem RND.

Umgekehrt deuten hingegen beispielsweise Rechtschreibfehler in einem Text eher auf einen menschlichen Ursprung hin, erklärt Daphne Ippolito von Google Brain gegenüber dem Magazin „Technology Review“. Denn Sprach­roboter „machen sehr, sehr selten Tippfehler. Sie sind viel besser darin, perfekte Texte zu generieren.“

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Menschen sind nicht gut im Erkennen

Erkennen Sie den Chatbot?

Auf der Seite von „Real or Fake Text“ muss man raten, ab welcher Stelle ein englischer Text von einer KI weitergeschrieben wurde. Die verwendeten Beispiele stammen allerdings von GPT-2, also einem noch nicht ganz so guten Vorgängermodell. GPT-3 und ChatGPT sind deutlich besser in der Lage, menschliche Sprache nachzuahmen.

Menschen, das zeigen Untersuchungen, sind grundsätzlich jedoch nicht allzu gut darin, von Maschinen generierten Text als solchen zu identifizieren. In einer entsprechenden Studie mit ungeschulten Menschen, die die Aufgabe hatten, Texte von GPT-3 zu erkennen, war das Ergebnis mehr oder minder Zufall. Mit ein bisschen Schulung lag die Genauigkeit der Menschen nur wenig besser bei 55 Prozent.

KI erkennt KI

Aber auch mit viel Übung ist es eher unwahrscheinlich, dass Menschen ohne technische Hilfe die Arbeit von KI-Textgeneratoren erkennen. Schließlich werden auch die Sprachmodelle immer besser darin, menschliche Sprache nachzuahmen. Ein technischer Lösungsansatz besteht daher darin, die Arbeit einer KI von einer wiederum darauf trainierten KI enttarnen zu lassen.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Einige Erkennungs­werkzeuge sind zudem wie ChatGPT bereits im Netz frei zugänglich – etwa das von OpenAI selbst: Der „AI Text Classifier“ soll von einem Menschen oder einer KI geschriebene Texte voneinander unterscheiden können. Aber, gesteht OpenAI direkt ein, wirklich zuverlässig funktioniert das bisher nicht. In einer von dem Unternehmen selbst durchgeführten Evaluation identifizierte der „AI Text Classifier“ nur 26 Prozent der KI-geschriebenen Texte als solche. Besonders große Probleme hat das Tool mit kurzen Texten; Voraussetzung, um einen Text überprüfen zu lassen, ist daher eine Länge von mindestens tausend Zeichen. Bei anderen Sprachen als Englisch ist der „AI Text Classifier“ zudem „deutlich schlechter“.

Sicheres Passwort

Warum auch ein starkes Passwort allein noch keinen Schutz bietet

Der Name der Katze ist das Passwort? Und zwar für jeden Account? Wer bei der Passwortwahl faul ist, macht es Cyberkriminellen leicht. Aber auch lange und komplexe Passwörter können sie herausfinden – und damit viel Schaden anrichten. Wie Sie Ihre Onlinekonten wirklich schützen.

Technische Tools zur KI-Erkennung

„Menschen verdienen die Wahrheit“, findet Edward Tian. Deshalb ist das die erste Botschaft auf der Seite der von ihm programmierten App GPTZero. Sie soll „schnell und effizient erkennen, ob ein Aufsatz von ChatGPT oder von einem Menschen verfasst wurde“, erklärte der Student. Dazu nutzt die App, vereinfacht gesagt, zwei Indikatoren: wie komplex ein Text und wie variabel die Satzlänge ist.

Frei zugänglich ist auch der „AI Content Detector“ von Writer. Im Test konnten beide Tools die zwei deutschen Absätze am Anfang dieses Textes als durch eine KI generiert erkennen. Auch in Deutschland arbeiten Unternehmen wie Latoda an „KI-Detektiven“, wie die „Oberhessische Presse“ berichtet (+).

Wasserzeichen und Kennzeichnungspflicht

Die Erkennungstools befinden sich in einem ständigen Wettbewerb mit den sich gleichzeitig weiter­entwickelnden KI-Textgeneratoren. Sprache zu schaffen, die kaum von der von Menschen zu unterscheiden ist, ist schließlich ihr Ziel. Experten und Expertinnen halten es daher für zwingend, nicht nur entsprechende Tools zu entwickeln, sondern generell mehr Transparenz zu schaffen, etwa durch eine Kennzeichnungs­pflicht. OpenAI arbeitet zum Beispiel bereits an einer Art Wasserzeichen für KI-Texte.

Mehr aus Digital

 
 
 
 
 
Anzeige
Anzeige

Letzte Meldungen

 
 
 
 
 
 
 
 
 

Spiele entdecken