Benutzer Diskussion:Karsten11/KI-generierte Artikel

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 2 Monaten von Seewolf in Abschnitt Verdächtige Beiträge
Zur Navigation springen Zur Suche springen

Beispiele zeigen?

[Quelltext bearbeiten]

Hallo Karsten11, vielen Dank für diese Seite, die in nächster Zeit wichtig werden könnte (vielleicht kommt sogar ein Zeitpunkt, zu dem sie in den Wikipedia-Namensraum gehört?). Ich frage mich, ob nicht – wie in meinem Fakemuseum, das ja eine ähnliche warnende Funktion erfüllen soll – einige Beispiele auch im Volltext gezeigt werden sollten? Wenn man mal ein paar gesehen hat, entwickelt man m.E. recht schnell ein Gefühl für den Stil von ChatGPT. Gestumblindi 20:33, 3. Jun. 2023 (CEST)Beantworten

Ja und nein. Ich habe mir die Geschichte des Tierhandels von ChatGPT schreiben lassen und der Vergleich der Versionen war lehrreich. Genauso lehrreich ist es natürlich, die gelöschten Artikel sehen zu können. Das Problem ist nur, dass nicht nur wir lernen können sondern auch die Vandalen, die das einstellen (und auch die KI selbst). Ich bin mir da unschlüssig.--Karsten11 (Diskussion) 20:44, 3. Jun. 2023 (CEST)Beantworten
KI lernt Bulimie ohne wieder auszuspucken, und das schneller als wir; aber niemals wird die Maschine Erkenntnisfähigkeit und Urteilskraft erwerben können, das können wir aber. Blick auf die Texte selbst: Nimm noch als Punkt oben dazu:
  • sprachlich einwandfrei formulierte, aber gleichförmige Sätze
  • Ausgedachte Schlagwörter (z.B. Alltagsbegriff/Fremdwort + Fachbereich/Fakultät o.ä. ohne spezielle Bedeutung und deshalb auch kein Fachbegriff)
  • keinen erkennbaren sprachlichen Stil
ChatGPT hat eben keinen "Stil", sondern ihre korrekte Sprache ist reduziert auf denotative Kompetenz, während jeder auch noch so unbegabte Schreiber einen irgendwo immer unverwechselbaren hat gegenüber jedem anderen ebenso unbegabten. NPOV ist keine Frage des Stils, sondern die von Erkenntnis, Urteil und Auswahl. Das wird die Maschine wohl zumindestens die nächsten hundert Jahre noch nicht können. --Felistoria (Diskussion) 22:02, 3. Jun. 2023 (CEST)Beantworten
Ich habe das gerne übernommen, teile aber Deine Einschätzung nicht, was "zumindestens die nächsten hundert Jahre noch nicht können" betrifft.--Karsten11 (Diskussion) 11:50, 4. Jun. 2023 (CEST)Beantworten
Ich bin mir nicht sicher, dass man wirklich "keinen erkennbaren sprachlichen Stil" sagen kann. ChatGPT hat einen "Sound" und Eigenheiten (wie z.B. die gezwungene Ausgewogenheit, oft mit Formulierungen wie "Es ist wichtig, zu beachten..."), die eben schon relativ markant sind. Gestumblindi 13:23, 4. Jun. 2023 (CEST)Beantworten
Ich bin mir nicht sicher, ob man ChatGPT nicht eine Stil antrainieren kann. Wenn ich ihm sage: ein Gedicht, bekomme ich eben eins und wenn ich sage 2hebiger Jambus, dann bekomme ich eben ein Gedicht im 2hebigen Jambus. Und wenn ich das oft genug mache, wird er wahrscheinlich auch beinem Wikipedia-Artikel auf Versmaß achten, weil er denkt, ich will das so. Die gelöschten Artikel waren aber wohl ohne großartige Verfeinerungsarbeit entstanden und da entsteht dann wohl so was wie das, was ich mit "Ausgewogenheit vorgebenden Schreibstil" meinte.--Karsten11 (Diskussion) 14:12, 4. Jun. 2023 (CEST)Beantworten
Ja, das ist aktuell wohl so der "Defaultmodus" von ChatGPT; so schreibt es, wenn man ihm nichts anderes nahelegt. Auf Deutsch kann es übrigens noch nicht gut dichten, das klappt auf Englisch bis jetzt besser, aber dies nur nebenbei, ist ja für uns nicht relevant... Gestumblindi 22:23, 4. Jun. 2023 (CEST)Beantworten
D'accord. Das mit dem "sound" sehe ich auch so übrigens, so "gezwungen" scheinend schreibt niemand, der etwas von einer Sache versteht (oder versucht, so zu tun, als ob er etwas davon versteht, auch das "klingt" anders). - Ich steh' durchaus weiter, lieber Karsten, zu meinen o.g. 100 Jahren, ChatGPT ist und wird sein nur 0 oder 1, Loch oder Nichtloch, Ein oder Aus. So sind Hirne (leider oder gottlob?) indes nicht gestrickt in ihrer Biochemie. Aber vielleicht erweist die sich ja als anpassungsfähig an 0 und 1? (Dann erhöhe ich allerdings auf 1 Million Jahre:-) Mit Gruß aus der Nacht, --Felistoria (Diskussion) 01:13, 7. Jun. 2023 (CEST)Beantworten

Handlungsbedarf

[Quelltext bearbeiten]

Offensichtlich besteht Handlungsbedarf in Sachen KI-generierte Artikel. Ich würde mir folgende Maßnahmen vorstellen:

Über Meinungen freue ich mich.--Karsten11 (Diskussion) 09:42, 16. Jun. 2023 (CEST)Beantworten

Hallo Karsten! Danke erstmal für den Aufschlag zu einer Sachdiskussion, da das Problem ja fachbereichsübergreifend besteht. Es gibt bislang ja schon Erfahrungen mit dem Bot-Verbot, gerade bei Geografieartikel, was eigentlich ohne umfangreiche Richtlinienänderungen funktioniert. Zu Deinen Punkten:

  • Man muss abwägen, wie groß der Schaden durch KI ist gegenüber der Möglichkeit, diese Regelung pauschal zu benutzen. Hier sehe ich z.B. ein Problem gegenüber unserer Regelung bei WP:Q hinsichtlich "etabliertem Wissen", dass gerade in älteren Artikeln sehr ähnlich der KI ist, oder dieser als Vorlage diente
  • Ich bin grundsätzlich gegen die Verwendung von SLAs - auch wenn ich diese immer wieder für Offensichtliches verwende, würde ich wie bei dem Mißbrauch von Sockenpuppen eher die Verschiebung aus dem ANR in die Artikelwerkstatt des WNR für X Tage bevorzugen. Und das sollte dann damit verbunden werden, wie bei Neuen Artikel den Fachportalen direkt die Ansicht von Neuem zu ermöglichen.
  • Es muss uns klar sein, selbst wenn wir in der Wikipedia ein KI-Verbot verhängen, werden wir immer mehr ENWs und Quellen haben, welche darauf beruhen. Und angesicht meiner aktuellen Erfahrung mit Youtube und nicht offensichtlichen Blogs, halte ich da ein Verbot zwar für durchführbar, aber inkonsequent, wenn man unser freies Editieren beibehalten will.

Soviel als erster Aufschlag.Oliver S.Y. (Diskussion) 10:12, 16. Jun. 2023 (CEST)Beantworten

Hallo Karsten, ich stehe einem solchen KI-Verbot tendenziell skeptisch gegenüber, denn wir wollen diese Artikel ja nicht deswegen nicht, weil eine „KI“ sie geschrieben hat, sondern weil sie gewisse Qualitätsmängel haben (wozu ich sachliche Fehler einfach auch mal zähle), die wir nicht tolerieren können. Die sollten wir (vielleicht stärker als bisher) kodifizieren und die Regeln zusätzlich mit Beispielen unterfüttern, in denen man die KI-Artikel vielleicht leichter wiedererkennt. Denn ob ein Artikel von einer „KI“ geschrieben wurde, wissen wir im Zweifelsfall schlichtweg nicht, und wenn der Artikel unseren Anforderungen entspricht, ist es uns mutmaßlich auch egal. Wenn der Artikel hingegen Mängel hat, wollen wir ihn nicht haben, ob ihn nun eine „KI“ geschrieben hat oder nicht. Nichtsdestoweniger würde ich eine deutliche Warnung vor der Nutzung von „KI“ zur Artikelgenerierung unterstützen, vor allem bei Hilfe:Neuen Artikel anlegen und Wikipedia:Urheberrechte beachten sowie ggf. WP:OR; Anpassungen an Wikipedia:Qualitätssicherung oder anderen Seiten mit Hinweisen bezüglich typischer Probleme KI-generierter Artikel ebenfalls. Bei den Seiten mit Löschbezug (WP:SLA#Artikellöschungen, Wikipedia:Löschkandidaten/… usw.) sollte meiner Meinung nach, wie oben geschrieben, nicht der Umstand „Ki-generiert“ im Vordergrund stehen, sondern die daraus allzu häufig resultierenden manifesten Mängel. Die Idee einer Richtlinie Wikipedia:KI-generierte Artikelinhalte (oder noch besser gleich Wikipedia:KI – beim Thema Bebilderung ist das auch schon aufgekommen), die ausdrücklich auf die bei Nutzung generativer „KI“ potenziell verletzten Ansprüche unserer Wikipedia und die daraus resultierende unbedingte Löschbarkeit hinweist, finde ich sinnvoll. --Sabrieleauftistik (Diskussion) 11:29, 16. Jun. 2023 (CEST)Beantworten
ChatGPT wurde mit frei verfügbarem Material/Texten trainiert. Heißt: Alle Informationen, die diesem Bot zugänglich sind/waren, sind auch uns zugänglich. Dessen Texte auf Korrekheit prüfen, wenn man nur mit den Mitteln des Internets arbeitet, ist also ziemlich witzlos: Man wird bei nicht sonderlich komplexen Themen (wie z. B. Franchise-Unternehmen, die auf Werbung aus sind) genau die Informationen finden, die auch die KI verarbeitet hat. Fehlersuche bzw. Plausibilitätspüfung ist da ziemlich aussichtslos (genau wie bei WP-Artikeln, die ein paar Jahre alt sind: Das Netz wimmelt von Informationen, die sich von WP ausgehend verbreitet haben).
Bei komplex(er)en Themen (Karsten hatte es angedeutet mit einem Thema aus dem historischen Bereich) kriegt die KI es (noch) nicht so gut hin. Und wenn man sie auffordert ihre Quellen zu nennen, fängt sie an zu halluzinieren und erfindet Quellenangaben; die sehen dann formal plausibel aus, sind aber Quatsch. Solang wir WP:BLG nicht so ernst nehmen, wie wir das (eh schon immer!) müssten, haben wir kaum Möglichkeiten. KI-Verbot ist aber auf jeden Fall schon mal ein Anfang (oder hat hier jemand Probleme damit den neuen Kollegen KI-Bot mit einem SLA zu verärgern?). --Henriette (Diskussion) 12:11, 16. Jun. 2023 (CEST)Beantworten
Hallo Henriette, argumentierst du damit jetzt für oder gegen mich? Ich glaube, um problematische („KI“-)Texte zu erkennen, müssen wir WP:BLG sehr ernst nehmen (und ja, das müssen wir eigentlich sowieso immer). Ein „KI“-Text ohne Fehler (und ohne URV) ist wohl kaum problematisch. Offenbar erkennt man die KI-Artikel zwar momentan meist eher an ihrem Sprachduktus, aber ich habe nicht den Eindruck, dass es der Sprachduktus ist, den man nicht will, sondern dass man einen Kurzschluss vornimmt: „KI-Duktus“ → KI-Artikel → potenzielle Faktenfehler → TL;DR löschen. --Sabrieleauftistik (Diskussion) 12:24, 16. Jun. 2023 (CEST)Beantworten
Nein, ein KI-Text ohne Fehler ist rein auf den Text bezogen nicht problematisch. Das Problem liegt darin diese Fehlerlosigkeit zu bestätigen. Oder andersrum: Die Fehler zu finden. Wie findest Du einen Fehler, wenn Du nur mit Material arbeitest, das ebenfalls diesen Fehler enthält?
Nächstes Problem: Wie findest Du menschliche Mitarbeiter/Kollegen (die u. a. auch die Fehlerprüfung übernehmen müssen), wenn die sich durch die KI ausgebootet sehen? Wo Menschen das Gefühl haben sowieso überflüssig zu sein, werden sie kaum Engagement aufbringen - zumal im ziemlich komplexen Feld einer Enzyklopädie mit ihren ziemlich hohen Ansprüchen. --Henriette (Diskussion) 12:37, 16. Jun. 2023 (CEST)Beantworten
Aber wenn wir nur mit Material arbeiten können, das dieselben Fehler enthält, würden wir als Menschen doch einen ebenso fehlerhaften Artikel schreiben? Da sehe ich weder den Mehrwert des KI-Artikels noch den Mehrwert eines Verbots.
Das andere Problem ist natürlich schwerwiegender, aber das hatte im Grunde der Brockhaus in gleicher Form, als die Wikipedia anfing, erfolgreich zu werden. Außerdem lösen wir das durch ein absolutes KI-Verbot nur kosmetisch. --Sabrieleauftistik (Diskussion) 12:44, 16. Jun. 2023 (CEST)Beantworten
Hast Du in einem gedruckten Buch schon mal einen sachlichen oder faktischen Fehler gefunden? Wenn ja: Der Weg auf dem Du den Fehler gefunden hast, ist der, der zum Ziel führt. Wenn nein: Quellenkritisch arbeiten. Nicht nur einem Buch oder Autor trauen, sondern auch andere heranziehen. Belege prüfen; das heißt nachlesen, ob da wirklich das steht, was angegeben wird. Oder - wenn man sich in einem Thema sehr gut auskennt - nachprüfen welche anderen Autoren ein Autor herangezogen hat und welche nicht. Ist ein bisschen mehr Aufwand, als nur bei Google Books nach Schlagwörtern oder nach $Webseiten zu suchen. Lohnt sich aber. Fakt ist jedenfalls: Mit diesem KI-Kram wird das Netz nochmal ein großes Stück unzuverlässiger.
Der Brockhaus war nie auf unbezahlte Mitarbeiter angewiesen, die ihren Job bei der Schaffung einer Enzyklopädie ernst genommen haben. WP ist das aber. Und mit jeder kritischen Recherche, die uns in Zukunft u. U. zahllose KI-generierte und grob fehlerhafte Artikel um die Ohren haut, wird WP ein Stück weit unattraktiver für Leute, die auf echte Qualität, wirklich zuverlässige und geprüfte Informationen wert legen – und das für umme machen. --Henriette (Diskussion) 13:10, 16. Jun. 2023 (CEST)Beantworten
Hm, ich habe den Eindruck, dass wir bezüglich der Fehler aneinander vorbeireden, beziehungsweise kann ich dir kaum widersprechen, weil ich da ganz deiner Meinung bin – nur nicht ganz sehe, inwieweit das Problem durch fehlerhafte KI-Artikel (vs. fehlerhafte von Menschen geschriebene Artikel) entsteht oder verschärft wird.
Genauso, dass Berichterstattung über Fehler sich negativ auf das Image der Wikipedia und wohl auch die Motivation der Schreibenden darin auswirkt – zweifellos richtig, das haben wir in der Vergangenheit (bezahltes Schreiben, Weltraumagentur, Böhmermann et al.) ja schon gemerkt. Da können generative Sprachmodelle uns ein quantitatives Problem bescheren. Aber (und das meine ich mit „kosmetisch“) auch mit KI-Verbot werden wir uns daran messen lassen müssen, wie korrekt die Informationen sind, die die Wikipedia anbietet. Wenn uns zu viele KI-Artikel mit Fehlern „durchrutschen“, ist der Effekt der gleiche. --Sabrieleauftistik (Diskussion) 13:44, 16. Jun. 2023 (CEST)Beantworten
nur nicht ganz sehe, inwieweit das Problem durch fehlerhafte KI-Artikel (vs. fehlerhafte von Menschen geschriebene Artikel) entsteht oder verschärft wird.
1. Menschen, zumal Neuautoren, machen andere Fehler; für uns viel offensichtlichere. Also schauen wir gleich kritisch auf den Text. KI-Fehler können deutlich subtiler sein und werden u. U. schlicht übersehen.
2. Einen menschlichen Neuautor kann ich ansprechen, ihm Dinge erklären; seinen Artikel in den BNR schieben, damit er ihn dort (vllt. mit Hilfe eines Mentors) überarbeitet. Am Ende: Hilfe zur Selbsthilfe und nach einiger Zeit ein hilfreicher und sich auskennender Kollege. Das sozusagen Investment kann sich also auszahlen. Bei Kollege KI? Fehlanzeige. Der hat kein Interesse an einem Kontakt mit uns ;)
Auf der simplen Ebene "Fehler machen alle" macht es in der Tat kaum einen Unterschied. Aber bei dem was danach kommt.
Achso 3. KI ist deutlich produktiver als Menschen: Die haut ratzfatz einen Artikel nach dem anderen raus. Wenn es sein muß, auch 24/7. Wir hatten früher (so richtig ganz früher) täglich 100 oder 120 Artikel auf den Löschkandidaten, die haben wir irgendwie bewältigt bekommen. Da hatten wir aber auch noch deutlich mehr Leute, die sich intensiv damit beschäftigt haben. Was passiert, wenn täglich über 50 Artikel diskutiert werden muß bei denen sich die Diskussion die ganze Zeit nur darum dreht, ob dieses mutmaßliche KI-Produkt den Aufwand wert ist, überarbeitet zu werden? Sonderlich attraktiv klingt das für mich nicht. Und nach "Leute haben wieder und wieder Zeit und Lust sich ernsthaft mit einem von einer KI gesetzten Thema zu befassen" klingt es auch nicht. --Henriette (Diskussion) 14:42, 16. Jun. 2023 (CEST)Beantworten
Auch ein Neuautor kippt eventuell seinen Artikel ab und reagiert danach nicht mehr auf Ansprachen. Da ist es egal, ob er den generieren lassen oder selbst geschrieben hat. Ansonsten hast du natürlich Recht; siehe aber meine Ausführungen weiter unten. --Sabrieleauftistik (Diskussion) 18:35, 16. Jun. 2023 (CEST)Beantworten
Wenn es bei den KIA wenigstens ein digitales Wasserzeichen zur Erkennung und ein Wahrheitsgebot gäbe, könnten sie zugelassen werden. Momentan enthalten sie z.B. erfundene Quellenangaben. Wer soll das alles prüfen? Bin momentan für Verbot, unter o.g. Bedingungen kann das aufgehoben werden. --Ghilt (Diskussion) 12:18, 16. Jun. 2023 (CEST)Beantworten
Na ja, aber das führt ja zur Frage, wie erkennt man solche Artikel, wenn niemand „das alles“ prüft? Ein Verbot erfundener Quellen haben wir schon längst. --Sabrieleauftistik (Diskussion) 12:28, 16. Jun. 2023 (CEST)Beantworten
In näherer Zukunft: Gar nicht mehr. Ja, das müssen Menschen mit Medienkompetenz, Sachverstand und Akribie prüfen. Immer. Jeden Artikel. Weil man es einem Text im Internet nicht von außen ansieht, wie der in die Welt gekommen ist (die auffällige "Glätte" in den ChatGPT-Texten könnte man z. B. in Handarbeit ein bisschen entglätten – ohne dabei eine faktische Information zu ändern; und, Zack!, schon fällt das mehr oder weniger offensichtliche Erkennungszeichen Sprachduktus weg). --Henriette (Diskussion) 12:44, 16. Jun. 2023 (CEST)Beantworten
Eben. Wenn man einen Text akribisch prüfen muss, um festzustellen, ob er KI-generiert ist, kann man ihn auch akribisch prüfen, um festzustellen, ob er die eigentlich problematischen Mängel (Faktenfehler, erfundene Quellen, Halluziniertes) enthält. Ein komplettes KI-Verbot schafft dann nicht mal weniger Arbeit. --Sabrieleauftistik (Diskussion) 12:48, 16. Jun. 2023 (CEST)Beantworten
Ein KI-Verbot würde etwas Entspannung schaffen, weil offensichtlich nicht-menschliche Texte nicht lang diskutiert würden, sondern gleich rausfliegen.
Aber nochmal: Wir lassen also KI-Texte rein und die Aufgabe der WP-Kollegen ist es dann die KI-Texte in etwas zu verwandeln, das den Ansprüchen der WP entspricht (möglichst fehlerfrei, etc.)? Wie viele, denkst Du, unserer Autoren verzichten auf das winzige bisschen Ruhm einen Artikel als "von mir erstellt" reklamieren zu können, oder auf das stolze Gefühl etwas u. U. monatelang sehr sorgfältig recherchiert und einen schönen Text geschrieben zu haben. Und bescheiden sich stattdessen damit nur noch Zuarbeiter für Kollege KI zu sein? --Henriette (Diskussion) 13:22, 16. Jun. 2023 (CEST)Beantworten
Qualitativ schlechte Artikel sollten gelöscht werden. Das zumindest ist die Konsequenz, die ich daraus ziehen würde, dass es ja grundsätzlich jedem und jeder freisteht, Artikel zu verbessern oder eben nicht. Wenn ein Artikel reinkommt, der den Ansprüchen der Wikipedia nicht genügt – KI-generiert oder nicht –, und niemand ihn verbessern will, dann wird er eben gelöscht. Ich bin immer wieder verblüfft, dass es tatsächlich Leute gibt, die sich die Mühe antun, abgekippte Rohdatensammlungen zu wikifizieren oder was sonst noch so in der Qualitätssicherung und/oder der Löschdiskussion anfällt. Offensichtliche KI-Artikel nicht lange diskutieren – OK, aber warum machen wir solche Regelungen dann nicht auch für „Artikel“, die praktisch nur aus einem tabellarischen Lebenslauf oder nur aus einer Filmografie bestehen oder keine Quellen haben oder werblich geschrieben sind oder oder oder? --Sabrieleauftistik (Diskussion) 13:44, 16. Jun. 2023 (CEST)Beantworten
Lies zwei Wochen lang die Löschkandidaten mit: Dann hast Du die Antworten auf deine Fragen. Und mach' Dir den Spaß genau hinzusehen, was da so alles als "Verbesserung" eines Artikels durchgeht.
Und da ist noch was: Kaum kommt ein Artikel rein, wird schon mit dem Wikifizieren, Belege (oder manchmal auch nur "Belege") hinzufügen angefangen. Nach 6 Stunden sieht so ein Artikel u. U. überhaupt nicht mehr nach KI-generiert aus (ohne Belege, ohne Literatur, typischer Duktus). Diskutiert wird nur noch über Relevanz; nicht aber über inhaltliche Richtigkeit.
Die Erstversion des Artikels schaut sich in 99,999% der Fälle niemand an, weshalb auch selten jemand auf die Idee kommt die textliche Substanz des Artikels kritisch zu überprüfen und z. B. mit Literatur abzugleichen (warum auch? steht doch Literatur da, die wird wohl benutzt worden sein. Nicht selten wurde die Literatur aber erst viel später hinzugefügt; sieht man nur, wenn man das über die Versionsgeschichte prüft – was praktisch niemand tut). Naja, usw. usf. --Henriette (Diskussion) 14:59, 16. Jun. 2023 (CEST)Beantworten
Ich lese relativ häufig bei den Löschkandidaten mit und weiß daher, dass meine Konsequenz (schlechte Artikel löschen) nicht die ist Realität ist. Aber jetzt wollen wir darüber diskutieren, offensichtlich KI-generierte Artikel per SLA entsorgen zu dürfen. Gut, dann aber bitte auch Artikel, die offensichtlich nur aus Rohdaten bestehen, quellenlose Artikel, offensichtlich werbliche Artikel und andere Artikel, die mit offensichtlichen Qualitätsmängeln reinkommen. Alles, was du beschreibst, gilt für alle Artikel, ob KI-generiert oder nicht. Wenn Menschen schlechte Artikel einstellen, scheint es nur niemanden zu stören, man verbessert (oder kaschiert) die Mängel sogar noch für sie. Ein bisschen erinnert mich das an die Porno-Diskussion vor drei Jahren (da war ich auch Zaungast): Schlechte Filmartikel sind OK, solange es nicht um Pornos geht. --Sabrieleauftistik (Diskussion) 18:35, 16. Jun. 2023 (CEST)Beantworten
Gut, dann drehen wir das mal 'rum: Was spricht dafür KI-Artikel nicht zu verbieten. Oder sie sogar ganz explizit zuzulassen? --Henriette (Diskussion) 19:06, 16. Jun. 2023 (CEST)Beantworten
Eigentlich sollte man nie fragen, warum man etwas nicht verbieten sollte… Zunächst zur Klarstellung: Eine explizite Erlaubnis für KI-Artikel will ich auch nicht. Bei einem Verbot sehe ich aber ein paar potenzielle Probleme:
  • Bisher galt (von einigen renitenten Sperrumgehern wie Friedjof abgesehen) das Prinzip, dass Artikel nicht danach bewertet werden, wer sie geschrieben hat. Mit einem KI-Verbot bewegen wir uns in die erst mal interessante Richtung, festzustellen, dass nur von Menschen verfasste Artikel wikipediawürdig sind. Das wird zunächst weder „die KI“ noch die Menschen stören. Ich kann mir aber vorstellen, dass es Benutzer gibt, die gern auch gewissen Menschen, etwa aufgrund ihrer politischen Haltung, das Artikelschreiben verbieten würden – unter ähnlichem Vorwand: problematische Beleglage, Möchtegern-Fakten. Ich bin unschlüssig, was ich davon halten soll.
  • Die Abgrenzung von „KI“ ist schwierig. ChatGPT ist ein Extremfall wegen seiner Vielseitigkeit. Wetterberichte und andere stereotyp formulierte „Brottexte“ werden schon länger automatisch generiert – eher nach festen Regeln, aber irgendwo verwischt die Grenze. Es gibt Benutzer, die sich in Word oder anderen Programmen Schablonen erstellen, aus denen sie dann (teilweise durch stupides Einsetzen) Artikel über Massenobjekte aus irgendeinem Themenbereich erstellen. Ab einem gewissen Automatisierungsgrad sprechen wir von „Bot-generierten“ und irgendwann von „KI-generierten“ Artikeln. Ich glaube nicht, dass diese Grenzen sehr einfach zu ziehen sind. Es gibt ja auch schon so was, wo einem neben der Rechtschreib- und Zeichensetzungskorrektur auch „Hinweise zum Schreibstil“ gegeben werden.
  • Irgendwo (Kurier-Diskussionsseite?) haben Leute berichtet, dass sie ihre Artikel selber schreiben und dann von ChatGPT „korrekturlesen“ lassen – oder dem Programm auch einfach ein paar Stichpunkte vorwerfen und sich einen Text dazu erzeugen lassen. Der ist dann auch „KI-generiert“, aber unter strenger menschlicher Supervision. Wahrscheinlich wollen wir solche Texte auch nicht, oder wir sagen uns „was ich nicht weiß, macht mich nicht heiß“. Finde ich ein bisschen bigott.
  • Je besser Textgeneratoren wie ChatGPT werden und je schwerer ihre Texte von menschlichen Texten unterscheidbar sind, desto schwerer wird es, den Tatbestand „KI-Artikel“ zu belegen – oder zu widerlegen. Ersteres ist in Ordnung, dann werden halt nicht alle KI-Artikel als KI-Artikel gelöscht, sondern vielleicht aus anderen Gründen oder eben gar nicht. Nach meinem Eindruck von der Wikipedia kann es aber ebenso gut kommen, dass dann in Löschdiskussionen eine (meines Erachtens wenig zielführende) Debatte darüber entbrennt, ob ein Artikel ein KI-Artikel ist oder nicht. Denkbar ist, dass Artikelautoren es auch nicht so prickelnd finden, wenn darüber diskutiert wird, ob ihren Text nicht vielmehr eine Maschine verfasst hat.
Das sind alles keine starken Argumente, aber wenn wir schon anfangen zu fragen, warum wir etwas nicht verbieten sollen, können wir, wie gesagt, gleich weitermachen: Warum nicht auch Artikel über aktuelle Ereignisse verbieten („Newstickeritis“)? Die gammeln nach ein paar Wochen oft unaktualisiert in einem unhaltbaren Zustand herum, ist auch nicht gerade schön für eine Enzyklopädie. Oder Artikelbearbeitungen durch IPs? Kommt doch eh fast nur Vandalismus von denen und ein Account ist nun wirklich schnell erstellt. Würde ich jetzt noch ein paar Minuten länger nachdenken, fielen mir wahrscheinlich noch ein paar Beispiele ein, aber ich gehe jetzt zu Bett. Geruhsame Nacht. --Sabrieleauftistik (Diskussion) 23:24, 16. Jun. 2023 (CEST)Beantworten
aber wenn wir schon anfangen zu fragen, warum wir etwas nicht verbieten sollen, können wir, wie gesagt, gleich weitermachen - ja, könn(t)en wir, führt aber vom eigentlichen Thema weg. Ich geb Dir recht: "warum nicht verbieten" ist 'ne bescheuerte Frage :) War schlecht formuliert.
Ich versuche es mal so zu erklären was ich meinte: Du möchtest kein explizites Verbot oder bist wenigstens nicht überzeugt davon. Gibt es deiner Ansicht nach Gründe, die gegen ein Verbot sprechen und nicht in die Kategorie von ... ich nenne es mal: "formalen Gründen" fallen? Damit meine ich "nicht direkt überprüfen [können] und nicht mal wirklich gut operationalisieren können" – das ist nachvollziehbar, da beißt die Maus keinen Faden ab; ich will das also nicht kleinreden oder wegschieben. Aber gibt es vllt. noch einen anderen Grund; könnte sich ein explizites Verbot z. B. als kontraproduktiv erweisen? (Mir fällt keiner ein, daher die Frage :) --Henriette (Diskussion) 15:29, 17. Jun. 2023 (CEST)Beantworten
Du hast mit den „formalen Gründen“ schon Recht; das habe ich beim Verfassen meiner Antwort selbst gemerkt (an der Stelle mit dem „wird zunächst weder ‚die KI‘ noch die Menschen stören“). Das Verbot trifft halt niemanden, der so arbeitet, wie man in der Wikipedia bisher gearbeitet hat und bitte auch weiterhin arbeiten soll. Trotzdem bin ich von einem KI-Verbot nicht überzeugt, und zwar einfach aus dem Grund, dass das, was wir verbieten wollen, eigentlich etwas anderes ist (erfundene/halluzinierte Informationen) und ich nicht abschätzen kann, ob uns so ein „Stellvertreter-Verbot“ nicht irgendwann auf die Füße fällt.
Ein ähnlicher Fall (den ich eigentlich nicht gern bringe, siehe unten) sind das Verbot von Verbrennungsmotoren oder das neue Gebäudeenergiegesetz in der Politik. Das Ziel ist eigentlich, Verhaltensweisen (in der Mobilität bzw. beim Heizen) zu verbieten, die zu viel CO2 ausstoßen: Verbrennen fossiler Kraftstoffe, Heizen mit Öl/Gas. Neuzulassungen von Autos mit Verbrennungsmotor zu verbieten oder ein Gesetz zu schreiben, dem auf lange Sicht praktisch nur Wärmepumpen genügen können, ist auch so ein „Stellvertreter-Verbot“. Ich habe also in dieser Diskussion gewissermaßen die Rolle der FDP, die sagt: Warum den ganzen Motor verbieten, wenn nur der Treibstoff das Problem ist? Für mich ist das eine gerade etwas unschöne Erkenntnis, weil ich das Verhalten der FDP in diesen Angelegenheiten gerade nicht gut finde.
Auch wenn ich meine Einwände also nach wie vor für sachlich richtig halte (genau wie die Einlassungen der FDP), muss ich also vielleicht eingestehen, dass ein KI-Verbot in der aktuellen Situation eine angebrachte Lösung sein kann (so, wie momentan ein gesetzliches Bekenntnis gegen den Verbrennungsmotor oder die Gasheizung eine angebrachte Lösung wäre und es mehr Sinn hätte, sich über die Verbrenner dann Gedanken zu machen, wenn E-Fuels irgendwann mehr sind als ein Wunschtraum von klimaneutralem Kraftstoff). --Sabrieleauftistik (Diskussion) 11:51, 18. Jun. 2023 (CEST)Beantworten
Hab vielen Dank für deine ausführliche Antwort! Genau _das_ – dass das, was wir verbieten wollen, eigentlich etwas anderes ist (erfundene/halluzinierte Informationen) – meinte ich schon halb herausgehört/-gelesen zu haben ;) Ich weiß natürlich nicht, ob das (bei allen?) so ist; ich halte es aber für denkbar, daß es eine Rolle spielt. Ist die groß oder klein? Keine Ahnung! Käme vermutlich bei einem MB ans Licht ;) Gruß --Henriette (Diskussion) 12:32, 18. Jun. 2023 (CEST)Beantworten
Immerhin merke ich, wenn ich auf verlorenem Posten stehe… ein SmileysymbolVorlage:Smiley/Wartung/:/  --Sabrieleauftistik (Diskussion) 11:40, 19. Jun. 2023 (CEST)Beantworten
Das mit dem Wasserzeichen klingt charmant. Hat aber einen Haken: Solche Texte haben wohl z. B. in Unternehmen tatsächlich einen sinnvollen Anwendungsbereich (sieht man davon ab, daß damit die Menschen überflüssig werden, die das bisher gemacht haben): Standardantworten auf Standardanfragen schreiben (ich hörte neulich, daß Airlines das für Nachfragen nach Preiserlässen aufgrund Problemen mit einem Flug verwenden). Ich glaube kaum, daß sich Unternehmen die mit ihrem tollen Kundenservice werben, sich auf einen Wasserzeichen-Disclaimer a la "Diese Antwort wurde von einer KI ohne jegliches Zutun eines Menschen generiert" freuen ;) --Henriette (Diskussion) 12:29, 16. Jun. 2023 (CEST)Beantworten

Was wir auf jeden Fall (auch auf Meta-/Hilfeseiten) festhalten können, ist: Generative Sprachmodelle wie (Chat-)GPT sind zum Erstellen enzyklopädischer Artikel nicht geeignet. Über eine allgemeinverständliche Formulierung der Begründung müsste man noch mal diskutieren, aber es läuft darauf hinaus: Die Dinger sind darauf trainiert, statistisch gesehen natürlich wirkende sprachliche Artefakte zu erzeugen, Faktentreue ist bestenfalls eine Nebenwirkung davon und keinesfalls sichergestellt. --Sabrieleauftistik (Diskussion) 13:04, 16. Jun. 2023 (CEST)Beantworten

Danke für diese wichtige Initiative. Brauchen wir ein Meinungsbild zu einem Verbot von KI-generierten Artikeln? Wie bei allen Verboten gilt auch hier: Sie sind um so sinnvoller, je eher man sie auch durchsetzen kann. Ich sehe da Probleme, KI-generierte Artikel zu erkennen bzw nachzuweisen und bei einer Ausweitung des Phänomens den Arbeitsaufwand zu leisten. Aber: In letzter Konsequenz kann das Projekt Wikipedia durch KI in Gefahr kommen. --Rufus46 13:39, 16. Jun. 2023 (CEST)Beantworten
Ich sehe keine einfache Lösung. Die eine Option ist, Artikel zu verbieten, die „von einer KI geschrieben“ wurden, ein Kriterium, das wir nicht direkt überprüfen und nicht mal wirklich gut operationalisieren können – was, wenn jemand nachträglich Formulierungen ändert? Und wie wollen wir das im Zweifel feststellen? Die andere Option ist, Artikel zu verbieten, die bestimmte Anforderungen (valide Belege usw., siehe oben) nicht erfüllen. Das haben wir aber eigentlich schon und das hat auch nichts mit KI zu tun. Die Frage ist dann natürlich, ob wir solche Anforderungen eventuell verschärfen/ausweiten müssen. Dafür müssen wir uns aber erst mal darüber klar werden, was genau es ist, was uns an KI-Artikeln stört. --Sabrieleauftistik (Diskussion) 13:54, 16. Jun. 2023 (CEST)Beantworten
Nein, es gibt keine einfache Lösung dafür. Und es ist sowieso schon zu spät: ChatGPT ist in der Welt und wird benutzt. Und solang der sich nicht selbst verplappert (weil ihm seine Entwickler das unwiderruflich per z. B. Wasserzeichen in die DNA schreiben... naja, bis es auch dafür einen Hack gibt, der das wieder entfernt ;) haben wir wenig bis gar keine Optionen. Wir sind dem mehr oder weniger schutzlos ausgeliefert, was unseren ANR angeht. Weil es keinen Türsteher gibt, der fragt: Hat deinen Text ein Mensch oder eine Maschine verfasst? Und weil es keinen Weg gibt die Wahrhaftigkeit der Antwort sofort zu verifizieren.
Was wir aber machen können (m. E. auch sollten!): Den Blick erweitern und uns vom soz. Kleinklein der angelegten Artikel und ihrer textlichen Genialität oder Gruseligkeit lösen.
Wir müssen m. E. fragen, was diese Entwicklung mit uns macht: Sind wir frustriert, weil eine Maschine unsere Arbeit fast genauso gut hinkriegt (schon damals die Debatten um die Bot-generierten Artikel waren nicht von besonders viel Willkommensfreude geprägt) – was heißt das für die Motivation aller Kollegen? Sind wir robust genug aufgestellt, um täglich X Artikel auf Herz und Nieren zu prüfen und die Spreu vom Weizen zu trennen? Ist das überhaupt noch ein Weg/eine Option auf Herz und Nieren prüfen zu wollen, wenn wir in der Prüfarbeit zu ersaufen drohen?
Und was macht die Entwicklung mit denen da draußen? Bisher verlassen sich die Leute auf die Informationen in der WP, weil unsere Texte als von Menschen gemacht und geprüft gelten/angesehen werden. Was passiert, wenn wir keine klare Haltung entwickeln: Fragen sich die Leute dann nicht früher oder später und eigentlich jedes Mal, ob sie nicht doch nur etwas aufgemotzen KI-Kram zu sehen bekommen - von dem man bekanntlich nicht weiß, ob er inhaltlich auch stimmt? Wikipedia, das Bollwerk des verläßlichen Wissens schleichend ausgehöhlt von halluzinierender KI? :))
"KI-Artikel sind hier verboten!" hält nichts und niemanden (ok, ein paar vielleicht) davon ab, uns genau das trotzdem vor die Haustür zu legen (gleicher Fall: Werbung). Aber es ist wenigstens eine klare Ansage nach innen und nach außen, daß wir zu unserem Projekt und seinen nicht selten furchtbar mühsamen Wegen von Wissenserwerb und -generierung stehen. --Henriette (Diskussion) 16:57, 16. Jun. 2023 (CEST)Beantworten
Sind wir robust genug aufgestellt? Wenn nicht, könnten wir die Anlage neuer Artikel solchen Accounts vorbehalten, die einen gewissen Status erreicht haben (automatisch bestätigt oder passiver Sichter oder so), oder fordern, dass Artikel erst im BNR eingerichtet werden müssen und nur von vertrauenswürdigen Benutzern in den ANR verschoben werden dürfen.
Was passiert, wenn wir keine klare Haltung entwickeln? Die Frage ist Makulatur, denn wir haben eine klare Haltung: WP:BLG. Die Frage hier ist, ob wir das in ein generelles KI-Verbot übersetzen („KI-generierte Texte verstoßen grundsätzlich gegen WP:BLG“) oder eben nicht. --Sabrieleauftistik (Diskussion) 18:35, 16. Jun. 2023 (CEST)Beantworten
Meiner Meinung nach haben wir zwei Probleme:
1. Wie erkennen wir KI-Artikel?
dafür siehe beispielsweise Wikipedia:Digitaler_Themenstammtisch#73._DTS,_2._Mai_2023:_„Wer_hat's_geschrieben?_Mensch_oder_Maschine?“, insbesondere drittletzter Absatz: „Dabei besteht aber keine Gewähr für inhaltliche Richtigkeit, denn dafür sind die derzeitig verfügbaren Demo-Versionen nicht programmiert worden. Sie produzieren in den meisten Fällen Unsinn und eignen sich deshalb nicht zum Erstellen von Texten, bei denen es gerade auf deren inhaltliche Korrektheit ankommt, wie beispielsweise enzyklopädische Artikel oder wissenschaftliche Beiträge, aber auch journalistische Beiträge.“
2. Wie gehen wir mit solchen Artikeln um? QS, normale Löschdiskussion (und vermeiden, dass diese Stellen überlastet werden), oder in BNR beispielsweise Benutzer:KI dafür anlegen (wo jeder, der mag, sie ohne Zeitdruck berichtigen kann), oder SLA.
Dafür wäre dann wieder ein Verbot ein Grundlage, weil bisher Quellenlose neue Artikel kein SLA sind. Verworrende Artikel dagegen schon.
Oder Regel: KI-Artikel sind verboten. Artikel, die nach Meinung zweier Admins (oder Sichter) KI erzeugt sind, können schnellgelöscht werden. Ggf. nach den bisherigen Erfahrungen: Artikel, deren Quellen sich nicht nachvollziehen lassen (keine url und keine ISBN für Literatur) und nach Meinung zweier Admins (bzw. Sichter)...
Mit ISBN wäre ja zumindest nachvollziehbar, ob es die Quelle gibt. --Nordprinz (Diskussion) 13:39, 17. Jun. 2023 (CEST)Beantworten
ChatGPT erfindet dir, wenn du es darum bittest, ohne mit der Wimper zu zucken Literaturangaben mit fiktiven ISBN oder DOI... aber da kann man dann immerhin überprüfen, ob es das gibt. Aber auch bei existierender Literatur ist zu prüfen, ob sie überhaupt belegt, was sie vorgibt zu belegen. Gestumblindi 14:18, 17. Jun. 2023 (CEST)Beantworten
Man braucht keine ISBN, um eine Literaturangabe zu überprüfen: Es reichen Autor, (Kurz-)Titel, Ort und Jahr, bzw. ist das sowieso deutlich zuverlässiger. Ich weiß auch gar nicht, wie oft ich schon von falsch angegebenen ISBNs in die Irre geführt wurde (nicht selten hatte ich dabei den Verdacht, daß die nicht aus der Publikation entnommen, sondern schlicht ergoogelt wurden - so gerät man dann gern mal an eine Seite, die eine falsche ISBN angibt). --Henriette (Diskussion) 15:39, 17. Jun. 2023 (CEST)Beantworten
Das ist richtig. Nur umgekehrt: wenn eine ISBN angegeben ist, und diese stimmt zum Buch, dann steht zumindest fest, dass das Buch existiert. Ob das Buch wirklich Artikelinhalt behandelt, ist dann natürlich noch nicht sicher. Aber das wäre zumindest ein Pluspunkt für den Artikel. --Nordprinz (Diskussion) 15:47, 17. Jun. 2023 (CEST)Beantworten
Wenn Du das Buch in einem Bibliotheks-OPAC oder in der DNB findest (geht puppeneinfach über den KVK), dann weißt Du absolut sicher, daß es existiert. Bibliothekare verzeichnen keine Bücher, die sie nicht in der Hand gehalten und im Regal oder Magazin stehen haben ;) Plus: Nicht selten wirst Du in einem OPAC (oder der DNB) auch einen Scan vom Inhaltsverzeichnis finden: Das gibt gute Anhaltspunkte, ob die Lit.-Angabe nur hinzufabuliert wurde oder wenigstens plausibel ist. --Henriette (Diskussion) 17:12, 17. Jun. 2023 (CEST)Beantworten
Ich habe mal ChatGPT selbst gefragt:
Frage: Was meinst Du, kann man Deine Antworten für Wikipedia verwenden?
Antwort: Als KI-Modell kann ich Ihnen keine direkte Erlaubnis zur Verwendung meiner Antworten für Wikipedia oder andere Quellen geben. Der Inhalt, den ich generiere, basiert auf einem Zusammenspiel von vorgefertigten Informationen und der Generierung neuer Sätze basierend auf meinem Modelltraining.
Wenn Sie Informationen aus meinen Antworten für Wikipedia oder andere Quellen verwenden möchten, empfehle ich Ihnen, diese Informationen sorgfältig zu überprüfen und mit anderen vertrauenswürdigen Quellen zu vergleichen, um sicherzustellen, dass sie korrekt und aktuell sind. Es ist wichtig, dass Informationen in enzyklopädischen Werken wie Wikipedia auf verlässlichen Quellen und einem angemessenen wissenschaftlichen Standard basieren.
Für Wikipedia ist es auch wichtig, dass Sie die Richtlinien und Anforderungen der Plattform für das Zitieren von Quellen und das Verfassen von Inhalten einhalten. Es wird empfohlen, auf primäre und sekundäre Quellen zu verweisen und die Informationen entsprechend zu verifizieren.
Letztendlich liegt es in Ihrer Verantwortung als Autor, die Richtigkeit und Angemessenheit der Informationen zu überprüfen, die Sie in Ihrem Artikel verwenden möchten.
Das lese ich so, dass ChatGPT selbst davon abrät, Wikipedia-Artikel durch ChatGPT schreiben zu lassen. Gruß -- 87.165.52.215 00:12, 18. Jun. 2023 (CEST)Beantworten
„Wikipedia oder andere Quellen“, genau, WP:WPIKQ. --Sabrieleauftistik (Diskussion) 11:54, 18. Jun. 2023 (CEST)Beantworten
Umgekehrt hat mir schon jemand berichtet, er habe ChatGPT gebeten, ihm für Thema X einen Wikipedia-Artikel zu schreiben, und das wurde gemacht. Zum Glück war das ein Experiment. (Hab selbst mir noch keinen Zugang eingerichtet.) --Nordprinz (Diskussion) 21:51, 18. Jun. 2023 (CEST)Beantworten
Da ich einen Zugang zu ChatGPT gefunden habe, wo man keine Mailadresse und Handy-Nr. eingeben musste, hab ich den Bot einige Fragen gestellt. Die erschreckenden Antworten auf Benutzer:Nordprinz/Test ChatGPT. Alle Fragen hab ich innerhalb von 10 Minuten gestellt.--Nordprinz (Diskussion) 12:20, 19. Jun. 2023 (CEST)Beantworten
Oh, sehr interessantes Beispiel, Danke :)
Aber ich will jetzt mal den advocatus diaboli a la Sabrieleauftistik geben (weil sie/er gute Fragen gestellt und Hinweise gegeben hatte): Nordprinz, ich denke wir sind uns einig, daß alle ChatGPT-Fehler in deinem Beispiel auch genau so von einem Menschen hätten gemacht werden können, der nur husch-husch ein bisschen "im Internet" nachschaut, halbwegs unkritisch ein paar Informationen einsammelt (= ohne zu checken, ob es auch andere Aussagen dazu gibt) und dann daraus einen Text bastelt.
Jetzt die 1.000-Dollar-Frage ;) Hätte diesen Text ein Kollege mit einem WP-Account geschrieben (egal, ob frisch eröffnet oder 3 Wochen alt): Wie genau wäre jede einzelne Aussage in diesem Text geprüft worden? Von Dir natürlich ganz genau, weil Du dich offenbar sehr gut in diesem Thema auskennst und ein Interesse daran hast; aber das tut ja nicht jede/r (ich z. B. hab Null Ahnung von Fußball egalwann und egalwo :)) Wie sieht das z. B. in der Eingangskontrolle aus: Wie kritisch und genau wird da hingesehen? --Henriette (Diskussion) 12:44, 19. Jun. 2023 (CEST)Beantworten
Bei dem Spiel hatte ich noch in Erinnerung, wie ich als Kind den Radiobericht darüber gehört hab und eben, dass Borussia sein Heimspiel in fremden Stadion spielte. Den Rest hab ich dann auch recherchiert. Aber Du hast Recht. Bei diesem Artikel mit Link zum Kicker- oder Sportschau-Archiv würde wahrscheinlich nur geprüft, dass die beiden Gegner und das Ergebnis stimmen. Die Torschützen würde ich im Detail auch eher nicht prüfen.
Aber umgekehrt: wenn jemand schon das Kicker-Archiv hat, um den Artikel zu schreiben (Relevanz mal unterstellt), dann hat er auch die richtigen Torschützen. Vandalismus natürlich nicht ausgeschlossen. --Nordprinz (Diskussion) 13:26, 19. Jun. 2023 (CEST)Beantworten
Mich überzeugt die Argumentation nicht, dass wir KI-Texte eben inhaltlich prüfen müssen wie andere Texte. Mit ChatGPT erzeugte Texte weisen nicht zufällig mal Mängel auf, sie erzeugen diese systematisch. Und das Programm ist meisterhaft daran, diese zu glätten und zu kaschieren. Inhaltlich ist keinem so erzeugtem Text zu trauen, er mag hin und wieder inhaltlich korrekt sein, das weiß man aber immer erst hinterher. Lassen wir solche Artikel zu, wird die inhaltliche Basis unserer Artikelarbeit zerstört, und zwar irreparabel. Der Aufwand, diese Texte zu prüfen und zu berichtigen, ist schlicht größer, als den gesamten Text zu löschen und bei Null neu anzufangen. Sobald der Artikelbestand über eine bestimmte Schwelle hinaus korrumpiert ist, wird das zur Sisyphusarbeit, für die Niemand seine Freizeit opfern wird. Der Schaden wird dadurch um ein Vielfaches größer, dass es den Texten nur schwer anzusehen ist, dass sie falsch sind. Zudem sind die Fehler zufällig und an unauffälliger Stelle (Unterschied zu den Artikeln im IK, da weiß man, wo man ansetzen muss). Lösung könnte sein, in die Funktionsseiten reinzuschreiben, dass die undeklarierte Verwendung von ChatGPT ein Löschgrund ist. Das Programm darf dann noch eingesetzt werden, wenn der Benutzer das so angibt. Das Verwenden bei der Artikelanlage wäre handhabbar wie beim Schreiben im IK: Einmal Verwarnen, danach ggf. sperren. Damit würde die Nachfrage auf der Benutzerdiskussionsseite ausreichen: Hast Du ChatGPT verwendet? Genauso, wie wir jetzt schon fragen: Wurdest Du bezahlt oder beauftragt? Für die Artikel sollte nachgewiesene undeklarierte Verwendung ein Schnelllöschgrund sein. Genau dafür gibt´s die Widerspruchsmöglichkeit. Es macht aber einen Unterschied, wenn jemand danach explizit sagen müsste, er habe ChatGPT nicht verwendet. Wenn wir das anders handhaben, wird unser schon jetzt knirschendes System der Wartung und Qualitätssicherung schlicht kollabieren.--Meloe (Diskussion) 10:20, 20. Jun. 2023 (CEST)Beantworten
Das setzt voraus, dass es eine einfachere Methode gibt, KI-generierte Texte nachzuweisen, als „diese Texte zu prüfen“ (was, wie du richtig schreibst, sehr aufwändig sein kann). (Sollte die Prüfung Mängel ergeben, sollte man sich Teil zwei des Aufwändigen, das Berichtigen, unbedingt schenken können, also: löschen). Das ist eines der Probleme, die ich mit der Pro-Verbots-Argumentation habe (siehe oben): Im Zweifel erkennt man solche Artikel darüber, dass man in ihnen Mängel findet, die an sich (bei strenger Regelauslegung) schon Löschgrund wären, ob KI-generiert oder nicht. Mit anderen Worten, wollen wir KI-Halluzinationen überhaupt anders behandeln als menschliche Quellenfiktion oder ist das Problem nicht vielmehr, dass wir bei Letzterer zu nachsichtig sind? Ich erinnere daran, wie lange es trotz immer wieder nachgewiesener Quellenfälschungen gedauert hat, sich auf einen Projektausschluss von Friedjof zu einigen. So einen können wir für ChatGPT natürlich auch aussprechen. --Sabrieleauftistik (Diskussion) 21:16, 20. Jun. 2023 (CEST)Beantworten
Das Friedjof-Beispiel finde ich hilfreich. Ggf. kann man darüber nachdenken, bei KI-Artikeln die gleiche Arbeitsweise zu nutzten: Verschieben und löschen, wenn kein Benutzer der Artikel adoptiert und die Qualität sicherstellt.--Karsten11 (Diskussion) 21:42, 20. Jun. 2023 (CEST)Beantworten
M.E. ist die Deklarationspflicht entscheidend. Wenn es eine Regel und dann den Verdacht gibt (wodurch auch immer) kann es eine Rückfrage geben: Wurde KI verwendet? Dann ist der anlegende Benutzer in der Pflicht. Er kann abstreiten. Wenn der Verdacht dann öfter kommt, könnte der Account irgendwann wegen der Falschaussage per Indizienbeweis stillgelegt werden. Das entspricht in etwa der Regelung beim bezahlten Schreiben, das auch bestritten werden kann, was aber beim Verdacht in Serie immer unglaubwürdiger wird. Da damit immer ein Account verbrannt wäre, dürfte das von Massenanlagen abschrecken. In der VM läuft das gewöhnlich unter "Ententest".--Meloe (Diskussion) 15:47, 21. Jun. 2023 (CEST)Beantworten
Kann man auch machen. Wenn ein Account durch wiederholte Unstimmigkeiten bei Quellen auffällt, ist schon das ein Sperrgrund. Natürlich sucht man vorher die Kommunikation. In dem Fall sollte der Account sich zu seiner Verteidigung aber nicht auf „Ich benutze ChatGPT“ berufen dürfen. Wer Hilfsmittel beim Artikelschreiben benutzt (und dazu zählen letztendlich ja auch solche, die ganze Artikel automatisch schreiben, sofern erlaubt), der ist in der Pflicht, dafür zu sorgen, dass die Artikelqualität darunter nicht leidet. --Sabrieleauftistik (Diskussion) 17:18, 21. Jun. 2023 (CEST)Beantworten

Handlungsbedarf sehe ich vor allem in einer Änderung unserer Regeln für Quellen und Belege. Die Wikipedia ist seit ihrem Anfang zu internetlastig und -gläubig. Das ist zwar völlig verständlich, aber hätten wir mehr Wert auf analoges, also beispielsweise gedrucktes Material gelegt, wären wir nun in einer sicheren Situation. Aber das bedeutet ja Bibliotheken aufzusuchen, in der Lektüre Autoren zu vergleichen und viel mehr Zeit in Artikelarbeit zu investieren. Aber das ist ja unsexy und langweilig und für das Verständnis vieler Autoren der hektisch, aufgeregten Art viel zu langsam, denn wiki soll ja angeblich schnell sein bedeuten, was aber meist falsch verstanden wird. Mit Enzyklopädie und Ernsthaftigkeit hat das eher nichts zu tun. Man muss Henriette Fiebig, die das weiter oben auch schon anmerkte, in der Hinsicht Recht geben. --Schlesinger schreib! 11:17, 20. Jun. 2023 (CEST)Beantworten

Vor einer Änderung wäre es schon nützlich, wenn bestehende Regeln (zu denen die Belegpflicht für nicht-triviale Inhalte gehört) einfach angewendet würden. Ich habe nie verstanden, warum es statthaft ist, quasi jede Aussage in einem Artikel mit Verweis auf die Belegpflicht zu entfernen, dies aber für ganze Artikel nicht gelten soll, die auch völlig ohne jeden Beleg, weil "relevant" und "gültiger Stub", behalten werden müssen.--Meloe (Diskussion) 11:35, 20. Jun. 2023 (CEST)Beantworten
Apropos: Die Ausrufe "gültiger Stub!" und "relevant!" wurden jahrelang immer von recht meinungsstarken und lauten Accounts im Brustton der Überzeugung gebracht, um nicht für ihre "relevanten Stubs" recherchieren zu müssen, da waren andere dinge wichtiger. Schließlich ging es in den Löschdiskussionen damals weniger um Substanz, sondern mehr um den argumentativen Diskussionserfolg. Ist aber schon besser geworden. --Schlesinger schreib! 12:26, 20. Jun. 2023 (CEST) :-)Beantworten

Hallo lieber Karsten! Herzlichen Dank für diesen Thread, dessen Konsquenzen wir nicht aus den Augen verlieren sollten. Grundsätzlich haben wir uns in de:WP schon vor lange Zeit gegen maschinengenerierte Artikel entschieden, als es um die automatischen Übersetzungen ging, die einigen Sprachversionen zu einem breiteren Basiscontent verholfen haben. Googleübersetzungen, die stückchenweise von einzelnen Usern in de:WP eingereicht werden kennen wir in unterschiedlichster Qualität. Es ist erwartbar, das KI-Artikel in Wikipedia einen Anteil am künftigen Zuwachs haben. Allerdings fürchte ich, dass diese Artikel so gut sein werden, dass sie nicht mehr ohne weiteres als Maschinenübersetzung und sonstwie entstande Komposition erkennbar ist. Auch die Thematik des Plagiats schwingt dabei beiläufig mit, denn solange Maschinen woanders "abschreiben" sollte es als Plagiatat betrachtet werden sofern nicht entsprechend gekennzeichnet. Ich sehe unterm Strich mehr Gründe KI-Artikel außen vor zu halten als diese zu begrüßen. Man mag mich korrigieren. LG --Tom (Diskussion) 14:35, 22. Jun. 2023 (CEST)Beantworten

Eines der Probleme mit ChatGPT ist ja, zumindest aktuell, dass es eben nicht "abschreibt" (das wäre ja abgesehen von etwaigen urheberrechtlichen Problemen fast noch zu begrüssen, immerhin würde es dann eine nachvollziehbare Grundlage für die Inhalte geben!), sondern oft erfindet - dass es Texte nach Wahrscheinlichkeiten generiert, deren Inhalte stimmen können oder auch nicht. Diese können dann oberflächlich sehr "gut" aussehen, aber wir haben keine Ahnung, was stimmt. Gestumblindi 14:40, 22. Jun. 2023 (CEST)Beantworten
siehe meinen Text oben: Wenn in einem Fußballspiele fünf Spieler (mindestens ein) Tor schiessen, der Bot davon einen Spieler nennt, dann aber vier Spieler als Torschützen, die kein Tor geschossen haben (davon einer, der noch nicht einmal in dem Jahr bei dem Verein spielte) und die vier fehlenden echten Torschützen nicht erwähnt, welche Note würde das als Scbulaufsatz bekommen?
Und dass diese Fehler bei den Torschützen in irgendeinem Artikel steht, wo der Bot abschreiben kann, glaube ich auch nicht. --Nordprinz (Diskussion) 14:50, 22. Jun. 2023 (CEST)Beantworten
@Gestumblindi das reinste Horrorszenario. Wir schaffen so schon die Eingangskontrolle nicht. Wir müssten schön "behämmert" sein uns auf toll gemachte nach unbekannten Wahrscheinlichkeiten erfundene Artikel einzulassen! Andersrum könnte man die KIs damit beauftragen die bisherigen Artikel zu überprüfen und auf den jeweiligen Diskussionsseiten Verbesserungsvorschläge (incl. Belegangaben) zu hinterlassen. Das könnte man dann als Fortschritt begrüßen. --Tom (Diskussion) 15:11, 22. Jun. 2023 (CEST)Beantworten
Ich sehe ChatGPT bei der Artikelarbeit als ein Werkzeug. Artikelautor ist und bleibt der Mensch, der das dann eingestellt hat. Die Verwendung des Werkzeugs generell zu verbieten halte ich weder für sinnvoll noch für praktikabel. Wir verbieten ja auch nicht Maschinenübersetzungen. Wenn aber ein Benutzer eine sinnentstellende Maschinenübersetzung in einen Artikel einfügt, kann er sich damit nicht herausreden, da er eben verpflichtet ist, nachzuarbeiten und zu prüfen. Wer wiederholt so arbeitet und ganze maschinenübersetzte Artikel in Serie abliefert, wird irgendwann gesperrt, jetzt schon. Das Hauptproblem mit ChatGPT-Artikeln ist, dass sie auf Anhieb weniger leicht erkennbar sind. Dehalb mein Plädoyer, dass ihre Verwendung bei der Artikelarbeit zwingend angegeben werden muss und dass ein Verstoß gegen die Deklaration Grund genug für Sanktionen wäre, ohne die dadurch gemachten Fehler dann noch jeweils im Detail nachweisen zu müssen. Solange es noch geht, würde ich die Bearbeitungen schlicht pauschal zurücksetzen, entsprechend erstellte Artikel unter Quarantäne stellen, ersatzweise gleich löschen. ChatGPT selbst hat ja keine Ambitionen als Wikipedia-Autor.--Meloe (Diskussion) 08:53, 23. Jun. 2023 (CEST)Beantworten

Zwischenfazit

[Quelltext bearbeiten]

Ganz herzlichen Dank für die vielen, konstruktiven und durchaus auch kontroversen Beiträge. Ich sehe verschiedene Grundrichtungen der Diskussion, die ich wie folgt einmal zusammenfassen würde:

  1. Es besteht kein Handlungsbedarf. KI-Generierte Texte sind unproblematisch, sofern sie richtig sind. Zentrale Regel in Bezug auf die Richtigkeit ist WP:Q. Ein KI-Generierter Text ohne Quellen wird genauso behandelt wir ein menschlicher Text ohne Quellen. Abgesehen davon ist es eh schwer KI-Generierte Texte zu erkennen. --> Das Regelwerk reicht daher aus.
  2. KI-Generierte Texte müssen (wie bei PE) als solche gekennzeichnet werden: KI ist ein Werkzeug wie Übersetzungsprogramme o.ä.. Das Werkzeug ist nicht per se schlecht, es muss aber offengelegt werden. Diese Offenlegung erleichtert dann auch die QS der Texte. --> Nicht deklarierte KI-Generierte Texte sind zu löschen, andere zu behalten
  3. KI-Generierte Texte sind typischerweise ohne menschliche Bearbeitung ungeeignet. Sie sind daher genauso zu behandeln wie Friedjof-Texte. --> Verschieben, wenn sie jemand adoptiert und überarbeitet ist es gut, sonst Löschung
  4. KI-Generierte Texte sind generell ungeeignet: Die Mischung aus Wahrheit und Erfindung führt zu einem untragbaren Risiko, dass trotz Überarbeitung Fehler erhalten bleiben. --> KI-Generierte Texte sind immer zu löschen.

Wenn ich das falsch zusammengefasst habe, bitte korrigieren. Ansonsten würde ich die Tage einmal eine Umfrage vorbereiten, in der wir ein Stimmungsbild erhalten, in welche Richtung die Community gehen will.--Karsten11 (Diskussion) 13:00, 23. Jun. 2023 (CEST)Beantworten

Danke, ich denke, das fasst die verschiedenen Positionen ganz gut zusammen. Was man bei der Übertragung in eine Umfrage bedenken sollte, ist aber, dass 1 und 2 miteinander kompatibel sind (im Sinne von: KI-generierte Texte sind unproblematisch, sofern sie richtig sind, aber schwer zu erkennen, daher sollte Deklarationspflicht bestehen) und auch 1 und 3 sich nicht unbedingt ausschließen (KI-generierte Texte sind unproblematisch, sofern sie richtig sind; das sind sie aber meistens nicht, also sind sie typischerweise ohne menschliche Bearbeitung ungeeignet). Eventuell müsste man also Mehrfachstimmen zulassen. --Sabrieleauftistik (Diskussion) 15:17, 23. Jun. 2023 (CEST)Beantworten
Kurzfeedback: 1 & 2 kann man als Zusammenfassung stehen lassen. So pointiert es die Problematik eher. 3 krankt am Nachweisproblem, was auch logisch ist. 4 verweist auf die Tragik der Situation: Wir können es kaum noch erkennen. Grüße --Tom (Diskussion) 20:32, 23. Jun. 2023 (CEST)Beantworten

Ich habe einen Entwurf einer Umfrage unter Wikipedia:Umfragen/KI-generierte Artikel erstellt.--Karsten11 (Diskussion) 17:29, 26. Jun. 2023 (CEST)Beantworten

Ich finde die Zusammenfassung auch treffend. Meine eigene Position würde ich irgendwo zwischen 3 und 4 einordnen. Gestumblindi 16:06, 30. Jun. 2023 (CEST)Beantworten

Überprüfbarkeit

[Quelltext bearbeiten]

Also, hab es eben nachgeprüft, zumindest antwortet ChatGPT korrekt auf die Frage, ob er einen Textausschnitt verfasst hat. Solange fast nur ChatGPT für KIA verwendet wird, ist das Überprüfen per Copy & Paste machbar. --Ghilt (Diskussion) 17:33, 16. Jun. 2023 (CEST)Beantworten

Aber wirklich verlassen können wir uns darauf natürlich nicht. --Rufus46 17:38, 16. Jun. 2023 (CEST)Beantworten
Ich glaube auch nicht daran, dass das technisch funktioniert. Da sich ChatGPT ja meine früheren Fragen merkt und daraus lernt, bekomme ich andere Texte als Du. Und wenn mir der Text nicht gefällt und ich ihn mir nochmal ausgeben lasse, ist er anders. ChatGPT müsste sich alle jemals ausgegeben Texte merken um die Frage richtig zu beantworten.--Karsten11 (Diskussion) 18:33, 16. Jun. 2023 (CEST)Beantworten
(sozusagen BK) Nee, das ist hier schon mal angesprochen worden. Zitat Mathias Schindler: „Ein Large Language Model wie ChatGPT ist nicht in der Lage, eine verlässliche Antwort zu liefern, wenn man einen bestimmten Text cut and pasted und dann in den Prompt dazufügt ‚Hast du das geschrieben?‘.“ --Sabrieleauftistik (Diskussion) 18:35, 16. Jun. 2023 (CEST)Beantworten

Einzelnachweise durch künstlich erstellte Quellen

[Quelltext bearbeiten]

Mir fallen auch zunehmend Einzelnachweise auf, die auf künstlich erstellte Quellen verlinken. Der zweite Einzelnachweis im Artikel Georg Báthory zum Beispiel verweist auf www.trenfo.com. Dabei handelt es sich um eine anonym registrierte Domain und Webseite ohne Impressum. Sämtliche Texte dort werden automatisiert und maschinell erzeugt. Ein weiteres Beispiel für www.trenfo.com findet sich beim ersten Einzelnachweis im Artikel Edward John Smith. Es ist seltsam, dass anscheinend nicht auffällt, um was für eine Webseite es sich dabei handelt, obwohl es doch so offensichtlich ist. --JasN (Diskussion) 23:31, 14. Jul. 2023 (CEST)Beantworten

trenfo.com wird sogar in fünf Artikeln verwendet. Es ist leider nicht ungewöhnlich, dass Leute als "Belege" für Artikel einfach irgendwas nehmen, das sich ergooglen lässt, ohne auf die Qualität zu achten. Dabei ist das Phänomen Content Farm nicht neu. Auch von Menschen geschriebene Texte auf solchen Websites sind typischerweise keine geeigneten Belege, da es dabei nur darum geht, in grossen Mengen irgendwelches plausibel erscheinendes Blabla zu erstellen, das korrekt sein kann oder auch nicht, um mit Werbeeinnahmen Geld zu machen. Mit KI-Textgeneratoren haben es die Contentfarmen nun halt noch einfacher. Gestumblindi 13:48, 15. Jul. 2023 (CEST)Beantworten

noch ein Experiment

[Quelltext bearbeiten]

@Gestumblindi: zur SLA kam ich auf die Idee, ChatGPT zu bitten, mir einen Artikel zu belgischen Fußballspieler Joachim Van Damme zu schreiben. Nach Abgleich mit Kicker und Transfermarkt war an dem Entwurf immer hin schon mal ein Satz brauchbar: Joachim Van Damme ist ein belgischer Fußballspieler. Selbst das Geburtsdatum stimmt nicht. Alle drei Vereine, wo er gespielt haben soll, hat er nie gespielt. Seine echten Vereine wurden nicht erwähnt. Er wurde entgegen ChatGpT nie Fussballer des Jahres.

Nein, ich schreib den Artikel doch lieber selbst.

Und komm bitte auch nie auf die Idee, ChatGPT nach der Weserquelle zu fragen. Die liegt abwechselnd im Teutoburger Wald und im Fichtelgebirge. --Nordprinz (Diskussion) 14:37, 24. Aug. 2023 (CEST)Beantworten

Verdächtige Beiträge

[Quelltext bearbeiten]

@Karsten11: Schau dir mal Spezial:Beiträge/Everlast771 und vor allem auch seine Antworten auf Benutzer Diskussion:Everlast771 an. Kommt dir der "Sound" vor allem bei seinen längeren Antworten auch irgendwie... bekannt vor? Vielleicht ist mein Eindruck ja ganz falsch. Ich habe einfach mal direkt nachgefragt. Gestumblindi 15:06, 6. Apr. 2024 (CEST)Beantworten

Das da kann man wohl als Eingeständnis werten und Seewolf hat ihn gerade mit der Begründung "Massenedits per KI" gesperrt. Gestumblindi 15:33, 6. Apr. 2024 (CEST)Beantworten
PS: Statt ihn gleich zu sperren, hätte ich ihm nun vielleicht zunächst geantwortet, dass wir ihn zwar nicht daran hindern können, Diskussionsbeiträge mit KI-Unterstützung zu verfassen, KI-Edits im ANR aber unerwünscht sind, und er diese bitte unterlassen solle... aber soll mir auch recht sein. Gestumblindi 15:38, 6. Apr. 2024 (CEST)Beantworten
Die Edits waren ja teilweise auch schlichtweg falsch und offenbar nicht durch eine Intelligenz überprüft. Bei den meisten wurde einfach eine längliche Zusammenfassungszeile generiert, die überhaupt keinen Bezug zum Edit hatte. Die eigentliche Absicht des Accounts scheint in den menschengemachten Edits von Januar und Februar durch. --Seewolf (Diskussion) 15:56, 6. Apr. 2024 (CEST)Beantworten