Diese Seite dient der Vorbereitung einer möglichst ergebnisoffenen Umfrage zum KI-Einsatz. Ob und wie die Ergebnisse dann in Regeln dann aufgegriffen werden ist nicht Gegenstand hier. Im Projekt KI und Wikipedia wird dazu an Empfehlungen gearbeitet, die dort diskutiert werden können.
(Die 16 Ablehnungen der Umfrage sind vielfältg begründet, einige haben auch abgestimmt. Da es kein Meinungsbild ist (einige dachten das trotz der klaren Kennzeichnung), sind diese auch nicht wie bei MB zu sehen. Die Zusatzfrage nach der Dauer der Existenz der Wikipedia ist wie beim Zukunftskongress nur schwer zu beantworten, aber spannend zu lesen).
Was ist deutlich?
Das Bedürfnis, KI zu regeln, dominiert (nur noch 4% für keine extra Regeln)
Die Regeln sollten auf einer eigenen Funktionsseite erarbeitet und dargestellt werden (86% dafür)
Wer KI regelkonform als Werkzeug einsetzt (verantwortungsvolle Nutzung) sollte dies deklarieren müssen (67% dafür). Aber Achtung: wenn man KI generell verbietet, würde das ggf. unsinnig. Es wäre nur dann sinnvoll, wenn man verbietet, das unkontrollierte Beiträge eingestellt werden und ein Freiraum für die Nutzung als Werkzeug besteht.
Beispiel: ich nutze ChatGPT 5 als Werkzeug für Recherchen und Orientierung. Das hat die Qualität eines sehr guten Hilfsassistenten erreicht - der aber noch irrt. Was ich rausstelle, ist nach allen Regeln der Kunst geprüft, in eigene Formulierungen und meinen "Stil" übersetzt. Ich würde dies freiwillig deklarieren - dies ungern "heimlich" tun.
Die "Gretchenfrage":
KI ausdrücklich zu verbieten hat noch eine relative Mehrheit (47,5%, das war 2023 noch absolut)
Die Weiterentwicklung aus der Praxis bei uns alleine (Frage 1.2) und mit Bezug auf "Humans First" der Foundation (Frage 1.4) zusammen beachtliche Zustimmung erfahren (43.5%), wobei die Mehrheit dort (35,7%) für die Anlehnung an die Strategie "Humans First" der Foundation votierte.
Wir müssen besprechen, wie ein mögliches Verbot konkret ausgestaltet werden sollte:
Was genau umfasst es (nur Beiträge oder auch KI-generierte Diskussionen und „Argumentationen“)?
Welcher Nachweis ist notwendig und ausreichend?
Wann soll gelöscht oder gesperrt werden (damit keine neue „Jagdgesellschaft“ entsteht)?
Soll es die Möglichkeit einer „Rettung“ geben (wie heute bei den Masseneinstellern)? Das würde allerdings Ressourcen erfordern, die wir im Moment nicht haben.
Einspruch! Was soll das denn jetzt, Wortulo? Jetzt wertet schon der Initiator dieser Umfrage, der seit Monaten für KI trommelt, was die Tastatur hergibt, die Umfrage aus? Meinst du nicht, dass du als Initatior und Starter von von zig kilometerlangen Diskussionen auf unzähligen Diskussions- und Funktionsseiten der letzte bist, der diese Auswertung vornehmen sollte? Wenn die ganze Befragung nur dazu diente, dass am Ende du die Auswertung vornimmst, du die argumentativen Pfosten einrammst, du Narrative und Spin setzt und du damit doch wieder die Meinungshoheit an dich reißt, wie das Ergebnis zu deuten ist, wie du es bei dem Thema auch schon vor Beginn der Umfrage überall versucht hast, dann hätten wir es auch lassen können. Das meinst du doch wohl nicht ernst!
Ich fordere eine unabhängige Auswertung, am besten durch jemanden, der nicht abgestimmt hat und im Optimalfall diese "Auswertung" durch den Ersteller gar nicht erst gelesen hat (falls möglich). Andol (Diskussion) 00:51, 12. Sep. 2025 (CEST)Beantworten
Manchmal denke ich, das sind wir (als System, nicht ad Personam)Hä?!?!? Das ist kein Meinungsbild - es gibt ne Menge Umfragen, die niemand ausgewertet hat. Dafür habe ich dann doch zu viel reingesteckt und wir müssen was tun - da sind sich die meisten scheinbar sogar einig.
Das kann wie im Sandkasten weiterlaufen oder die "Lager" finden Kompromisse. Also: hab ich mich verzählt (darüber gehen Auswertungen von MB nicht hinaus) oder welche Fakten und Schlussfolgerungen sind falsch oder wo gehst Du nicht mit? Sollen andere Deinen Quasi-PA inhaltlich fortführen? Eine "Meinungshoheit" habe und beanspruche ich nicht wirklich. Wie Du in Energiefragen habe ich aber eine Meinung und sage die auch engagiert ;-)
Wir sind schon manchmal ein seltsamer Haufen, was auch den Reiz hier für mich ausmacht :-)
Gut, dass wir drüber sprechen. Denn die Zeit arbeitet gegen uns, KI wird immer besser, Müll schwerer erkennbar oder irgendwann sogar weniger. Es bleibt dann übrig, dass wir unser Hobby und unsere Werte verlieren können. Ich werde die Interpretation aber als meine und Einstieg kennzeichnen. Schönen Tag --Wortulo (Disk. * KI-Projekt) 07:42, 12. Sep. 2025 (CEST)Beantworten
Es geht einfach ums Prinzip. Du als Initiator mit einem massiven IK bei dem Thema solltest diese Umfrage einfach nicht auswerten. Das gebietet schon der gesunde Menschenverstand und der Respekt vor den Meinungen anderer Autoren. Und ob die Umfrage gestern, heute oder morgen ausgewertet wird, ist wurscht. Das ist kein Fall von akutem Vandalismus in einem hochfrequentierten Artikel, der sofort bereinigt werden muss, sondern was, wo man durchaus mal eine oder zwei Nächte darüber schlafen kann. Und dass du neutralen Auswertern nicht mal diese kurze Zeit zugestehen kannst, weil dir dein Anliegen so sehr auf den Nägeln brennt, ist ein weiteres Argument, dass du die Auswertung nicht durchführen solltest. Andol (Diskussion) 20:14, 12. Sep. 2025 (CEST)Beantworten
Nun nochmal ganz in Ruhe:
Zeige mir mal irgendeine Umfrage, die von einem Dritten ausgewertet wurde oder ausgewertet werden muss (also auch eine Regel). Ich finde zumindest keine und muss dann warten, aus welcher "Position" irgendjemand zufällig das auswertet? Und meinst Du das simple Zählen oder dass ich meine gekennzeichnete Meinung gesagt habe? Nicht zu Ende gedacht, du verwechselst das mit MB, oder musst selber mal eins machen, wie Umfragen auszuwerten sind.
Dass ich einen "massiven IK" habe, ist eine Unterstellung. Ich weiss - anders als manche Aktivisten in anderen Themen (!) - selber noch nicht, was gut ist und suche noch, weil sich die Lage auch ständig ändert durch die bekanntwerdenden Fälle. Ich sehe nur, dass da was auf uns zukommt. Solange die einen einen "KI-Freak" in mir sehen, die anderen einen "KI-Verbieter", ist für mich alles gut :-) Keine Ahnung, was Du wo von mir gelesen hast oder - verzeih "nachplapperst". Da musst du schon konkreter werden, sonst bleibt das ein PA. Vielleicht kannst Du mir erklären, was ich von KI halte :-)
Angekündigtes Ziel war, dass wir bis zur WikiCon besser wissen, was wir wollen. Die ist in rund 2 Wochen. Und das eigentlich dort diskutieren. Oder aber nicht bis wenig, wie das Programm jetzt insgesamt bezüglich dieser Herausforderung aussieht (was nicht nur ich bedauere). es muss nicht nur Vandalismus sein, wenn etwas dringend ist (seltsamer Vergleich).
"Zwischendrin" (siehe Archiv der Disk) hatte sogar mal einer eine KI-Auswertung gemacht. Das wollte ich auch vermeiden ;-)
Dass das Zeit braucht, sich eine Meinung zu bilden, ist mir klar (wenn nicht mal ich eine fertige habe). Nur sind die Leute hier so leicht beeinflussbar, dass sie meine Meinung "umhaut"? Da hab ich ganz andere Erfahrungen.
Die Umfrage legitimiert erst mal nur, dass eine extra Regelseite für die KI erstellt wird. Darin kann man dann die vier angetasteten Regelgebiete wie sie derzeit in Satz 8 auf WP:Belege aufgeführt sind darlegen, die Probleme die sich für Nutzer ergeben und den Hin weis, dass es generell kritisch gesehen wird darstellen. Wenn dies etabliert wurde, kann man den Satz aus WP:Belege entfernen bzw. direkt auf die neue Regelseite verweisen. Des Weiteren dient diese Umfrage wohl als Vorbereitung für ein Meinungsbild im neuen Jahr für das Verbot von KI. Wie man das genau ausgestaltet wird man sehen, aber es eilt ja nicht, eins nach dem anderen. Wichtig ist eben, dass man es auf eine oder zwei einfache ja/nein Fragen herunterbrechen kann. Die Umfrage hatte leider ihre Stilistischen schwächen, so dass das was man aus ihr mitnehmen kann sehr beschränkt ist. Schade, Chance vertan.--Maphry (Diskussion) 20:43, 12. Sep. 2025 (CEST)Beantworten
Das ist doch ein Anfang inhaltlicher Auseinandersetzung, danke. Ob es eilt, was wir machen, hängt auch von der Sicht ab. Wenn ich die "Problemfälle" sehe, sollten wir uns nicht zu viel Zeit lassen, weil auch "gestandene" Autoren das gar nicht richtig einsehen, wieso KI nicht vertraut werden kann (frische Erfahrung - mir erklären, dass Google das doch in seiner Zusammenfassung sagt und das aus einem quellenlosen "handmade" Artikel bei uns gelernt hat).
Das mit der Regelseite wird nicht einfach - ich werde da selber aus Erfahrung aber nicht voranpreschen. Ob die Chance vertan wurde und die stilistischen Schwächen Dein Auge des Betrachters nur gesehen hat, ist auch Ansichtssache, aber so what. Ein Verbot ist schnell ausgesprochen - kommt quasi aus dem Herzen. Dem Hirn fallen da aber immer "ja, aber" ein, wenn man an die konkrete Umsetzung denkt. Und ob es für ein Verbot analog der englischsprachigen WP ein MB braucht, ob das uns erst mal hilft und schneller ginge, müsste man eben auch besprechen.
Mir wird aber klar, dass wir vor allem eine Form des Austauschses brauchen wo wir nicht mehr so aneinander vorbei reden. Ich habe aber eine Art "Etappenziel" für mich erreicht: das Projekt ist übersichtlicher strukturiert - wer will, findet relevante Info schneller und die Umfrage wurde lange versprochen und da haben übrigens eine Menge Leute sich eingebracht, auch kritisch. Am Ende hab ich natürlich entschieden. Und der Rahmen für ein "KI Cleanup" steht bei Problemfälle auch. Da ich nicht Don Quichotte heisse, kommt jetzt die Phase des revolutionären Abwartens :-) Und vielleicht nach Ulbricht "Überholen ohne Einzuholen", wenn es Besseres gibt.
Umfragen legitimieren grundsätzlich gar nichts. Der Konsens zu einer Regelseite wäre sowieso nur über den Inhalt zu erreichen, dafür braucht man diese Umfrage nicht. MBxd1 (Diskussion) 21:36, 12. Sep. 2025 (CEST)Beantworten
Wenn 2023 bereits KI generierte Inhalte unerwünscht sind und das jetzt 2025 nochmal bestätigt wurde auch wenn die Umfrage durch zahlreiche Antwortmöglichkeiten, die dann in der Auswertung wieder zusammengezählt wurden, verwässert wurde ist der Arbeitsauftrag klar. Ich als aktiver Artikelschreiber möchte ein en:Wikipedia:WikiProject AI Cleanup und keine Literatursammlung wie man KI in der Wikipedia sinnvoll einsetzen kann. Wikipedia:WikiProjekt KI und Wikipedia/Problemfälle funktioniert in meinen Augen überhaupt nicht. Dort wird alles zur zerredet und das massive Problem nur runtergespielt. Ich kann die Motivation auch überhaupt nicht verstehen den Einsatz von KI hier zu forcieren. Wer zu faul ist Quellen auszuwerten und von Hand einen Text zu schreiben oder eine Grafik zu zeichnen, der sollte vielleicht nicht an einem Enzyklopädieprojekt teilnehmen. Matthias10:24, 25. Sep. 2025 (CEST)Beantworten
@Matthias M.: Jetzt können wir das ja hier fortsetzen. Es hat niemand anders ausgewertet :-) Ich schlage vor in Ruhe weiterzumachen:
Nun Dein Beitrag (eingerückt ich):
Wenn 2023 bereits KI generierte Inhalte unerwünscht sind und das jetzt 2025 nochmal bestätigt wurde
Ungenau. 2023 wurde ein Verbot gefordert (absolute Mehrheit), auch 2025 ist die relative Mehrheit noch für ein Verbot. Ist aber Verbot = unerwünscht, was erst 2024 als Formulierung in WP:Belege eingeführt wurde? Wenn man ein klares Verbot will, muss man das genauer sagen. Das soll wie Maphry oben sagt geklärt werden. Ob das weiter "unerwünscht" bleiben soll, wollte ich tatsächlich nicht fragen, weil das ja von den Proponenten als Verbot gemeint ist.
auch wenn die Umfrage durch zahlreiche Antwortmöglichkeiten, die dann in der Auswertung wieder zusammengezählt wurden, verwässert wurde
So nicht richtig. Der aktuelle Zustand der Haltung zu KI ist nicht einheitlich, quasi ein fahrender Zug und es wurde deshalb gefragt, wo die weitere Reise hingehen soll. Zum Zeitpunkt der Umfrageerstellung sah ich 5 mögliche Wege. Oben ist nur meine Auswertung, als meine gekennzeichnet. Und das darf ich, da Umfragen laut Regeln da frei sind. Dass zwei Wege sehr ähnlich sind, ergab sich dann auch erst durch Präzisierungen danach. Jeder kann das aber anders auswerten. Dann kann man über Unterschiede reden.
Widersprüchlich. AI-Cleanup ist eben nicht „Riecht nach KI = Löschen“, wie einige wollen, sondern „KI nachgewiesen - klarer Hinweis auf mangelnde Prüfung und deshalb Risiko - deshalb löschen“, also etwas anspruchsvoller. So haben die auch ihr SLA-Kriterium durchgebracht, wir bisher keins. KI-Werkzeuge sollen den Autoren sogar beim Identifizieren und Bewerten helfen, was bei einem Totalverbot von KI zumindest unklar ist. Das ist eben, weil die „Humans First“ der Foundation näher sind. In dem Teil, der Dich am Projekt "stört", ist das dargestellt, das muss man einfach mal lesen und verstehen.
und keine Literatursammlung wie man KI in der Wikipedia sinnvoll einsetzen kann.
Das Gesamtprojekt soll auch das relevante Wissen zu KI darstellen, damit man sich eine fundierte Meinung bilden kann. Du musst das nicht lesen, es schätzen aber andere. Das Projekt ist also mehr als „Problemfälle“ (die so auch erst viel später dazukamen) und man muss KI verstehen, auch wo die Reise noch hingehen kann.
Dort sind wir uns mal voll einig. Siehe die Diskussion da über die "Kürzungen". Mein Konzept funktionierte nicht (sage ich selbstkritisch). Ich bin dort durch den "Revert" raus aus der Verantwortung und ob das neue funktioniert, ist nicht mehr mein Problem - ich werde aber meine Meinung sagen. Du musst Dich also dort einbringen statt hier und dann schauen wir mal, ob wir am Ende auch über 150 Mitarbeiter bekommen wie AI-Cleanup hat und braucht. Vielleicht braucht es auch erst mehr Konsens bei Regeln, ehe man eine "Sanktionsseite" macht (die wie gesagt erst später zum Projekt kam). Ich wollte auch mehr eine Analyseseite, wie uns KI begegnet und was die verschiedenen Benutzer und Admins da machen. Ein "KI-Jagdclub", den ich auch etwas als Gefahr sehe, ohne mich.
Ich kann die Motivation auch überhaupt nicht verstehen den Einsatz von KI hier zu forcieren.
Wer macht das denn? Mir geht es um eine realistische Auseinandersetzung mit der vorhandenen Herausforderung KI, die es gibt - ob wir wollen oder nicht (einiges fiel ja durch Problemfälle erst auf, Stichwort Masseneinstellungen durch Alt-Autoren und "Gardini-Prinzip"). Die kann man idealistisch oder realpolitisch führen. Beachte bitte auch das, wir sind nicht allein, es ist ein Problem im Wikiversum. Bei allem Respekt für Deine Meinung ist es eben nur eine. In dem Beitrag werden die Gefahren für Wikipedia mal wissenschaftlich eingeordnet. Der gemeinsame Nenner ist aber: Keiner will KI-Beiträge, die ungeprüft mit dem Risiko falsch zu sein bei uns landen.
Wer zu faul ist Quellen auszuwerten und von Hand einen Text zu schreiben oder eine Grafik zu zeichnen, der sollte vielleicht nicht an einem Enzyklopädieprojekt teilnehmen.
Ich spreche Dir diese Meinung doch nicht ab, einige denken so. Ich weiss nicht, wie alt Du bist - ob wir aber genug Autoren in Zukunft haben werden, die so denken, muss man abwägen. Die Jungen wachsen quasi mit generativer KI auf. Bleiben sollte unbedingt, dass man alle Quellen selbst finden, lesen und prüfen muss, ob das, was man als verantwortlicher Autor herausstellt, dort wirklich so drin steht und dass man auch prüft, ob es enzyklopädisch relevant ist und der Artikel frei von "Bias" ist. Da bleibt noch genug für den Menschen übrig.
Okay, dann werte ich mal kurz aus. 47,5 % votierten für ein Komplettverbot und 35,7 % für "Humans First" seitens der Wikimedia-Vorgaben, 7,8 % halten KI-Beiträge weiterhin für unerwünscht, also 47,5+35,7+7,8 = 91 % sprich: über 90 % der Teilnehmer möchten keine KI-Inhalte und 86 % möchten dafür eine extra Regelseite. Deutlicher geht es nicht. Das Experiment, Sprachmodelle nutzen um, Wikipedia zu schreiben, ist hiermit offiziell beendet. --Matthias00:07, 14. Okt. 2025 (CEST)Beantworten
Es ist eben nur eine Umfrage, insofern wurde (zum Glück) absolut nichts entschieden. Dass KI-Texte "einfach so" reingestellt werden, will imho sogar niemand - auch die 4.9% nicht unbedingt. Wenn die Mehrheit eine eigene Regelseite will, was soll da draufstehen? Ein Verbotsschild? Eine Regel, wo statt unerwünscht verboten steht, erfordert trotzdem "Durchführungsbestimmungen": Wie erkenne ich, was ist ein ausreichender Nachweis etc. Dort hakt es ja auch in "Problemfälle" des KI-Projektes, weil man das nicht irgendwie vereinheitlichen will (als Vorstufe einer Regelseite). Und Humans First, was ich selber bevorzuge, wird noch anstrengender - da können wir aber auf internationale Erfahrungen zurückgreifen. In der englischen WP machen genug Leute mit, die haben ein SLA-Kriterium durchgebracht. Ich hab auch nix gegen Vereinfachungen, aber "Vergröberungen" sollten es nicht sein. --Klaus von Wortulo (Disk.) * KI-Projekt07:03, 14. Okt. 2025 (CEST)Beantworten
Wikipedia Diskussion:Umfragen/Nutzung von Generativen KI-Chatbots für Textbeiträge in der Wikipedia