Zum Inhalt springen

Wikipedia:WikiProjekt KI und Wikipedia

aus Wikipedia, der freien Enzyklopädie
Wegweiser
Diskussion
KI Cleanup
Instrumente zur QS
KI & Texte
KI & Übersetzung
KI & Medien
Handbuch
Interesse


Visual Editor

Das Projekt befasst sich mit den Auswirkungen generativer KI (insbesondere Large Language Models) auf Arbeitsweise, Qualitätssicherung und Regelwerk der Wikipedia heute und morgen.

"Humans First" ist die Strategie der Wikimedia-Foundation
Fragen, auf die wir Antworten suchen
  • Ist eine Abgrenzung zwischen zulässiger KI-Unterstützung (im Sinne der Strategie Humans First der Foundation) und ungeeigneten Beiträgen (sogenanntem „AI slop", vgl. Projekt AI Cleanup englischsprachige Wikipedia, dt. "KI-Müll") möglich?
    • Verstehen und Einordnen: Funktionsweise, typische Risiken und die dynamische Weiterentwicklung generativer KI
    • Regeln vorbereiten und erproben: Entwicklung von Empfehlungen und Leitlinien sowie deren Erprobung. Ohne gemeinsame Begriffe und klare Regeln besteht die Gefahr, dass „KI-Konflikte“ lediglich in andere Bereiche verlagert werden.
    • Operative Praxis entwickeln: Klärung von Meldestrukturen, Umgang mit Konflikten sowie Verfahren für „KI Cleanup“.
    • Motivationsrisiken analysieren: Untersuchung der Auswirkungen auf Motivation und Beteiligung von Autorinnen und Autoren – heute und in Zukunft.
Wie du helfen kannst
  • Problemfälle oder Verdachtsfälle melden und mit prüfen im Teilprojekt: "KI Cleanup"
  • Beispiele und Erkennungsmerkmale ergänzen: "KI & Texte":
    • Vorwürfe sollten auf nachweislich unzureichend geprüfte Fälle gestützt werden, um Eskalationen und persönliche Konflikte zu vermeiden.
  • An Entwürfen für Empfehlungen und Leitlinien mitschreiben
  • Entwicklungen im Wikiversum und in anderen gesellschaftlichen Bereichen beobachten und relevante Informationen einbringen.
  • Erproben von KI-Werkzeugen als Hilfsmittel der Autoren (im Sinne der Humans-First-Strategie) und Bericht über Erfahrungen
Du willst helfen oder bist interessiert?
  • Trage Dich bitte unter Interesse ein, auch wofür Du ansprechbar bist.

Die Inhalte sind keine offiziellen Texte oder Regeln der Wikipedia und entsprechen der Meinung der jeweiligen Autoren. Sie sollen der Vorbereitung einer von der Mehrheit gewünschten Regelseite zu KI dienen, welche dann unter Wikipedia:<name> angelegt werden kann. Es werden auch Informationen gesammelt, wie KI im Sinne der Strategie der Foundation als Werkzeug und Hilfsmittel eingesetzt werden kann.


Teilprojekt "KI Cleanup" - Problemfälle: Was tun bei KI-Verdacht?

[Quelltext bearbeiten]

Dort können erkannte Fälle dokumentiert und gemeinsam bearbeitet werden. Bisher überwiegen anderswo (VM) entdeckte und bearbeitete Fälle.

Das Vorbild AI Cleanup der englischsprachigen WP wird dort auch für die gemeinsame Prüfung des Verdachtes und Suche von Massnahmen genutzt, ein Ausbau in diese Richtung erfordert aber mehr Mitarbeiter (dort sind es über 200). Die Arbeit als "Reparaturbrigade" scheint nicht ausreichend attraktiv - vermutlich auch, weil man erst belastbare Regeln und Abläufe haben müsste.

Derzeit vorhandene Richtlinie von Wikipedia zu KI (Wikipedia:Belege#Grundsätzliches) Satz 8:

Sprach-KI sind derzeit nicht in der Lage, korrekt belegte Beiträge zu erstellen. Beiträge, die damit erstellt werden, verstoßen daher unter anderem gegen WP:Keine Theoriefindung, WP:Belege, WP:Urheberrechtsverletzung, WP:Neutraler Standpunkt; ihre Verwendung ist daher derzeit generell unerwünscht.

Wenn es nicht so schnell gelingt, uns auf Regeln zu einigen:

Hilfsmittel

Kriterien für die Erkennung, dass KI Inhalte ohne ausreichende menschliche Überprüfung verwendet worden sind

  • Eindeutige Anzeichen, die Massnahmen erfordern und weitere eher subjektive Anzeichen, die nur Indizien für die Verwendung von KI sind
  • mit "Gebrauchsanleitung" für Bearbeitungsfilter 453


KI als allgemeines Thema in der Wikipedia

[Quelltext bearbeiten]
Spezielle Ansätze nach Einsatzgebiet
Veranstaltungen

Vertiefung, warum KI überhaupt problematisch ist

[Quelltext bearbeiten]
  • Haupt-Probleme der KI: "Halluzinationen" und Bias erklärt
    • Benchmarks und vergleichende Untersuchungen zur Qualität
  • Demotivierung der Autoren, menschlich kuratiertes Wissen zusammenzutragen, wenn im schlimmsten Fall plausibel klingende und wikipediakonform aussehende Beiträge die Wikipedia "fluten" - die Menge auch die Kontrollfähigkeit und -bereitschaft der Autoren übersteigt
Symbolische KI

Zum Thema KI gehört "symbolische" KI - im Wikiversum die Ansätze, die auf Wikidata aufbauen (Abstract Wikipedia & Wikifunctions). Sie ist regelbasiert - die Fehlerfreiheit hängt von der Qualitätssicherung der Daten ab. Die Beschränkung auf WIKIPEDIA impliziert, dass wir allenfalls über die Wechselwirkungen und Nutzungsmöglichkeiten mit nachdenken


Fragen im Hintergrund

[Quelltext bearbeiten]
KI ist ein allgemeines Problem der Gesellschaft in allen Bereichen, was gilt direkt oder indirekt für uns?
  • Rechtslage
    • Die Rechtslage ist eher noch unklar, Präzedenzurteile sind selten, Vergleiche sollen diese auch verhindern
    • in Diskussion stehen Ansprüche an die LLM-Anbieter aus dem Urheberrecht für das Lernmaterial (weil offenbar auch urheberrechtlich geschütztes Material verwendet wurde) und für die ausgegebenen Inhalte (insbesondere wenn ersteres 1:1 wiedergegeben wird - Beispiel Liedtexte).
  • Ethische Fragen
    • Kann man Ethik bzw. Grenzen der KI beibringen oder entwickelt sie auch eigene Werte oder Optimierungen?


Noch mehr Einstieg ins Thema

[Quelltext bearbeiten]

Unser Wissen und unsere Erfahrungen unterscheiden sich und erschweren es - auch aufgrund der Komplexität des Themas - eine gemeinsame Position zu finden. Insofern soll auch etwas Grundwissen für diejenigen vermittelt werden, die sich in die Thematik einarbeiten wollen.

  • KI verstehen: Was ist eigentlich KI, wo kommt die her, wo geht die hin?
    • Den Begriff Artificial Intelligence (AI=KI) gibt es seit 1956, man muss definieren, über welche KI man redet.
    • Die neue Herausforderung sind generative Chatbots, die z.B. "Deep Research" und "Reasoning" einsetzen, im Dialog arbeiten und selbst Vorschläge zum weiteren Vorgehen machen.
    • Weder "Verzwergung" noch "Anbetung" bzw. blinde Euphorie sind angebracht

Medien wie Bilder, Grafiken, Videos und Soundbeispiele und andere stammen aus Wikimedia:Commons, wenn nichts anderes angegeben ist. Die Autoren und Lizenzbedingungen sind ersichtlich, wenn man das Medium anclickt (vergrössert) und dann "Weitere Einzelheiten" aufruft. Die Lizenzbedingungen sind insbesondere dann zu beachten, wenn eine Verwendung ausserhalb der Wikipedia erfolgen soll.

Zitate sind kursiv dargestellt, "→" kennzeichnet redaktionelle Zusammenfassungen