Wikipedia Diskussion:Bots/Archiv/1

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Dieses Diskussionsarchiv hat die empfohlene Seitengröße erreicht und gilt damit als abgeschlossen. Sein Inhalt sollte nicht mehr verändert werden (ausgenommen Kleinbearbeitungen wie Link- und Vorlagenfixe). Verwende für die Archivierung von Diskussionsbeiträgen bitte das aktuelle Archiv und benutze bitte für aktuelle Diskussionen die aktuelle Diskussionsseite.
Um einen Abschnitt dieser Seite zu verlinken, klicke im Inhaltsverzeichnis auf den Abschnitt und kopiere dann Seitenname und Abschnittsüberschrift aus der Adresszeile deines Browsers, beispielsweise
[[Wikipedia Diskussion:Bots/Archiv/1#Abschnittsüberschrift]]
oder als Weblink zur Verlinkung außerhalb der Wikipedia
https://de.wikipedia.org/wiki/Wikipedia_Diskussion:Bots/Archiv/1#Abschnittsüberschrift

Inhaltsverzeichnis

Anfang ...

Sollte man nicht auch irgendwo hinterlegen, was ein Bot überhaupt ist? Z.B. Ein Bot ist der im Internet gebräuchliche Begriff für einen Software-Agenten. etc. (entsprechend wie in en:bot) - Lemmie

Was willst du damit bezwecken? Eine Definition von Bot ist doch unter Bot verfügbar. MfG Viruzz (?!) 14:38, 3. Dez 2004 (CET)

Oh, entschuldige, habe ich nicht vorher nach gesucht, habe jetzt aber einen Link in den Artikel eingefügt. (Lemmie 15:12, 3. Dez 2004 (CET))

Betreiben von Bots

Ich habe alle mir bekannten Botbetreiber per E-Mail (bei zweien auf der Diskussionsseite) angeschrieben. Es geht um eine Koordination und um Richtlinien für den Betrieb (nennt es Führerschein..).

Sollte ich dich vergessen habe, schreibe mit bitte eine E-Mail! Sobald grundlegende Dinge geklärt sind, werden die Ergebnisse hier diskutiert! -- da didi | Diskussion 14:39, 29. Jan 2005 (CET)

Vorlage:Navigationsleiste Wikipedia-Bots

  • Die Vorlage listet z.Z. (14:31, 31. Jan 2005 (CET)) jedoch keine / nicht alle "Gäste". Gangleri | Th | T 14:31, 31. Jan 2005 (CET)
Ja? Was möchtest du sagen? -- da didi | Diskussion 14:48, 31. Jan 2005 (CET)
Ich meinte die bots, deren Betreiber in anderen Wikiprojekten "beheimatet" sind, wie dies z.B. bei bg:Уикипедия:Бот, eo:Vikipedio:Roboto, es:Wikipedia:Bot, ro:Wikipedia:Bot usw. für Bgbot, Hashar, Robbot der Fall ist, die dort aufgelistet werden. Gangleri | Th | T 01:38, 1. Feb 2005 (CET)

Wo finde ich was?

  • Vor Monaten bin ich in irgeneiner Wikipedia auf einen "report" mit seitenlangen (?) Konflikten bzgl. zwischensprachlichen links gestoßen. Es würde jetzt lange dauern, bis ich solch eine Seite wiederfinde. Etwas im Stil von en:Template:Tutorial (siehe die Seiten ab en:Wikipedia:Tutorial) veileicht etwas witzger aber weniger aufwändig, könnte die inhaltlich relevanten Seiten zusammenfassen. Gruß Gangleri | Th | T 02:08, 1. Feb 2005 (CET)

Richtlinien für Bots

Moin,

nachdem ich fast keine Resonanz auf meine Mails erhalten habe, versuchen wir es einfach mal so:

  1. Es geht um einen Ehrenkodex für Botbetreiber
  2. Koordination der Botaktivitäten
  3. Neuer Bot?
  4. Sonstiges

1. Ehrenkodex

Ich würde vorschlagen, wir einigen uns auf folgende Grundsätze:

  • Niemals eine bestimmte Rechtschreibung global durchsetzen
  • Niemals ohne Test den Bot fahren
  • Niemals nix in die Zusammenfassung schreiben
  • Niemals den Bot laufen lassen, wenn die Wikipedia lahmt
Was meinst du mit bestimmter Rechtschreibung? Dass wir die neue Rechtschreibung verwenden, ist, denke ich, klar. meinst du Fälle, in denen zwei Schreibweisen erlaubt sind?
Sonst kann ich eigentlich nur zustimmen. Gruß, Leon  ¿! 16:51, 31. Jan 2005 (CET)

2. Koordination

Aktivitäten wie Interwikis sollten nur von einem betrieben werden. Wir haben aktuell ein Dutzend Bots, die mehr oder wenige das gleiche können oder machen.

3. Neuer Bot?

  • Rechtschreibüberprüfung (Tippfehler, außer bei Schweizbezogenen Artikeln)
  • Vereinheitlichung von Überschriften ( Externe Links --> Weblinks, Discografie),
  • Setzen von Interwikis
  • Interwikilinks am Anfang des Artikels an das Ende setzen (alphabetisch sortieren), überprüfen und neu setzen (auch bei fehlenden anderen Wikipedias gleich)
  • HTML-Code überprüfen und ggfs. ersetzen/entfernen
  • Tabellensyntax überprüfen
  • Sortierungen Vornehmen ( Abschnitt Literatur vor Weblinks)
  • Kategoriensortierung bei Personen (Geschlecht, Nationalität, Funktion)
  • Datumsschreibweise überprüfen (geboren/gestorben datum ort)
  • Überflüssige Fettschreibung finden Siehe auch und eliminieren
  • Kategorie untereinander setzen nicht hintereinander
  • Bei Personen die Personendaten prüft (...)
  • Bei einem Edit gleich alle Redirects und BKLs auflöst

4. Sonstiges

Ein Bot-Führerschein wurde angesprochen. Auch das Bot-Flag sollte nicht einfach so vergeben werden.

Jetzt bitte die Kommentare :) -- da didi | Diskussion 14:57, 31. Jan 2005 (CET)

Ich schreib mal hier unten hin, weils mehrere Punkte betrifft. Der Ehrenkodex ist meines Erachtens schon ok so. Vielleicht sollte noch dazu: Keine Redirectauflösungen, wenn sonst nichts gändert wird. Aber die Frage ist, ob es für das Betreiben eines Bots einfach ausreicht, den Kodex zu akzeptieren. Dem kann sich schliesslich jeder unterwerfen, aber das ändert ja noch nichts daran, dass jeder User (so wie ich) einfach einen bot an den Start bringen kann. Also Stichwort Botführerschein: Wie stellt Du Dir das vor - kleine Abfragerunde im IRC, ob der neue Botbetreiber die Funktionen beherrscht? Vielleicht sollte man auch an formelle Anforderungen denken (nur Admins, nur User mit xxx Edits oder so).
Was den Interwiki-Bot betrifft, sollte beachtet werden, dass tatsächlich ein vollautomatisch laufender Interwiki-Bot ausreichend ist. Aber es sollte schon möglich sein, im Einzelfall den eigenen Bot für interwiki-links zu nutzen, wenn man auf einen Artikel stößt, wo die fehlen. Denn der Vorteil des Bots besteht ja gerade darin, interwiki-links auch in bislang nicht verlinkten Wikipedias zu finden. Ich z.B. nutze das ganz gerne beim Bearbeiten eines Artikels und trage die Ergebnisse dann von Hand ein. Manchmal gibts aber auch nichts zu bearbeiten, dann lass ich den bot das machen.
One Ring to rule them all, One Ring to find them, One Ring to bring them all and in the darkness bind them - Stichwort ein Bot für alles. Auf den ersten Blick find ich einen solchen Mega-bot auch verlockend - viele Änderungen in nur einem Edit, dass ist gut für die Versionsgeschichte. Andererseits stößt man oft genug auf einen Artikel, wo man merkt, das müsste was geändert werden, dass ist in anderen Artikeln auch so (Beispiel: links auf BKS). Machts dann Sinn, den Mega-bot anzuwerfen? Oder sollte der nicht einfach nach und nach stumpf alle Seiten von A - Z durchflügen? --redf0x 17:06, 31. Jan 2005 (CET)
Keine Redirectauflösungen, wenn sonst nichts gändert wird - das liesse sich beliebig fortsetzen - keine Syntaxkorrektur, wenn sonst nichts geändert wird und ähnliches. Konsequent weitergedacht wäre man dann wieder bei dem einen Superbot, der alles kann. Ich bin deshalb dagegen. Mit den restlichen Punkten bin ich aber einverstanden. -- Gruß, aka 17:47, 31. Jan 2005 (CET)
Worauf ich hinauswill: Ein Edit durch einen Bot sollte für den Nutzer eine Verbesserung des Artikels bringen. Das ist m.E. bei Redirectauflösungen nicht der Fall, weil der auch ohne diese zum richtigen Artikel kommt. Aber ich weiss, dass dahinter die Frage des Zwecks von Redirects steht und dass diese Frage kontrovers beantwortet wird. --redf0x 17:54, 31. Jan 2005 (CET)
Es geht bei den Kommentaren darum: Angenommen, ein Bot wird benötigt um doppelte Redirects aufzulösen (legitim). Dann sollte er gleich noch alle anderen o.g. Punkte ausführen. Was würde euch an solch einem Superbot stören? Zum Führerschein: Wenn man sich gut koordinieren kann, hätte man idealerweise ein Team von einer Handvoll Leuten, die den Bot bedienen können und würden. Man könnte auf einer zentralen Stelle an Wünsche sammeln und so auch anderen Benutzern den ein oder anderen Gefallen erledigen. Klar kann ich das nicht verbieten das andere weiterhin ihre privaten Bots benutzen, aber sollte mein geplantes Konzept funktionieren, wird die Gemeinschaft dem (beispielhaften) Einzelkämpfer schon die Richtung zeigen... -- da didi | Diskussion 19:54, 31. Jan 2005 (CET)
Ganz ehrlich: etwas weniger Arroganz könnte dir in dieser Diskussion durchaus nicht schaden. Ich erinnere an Sprüchen wie "nennt es Führerschein", "Ich würde vorschlagen, wir einigen uns auf folgende (meine) Grundsätze", "sollte mein geplantes Konzept funktionieren .." (welches Konzept?).
Insgesamt macht diese Diskussion wenig Sinn, da die oben genannten Grundsätze (nicht ohne Test, Zusammenfassung nicht leer lassen, ...) selbstverständlich sein sollten. Ich finde, dass wir genug allgemeiner greifende Regeln in der Wikipedia haben, welche auch für Bots gelten und uns mehr auf die Bearbeitung von Artikeln als auf solche bürokratischen Diskussionen konzentrieren sollten, welche nur Overhead erzeugen, die Wikipedia aber nicht voran bringen. Bots sollten sich genau so wie normale Benutzer vernünftig benehmen, den Wikipedia-Projekt nützen und den Nutzern stupide Arbeiten abnehmen. Deutlich mehr Floskeln braucht es da meiner Meinung nach nicht. -- Gruß, aka 20:10, 31. Jan 2005 (CET)

Warum findet diese Diskussion (nahezu) unter Ausschluss der Öffentlichkeit statt? --Bubo 20:20, 31. Jan 2005 (CET)

Ich wollte erst mit allen direkt Beteiligten was ausdiskutieren, bevor es veröffentlicht worden wäre und auf einer prominenten Stelle beworben würde. Da sich aber fast keiner gemeldet hat, habe ich gleich die bereits gesammelten Vorschläge veröffentlicht. Ich würde mir also wünschen, das am Anfang sich mehr Botbetreiber an der Diskussion beteiligen... -- da didi | Diskussion 20:56, 31. Jan 2005 (CET)
Danke. --Bubo 21:19, 31. Jan 2005 (CET)

Voraussetzungen für eine Diskussion

Um dies Thema zu diskutieren muss man natürlich wissen, worum es geht. Da die Bots bis jetzt mehr im verborgenen arbeiten und meistens nur Aufmerksamkeit erregen, wenn was schiefläuft, und die Änderungen sonst nicht leicht nachzuvollziehen sind sag ich mal so:

  • Keine Änderungen am Quelltext soweit sie sich nicht auch im Erscheinungsbild des Artikels niederschlagen.
  • Für jeden Bot wird eine Liste mit den Edits, die der Bot nebenbei noch erledigt veröffentlicht.
  • Die Botbetreiber führen freiwillig ein gemeinsames Log, in dem in jeweils ein oder zwei Zeilen aufgeführt wird, für welche Änderungen der Bot gestartet wurde und wieviele Artikel bearbeitet wurden.

Wenn das eine Weile klappt, erreichen wir eine gewisse Transparenz und haben eine Übersicht als Grundlage mit der wir uns dann weitere Gedanken machen können. -- Schnargel 20:28, 31. Jan 2005 (CET)

  • na so schlecht ist das doch nicht, dass bots nur dann in erscheinung treten, wenn etwas schief läuft. das ist am anfang wahrscheinlich zwangsläufig so, und zwar in jeder wikipedia, in welcher ich so unterwegs bin. nach kleineren anfangsschwierigkeiten gab sich das aber immer oder der bot wurde stillgelegt. ich fände es gut, wenn dieses diskussion nicht zuuu einschränkend und bevormundend ausgeht. in vielen anderen wikipedias funktioniert es ebenfalls mit dem gesunden menschenverstand. der erste von mir gesagte satz zeigt, daß es bisher auch hier so war. DerNichtanonyme 20:37, 31. Jan 2005 (CET)
    • Oh, lies: „... meistens nur Aufmerksamkeit erregen, wenn ein Bot selbst was nach Meinung mehrerer anderer Personen vermurxt hat“ :-) -- Schnargel 05:34, 1. Feb 2005 (CET)
  • Keine Änderungen am Quelltext soweit sie sich nicht auch im Erscheinungsbild des Artikels niederschlagen. Das ist so zu eng. Es geht nicht nur um das Aussehen, sondern auch um die Funktionalität und Nutzbarkeit. Hier stören z.B. links auf Begriffsklärungsseiten und auch doppelte redirects. Am für den User sichtbaren Erscheinungsbild ändert sich nichts, aber an der Nutzbarkeit für ihn schon. --redf0x 20:43, 31. Jan 2005 (CET)
    • Richtig, diese Links noch mit rein. Aber in der Hauptsache ging es mir erst mal darum, dass die Botarbeit etwas nachvollziehbarer wird bevor eine Diskussion über ein Regelwerk geführt wird. -- Schnargel 05:34, 1. Feb 2005 (CET)

Redirects

Vielleicht kann auf dieser flauschigen Seite mir jemand erklären, warum überhaupt [[Bar]] in [[Foo|Bar]] geändert wird, wenn es einen Redirect Bar=>Foo gibt? --Pjacobi 22:22, 31. Jan 2005 (CET)

Das ist nicht nötig, nur mehrstufige Redirects müssen aufgelöst werden, weil die Wikisoftware das nicht mehr macht, um dem Problem von Redirectschleifen aus dem Weg zu gehen. Einstufige Redirects stören nicht und können unter Umständen sogar nützlich sein, wenn man aus einem Artikel mal was ausgliedert und dann die Links mit dem anderen Lemma nicht mehr ändern muss (so sie denn auf den passenden Begriff zeigen). -- Schnargel 05:42, 1. Feb 2005 (CET)
[Bar] könnte eine BKS werden. Man stelle sich vor, [SPD] würde nicht nur für die Partei, sondern auch für [sozipolitische Diskussionen] stehen (nur als Beispiel) und ab morgen würde jeder drüber reden. Viel Spaß beim Auflösen der BKS. Manchmal hilft es auch zu wissen, was hinter der Abkürzung xyz steht, und bei aufgelösten redirects erkennt man das im Quellcode..
Bevor jetzt die Antworten kommen: Ich kenne die Gegenargumente und habe keine Lust, diese Diskussion jetzt jeden Monat zu führen. -- da didi | Diskussion 09:58, 1. Feb 2005 (CET)
Wenn Du die Diskussion jetzt nicht führen willst, gibt es sicher eine Policy-Page auf der die Antwort zu sehen ist? Ich dachte Wikipedia Diskussion:Bots sei der richtige Ort um auf störende Änderungen der Bots hinzuweisen?
Für alle anderen (die noch nicht alle Gegenargumente kennen):
  1. Ich linke auf Kaon.
  2. Oops, gibt es nicht. Also lege ich einen REDIRECT auf Meson an.
  3. Tage später: Ich schreibe den Kaon Artikel
  4. Oops, der Kaon Artikel hat keine incoming links, weil in der Zwischenzeit ein Bot die Links auf Kaon in [[Meson|Kaon]] umgewandelt hat.
Pjacobi 10:16, 1. Feb 2005 (CET)
Es geht im o.g. Beispiel nicht darum, später den Redirect SPD zu löschen. Nein, im Gegenteil, viele Redirects sind wichtig und bleiben auch bestehen. Zu deinem Beispiel: Wenn in Kanon alles wichtige drin steht, ist Meson wohl unnötig. "gerichtliches Mahnverfahren" wird halt auch gelöscht und nie verlinkt, wenn alles in "Mahnverfahren" drin steht. -- da didi | Diskussion 12:58, 1. Feb 2005 (CET)
Ein Kaon ist ein Meson, aber nicht jedes Meson ist ein Kaon. Es gibt genügend über Kaonen zu schreiben, dass ein eigener Artikel sich lohnen würde. Aber zu dem Zeitpunkt, an dem sich endlich jemand erbarmt hat, sind alle incoming links verschwunden, wenn Bots weiterhin ungefragt [[Kaon]] durch [[Meson|Kaon]] ersetzen. Es geht nicht um Synonyme, sondern um Untermengen. --Pjacobi 15:07, 1. Feb 2005 (CET)

Besondere interlanguage links bei eo:

Bugzilla:1512

zur Diskussion

  • Halló, einige Gedanken zur gegenwertigen Diskussion: Funktionen, Wissen und Aufgaben zentral zusammezufassen wiederspricht anscheinend dem Grundprinzip der Wikipedia. Es stellt sich die Frage, wie informiert man über Tätigkeiten, wie führt man andere Benutzer an die Problematik heran, wie fördert man das Heranwachsen eines weiteren Kreises an Botbetreibern, die, nach Absprache mit der Gemeinschaft, Teilaufgaben übernehmen können, insbesondere in Spezialgebieten aufgrund von Fach- und / oder Sprachkenntnisen.
  • Eine andere Frage ist die Aktualisierung vorhandener Informationen zu diesem Thema auf den Botseiten. Ein Bruchteil der in der Navigationsleiste aufgeführten Bots enthalten ausführliche Informationen darüber. Es wäre z.B. erfreulich, wenn die sehr imposante Liste von Zwobot bzgl. den Mehrdeutigkeiten auch die anderen "betroffenen" / verbundenen Seiten aufführen würde. Ein besonderes Lob möchte ich BWBot für die informatice Seite aussprechen. Andere Bots sind technologisch bestimmt nicht weniger interessant, sie informieren leider nur nicht darüber.
  • Wikipedia funkioniert anscheinend durch das Wecken von Interesse(n). Die Besucher bekommen den Eindruck vermittelt, dass sie willkomen sind und etwas tun können. Das sollte vielleicht auch hier der Fall sein. Eine andere treibende Kraft ist Kreativität. An der sollte es hier nicht mangeln ;-)
  • Viele "kleinere Wikipedien" entwickeln sich anscheinend anders (haben / hatten sich anders entwickelt) als die "großen". Einige Wikipedien sind vielleicht mehr technisch orientiert, andere mehr sprachlich, inhaltlich orientiert, auf "eigene" Traditionen bezogen usw. Die Erfahrungen, Entwicklungstendenzen, Umgangsformen, die unterschiedlichen Stiele der "frühen" / "großen" Wikipediien kommen immer auch den "kleineren" / "neueren" zugute. Dies primär als Aufholjagd / Abstandsjagd aufzufassen / wahrzunehmen macht wenig Sinn. Vielmehr sollte unter dem Gesichtspunkt der Zusammengehörigkeit nachgedacht werden, was man füreinander - auch die Bots - tun kann. Gangleri | Th | T 07:39, 14. Feb 2005 (CET)

Bot für Datenbanklinks

Hallo, gibt es eigentlich schon einen Bot, der 'normale' Datenbanklinks (z. B. auf Filmtitel in IMDB) in die entsprechende Vorlage (hier: Vorlage:IMDb_Name) überführt? Halte ich für recht sinnvoll. -- Svencb 12:32, 15. Feb 2005 (CET)

Hm, nach dem berauschenden Feedback scheint es, als gäbe es da keinen entsprechenden Bot. ;-) Wo könnte man dies denn mal vorschlagen? --Svencb 11:29, 8. Apr 2005 (CEST)
Da wäre hier schin der richtige Platz, bloß fühlt sich wohl keiner berufen und nicht jeder sieht sich diese Seite so häufig an. auf Wikipedia:Ich brauche Hilfe wirst Du die meisten erreichen und auch sehen, ob Deine Idee eine große Zustimmung findet. Gruß -- Schnargel 05:18, 15. Apr 2005 (CEST)

Interlanguage links

ich weiß nicht, wohin mit solch einer frage, deshalbd lieber hier als garnicht: welcher bot kümmert sich um interlanguage links? gibt es solchen einen bot überhaupt? und wenn nicht, warum nicht? Schaengel89 @me 15:36, 25. Mär 2005 (CET)

Bibelbot

Ich habe für meinen neuen Bibelbot einen Account und eine Benutzerseite angelegt, aber noch nicht mit dem Account gearbeitet, damit man ihn notfalls wieder entfernen kann (obwohl ich keinen Grund dazu sehe). Was haltet ihr von dem Vorhaben?--Bibelbot 02:51, 28. Mär 2005 (CEST)

Ups! Jetzt hab ich aus Versehen doch mit dem Account gearbeitet. Sorry. --Bibelbot 02:51, 28. Mär 2005 (CEST)

minimale nur wenn gravierend?

Im Artikel steht folgendes: minimale Änderungen nur vornehmen, wenn wirklich gravierende Eingriffe im Seitenquelltexten gemacht werden müssen (nicht nur kleine "Schönheitskorrekturen" z. B. überflüssige Leerzeichen entfernen). Was ist damit gemeint? --Habakuk <>< 17:37, 1. Mai 2005 (CEST)

Hab den Satz jetzt umformuliert und ihn damit hoffentlich besser verständlich gemacht. Zur Erklärung: Minimale Eingriffe (wie z.B. ein überflüssiges Leerzeichen entfernen) sollten niemals einzeln erfolgen, weil das die Versionsgeschichte zumüllt. Stattdessen sollten solche kleinen Änderungen sozusagen „nebenbei“ gemacht werden, wenn der Bot gerade andere, wesentlichere Eingriffe im Quelltext vornimmt. Alles klar? Feitscher g 21:27, 1. Mai 2005 (CEST)
ok :-) --Habakuk <>< 00:30, 2. Mai 2005 (CEST)

Bot für assoziative Verweise

Wäre ein Bot programmierbar, der folgendes leistet: Unter Wikipedia_Diskussion:Assoziative_Verweise#Formatierung_als_Vorlage läuft gerade eine Abstimmung zu einer neuen Formatierung von "Siehe auch", sofern es sich auf den Gesamtartikel bezieht, also am Artikelende bzw. unmittelbar vor "Literatur" und "Weblinks" steht. "Siehe auch" soll als Vorlage:Siehe auch dann hinter von "Literatur" und "Weblinks" stehen (Beispiel siehe Pfingsten). Der Bot müsste also die Posítion von "Siehe auch" am Artikelende erkennen und ferner die verschiedenen z. Zt. verwendeten Formatierungen konvertieren können, d. h. fett, kursiv oder als Überschrift und Verweise in einer einzigen Zeile oder separate Zeile für jeden Verweis.

Ich könnte dabei auch helfen, z. B. wenn jemand einen Vielzweckbot zur Verfügung stellt, der lediglich alle Artikel nacheinander herunterlädt, so dass ein völlig separater Task in einer beliebigen Sprache eine Analyse bzw. Konversion durchführen kann (mein Job) mit entsprechendem Handshake. So könnte mein Programm die Aufforderung zum uploaden z. B. durch die Existenz einer Signaldatei mitteilen (bzw. falls keine Konversion erforderlich war, eine andere Signaldatei), auf die der Bot entsprechend reagiert und dann die nächste Datei runterlädt und dabei den abgeschlossenen Download durch löschen dieser Signaldatei mitteilt usw. --Wolfgangbeyer 22:03, 4. Mai 2005 (CEST)

Kurzfristig interessiert mich insbesondere die prinzipielle Machbarkeit, da diese in der Diskussion angezweifelt wird! Die Abstimmung ist eh noch völlig offen. --Wolfgangbeyer 22:15, 4. Mai 2005 (CEST)

Ich habe die Diskussion um die Vorlage für Assoziative Verweise am Rande verfolgt. Und – ich hoffe ich lehne mich dabei nicht zu weit aus dem Fenster – ich denke schon, dass diese Aufgabe durch einen Bot realisierbar ist. Ich persönlich habe nur Erfahrung mit meinem eigenen Multifunktionsbot (Benutzer:LiBot). Der ist in Visual Basic programmiert und verfügt somit über die nötigen komplexen Zeichenketten-Befehle, die für eine solche Aufgabe gebraucht werden (die meisten Bots sind allerdings in Python geschrieben, ob das damit möglich ist, weiß ich nicht). LiBot erledigt momentan im Prinzip eine ähnliche Aufgabe, indem er verstreute Interlanguage-Links im ganzen Artikeltext sucht, erkennt, in eine Liste packt und am Ende des Artikels speichert. Vom Grundprinzip her ist das Umformen der Assoziativen Verweise sehr ähnlich.
Das Hilfsangebot ist sicherlich gut gemeint, aber ich verstehe noch nicht ganz, wie du dir das mit dem Handshake zwischen zwei Programmen vorstellst. Ein Programm, das den Artikeltext herunterlädt und eines, das dann die Umformung der Verweise vornimmt und wieder an das erste Programm zum Speichern zurückgibt ... Das erscheint mir doch zu umständlich. Wozu zwei Bots, wenn einer die Aufgabe auch ausführen könnte? Zwei Bots machen die Sache nur noch schwieriger zu kontrollieren. Außerdem müssten die Programme stark aufeinander zugeschnitten werden, das würde auch viel Arbeit bedeuten. Aber vielleicht hab ichs auch nur falsch verstanden oder denke etwas verquer. Mein Ansatz wäre jedenfalls, einfach in einen Multifunktionsbot eine extra Funktion einzubauen, die das Umformen übernimmt.
Insgesamt glaube ich also schon, dass ein Bot die genannte Aufgabe erledigen könnte, trotz der Komplexität des Problems. Dafür ist natürlich ne Menge Tüftelei notwendig. Grundsätzlich sollten solche Boteingriffe aber nur halbautomatisch erfolgen, weil das Risiko zu groß ist, dass der Bot ab und zu Mist baut. Jede Veränderung der assoziativen Verweise sollte daher von Menschen geprüft werden. (Grundsätzlich finde ich, dass alle Botaktivitäten überhaupt nur halbautomatisch ablaufen sollten, aber das ist ein anderes Thema).
Ich hoffe, ich konnte dir ein bisschen weiterhelfen. Beste Grüße, Feitscher g 23:23, 4. Mai 2005 (CEST)
Hallo Feitscher, danke für die rasche Antwort. Klar wäre ein Bot aus einem Guss ok. Der Vorteil des Universalbots wäre ja auch lediglich die Möglichkeit der Arbeitsteilung bei der Programmierung. Es könnte jemand den Konversionsalgorithmus in einer Sprache seiner Wahl umsetzen, der von dem Bot, der mit der Wikiedia interagiert keine Ahnung zu haben braucht (sollte nicht in falsche Hände geraten ;-). Und um auf einen einfachen und universellen Datentransferweg zwischen Universal-Bot und Konversions-Bot zurückzugreifen, hatte ich an Zugriffe auf Dateien auf der Platte gedacht, sowohl hinsichtlich der Artikeltexte (wohl in dem Format, wie sie im Editor zu sehen sind?) als auch für die gegenseitigen Aufforderungen zu bestimmten Aktionen. Gerade daher sehe ich nicht, warum die Programme stark aufeinander zugeschnitten sein müssten. Jedes wartet, bis eine Datei zu einer bestimmten Aktion erscheint bzw. verschwindet, legt los und quittiert durch löschen bzw. anlegen einer Datei. Mag sein, dass für einen "Profi"-Programmierer diese Art des Datenverkehrs ein Graus ist, aber das wäre das einzige, was ich beherrsche. Ich könnte aber auch die Basic-Programmzeilen für die reine Konversion zum Einbau in Deinen Bot bereitstellen. --Wolfgangbeyer 00:29, 5. Mai 2005 (CEST)
Die Kommunikation zwischen den 2 Tasks ginge ja noch viel einfacher: Der Universal-Bot legt seine Downloads in einem Ordner Download ab. Der Konversions-Bot holt dort alles, was er findet, und legt die konvertierten in einem Ordner Upload wieder ab, deren Inhalt der Universal-Bot wieder hochlädt. --Wolfgangbeyer 15:20, 7. Mai 2005 (CEST)
Tut mir leid, hat einen Moment gedauert. Grundsätzlich hätte ich großes Interesse, meinen Bot für diese Aufgabe zur Verfügung zu stellen. Auch würde es mich schon sehr reizen, selber einen Code zu entwickeln, der die Konversion übernimmt (Ich will dich natürlich nicht abhalten, ein eigenes Programm dafür zu bauen; dann müssten wir sehen, wie wir das zusammenbasteln). Ich finde die Aufgabe spannend und habe, denke ich, die nötigen Fertigkeiten um meinem Bot die Konversion beizubringen. Ein "Profi" bin ich übrigens längst nicht, eher ein ambitionierter Amateur... Deshalb stört mich auch nicht die "unelegante" Kommunikation via Dateisystem. Das eigentliche Problemchen ist, dass mein Bot bisher nur "online" arbeitet, und ich ihm erst eine zweite Struktur einpflanzen müsste, um über Dateien mit einem anderen Programm zu kommunizieren. Das ist sicherlich machbar, würde aber meinen Bot strukturell aufweichen und aufblähen. Bitte verstehe diese Eitelkeit meinerseits ;-). Was ich mir also gut vorstellen kann, ist dass entweder ich meinen Bot erweitere, oder dass ich deinen Code in mein Programm einbaue. Das sollte nicht schwieriger sein, als zwei Programme parallel laufen zu lassen. Was denkst du dazu?
Bevor wir uns aber auf die Arbeit stürzen, sollten wir doch abwarten, was das Meinungsbild ergibt. Und das ist im Moment ja ziemlich offen mit etwa gleich vielen Stimmen für Vorlage, alles beim alten lassen und Abbrechen. Beste Grüße, Feitscher g 19:11, 7. Mai 2005 (CEST)
Ja wenn es Dich sehr reizt, die Sache selbst zu programmieren – um so besser. Die Sache wäre aus einem Guss. Ich könnte aber anbieten, beim Algorithmus bzw. beim theoretischen Durchchecken des Kodes hinsichtlich extremer Situationen mitzudenken. Schließlich können versteckte Fehler oder übersehene Situationen ziemliche Folgen haben. Es geht immerhin um 30.000-40.000 Artikel. Aber dazu ist es noch zu früh, wie Du richtig bemerkst, und ich fürchte auch eher, dass da nie was draus wird. Mal sehen. --Wolfgangbeyer 02:11, 8. Mai 2005 (CEST)

Bot status for en:user:Yurik

Hi. I am one of the developers of pywikipediabot framework. My current project is about getting sites linked up (interwikies). I would like to receive a bot status to avoid flooding the recent changes list. I already have bot status on EN:, RU:, and a number of other sites, and my change count on ru: is close to 20000. Thanks! --Yurik 17:09, 23. Jul 2005 (CEST)

You should ask for permission on Wikipedia:Bots, not on the discussion page. Regards --redf0x 00:20, 25. Jul 2005 (CEST)

Bot flag for Chobot.

Hello. I'm running a interwiki bot on the korean wikipedia. I'm using pywikipedia for [:User:Chobot|Chobot]]. Can I ask a bot status for Chobot in de wikipedia? -- ChongDae 11:46, 24. Jul 2005 (CEST)

[...]

You both should ask for permission on Wikipedia:Bots, not on the discussion page. Ihr solltet beide auf Wikipedia:Bots, nicht auf der Diskussionsseite den Antrag stellen. --redf0x 00:22, 25. Jul 2005 (CEST)

Auftrag für einen Bot: T'ang

Ich hätte einen bot-spezifischen Auftrag: Es sollten mal alle "T'ang"s durch "Tang"s ersetzt werden. T'ang ist die veraltete Umschrift für die chinesische Tang-Dynastie. Leider gibt es zu viele Artikel, die noch das veraltete "T'ang" enthalten. Wäre toll, wenn jemand seinen Bot das machen lassen könnte. Mit freundlichen Grüßen und Bitte um Antwort, ^_^ 22:11, 2. Aug 2005 (CEST)

Ich bzw. Andimbot kümmern sich darum, Andim 13:54, 4. Aug 2005 (CEST)

neuer Wikinews-Bot?

An die hiesigen Experten:

Ist es möglich einen Bot zu programmieren, der die Datumskategorien verschiedener Wikinews' (verschiedene Datumsformate!) erstellt? Dabei müssen teilweise Sprach-individuelle Textbausteine eingefügt werden und alle Kategorien sollten untereinander (ich meine die Sprachen natürlich) verlinkt werden.--cyper 02:47, 3. Aug 2005 (CEST)

Zum Thema "Möglichkeiten der Bots" ist zu sagen: Alles was ein Mensch am Computer kann, kann ein Bot auch. Sorry für den teils themenfremden Beitrag, ^_^ 03:24, 3. Aug 2005 (CEST)
So einfach ist es leider nicht. -- aka 14:06, 4. Aug 2005 (CEST)
Das ist möglich. -- aka 14:06, 4. Aug 2005 (CEST)

Auftrag:Kategorie verschieben und Links anpassen

Hallöchen, ich bräuchte einen Bot der folgenden Aufgaben erfüllt:

Danke im Voraus, --Flominator 11:26, 9. Aug 2005 (CEST)

Wobei ich es trotzdem klasse fände, wenn man jedes Lemma von Musikgruppe nach Band verschieben könnte! --Flominator 15:19, 10. Aug 2005 (CEST)
Warum denn das? Wenn du es schon vereinheitlichen willst, dann nehm doch wenigstens das deutsche Wort. - Viruzz (?!) 00:24, 31. Aug 2005 (CEST)

Guten Tag erstmal

Moin, wollte mal fragen ob es möglich wäre wenn jemand Redirects erstellen könnte wo dann das Datumsformat dd. mm. (dabei bei einstelligen Zahlen jeweils eine Null davor) zu dem jeweiligen Artikel führen würde z.B. 01. 05. zum 1. Mai. Sind dann 366 Redirects (mit 29. Februar), falls es "genehmigt" wird :-)

Guten Tag erstmal. Was du da vor hast widerspricht der Datumskonvention und wird allgemein (nach ausfühlicher Diskussion) nicht gewünscht. Bitte dem Antrag nicht nachkommen. --Schlurcher ??? 21:02, 15. Aug 2005 (CEST)

Bundesverwaltungsgericht (Deutschland)

Könnte ein Bot alles, was auf Bundesverwaltungsgericht linkt, auf Bundesverwaltungsgericht (Deutschland) umbiegen? Danke! --Filzstift 15:01, 30. Aug 2005 (CEST)

erledigt, soweit es geht... --Spongo 13:40, 12. Okt 2005 (CEST)

Interwikibots zu aktiv?

Moin! Ich finde, das die Bots, die Interwikilinks aufloesen, zu aktiv sind. Es ist ja eine tolle Sache, aber wenn dann wie im Beispiel Qi an drei Tagen hintereinander jeweils ein Bot eine oder zwei Sprachen nachtragen, ist das dann doch etwas uebertrieben, meine ich. Gut, ich habe rund 400 koreanische Artikel in meiner Beobachtungsliste, aber wenn wie heute 6 von 16 Aenderungen tatsaechlich von Benutzern kommen, ist das vergleichsweise viel. Und nein, in der Beobachtungsliste kann man Bots nicht ausblenden. Koennte man die Bots nicht dahingehend optimieren, dass sie mehr Aenderungen in weniger Schritten machen? Moeglich waehre doch ein Bottag pro Woche. Oder die Bots tragen die Links auf einer Liste ein und commiten die Aenderungen erst nach 7 Tagen. -- iGEL (+) 12:41, 5. Sep 2005 (CEST)

genau, ein Interwiki-Bot-Tag wäre echt ne gute Überlegung. Das blöde bei den Bot-Änderungen ist ja immer, dass man sich dennoch die Versionshistorie der Artikel anschauen müsste, es könnte ja sein, dass eine reguläre Änderung kurz vorher durchgeführt wurde, die man sonst übersieht. Und das von dir genannte Beispiel ist wirklich extrem und soo wichtig sind die interwiki-links auch nicht, dass solche Änderungen rechtfertigt. Auch find ich merkwürdig, dass jeder iwiki-bot-betreiber irgendwie sein eigenes Süppchen kocht. das ganz krasse bei der Hinzufügung von no:Qi: in no:Qi fehlen die interwiki-links komplett und den Artikel gibts schon seit März.. was soll man dazu noch sagen.... --BLueFiSH ?! 12:52, 5. Sep 2005 (CEST)
@Bluefish: jetzt hör mal auf zu nörgeln! Einerseits beschwerst du dich, dass die Bots zu oft laufen, andererseits meckerst du, dass in no:Qi Interwiki-Links fehlen. Was denn nun?
Zu Qi: die Seite war auf Wikipedia:Interwiki-Konflikte gelistet. Ich habe die letzten 2 Tage stundenlang Interwiki-Konflikte aufgelöst und habe eigentlich auch keine Lust, mir diese Arbeit von euch schlechtmachen zu lassen. Dadurch, dass ich den Konflikt bei Qi aufgelöst habe, war es für die anderen Bots möglich, Links nachzutragen, wodurch die Änderungen gehäuft auftraten. Das ist aber so nicht der Regelfall und deshalb ein schlechtes Beispiel.
@iGEL: Das mit dem Sammeln und Committen nach 7 Tagen ist eine wirklich dumme Idee. Lies mal, wie der Bot funktioniert: meta:Interwiki bot. Das einzige, was sich mit deinem Vorschlag ändern würde, wäre, dass der Bot anhand veralteter Informationen Änderungen machen würde. Einen Bottag pro Woche (à la 'Microsoft Patchday') halte ich auch für völlig unpraktikabel. Der Bot braucht schon jetzt mehrere Wochen für einen Durchlauf auf der deutschen Wikipedia; wenn er siebenmal so lang bräuchte, hieße das nur, dass mehr Leute die Links von Hand eintragen würden, wodurch Arbeitskraft vergeudet wird, die anderswo eingesetzt werden könnte. Denn verglichen mit dem Aufwand, der nötig wäre, um bei Seiten wie Italien die Interwiki-Links global auf dem aktuellen Stand zu halten, ist das Überprüfen der beobachteten Artikel doch ein Klacks. --Head Diskussion 15:28, 5. Sep 2005 (CEST)
ich nörgel halt gern, aber das war ja eigentlich kein richtiges nörgeln ;-) macht denn so ein iwiki-bot gleich die Änderungen in allen Sprachen (zu denen er die die Artikel kennt) oder nur in de.wp? Das erste will ich hoffen und davon ging ich auch bisher aus. Dass nun "Qi" so ein Sonderfall war, ok, das kann ja keiner wissen. Es wäre halt das optimalste, wenn man in der Beobachtungsliste Bot-Änderungen ausblenden könnte. Aber wirklich nur die Änderung des Bots, nicht den Artikel an sich. Von diesem müsste man quasi die Änderung des vorletzten Benutzers angezeigt bekommen. Dann findet sich mit großer Sicherheit auch keiner mehr, der sich über zu viele Bot-Änderungen beschwert ;-) Werd ich mir gleich mal notieren und morgen deswegen in bugzilla suchen. --BLueFiSH ?! 22:58, 6. Sep 2005 (CEST)
Der Bot macht Änderungen direkt in allen Sprachen mit, für die der Betreiber einen Account hat. Siehe z. B. Interwiki-Links auf Benutzer:Zwobot oder Benutzer:Robbot. Das Ausblenden in der Beobachtungsliste wäre toll, aber wahrscheinlich nicht effizient machbar. Das liegt an der Teilung der Datenbank in current und full: current beinhaltet nur die neueste Version, full auch alle alten Versionen einer Seite. Die Informationen, die für die Beobachtungsliste in der jetzigen Form benötigt werden, können komplett aus der current-Tabelle entnommen werden; um aber Bot-Änderungen auszublenden und die vorhergehende Nicht-Bot-Änderung anzuzeigen, wäre Zugriff auf die full-Tabelle notwendig, was sich negativ auf die Performance auswirken würde. --Head Diskussion 11:09, 7. Sep 2005 (CEST)
Ich dachte, diese Trennung wäre mit Version 1.5 aufgehoben worden. Gibt es irgendwo eine aktuelle Beschreibung des DB-Schemas, oder muss ich mir dazu die MediaWiki-Quellcodes anschauen? --SirJective 12:54, 7. Sep 2005 (CEST)
Ich war jetzt von http://download.wikimedia.org/wikipedia/de/ ausgegangen (Achtung, die neuesten Dumps sind kaputt). --Head Diskussion 14:45, 8. Sep 2005 (CEST)
Was ist an den Interwikibots so tragisch? Verursachen sie Performance Probleme? -- sparti 08:57, 7. Okt 2005 (CEST)

Bots und Artikel anlegen

Nach Diskussion auf der Mailingliste (siehe [2] und die Antworten), habe ich eine Zusatzregel eingefügt, dass Bots nicht massenweise Artikel anlegen. Kurz zusammengefasst ist der Grund, dass Bots nur Stubs produzieren können und uns das eben nicht voranbringt. --DaTroll 08:45, 7. Okt 2005 (CEST)

Ich halte diese Entscheidung fuer nicht sinnvoll. Bots, die sinnvolle Stubs anlegen (wie z.B. Gemeinde-Stubs) haben meiner Meinung nach durchaus ihre Berechtigung. Eine etwas breitere Diskussion waere da vielleicht von Vorteil (ich denke dass nicht alle die Mailingliste lesen, ich z.B. nicht). --Florian G. 14:31, 7. Okt 2005 (CEST)
Nachtrag: Ich konnte nach durchsicht der Mails nur zwei finden, die den Vorschlag unterstuetzt haben (keine Gegenstimmen, insgesamt nur vier Mails zu dem Thema). Das scheint mir ein bisschen zu wenig Diskussion zu sein, um so eine radikale Zusatzregel einzufuehren. --Florian G. 15:17, 7. Okt 2005 (CEST)
Die Mailingliste ist und bleibt der Ort, an dem grundsaetzliche Themen diskutiert und beschlossen werden. Will jemand die Mailingliste nicht lesen, dann ist das halt so. Ansonsten kann ich auch nichts dafuer, dass es keine Argumente gegen eine solche Regelung gibt? --DaTroll 15:21, 7. Okt 2005 (CEST)
Nun, dass es keine Argumente gibt, stimmt wohl nicht. Ich denke auch Dir sind einige bekannt. Zuerst einmal ein sehr grundlegendes Argument:
  • Die Artikel erfuellen alle Anforderungen gueltiger Orts-Stubs - sie nur nicht zuzulassen, weil der Ersteller kein Mensch sondern ein Bot ist, halte ich fuer (vorsichtig formuliert) eine etwas seltsame Logik. Man muesste also ueber solche Orts-Stubs im Allgemeinen diskutieren. Dies ist bereits viel und ausfuehrlich geschehen (vor kurzem z.B. in der Loeschdiskussion). Zusaetzliches Argument gegen ein Bot-gestuetztes Anlegen der Artikel waere hoechstens, dass es sehr viele Artikel sind. Aber wenn Konsens besteht, dass die Artikel gueltige Stubs sind, duerfte das wohl kein Problem sein, oder?
Auch wenn schon oft an anderer Stelle diskutiert, hier nochmal zwei Argumente fuer Orts-Stubs im allgemeinen:
  • Es ist sinnvoll kurze Artikel mit den wichtigsten Informationen zu kleinen Orten zu haben - wenig Information ist besser als keine Information.
  • Es zeigt sich bereits jetzt nach sehr kurzer Zeit am Beispiel der von mir erstellten Piemont-Artikel, dass die Existenz der stubs zu Mitarbeit und Erweiterung anregt - eine grosse Anzahl ist bereits erheblich erweitert worden.
Gruesse, --Florian G. 15:39, 7. Okt 2005 (CEST)
Also: Stubs sind schlecht. Wir wollen keine Stubs. Stubs werden deswegen akzeptiert, weil sie ein gewisses Grundniveau haben, auf dem aufgebaut werden kann. 1000 Stubs kann kein Mensch ausbauen. Sie werden auf sehr lange Zeit Stubs bleiben. Und das ist schlecht fuer die Leser und schlecht fuer die Enzyklopaedie.
Wir sind eine Enyzklopaedie. Damit sammeln wir Wissen, das ist mehr als blosse Information. Entsprechend sind die Stubs eben nicht besser als nichts. Sie sind mit Nichts in etwa Pari, deswegen werden sie nicht geloescht. Voranbringen tut das die Wikipedia nicht. Wer kontrolliert ein Gebiet ausbauen will kann das gerne tun. In den Gemeinden aus Schleswig-Holstein wird gerade vorgefuehrt, wie man das machen kann, ohne Bot und mit viel groesserem Erfolg. --DaTroll 15:44, 7. Okt 2005 (CEST)
Da möchte ich dir doch wiedersprechen: Stubs sind eben nicht per Definition schlecht. Stubs sind per Definition kurze Artikel. (siehe Wikipedia:Stubs#Umfang --Habakuk <>< 15:52, 7. Okt 2005 (CEST)
das "viele" ist imho sogar der knackpunkt, wie ich anderswo schon ausführte: wikipedia ist besonders wegen ihrer einigermaßen ausführlichen artikel beliebt, der leser möchte also möglichst keine stubs. zu viele stubs sollten wir daher vermeiden. menschen ist das schlecht auszureden, aber bisher kommen wir mit dem ausbauen noch so einigermaßen hinterher. schwierig wird das, wenn wir anfangen automatisiert stubs zu erzeugen: dagegen hat man als ausbauer kaum noch chancen. ich denke nicht, daß die paar italienartikel den kohl fett machen, aber ich fürchte doch den tag, an dem leute auf die idee kommen, gezielt jede nur mögliche datenbank in stubform in die wikipedia zu werfen. -- 16:12, 7. Okt 2005 (CEST)
Zwei Aussagen (eine von Da Troll und eine von D) wuerde ich gern kommentieren:
  • Stubs sind schlecht. Dieser Aussage moechte ich widersprechen. In vielen Faellen ist ein (guter) Stub meiner Meinung nach voellig ausreichend (das gilt auch fuer andere Lexika, auch der gern zitierte Brockhaus kennt Stubs) - zum Beispiel im Fall eines Dorfes ohne besondere Eigenschaften in Italien (oder anderswo). Hier reicht eine Kurzbeschreibung von Land, Region, geom. Lage und Einwohnern voellig aus. Falls jemand das dann zu einem langen Artikel ausbaut ist das schoen, aber absolut nicht notwendig.
  • wikipedia ist besonders wegen ihrer einigermaßen ausführlichen artikel beliebt: Ist das tatsaechlich so? Gibt es so etwas wie eine Nutzer-Umfrage zur Wikipedia? Quelle?
Gruesse, --Florian G. 19:18, 7. Okt 2005 (CEST)

Also was ich in dem vorhergehenden Abschnitt von DaTroll als Argumentation gelesen habe, stellt sich für mich folgendermaßen dar. Zuerst einmal die "Argumente" - die mehr oder weniger triviale Ansichten einer Person darstellen -, die so dargestellt werden, als seien sie ein Konsens einer großen Mehrheit bzw. der Community.

DaTroll: Nach Diskussion auf der Mailingliste (siehe [3] und die Antworten), habe ich eine Zusatzregel eingefügt, dass Bots nicht massenweise Artikel anlegen.

Darauf die berechtigte Kritik eines Benutzers: Ich konnte nach durchsicht der Mails nur zwei finden, die den Vorschlag unterstuetzt haben (keine Gegenstimmen, insgesamt nur vier Mails zu dem Thema). Das scheint mir ein bisschen zu wenig Diskussion zu sein, um so eine radikale Zusatzregel einzufuehren. --Florian G. 15:17, 7. Okt 2005 (CEST)

DaTroll: Die Mailingliste ist und bleibt der Ort, an dem grundsaetzliche Themen diskutiert und beschlossen werden. Will jemand die Mailingliste nicht lesen, dann ist das halt so. Ansonsten kann ich auch nichts dafuer, dass es keine Argumente gegen eine solche Regelung gibt?

Erst einmal höre ich immer "Ignoriere alle Regeln!", nun muss ich lesen, dass auf Mailinglisten "Beschlüsse" von vier Personen gefasst werden (können). Außerdem: Wo genau steht, dass der Zentrale Ort eine Mailingliste ist? Im Wikipedia:Portal wird generell immer auf die Diskussionsseiten der jeweiligen Artikel verwiesen.

DaTroll: Stubs sind schlecht. Wir wollen keine Stubs. ... Und das ist schlecht fuer die Leser und schlecht fuer die Enzyklopaedie.

Wer ist wir? Wer bestimmt, was Gut oder Schlecht ist? Oder sind "Leser" per Definition unmündig und müssen bevormundet werden? Und ist nicht ein Stub der Beginn eines Artikels und die Grundlage eines jeden Wiki?

DaTroll: Wir sind eine Enyzklopaedie. Damit sammeln wir Wissen...

Nochmals, wer ist wir? Auf der einen Seite höre ich von DaTroll, es ist egal, was in anderen Sprachversionen passiert ("...ist zum Glück egal"). Dann muss ich mir jetzt erklären lassen, dass der Brockhaus seit Jahrzehnten nur Müll produziert, da ja Ein-Satz-Artikel (engl. stub) kein Wissen darstellen. Und Wissen ungleich Information ist. In welchem schlauen Buch steht das alles... ich würde diese "Bibel für Genies" auch gerne lesen, damit ich erleuchtet werde und fortan in der "Wir"-Form reden darf. Vielleicht weiß ich dann auch, wo Information aufhört und Wissen beginnt? Und nach welchen Kriterien ich Wissen von Information trenne.

DaTroll: wikipedia ist besonders wegen ihrer einigermaßen ausführlichen artikel beliebt, der leser möchte also möglichst keine stubs.

Wo kann ich diese Leserbefragung nachlesen? Irgendwo muss diese Information ja herkommen pardon das Wissen.

DaTroll: menschen ist das schlecht auszureden,... (Anm.: zum Anlegen von Kurzartikeln)

Und weil man es nicht Ausreden kann - weil die meisten "Menschen" es nämlich als sinnvoll erachten oder es in der Natur liegt, auch wenig Information als Wissen zu betrachten im Gegensatz zu "Nichts" (Zitat) - wird dann über LA und SLA mit der Begründung Stub gelöscht und auf Relevanzkriterien verwiesen, die mal Anwendung finden und mal nicht (wenn jemand anders diese anführt und er nicht Administrator ist) - dann kommt meist "Ignoriere alle Regeln".

In diesem Sinne... ruhig mal zum Brockhaus greifen und auch mal Selbstreflexion betreiben. RIMOLA 15:45, 11. Mär 2006 (CET)


Mich wundert das noch keiner nach den Urheberrechten gefragt hat. Wenn irgendein Bot eine Datenbank aufbereitet in die WP stellt, so stellt das i.d.R. eine Urheberrechtsverletzung oder ähnliches dar (bin kein Jurist). Zu Datensammlungen gab es da auch schon irgendein Urteil, in Bezug auf das kopieren der Daten aus Telefonbüchern. --Taschenrechner 10:56, 8. Okt 2005 (CEST)
Das ist doch wieder eine ganz andere Baustelle, das Urheberrecht muss immer beachtet werden, egal ob den Artikel ein Mensch oder ein Bot einstellt.--Habakuk <>< 11:28, 8. Okt 2005 (CEST)
Nicht ganz. Wenn ich einen Artikel erstelle und dazu Infos wie Koordinaten, Einwohnerzahlen etc. aus einer DB nehme, ist das rechtlich unproblematisch. Bei einem Bot der hingegen einen wesentlich größeren Umfang der DB quasi kopiert, schon. Quellen die für einen menschlichen Artikelschreiber also legal zugänglich wären, sind es für Bot möglicherweise nicht. --Taschenrechner 19:41, 8. Okt 2005 (CEST)

Ich denke, aus der obigen Diskussion wird klar, dass für die Regel von DaTroll (Bots dürfen keine Artikel anlegen, wenn doch, werden sie gesperrt) kein Konsens existiert. Ich habe das daher geändert in:

*beachten, dass das massenweise Anlegen von Artikeln durch Bots umstritten ist. Solche Aktionen sollten vorher an geeigneter Stelle angekündigt werden.

Die Entscheidung, ob so eine Aktion sinnvoll ist, kann so von Fall zu Fall getroffen werden. In dem vorliegenden würde ich es begrüßen, wenn Florian weitere italienische Provinzen in Angriff nehmen würde. Hinweisen möchte ich übrigens noch auf den prominenten Fall en:User:Rambot.

Noch einige Entgegnungen:

Stubs sind schlecht. Wir wollen keine Stubs. - Bitte stelle nicht deinen persönliche Ansicht als allgemeingültig hin. Ein Stub ist (quasi per definitionem) etwas, das nach Ansicht der Community besser ist als kein Artikel - sonst würde er gelöscht.

wikipedia ist besonders wegen ihrer einigermaßen ausführlichen artikel beliebt, der leser möchte also möglichst keine stubs. Es wäre mir neu, dass dies der Hauptgrund für die Beliebtheit der Wikipedia ist. Und es kann doch keiner ernstlich behaupten, dass jemand, der sagen wir mal den Ortsnamen Baveno irgendwo liest, dabei nur weiß, dass das ein Ort in Italien ist, und bei Wikipedia mehr darüber erfahren will, über eine Such-Fehlermeldung erfreuter ist als über diesen Artikel, der viele relevante Basisinformationen bietet, wie man sie in einer Enzyklopädie erwartet. Übrigens ist an Wikipedia verschiedentlich auch eine gewisse Weitschweifigkeit und übertriebene Ausführlichkeit kritisiert worden. Ich selber sehe das nicht so eng und freue mich über exzellente Artikel, die 20 mal so lang sind wie der entsprechende Brockhaus-Artikel, aber man sollte Quantität nicht mit Qualität verwechseln - wir sind nicht die Schmökipedia.

Die Mailingliste ist und bleibt der Ort, an dem grundsaetzliche Themen diskutiert und beschlossen werden - das sehe ich anders, sie ist genausowenig der einzige Ort für grundsätzliche Entscheidungen wie der Chat, WP:FZW oder Diskussionseiten wie diese hier. Die Mailingliste wird meinem Eindruck nach von einigen wenigen Vielpostern dominiert und die Meinungen dort sind nicht immer repräsentativ. (Ich lese sie mit, habe dort aber noch nie gepostet.)

1000 Stubs kann kein Mensch ausbauen. Sie werden auf sehr lange Zeit Stubs bleiben - es kann auch "kein Mensch" 2.146.266 Artikel schreiben... Umgekehrt wird ein Schuh daraus: 1000 fehlende Artikel kann kein Mensch auf einmal schreiben. Wir werden also sehr lange Zeit keine Artikel über viele Städte in dem Land X haben. Jemand, der eine Zusatzinformation hat wie die von dir gewünschte - sagen wir mal, dass im Ort Y eine Kirche aus dem 16. Jahrhundert mit einem Fresko des Malers Z steht, und der vielleicht sogar ein Foto dieser Kirche hat - wird durch das Fehlen eines Eintrags über Y davon abgehalten, dieses Wissen beizusteuern, weil er dann erst einmal einen Eintrag für Y anlegen und die Basisdaten für den Ort zusammensuchen müsste, was von Hand (und wenn man sie zum ersten Mal sucht) viel länger dauert. Außerdem ziehen vorhandene Stubs via Google zusätzliche Mitarbeiter an.

Wir sind eine Enyzklopaedie. Damit sammeln wir Wissen, das ist mehr als blosse Information. - In diesem Zusammenhang nicht mehr als ein inhaltsloser Standardspruch. Was soll das hier genau bedeuten - etwa dass die Angabe, wie viele Einwohner ein Ort im Jahr 2004 hatte, nur "blosse Information" und kein Wissen sei? Warum wird sie dann nicht aus existierenden Artikeln über Städte gelöscht? Oder dass sie nur dann in einem Artikel stehen darf, wenn dieser zusätzlich noch irgendwelche Anekdötchen enthält, damit sich dieser ein wenig heimeliger und menschlicher liest und nicht irgendwie so kalt maschinengeneriert?

In meiner altehrwürdigen 16. Auflage der Brockhaus Enzyklopädie findet sich zB der Eintrag

Heiligenwald, Gem. und Bergarbeitersiedlung im saarländ. Kr. Ottweiler, mit (1949) 5900 Einw.

Offensichtlich haben die Redaktionen hochangesehener Enzyklopädien mit jahrhundertealter Tradition eine etwas andere Ansicht, was eine Enzyklopädie ist und ab welchem Mindestumfang ein Artikel deren Lesern nützlich ist, als einige Wikipedianer, die sich in eine "viel Text viel gut"-Ideologie hineingesteigert haben, statt die wirklichen Probleme von Wikipedia (Unzuverlässigkeit von Informationen, etc) anzugehen.

grüße, Hoch auf einem Baum 05:44, 10. Okt 2005 (CEST)

Mit Deiner Aenderung kann ich leben, habe aber noch das "sollten" durch "muessen" ersetzt. Was Brockhaus angeht, sind wir dann langsam doch an dem Punkt, wo "Brockhaus-Niveau" ein Loeschgrund ist? ;-) Scherz beiseite, aus Zeitgruenden moechte ich hier keine Grundsatzdiskussion fuehren, allerdings noch eine Anmerkung: die Mailingliste hat viele Vorteile und wer einen Mailclient mit Threading benutzt, kann sie auch sinnvoll nutzen. Da sie per Jimbo der Ort ist, wo grundsaetzliche Fragen diskutiert werden und IMHO auch der einzige Ort ist, wo dies moeglich ist, bleibe ich dabei.
Zurueck zum Thema Bots und Artikel: wenn eine Gruppe von Schreibern beschliesst, in den naechsten Monaten einen abgegrenzten Themenbereich gezielt zu verbessern und diese Aktion damit startet, das ein Bot erstmal 100 Artikel anlegt, dann faende ich das auf jedenfall sinnvoll. 1000 Artikel anlegen und sagen: "Fresst!" dagegen auf keinen Fall. ---DaTroll 11:05, 10. Okt 2005 (CEST)
Mh, jetzt doch noch ein Nachsatz: im Brockhausartikel erfahre ich immerhin, was diesen Ort gegenueber anderen saarlaendischen Siedlungen auszeichnet. In den Piemonter Artikel tue ich das nicht: da erfahre ich nur, dass es naemlich nichts besonderes ueber diese Gemeinden zu sagen gibt. Sie sind anscheinend voellig austauschbar, die eine ist 5, die andere 8 km^2 gross, die eine hat 1000, die andere 2000 Einwohner. Und das meine ich mit "Das ist nur Information und kein Wissen". Ganz abgesehen davon, dass ich nicht verstehe, wieso italienische Gemeinden relevant sein sollen. Ohne Ahnung zu haben, ist mein erster Eindruck, dass italienische Gemeinden einer deutlich kleineren Gliederung entsprechen als deutsche Gemeinden. Aber das ist wieder eine andere Diskussion. --DaTroll 11:25, 10. Okt 2005 (CEST)

Kleine Erweiterungen für MediaWiki, die Bots das leben leichter machen

Hallo ihr. Ich habe gerade zwei feature requests abgesetzt, komplett mit patch, die das Leben für Bot-Schreiber erleichtern sollen:

  • bugzilla:3652: eine Pseudo-Sprachoption, die Systemnachrichten unübersetzt zurückgibt. So sind sie per Skript leicht zu erkennen, und man muss sich nicht darum kümmern, wie die Nachrichten in den einzelnen Sprachen lauten, und dass sie jemand ändern könnte.
  • bugzilla:3651: eine Mini-Skin, die nur sehr wenig zusätzliches HTML zum eigentlichen Inhalt hinzufügt. So ist weniger "Müll" zu verarbeiten (und auch zu laden). Das könnte auch für PDAs etc ganz nützlich sein.

Also, schaut's euch mal an. Wenn ihr das gut finded, schreibt das bitte zum Bugreport dazu, damit wird das bald auf die Server bekommen. Wenn euch jemand einfällt, den das interessieren könnte - bitte weitersagen!

Ich hoffe, das ist nützlich -- D. Dÿsentrieb 19:44, 8. Okt 2005 (CEST)

BwBot

Da leider der BWBot nicht mehr aktiv ist, möchte ich vorschlagen, dass jemand, der Kontakt zu Bananaweizern hat, mal nachfragt, was los ist, ob er den Bot möglicherweise einem anderen zur Verfügung stellt. Meiner Meinung nach ist BWBot, der in technischer Sicht beste Bot, den es hier gibt

New bots

The requests on meta:Requests for permissions to flag KokoBot, MelancholieBot, and Eskimbot, have now been fulfilled. Angela 12:47, 25. Okt 2005 (CEST)

Interwiki-Bots

hierhin übertragen von Fragen zur Wikipedia --:Bdk: 12:51, 19. Nov 2005 (CET)

Gibt es eine Mölichkeit, Bots das Interwiki-Setzen auf bestimmten Seiten zu verbieten? Konkret geht es mir um [4], wo Boris23 und ich immer wieder falsch eingesetzte Links revertieren. Das Ganze hat sich auch nicht gebessert, nachdem in den anderen Sprachversionen die Links auf de: umgebogen wurden. --Andreas ?! 17:53, 15. Nov 2005 (CET)

it:Disneyland zeigt gleichzeitig auf de:Disneyland und en:Disneyland, womit der falsche Kreis wieder geschlossen ist. --Hendrik Brummermann 19:21, 15. Nov 2005 (CET)
Ja, aber auch nur weil gester wieder ein Bot den (gerade im vorherigen Edit entfernten) falschen Link wieder eingefügt hat. Manuell kommt man da nicht gegen an. --Andreas ?! 22:48, 15. Nov 2005 (CET)
Bin gerade unter MS Windows und kann daher mangels Schriftarten die restlichen Interwiki-Links auf it:Disneyland nicht prüfen. Ich bin mir aber ziemlich sicher, dass es dort welche gibt, die transitiv auf de:Disneyland zeigen. Sonst hätte der Bot den de-Link dort nicht reingesetzt. Wenn wir it:Walt Disney Parks and Resorts in beide Richtungen verlinken, ist der Spuk bezüglich it zu Ende. Ist dieser Link inhaltlich richtig? --Hendrik Brummermann 00:22, 16. Nov 2005 (CET)
Die folgenden per Interwiki-Link von it:Disneyland erreichbaren Artikel zeigen auf de:Disneyland: da:Disneyland, eo:Disneyland, he:דיסנילנד, ja:ディズニーランド, pl:Disneyland und zh:迪士尼乐园. --Hendrik Brummermann 08:24, 16. Nov 2005 (CET)

Ich habe FlaBot wegen des Problems auch mal was auf dessen Diskussionsseite geschrieben, der hat sich danach dann auch nicht mehr an der Seite "beteiligt". Diese Vorgehensweise ist aber ja wenig praktikabel, wenn ständig andere (neue) Bots ihre Änderungen vornehmen. --Andreas ?! 17:53, 15. Nov 2005 (CET)

pywikibot bricht ab, wenn die Links nicht eindeutig sind. Wenn wir also dort zum Bespiel en:Walt Disney Parks and Resorts verlinken, wird er den Link zu en:Disney Land nicht mehr reinsetzen. Das gleiche gilt für alle Links, die er darüber gefunden hat. Beim flüchtigen Durchschauen, ist nur it:Disneyland kaputt. Mangels italienischer Sprachkenntnisse kann ich allerdings nicht beurteilen, welche Links dort richtig sind.
Im Allgemeinen müsste es funktionieren, die falschen Links <!-- auskommentiert --> im Artikel stehen zu lassen, um zu verhindern, dass sie wieder und wieder eingefügt werden. --Hendrik Brummermann 19:21, 15. Nov 2005 (CET)
Das werde ich jetzt mal ausprobieren. Danke für den Tipp! --Andreas ?! 22:48, 15. Nov 2005 (CET)
Der pywikipediabot ignoriert auskommentierte Links. --Head [[Bild:Head Diskussion.png|Diskussion]] 14:09, 19. Nov 2005 (CET)

Ich hatte mit Yurikbot auch schon mal so ein Problem - anscheinend führt er keine Ausnahmenliste, siehe en:User_talk:Yurik#Interwiki_Bot_FAQ, man muss wohl selbst hingehen und falsche Interwikilinks in anderen Sprachen beseitigen, um so etwas zu stoppen. grüße, Hoch auf einem Baum 05:26, 16. Nov 2005 (CET)

Wenn ein Bot einen "falschen Link" setzt liegt das nicht dran das der Bot was falsch macht sondern das die User in den verschiedenen Sprachen was falsch gemacht haben. Also bitte nicht auf den Bot schimpfen sondern schnel von Hand die Sprachen verbessern. --Flacus 14:42, 11. Dez 2005 (CET) Benutzer:FlaBot
Und wenn man gerne Interwiki-Conflikte auflösen möchte, kann man bei mir auf dem Server (wöchentlich) eine aktuelle Liste mit allen Links aus meinem Interwiki-Link-Checker bekommen die nicht automatisch aufzulösen waren. URL
Ende Übertragung

en: I am asking permission to run an interwiki bot under the account Benutzer:Chlewbot. I have already tested under my own account on controlled conditions. I plan to run the bot only on pages originated in Spanish language Wikipedia. I am also asking for bot status on meta. — Carlos Th (Diskussion) 15:19, 30. Nov 2005 (CET)

Request at meta fulfilled. --Ascánder (talk at es:) 03:42, 22. Jan 2006 (CET)

Request Bot-Status

Hallo! In der Vorgehensweise steht, dass der Bot-Status auf meta beantragt werden soll und der Bot auch hier vorgestellt werden sollte. In meta wird das anders gesehen: Erst die Vorstellung des Bots, anschließend die Bitte um Bot-Flag. Ist das auf :de nur unpräzise ausgedrückt oder sieht man das auf meta anders als hier? --Flothi 16:08, 15. Jan 2006 (CET)

Technische Frage

Hi!

Seit diesem Diff habe auch ich die Technologie eines Bots zur Verfügung. Momentan läfut er aber nur als IP und auch nur auf den Unterseiten meiner privaten Spielwiese, um nix anzurichten. Er hat bisher nur ein Problem: Wikipedia sendet bei jedem Seitenaufruf ein neues Cooike dewiki_session. Wie kann ich dieses Cookie umgehen ohne eine riesige Cookiemanagement-Bibliothek zu schreiben(Ich code in PHP) ?

Danke,HD-α @ 21:53, 1. Mär 2006 (CET)

Frage zur Vorgehensweise, wenn Botänderungen gegen gültige Konventionen verstossen

Hallo allerseits, mir ist vor einiger Zeit aufgefallen, dass FlaBot bei Änderungen an Personenartikeln auch die Position der Personendaten im Artikel verändert. Lt. Wikipedia:Personendaten sollen diese unmittelbar vor den Interwiki-Links angeordnet werden, FlaBot verschiebt sie jedoch vor die Kats - diese Änderungen kommentiert er lapidar mit "kosmetische Änderungen".

Ich halte ein derartiges Umordnen gegen allgemeinen Konsens (mir ist nicht bekannt, dass der Botbetreiber Flacus bisher irgendeinen Versuch gemacht hat hier eine Änderung in seinem Sinne anzuregen) durch einen Bot nicht für sinnvoll - wie sollte man sich in so einem Fall verhalten? -- srb  15:45, 6. Mär 2006 (CET)

Laut Flacus′ Diskussionsseite macht Head die technische Seite des Bots. Flacus hat ihn darauf auch auf seiner Diskussion angesprochen. Head hat zwar noch nicht reagiert, scheint aber auch kaum aktiv gewesen zu sein, seit die Frage kam. Also bei Head nochmal nachhaken und Flacus bitten, den Bot vorerst keine Personenartikel mehr ändern zu lassen. Es scheint auf jeden Fall keine böse Absicht dahinterzustecken, vermute ich mal. --::Slomox:: >< 18:48, 6. Mär 2006 (CET)
Bitte auf Wikipedia Diskussion:Personendaten#Position weiterdiskutieren. --Head 02:28, 7. Mär 2006 (CET)

Und jetzt das gleiche Spielchen bei Zwobot

Muss wirklich jeder Bot den selben Mist bauen (siehe z.B. [5])? -- srb  11:14, 15. Mär 2006 (CET)

Wie gesagt, bitte auf Wikipedia Diskussion:Personendaten#Position weiterdiskutieren. --Head 13:38, 15. Mär 2006 (CET)

Interwiki-Bots

Moin!

Wir haben mitterweile soviele Interwikibots.. Kann man das nicht irgendwie besser organisieren damit nicht x Bots alls x Tage die selben Seiten überprüfen? In der Vergangenheit hatten z.B. Benutzer:Head und ich den Zwobot geteilt und jeder hat immer seine Abschnitte abgearbeitet.. Wie sieht das aktuell bei den Botbetreibern aus? -- da didi | Diskussion 11:37, 19. Mär 2006 (CET)

Stelle die Frage doch besser auf FzW, da sehen sie mehr Leute. Nich jeder hat diese Seite auf Beobachtuing oder schaut hier regelmäßig vorbei(verpflichtend für Botbetreiber ist nur Bots/Anfragen). Grüsse,HD-α @ 12:07, 19. Mär 2006 (CET)

IP-Bot

Was ist von so einem Bot zu halten? Ein Benutzername bzw. ein Ansprechpartner ist ja wohl das Mindeste. --Fritz @ 23:23, 25. Apr 2006 (CEST)

aufgrund der seltenen Edits zu verschmerzen denke ich. --BLueFiSH  00:07, 26. Apr 2006 (CEST)
durchaus möglich, dass es sich um einen bot mit defektem cookie-handling hält (wenn man komplett ohne cookies arbeitet, speichert MediaWiki den edit als IP) oder der botbetreiber(offensichtlich ist das ein pybot) nach einem upgrade o.Ä. vergessen hat, die passwörter neu einzugeben.HD-α @ 04:17, 26. Apr 2006 (CEST)
Nur als Hinweis, ich hatte letztens noch einen IP-Bot entdeckt:
82.245.240.2 (Diskussion • Beiträge • Sperr-Logbuch • globale Beiträge • automat. Sichtungen • Whois • GeoIP • RBLs)
Die Edits sind sichprobenmäßig OK. Ich hatte sie auch auf Ihrer Dikussionsseite angesprochen und gebeten sich anzumelden, und sich als Bot registrieren zu lassen. --Jutta234 Talk 23:10, 12. Jul 2006 (CEST)

Bot-Betreiber sollte Admin sein

Wenn ich mir die Liste der Bot-Betreiber ansehe, dann wird mir etwas unwohl. Ein Bot kann eine Menge Schaden anrichten. Daher ist es IMO wichtig, dass man dem Botbetreiber vertrauen kann. Er sollte auch gute Kenntnisse über Wikipedia-Konventionen mitbringen. Um es kurz zu machen: Sollte man nur Admins erlauben, einen Bot zu betreiben? -- tsor 20:20, 29. Apr 2006 (CEST)

das halte ich für unsinn. es gibt einen haufen leute, denen ich vertraue und die sich mit wp auskennen, und kein admin sind. wenn ein bot scheiße baut, dann sperrt man ihn eben. -- 20:26, 29. Apr 2006 (CEST)
tsor: das ist schwachfug. vor allem wegen der zig interwiki-bots.HD-α @ 20:38, 29. Apr 2006 (CEST)
Mein Motiv für diesen Vorschlag habe ich hier angedeutet. -- tsor 21:41, 29. Apr 2006 (CEST)
Zerr nicht immer alte Kamellen ans Tageslicht. Ich bin froh genug dass der aufgehört hat, aber nein, jetzt kommst Du wieder mit dem Mist mit dem Accountvandalen.HD - B - @ 21:45, 29. Apr 2006 (CEST)
Da nennt sich einer Fragenmensch, nennt sich um in Klever (warum auch immer), nennt sich wieder um in HD (warum auch immer) und nun betreibt er hier einen Bot. Mir dreht sich da der Magen um. Ich plädiere dafür, das HD keinen Bot betreiben darf. -- tsor 21:49, 29. Apr 2006 (CEST)
Das mit meinen Nicks geht dich rein gar nichts an.Und was genau findest Du an meinem Bot verwerflich?? Andernfalls hast Du keine Gründe mir das verbieten zu dürfen. HD - B - @ 21:54, 29. Apr 2006 (CEST)
Musst du aufgrund dieser Meinung aber gleich so pauschalisieren? Nur weil dir einer von vielen Bot-Betreibern nicht in den Kram passt, heißt das noch lange nicht, dass du Forderungen wie "Bots nur für Admins" stellen brauchst. --CyRoXX (?) 21:52, 29. Apr 2006 (CEST)
HD war der Auslöser dafür, dass ich Bots nur in den Händen von Benutzern sehen möchte, denen die Community vertraut. Admins geniessen auf Grund ihrer Wahl ein gewisses Vertrauen, andere sicherlich auch. Aber eine Wahl zum Botbetreiber (analog der Adminwahlen) möchte ich doch nicht einführen. Also mein Vorschlag: Wer einen Bot betreiben möchte möge sich vorher mittels einer Adminwahl von der Community das Vertrauen aussprechen lassen. -- tsor 22:13, 29. Apr 2006 (CEST)
Gibt es einen konkreten Anlaß? Wie ich sehe, werden im Moment ja sogar IP-Bots zumindest toleriert. --Fritz @ 22:16, 29. Apr 2006 (CEST)
Mein Bauchgefühl. Fritz, findest Du es gut, dass sogar IPs einen Bot betreiben dürfen? Hast Du soviel Vertrauen in die IPs, dass sie einen Bot verantwortungsvoll betreiben? -- tsor 22:19, 29. Apr 2006 (CEST)
Ok, akzeptiert. Und nein, ich finde es nicht gut, deshalb auch meine Frage einen Abschnitt weiter oben. --Fritz @ 22:28, 29. Apr 2006 (CEST)
Mein schlechtes Gefühl bei HD. IMHO redet er gelegentlich drauf los und weiss nicht so genau worüber er redet, ganz aktuell: kategorisieren von Redirects. Weiter die Dinge, die ich oben erwähnte. Diese führen eben dazu, dass ich mich bei einem HD-Bot unwohl fühle. Er erscheint mir zu verspielt. Hast Du Vertrauen in einen HD-Bot? -- tsor 22:53, 29. Apr 2006 (CEST)
Auch wenn ich HDs Meinung (Kats aus Redirects raus) nicht unbedingt teile, aber gleich zu mutmaßen, er könnte ohne Vorwarnung und auf eigene Faust loslegen um SEINE Meinung zu vertreten und durchzusetzen, ist sicherlich weit hergeholt und unbegründet. Ganz klar: Wer absichtlich gegen die Regeln verstößt, wird bestraft. Hätte - und das ist eine nicht eingetretene Ereigniskette - HD seinen Bot angeworfen, ohne das die Diskussion auf WP:FZW beendet ist, und ohne dass dort ein eindeutiges, (nur) Bot-lösbares Ergebnis zustande gekommen wäre und ohne dass er überhaupt Rücksprache mit Wikipedia:Bots/Anfragen genommen und seine Aktion diskutierbar angekündigt hätte, dann wären natürlich entsprechende Gegenmaßnahmen angebracht. Zum Thema "Kategorisierte Redirects" kann ich nur sagen: Es ist nur eine Meinung, die HD geäußert hat, und Meinungen zu äußern ist mMn noch erlaubt.
Zu den IP-Bots: Da hier wie bereits angedeutet kein Ansprechpartner und gegenüber IPs doch eher die Vandalismus-Annahme existiert, sollten (und werden?) diese unterbunden. IP-Bots sind eine wirkliche Gefahr, unkontrollierbarer als jeder sperrbare Account.
Insgesamt kann ich aber nur sagen: Das zwischen euch beiden, tsor und HD, ist eine sehr persönliche Sache. Diesen Einzelfall eines tiefgreifend gestörten Vertrauensverhältnisses zu einem Botbetreiber darf man aber nicht pauschalisieren. Der Hinweis, dass HD vorher bereits unter verschiedenen anderen Nicks agierte ist deshalb auch nicht dienlich für die eigentliche Frage, die von tsor aufgeworfen wurde: Sollte man nur Admins erlauben, einen Bot zu betreiben? -- tsor 20:20, 29. Apr 2006 (CEST) --CyRoXX (?) 23:29, 29. Apr 2006 (CEST)
Was ich von HD halte, steht auf seiner Bewertungsseite. Das heißt aber nicht, daß ich ihm zutrauen würde, ohne "Genehmigung" durch die Community plötzlich per Bot Redirects zu entkategorisieren. Und wenn er es - z.B. im Triebfahrzeugbereich - trotzdem machen würde, wäre er schneller gesperrt als er piep sagen könnte (@HD: Der Eisenbahnbereich ist ein sehr gutes Beispiel, warum kategorisierte Redirects manchmal notwendig sind!). So gesehen hält sich mein Vertrauen zwar in Grenzen, eine echte Gefahr sehe ich aber nicht. Bei einem IP-Bot besteht auch keine Gefahr, denn echte Vandalen werden sich sowieso an keine Regel halten, und einen fahrlässig außer Kontrolle geratenen Bot könnte man problemlos sperren. --Fritz @ 00:36, 30. Apr 2006 (CEST)
Die Geschichte mit den Karten war mir eine gute Lehre.HD - B - @ 10:09, 30. Apr 2006 (CEST)

Problem mit Python

Bin grad dabei, ein Botskript für eine aktuelle Anfrage zu schreiben. Dabei habe ich ein Problem mit der Zeichencodierung: Mit den folgenden Zeilen rufe ich die Klasse/das Unterprogramm auf:

bot = CategoryMoveToUpRobot(catTitle)
bot.run()

In diesem steht folgendes:

class CategoryMoveToUpRobot:
   def __init__(self, cat):
       self.cat = catlib.Category(wikipedia.getSite(), 'Category:' + catTitle)
       # get edit summary message
       wikipedia.setAction(wikipedia.translate(wikipedia.getSite(), self.msg_remove) % self.cat.title())
       self.mylist = [u'ECHO (Comedy)']
   def run(self):
       for self.catTitle in self.mylist:
           wikipedia.output('>>> ' + self.catTitle + ' <<<')
           cat = catlib.Category(wikipedia.getSite(), 'Category:' + self.catTitle)
           articles = cat.articles(recurse = 0)
           if len(articles) == 0:
               wikipedia.output(u'There are no articles in category %s' % cat.title())
           else:
               for article in articles:
                 wikipedia.output(u'>>> %s <<<' % article)

Mit Die Doofen, Michael Mittermeier, Mundstuhl und Otto Waalkes hat er keine Probleme, aber bei Rüdiger Hoffmann verschluckt er sich aufgrund des Umlauts und spuckt nur eine Fehlermeldung aus: "UnicodeDecodeError: 'ascii' codec can't decode byte 0x81 in position 3: ordinal not in range(128)". Wie kann ich Python dazu bringen, dass er statt ASCII- den Unicode-Codec verwendet? --CyRoXX (? ±) 22:22, 20. Mai 2006 (CEST)

Es könnte hilfreich sein, die Python-Files alle in einem Programm wie Dreamweaver (ja, das Ding von Macromedia) zu öffnen und dann als UTF-8 zu speichern. Musst Du aber leider immer machen, wenn Du die Dateien verschiebst, Windows pfuscht dann nämlich die kodierung zam.HD - @ 02:56, 6. Jun 2006 (CEST)

Wie erkennt man Bots?

Doofe frage vielleicht, aber ich erkläre es mal: Wenn jemand ein Programm schreibt, welches auf seinem eigenen PC läuft und - sobald dieser PC eine Verbindung zum Internet aufgebaut hat - dieses Programm sich unter einem zuvor angelegten Benutzernamen in der Wikipedia automaitsch einlogt um dann automatisier Anderungen vor zu nehmen: Woran erkennt man das es ein Bot ist, wenn der erschaffer des Programmes dieses vorher nicht hier angemeldet hat und es auch nicht als Bot kennzeichnet? --195.93.60.35 21:54, 22. Mai 2006 (CEST) PS: Genauso kann ein Bot ja auch einfach als IP schreiben.

Eher schlecht. Es gibt Nutzer, welche große Änderungsmengen auf Vorrat machen und dann mit einem Mal absenden - somit fällt die Möglichkeit der Erkennung durch eine hohe Artikelfrequenz auch raus. Wenn es viele, hochfrequente Änderungen mit ähnlichen Inhalten sind, stehen die Chancen gut :) . Conny 18:34, 23. Mai 2006 (CEST).

Vorlage:Hallo

Die Vorlage:Hallo sollte aus dort angegebenen Gründen per subst eingebunden werden. Von dieser Verfahrensweise wird allerdings zum Teil kein Gebrauch gemacht. Die Links auf die Vorlage weisen rund 1.500 Einbindungen auf Benutzerdiskussionsseiten aus. Was haltet ihr davon, die Einbindung {{Hallo}} per Bot durch {{subst:Hallo}} zu ersetzen? --CyRoXX (? ±) 14:28, 1. Jun 2006 (CEST)

Viel! Je schneller Du das machst, desto besser.HD - @ 14:30, 1. Jun 2006 (CEST)
Auch wenn die Idee gut gemeint ist: Nimm an fremden Diskussionsbeiträgen bitte nicht derartige Änderungen vor. Wenn ein Benutzer {{Hallo}} statt {{subst:Hallo}} verwendet, mag das zwar suboptimal sein, allerdings ist es letztendlich seine Sache, wie er die eigenen Beiträge gestaltet. Siehe auch Konventionen bei der Benutzung von Diskussionsseiten. -- kh80 •?!• 15:32, 1. Jun 2006 (CEST)

interwiki Verweise in mehreren Wikipedias ändern

Gibt es im pywikipedia Framework eine Möglichkeit, die ausgegebenen fehlenden Verweise zwischen anderen Wikipedias automatisch in den entsprechenden Wikipedias zu ergänzen? Grüße, Conny 16:00, 5. Jun 2006 (CEST).

Zwobot noch aktiv?

Hallo! Ist der Zwobot-Betreiber noch aktiv? Zwobots letzte Änderung wurde am 16. März registriert. Falls nicht, sollte er von der Liste der aktiven Bots genommen werden. lg the one who was addicted (#) 17:36, 19. Jun 2006 (CEST)

Nicht mehr aktiv seit dem Generve bei Wikipedia Diskussion:Personendaten#Position --Head 00:02, 1. Jul 2006 (CEST)
Ok. Hab ihn jetzt in die Liste der nicht aktiven verschoben. --the one who was addicted (#) 15:11, 12. Jul 2006 (CEST)

aller anfang...

moin,
dem frumpy ist grad die grandiose idee gekommen einen bot zu programmieren, der bei allen bildern, die von dem tool "commonsclash" direkt als duplicate gekenntzeichnet werden (explizites bsp: http://tools.wikimedia.de/~daniel/WikiSense/CommonsClash.php?wikifam=meta.wikimedia.org&order=img_name&max=100&order=img_name&format=html) das template {{NowCommons}} einzufügen. nun gut, wie fang ich da an bzw. wen könnte ich die idee übermitteln, der was feines draus macht?

--Frumpy !? 14:47, 12. Jul 2006 (CEST)

unlösbare Interwikiprobleme

Gern an mich, Grüße Conny 20:50, 28. Jul 2006 (CEST).

Problem mit http-request...

Tach,
bin hier schier am Verzweifeln mit folgendem Problem beim Scripten des PHP-Bots: Die WP-Server wollen mir nicht auf den Request antworten, der den veränderten Artikeltext beinhaltet (POST). Ich kann sonst alle Quelltexte problemlos empfangen, auch den von der edit-Page (alles über sockets), nur eben nichts "posten" sozusagen. Selbst als ich den http-Header und Content so verändert habe, dass er dem Request, den Mozilla beim Bearbeiten einer Seite sendet, gleicht (natürlich mit dem richtigen Cookie etc.), bekomme ich kein "200 OK" oder "301 Moved" oder sonstirgendwas von dem zuständigen WP-Server, nichtmal ne Fehlermeldung...
Ich hoffe, ihr versteht mich und könnt helfen... vielen Dank schonma. :) --Damn it 19:05, 31. Aug 2006 (CEST)

301 liefert AFAIK die neue url mit. --DaB. 01:03, 15. Sep 2006 (CEST)
er bekommt keine medlung zurück.
@ damn it: du musst die 3 hidden fields edittime, starttime und edittoken als post-argument mitliefern, wahrscheinlich is das der grund. wenn du fragen hast, wend dich ruhig an mich, ich hab mir auch einen php-bot zusammengeschraubt.grüsse,HardDisk rm -rf chmod 19:41, 15. Sep 2006 (CEST)

Bothilfe benøtigt

Ich wuerde gerne das norwegische Strassennetz in die deutsche Wiki uebernehmen. Sind ca. 400-500 von der Struktur her sehr æhnliche Artikel, bei denen allerdings die Vorlagen (hier zu sehen) entsprechend angepasst werden muessten. Eigentlich eine klassische Botaufgabe; um die Nachbearbeitung (Ergænzung, aber speziell Uebersetzung!) wuerde ich mich dann von Hand kuemmern.

Wer kann weiterhelfen? --Kantor Hæ?Quellenpflicht now! 22:45, 17. Sep 2006 (CEST)


Hilfe beim Botbau

Moin! Ich bin heute auf die Idee gekommen, dass ich eigentlich auch einen Bot haben sollte ;). Mein Problem ist jetzt, das ich die Dokumentation zu dem Thema eher nur so mittelprächtig finde. Gibt es irgendwo etwas detailliertere Beschreibungen? Erstes praktisches Problem. Wie kann ich den Namen des Lemmas auslesen? Und ganz Allgemein: Welche Programmiersprache ist das Überhaupt? Man kann zwar aus den Quelltexten halbwegs was raus lesen, aber eine Übersicht der verfügbaren Funktionen wäre an sich schon schön. MfG --Carlos-X 01:25, 27. Sep 2006 (CEST)

Na ja, es gibt unterschiedliche Wege zu einem Bot, kommt auch drauf an, was man damit erledigen will. Da es Software ist, die zu entwickeln gilt, gehört dazu auch etwas Erfahrung. Mit so mal eben hinschreiben ist es nicht getan. --SteveK ?! 11:30, 30. Sep 2006 (CEST)
Ich will das Rad ja nicht neu erfinden. Der PhytonBot hat ja schon recht viele Funktionen. Momentan will ich nur das Lemma auslesen und in einer Variablen speichern. So was muss doch eigentlich in maximal 3 Zeilen machbar sein. --Carlos-X 16:12, 30. Sep 2006 (CEST)
Ich nutze bei meinem KatBot VBasic, da bekomme ich das Dokument gleich aufgedröselt geliefert. Wie das bei dem PhytonBotFrame geht, kann ich dir nicht sagen, aber wahrscheinlich ähnlich. --SteveK ?! 16:30, 30. Sep 2006 (CEST)

Verbesserungsvorschlag (mit ggf. Aufnahme als Regel): Anzeige des letzten Zeitstempels bei Bot-Änderungen

Ich hab mir mal was überlegt

  • Wenn ein Bot eine großflächige Änderung macht (z.B. aktueller Fall: Katbot fügt "See in Europa" in dutzenden/hunderten Artikeln hinzu), dann kann man in der Beobachtungsliste zwar "Bot-Änderungen" ausblenden, blendet damit aber gleichzeitig alle von ihm geänderten Artikel aus.
  • Ergo heißt das für mich: Wenn ich sichergehen will, dass da nicht kurz zuvor was von jemand anders was geändert hat oder der Artikel gar vandaliert wurde, muss ich mir die Versionshistorie jedes einzeln Artikels anschauen.
  • Wenn ein Bot nun in den Änderungskommentar die Zeit der vorherigen letzten Änderung mit anzeigen würde, könnte ich für mich abschätzen, ob ich mir von dem jeweiligen Artikel die Versionshistorie ansehe oder ob es unnötig ist. Wie der Bot an die Zeit kommt, da gibts sicherlich mehrere Wege, einer wäre zum Beispiel auf der Artikelseite ganz unten aus der Box aus dem Text "Diese Seite wurde zuletzt am 6. Oktober 2006 um 18:37 Uhr geändert." die Zeit herauszufilten. Was es da noch an Wegen gibt, weiß ich nicht, gibt sicherlich noch Datenbanktechnisch weitere. Evtl. wird auch ein Zeitstempel in dem ominösen RAW-Seitentext mitgeliefert, keine Ahnung.
  • Nachteil(e): Es kostet (Kosten (Technik)) mehr, das Datum auszulesen, weil ggf. erst die Artikelseite geholt und geparst werden muss, oder auch weil erst ein Blick in die Versionshistorie des Artikels geworfen werden muss, je nachdem welche Möglichkeiten es dazu gibt, siehe vorheriger Punkt.
  • Vorteile(e): zum einen natürlich Zeitersparnis für die Benutzer, weil sie nicht bei jedem Watchlist-Eintrag die Historie öffnen müssen. Und damit ergibt sich auch gleich der Vorteil für die Server: Es erfolgen weniger Aufrufe der Versionshistorie, ggf. auch weniger Aufrufe des Diffs des Bots.
  • Mein Fazit: Wenn mehrere/viele Benutzer einen Artikel beobachten, ist es sicherlich günstiger (Kosten (Technik)), die zusätzliche Angabe durch den Bot machen zu lassen, als wenn die Benutzer alle auf die Versionshistorie aufrufen. Auf jeden Fall ist es benutzerfreundlicher.

Meinungen/Einwände/Gegenvorschläge? Gruß --BLueFiSH  (Langeweile?) 00:13, 11. Okt. 2006 (CEST)

Mein Bot könnte so etwas ohne Probleme tun. Du willst den Zeitstempel der letzten Änderung direkt vor der des Bots? sebmol ? ! 00:46, 11. Okt. 2006 (CEST)
Ganz genau diesen. Bspw. "Bot-Änderung: bla xyz (Zeitpunkt vorletzte Änderung: 5.09.2006 20:05)". --BLueFiSH  (Langeweile?) 00:49, 11. Okt. 2006 (CEST)
Nur um das nochmal einzugrenzen: Es muss nicht jeder Bot so einen Zeitstempel angeben, aber für oben genanntes Beispiel, also beim Ändern von wirklich vielen Artikeln in einem kurzen Zeitraum, die wahrscheinlich auch noch von mehreren/vielen Leuten beobachtet werden, halte ich es für sehr sinnvoll. Ein Zeitstempel bei deinem Archivierungsbot wäre mir persönlich zum Beispiel nicht so wichtig ;-) --BLueFiSH  (Langeweile?) 01:00, 11. Okt. 2006 (CEST)
Mein Bot führt auch Massenumkategorisierungen durch: Benutzer:Sebbot/Log/2006-10-11. sebmol ? ! 07:58, 11. Okt. 2006 (CEST)
Eigentlich sehe ich das eher als Problem in der Mediawiki-Software. Wenn ich eigene Änderungen, Botänderungen o. ä. ausblende, würde ich es für sinnvoll halten, wenn dann eben die neueste nicht ausgefilterte Änderung berücksichtigt würde. Das mit dem Zeitstepmel ist allenfalls ein Workaround. Feature-Request? --Tobias K. 15:10, 11. Okt. 2006 (CEST)

Unter „Einstellungen“/„Anzeigen von "Letzte Änderungen"“ bzw. „Beobachtungsliste“ kann man „Erweiterte Darstellung“ ankreuzen, damit sieht man alle Änderungen an einer Seite und nicht nur die letzte. --Habakuk <>< 15:18, 11. Okt. 2006 (CEST)

Ja ist mir schon bewusst, das verlängert die Liste aber z.B. durch WP:FZW so sehr, dass man sie dann nicht mehr benutzen kann. Ich jedenfalls nicht. Kommt mir das nur so vor oder sehe ich es richtig, dass offenbar nur sebmol bereit ist, eine derartige Änderung seines Bots durchzuführen und andere Botbetreiber diesen Vorschlag ignorieren? Sehr schade. --BLueFiSH  (Langeweile?) 10:50, 14. Okt. 2006 (CEST)

Und wieder einmal vermisse ich einen Zeitstempel. Aktueller Fall: Löschung der Sehenswürdigkeiten-Kategorie.. Sind ja nur 33 Artikel deren Historie ich jetzt einzeln anschauen muss. Schön, dass sich hier soviele (vor allem Botbetreiber) an der Diskussion beteiligen. Toll, echt toll. --BLueFiSH  (Langeweile?) 16:53, 20. Okt. 2006 (CEST)

Ich habe jetzt nachgeschaut, die Realisierung ist möglich. Von mir bekommst du zukünftig als Änderungszeit vor dem BOT-Edit die GMT-Zeit geliefert. Ich muss dass aber noch umsetzen. Die Ortszeit lohnt den Aufwand nicht. --SteveK ?! 17:31, 20. Okt. 2006 (CEST)
Sehr schön! Danke! Deiner ist auch der, der mich zu dieser Überlegung bewogen hat. =) Mit GMT kann man ich leben, die ein/zwei Stunden spielen da keine Rolle. --BLueFiSH  (Langeweile?) 17:38, 20. Okt. 2006 (CEST)
das hab ich auch ohne deine Nachricht auf der Bot-Disk. gewusst. Ich hatte aber nicht gleich eine Lösung, denn im Edit-Fenster gibt es den Zeitstempel ja nicht sichtbar. Nach dem Anschauen des Quelltextes und nach Rücksprache mit Sebmol habe ich aber eine Lösung gefunden, die sich ohne allzugroßen Aufwand machen läßt. --SteveK ?! 17:47, 20. Okt. 2006 (CEST)
Schau mal [6], so ist es jetzt. --SteveK ?! 21:00, 20. Okt. 2006 (CEST)
Prima! (vielleicht noch in Klammer setzen) Du hast dann jetzt bei mir nen Stein im Brett ;-) --BLueFiSH  (Langeweile?) 21:10, 20. Okt. 2006 (CEST)
Mir wär es lieber, wenn man sich mit dem Konzept zur Neuordnung der Geo.Kats sachlich befassen würde. Aber das ist eine andere Sache. Die Klammer: Dann stehen zwei Klammern hintereinander (Diskussion und Timestamp), deshalb hab ich sie gleich weggelasse. --SteveK ?! 21:34, 20. Okt. 2006 (CEST)

Entsperrung XBot

Ich weiß nicht, ob ich hier richtig bin, aber da ich hierher verwiesen wurde versuch ich es mal. Nichtich hat vorhin meinen XBot (disc contr) gesperrt. Die Begrünung lautet "Vollmüllen von Beobachtungslisten mit nicht-inhaltlichen, unnötigen Edits". Viel Inhalt war wirklich nicht dabei, aber imho können die wenigsten Bots Artikel um neue Absätze erweitern. Dass die Änderungen unnötig waren kann man auch anders sehen. Ich habe eine Reihe von Links die auf Weiterleitungsseiten gingen umgebogen und dabei die Schreibweise an den Wikistandard angepasst. Wie auch immer: Ich bitte um die Entsperrung meines Bots und eine evtl. Aufklärung, was ich nicht darf. MfG --Carlos-X 02:05, 11. Okt. 2006 (CEST)

Solche Miniänderunegn müllen nur unnötig die Versionsgeschichte zu. Sowas kann ein Bot gerne NEBENBEI tun (also wenn er was Größeres an einem Artikel macht gleich so Kleinkram mit). --DaB. 02:08, 11. Okt. 2006 (CEST)
Das ausschließliche Ersetzen von Links auf Weiterleitungsseiten, egal ob botgesteuert oder manuell, ist, sofern die Weiterleitungsseite nicht anschließend gelöscht werden soll, völlig sinnlos. Links auf Begriffsklärungsseiten ersetzen ist da schon sinnvoller, aber das bitte nicht ohne manuelle Kontrolle was da wohin ersetzt wird. --BLueFiSH  (Langeweile?) 02:32, 11. Okt. 2006 (CEST)

Lesezugriff verweigert

Hallo, ich betreibe keinen Bot, ich habe einfach nur ein Python-Skript geschrieben, das mittels der Funktion urllib.urlopen() den Quellcode einer Wikipedia-Seite einlesen sollte. Als Ergebnis bekomme ich jedoch nur ein plumpes "Access Denied". Wie kann ich das umgehen? - jan b 23:52, 4. Nov. 2006 (CET)

Du solltest dir bestehenden Botcode ansehen, um die Lösung dafür zu finden. Einer Erklärung wäre hier aus Sicherheitsgründen kontraproduktiv. sebmol ? ! 00:02, 5. Nov. 2006 (CET)
Ja, leuchtet ein, danke. - jan b 00:17, 5. Nov. 2006 (CET)
Security through obscurity? Ohne dein konkretes Problem zu kennen: schau' dir mal den Useragent-String an, den dein Script sendet und vergleiche es mit dem Wert, den ein Browser sendet. Ich finde diese "Beschränkung" im übrigen Quatsch, weil jeder erstmal darüber stolpert, aber selbst ein DAP (in Analogie zu DAU) es letztlich hinbekommt. -- aka 11:12, 5. Nov. 2006 (CET)
Ok, habe es jetzt einmal mithilfe des PyWikipediaBot und einmal mit akas Tipp probiert. Beides geht, aber letzteres ist um einiges schneller. Ich werde mal versuchen damit automatisch diese Liste zu generieren. - jan b 14:40, 5. Nov. 2006 (CET)

PHP-Bot

Hallo. Bin auf der Suche nach einem PHP-Bot. Ausser Bgbot und PHP mediawiki bot habe ich jedoch nichts gefunden. Leider sind beide nicht sehr aktuell/ausgereift. Hat jemand einen funktionierenden PHP-Bot, dessen Quellcode er mir zugänglich machen kann? Danke + Gruß, --Rhododendronbusch 00:33, 8. Nov. 2006 (CET)

Mail mich mal an, was für einen Bot du brauchst, dann strick ich ihn dir. Grüsse, HardDisk rm -rf chmod 16:51, 8. Nov. 2006 (CET)
Danke für das Angebot. Wie gesagt, ich habe mir das Bgbot-Framework runtergeladen. Mit diesem kann man Seiten editieren, jedoch musste ich einige Umstellungen vornehmen. Das Framework funzt auch so weit, aber Fehler werden nicht richtig abgefangen (Seite gesperrt ⇒ Framework meldet Seite gespeichert ...). Die eigentliche(n) Aufgabe könnte ich dann selber programmieren. Was ich will ist eher so was wie:
  1. Seite (textarea) holen
  2. Edit (von mir)
  3. Seite speichern (mit Fehlerabfang)
Wenn Du magst, kann ich Dir mal das schicken, was ich bis jetzt habe!? Gruß, --Rhododendronbusch 23:08, 8. Nov. 2006 (CET)
Mal aus Interesse: Warum muss es PHP sein? --Head 03:17, 9. Nov. 2006 (CET)
Weil ich eigentlich mit PHP ganz gut umgehen kann und keine Lust habe mich in Python einzuarbeiten. Gruß, --Rhododendronbusch 07:44, 9. Nov. 2006 (CET)

Rechtschreibbots?

Gibt es eigentlich überhaupt noch einen Bot, der die Wikipedia:Liste von Tippfehlern korrigiert? Benutzer:BWBot ist ja schon seit 1,5 Jahren inaktiv (deshalb habe ich ihn auch eben aus der Übersichtsseite entfernt). Mir fällt nur Aka ein, der kümmert sich aber um richtige Tippfehler. Mir würde es vor allem darum gehen, dass sich die diversen ss-Fehler in Deutschland nicht noch weiter verbreiten. Z.B. "iess" oder "Strasse" oder "grösste" und und und. Wenn wir es mit ss schreiben, nehmen sich das die Leute an und denken es wäre richtig. Per Hand kommt man da doch nicht nach... --BLueFiSH  (Langeweile?) 19:00, 6. Dez. 2006 (CET)

wenn es die möglichkeit gäbe fulltext-dumps zu durchsuchen (wikisign is leider nicht mehr da und ich habe keine maschine mit der leistungsfähigkeit dazu) wäre ich gern bereit, da was zu basteln. grüsse,HardDisk rm -rf 20:07, 6. Dez. 2006 (CET)

Weiß noch wer anders was schlaues zu sagen? --BLueFiSH  (Langeweile?) 11:37, 11. Dez. 2006 (CET)

Die automatische Korrektur häufiger Rechtschreibfehler ist sicherlich etwas sehr Tolles. Wenn dafür ein Bot eingesetzt wird, bei dem die zu ersetzenden Fälle gut durchdacht umgesetzt sind, habe ich nichts dagegen einzuwenden. Allerdings wird es zunächst einmal viel Arbeit mit sich bringen, häufige Rechtschreibfehler zu identifizieren und aufzunehmen. Außerdem bedarf es einer sehr vorausschauender Fehlerüberprüfung, damit es keine Fehl-Ersetzungen gibt. Man denke beispielsweise an eine "B370, die zur Bundestrasse (Bundes-trasse) ausgebaut werden soll" oder an die Herren und Frauen Strasser. Insbesondere bei der Schreibung ß/ss sollte auch die Sonderregelung für schweizbezogene Artikel beachtet werden. Wie immer problematisch sind ebenfalls Zitate, die sich mangels passender Markierungen schwer als solche erkennen lassen dürften. --CyRoXX (? ±) 18:46, 12. Dez. 2006 (CET)
Ist mir schon klar, dass es immer irgendwo was gibt, worauf man aufpassen muss. Allerdings wären mir z.B. unberechtigt korrigierte Schreibweisen in Zitaten, weil diese nicht adäquat gekennzeichnet waren, als Kollateralschaden lieber als Millionen von Rechtschreibfehlern. Nachkontrollieren kann man immer noch, erstmal machen ist aufwendiger. --BLueFiSH  (Langeweile?) 18:51, 12. Dez. 2006 (CET)
Hab mir auch mal überlegt, mit dem Bot auf Fehlerjagd zu gehen, bin aber zu dem Schluss gekommen, dass es nicht nur nicht viel bringt, sondern sogar von Nachteil sein kann. Über das bereits Genannte hinaus. Viele schweizbezogene Artikel tragen gar keine Markierung, was ein Bot nicht berücksichtigen kann. In einem solchen Artikel macht es keinen Sinn, z. B. alle "Strassen" zu ersetzen, aber andere falsche "ss", die er nicht im Repertoire hat, stehen zu lassen. Dasselbe gilt z. B. auch bei "dass"-Ersetzungen. Dann doch lieber nur korrekte schweizerische/alte Rechtschreibung als Durcheinander. Ein anderer Punkt ist, dass ein Artikel mit einem klaren Schreibfehler mit größerer Wahrscheinlichkeit noch mehr Fehler enthält und noch nie geprüft wurde. Wenn man nur die häufigen Falschschreibungen entfernt, sind potentiell fehlerhafte Artikel schwerer zu finden und im Artikel bleiben nicht nur die seltenen, sondern vor allem die vielen ohne Textverständnis nicht zu erkennenden Fehler (z. B. Grammatik, Formulierungen) stehen. Deshalb werde ich keinen Bot auf so etwas ansetzen und würde auch anderen abraten. -- Harro von Wuff 23:04, 12. Dez. 2006 (CET)
"korrekte schweizerische/alte Rechtschreibung": Strasse und schliesslich war in Berlin und dem Rest von Deutschland noch nie richtig, zumindest ganz sicher nicht nach alter RS (GROSSBUCHSTABEN-Schreibungen ausgeschlossen). Darauf will ich hinaus. Und was das fehlen eines <!--schweizbezogen--> in Schweizer Artikel betrifft: Wenn fehlt, Pech gehabt, es wird dann sicherlich jemand wieder reinmachen. =) --BLueFiSH  (Langeweile?) 06:11, 13. Dez. 2006 (CET)
Eben das "Pech gehabt" missfällt mir. Ein "dummer" Bot fällt hier eine Entscheidung und der denkende User darf dann wieder aufräumen. Und es ist ja nicht Sinn der Aktion, hinterher nochmal alles kontrollieren zu müssen, somit bleibt ein Großteil der Änderungen "sicherlich" erstmal bestehen. Solche unkontrolliert über das Gewünschte hinausschießende pauschalen Botedits sollten von vorneherein unterbleiben. Gruß -- Harro von Wuff 13:00, 13. Dez. 2006 (CET)

Tawkerbot

Übertragen von Wikipedia:Bots/Tawkerbot (Übertragen von Wikipedia:Bots/Anfragen)

Auf so etwas sollte man wirklich keine menschliche Arbeitskraft verschwenden. Auf entsprechende Diskussionen in Wikipedia Diskussion:Administratoren/Notizen [7] [8] zurückkommend, möchte ich nachfragen, ob jemand einen Tawkerbot osä für dewiki aufsetzen kann. --Pjacobi 16:27, 7. Sep 2006 (CEST)

Oder noch deutlicher: [9], ein Totalblanking, das 15 min stehenblieb in einem der Top-100-Artikel laut Zugriffsstatistik. --Pjacobi 16:29, 7. Sep 2006 (CEST)
Aber was ist, wenn der Vandale einen Stub mit einigen Seiten voll Unsinn vollschreibt, ein Benutzer das revertiert und der Bot nicht erkennt, dass die massive "Textlöschung" Vandalismusbeseitigung ist. (so schon auf en.wp geschehen). Gruß Liesel 16:53, 12. Sep 2006 (CEST)
Die Fehlerrate des Bots ist erträglich und der Bot schreibt (sehr höfliche!) Warnungen auf die Benutzerdiskussion. Der gute Revertierer bekommt also mit was passiert und kann reagieren. --Pjacobi 19:19, 12. Sep 2006 (CEST)

Ich unterschreibe hiermit die Petition von Benutzer:Pjacobi. --Asthma 00:33, 13. Sep 2006 (CEST)

Auf der Mailingliste hab ich nen hinweis gesetzt. Ich wäre bereit, den Bot zu betreiben und jegliches Risiko auf meine Kape zu nehmen.HardDisk rm -rf chmod 15:46, 13. Sep 2006 (CEST)

ich bin aus diversen gründen überzeugt, daß das keine gute idee ist:

  • das ding ist blöd. saublöd. größenordnung regenwurm.
  • als autor möchte ich mich nicht mit einem bot herumschlagen, der mir womöglich noch einen gerechtfertigten edit zurücksetzt. bei einem menschen kann ich den ansprechen. ein bot hört mir nichtmal zu.
  • irgendwer muß dem bei jedem revert auf die finger kucken. aber wer überwacht schon gerne andauernd einen bot?
  • die vandalen, die er erwischt, sind normalerweise immer noch harmlos. in spitzenzeiten ist das evtl. anders.
  • wettrüsten ist unbedingt zu vermeiden.

daher meine frage: brauchen wird den unbedingt, oder wär's einfach "nice to have"? im letzteren falle wäre ich dafür, vom einsatz abzusehen. -- 00:11, 14. Sep 2006 (CEST)

Genau, und am besten ist es sowieso, wenn sich jede Änderung angeguckt wird. Aber werden nicht genau deswegen die gesichteten Versionen eingeführt? Daher halte ich solchen einen Bot auch für unnötig. Gruß -- ri st 00:49, 14. Sep 2006 (CEST)
So nen Bot wäre wesentlich besser als gesichtete Versionen. Die wären damit nämlich größtenteils überflüssig und verursachen theoretisch einen viel größeren Overhead, als die paar false positives, die so ein Tawkerbot anrichtet. Wenigstens versuchsweise sollte dieser Bot hier auf jeden Fall eingesetzt werden. Der läßt sich zumindest um einiges leichter wieder abschaffen, als irgendwelche von Wikimedia oktruierten Sichtungszwänge. --Asthma 19:22, 15. Sep 2006 (CEST)

Die gesichteten Informationen sind immer noch nicht in Sicht und geistloser Feld-, Wald- und Wiesenjournalismus wird wie immer noch vollständig von der Rececnt Changes Patrol erwischt. Diese 40 Minuten [10] hätten nicht sein müssen. Je schneller Vandalismus revertier, umso geringer ist der Anreiz. Von einem Bot revertiert zu werden (und so schnell, dass die meisten Vandalen die automatische Warnung auf ihrer Benutzerdiskussion sehen) ist besonders demotivierend. --Pjacobi 09:07, 22. Sep 2006 (CEST)

  • Volle Zustimmung ! -- Max Plenert 21:29, 23. Sep 2006 (CEST)
  • Versuchsweiser Einsatz über 30 Tage - anschließend saubere Auswertung der Ergebnisse.--SVL Bewertung 21:44, 23. Sep 2006 (CEST)

Von einem Bot revertiert zu werden ist besonders demotivierend - ja, und zwar besonders in ungerechtfertigten Faellen. Ich halte das Ding fuer sozial unvertraeglich (auf en haben sich Leute schon Edit-Wars mit dem Bot geliefert, der beharrlich vandalisierte Versionen wiederhergestellt hat). Jemand, dem einmal sowas passiert, der kommt nie wieder. --Elian Φ 21:57, 23. Sep 2006 (CEST)

  • Das alltägliche Revertieren von Vandalismus ist für die aktiven Benutzer der Wikipedia besonders demotivierend. -- Max Plenert 22:07, 23. Sep 2006 (CEST)

wesentlich ist nicht die frage, wieviele vandalen revertet werden -- wesentlich ist, wieviele gutwillige autoren verschreckt werden. vandalen kommen und gehen und sind schnell revertet. gute autoren sind dagegen mangelware. eine "saubere auswertung" dürfte auch ein bißchen schwierig werden: wenn ich als neuling etwas beitragen will und mich dabei ein bot verarscht, dann bin ich weg und laß mich nicht mehr befragen. -- 22:07, 23. Sep 2006 (CEST)

Ich habe jetzt das Konto Benutzer:Tawkerbot eingerichtet. Den Bot werde ich starten, sobald sich die Mehrheit der Benutzer dafür ausspricht. Ansonsten nicht. HardDisk rm -rf chmod 22:14, 23. Sep 2006 (CEST)

Gott bewahre. Bei der englischen Ausgabe korrigiere ich schon lange nix mehr, weil die dort auch mit solchen Automaten "Jagd" auf Vandalen machen. Da ich dort kein Benutzerkonto habe und als IP editiere wurden ca. 80% der edits sinnfrei revertiert. Einmal habe ich einen der betreiber angesprochen und bekam zur Antwort "you blanked the initializing section" o.ä. und das würde automatisch als Vandalismus angesehen. Sowas merkbefreites müssen wir uns nicht geben.--Wiggum 23:57, 24. Sep 2006 (CEST)

Tawkerbot revertiert anonyme und angemeldetete Benutzer gleichermaßen, deswegen hat es Dich nicht erwischt. Einen Absatz 0 komplett zu löschen, ist wirklich in der weit überwiegenden Anzahl der Fälle Unsinn, vielleicht wärst Du nicht revertiert worden, wenn Du einen sinnvollen Editkommentar geschrieben hättest?
Mal wieder ein typischer Fall, wo uns der Bot fehlt (1h übersehen):http://de.wikipedia.org/w/index.php?title=Vereinigungskirche&diff=21867274&oldid=21865030.
Pjacobi 12:05, 25. Sep 2006 (CEST)

Jetzt mal erstmal eine ganz dumme Frage: Wie soll dieser Bot überhaupt funktioniren, d.h. wie will der Bot Vandalimus von ernsten Beiträgen auseinanderhalten? --Ich bin nicht die Signatur, ich putz hier nur 21:52, 28. Sep 2006 (CEST)

insgesamt sehe ich solch einen Bot kritisch, obgleich die Intention vernünftig klingt. In wie fern kann solch ein Bot sinnvolle von -losen Edits unterscheiden (und sei es eine Änderung eines Artikels zum Redirect o.ä.)? Eine erweiterte Anzeige in den "Letzten Änderungen" (z.B. ähnlich zur Größenangabe hier oder als %-Angabe des Artikelinhaltes) wäre in meinen Augen ein sinnvoller Schritt zur schnellen Erkennung grob validierter Artikel. Sollte sich ein Bot aber in einem kurzen(!) Testlauf bewähren und keine sinnlosen Edit-Wars (siehe oben) heraufbeschwören, so könnte eine dauerhafte Einführung näher diskutiert werden. --Andreas 06 22:57, 28. Sep 2006 (CEST)

Nur einmal so eine Idee - Wäre es nicht sinnvoll, wenn der Bot in einer Art Testphase vandalierte Artikel erst einmal nur meldet. Evtl. könnte er auf seiner Benutzerseite eine Liste ähnlich den "Letzten Änderungen" ((Unterschied) (Versionen) . . Lemma‎; 03:04 . .Benutzer (Diskussion)) erstellen, anstatt selbst zu revertieren. Ist zwar nicht ganz so effektiv, würde aber auch keine Schäden anrichten.
Wie arbeitet der Bot überhaupt - Zeichenanzahl, die gelöscht wurde oder evtl. auch eine Filtertabelle mit von Vandalen häufig verwendeten Wörtern / Wortkombinationen, wie das berühmte "ficken ficken ficken", ... usw. --Btr 04:42, 29. Sep 2006 (CEST)

Ich hab die Seite jetzt zweimal gelesen, aber nicht ein Kriterium gefunden, nach dem solch ein Bot vogehen soll. Weitergedacht: Wenn die Regeln ekannt sind, werden sich die Vandalen danach richten. Ausgrenzen kann man dann vielleicht die Gelangweilten aus dem Informatikunterricht, aber deren vandalismus besteht sellten in Änderungen grösserer Natur, die fügen irgendwo ein Schlampen oder ein ficken ein und das wars dann. Aus der von mir beobachteten Menge an Artikeln ist mein Schluss, dass die mutwilligen Vandalen in der Minderheit sind, das Werk schlechter Autoren daher die mehrzahl darstellt:

  • mal eben einen Weblink anbringen, weil das Thema wichtig ist, man selber aber nicht in der Lage ist, das Thema entsprechend aufzubereiten
  • Das ach so tolle Urlaubsfoto reinhaengen, selbst wenn der Artikel bereits aus 5 Bildern und nur einem Absatz besteht
  • alle Jahreszahlen verlinken
  • alle Jahreszahlen entlinken
  • eine neue Navileiste erfinden und sie in n Artikeln einbinden

...und und und... Dagegen ist die Anzahl der Artikel, welche durch "echte" Vandalen verändert wird, deutlich in der Minderheit.

Kurze Rede, langer Sinn: Nach welchen Regeln sll so ein Bot vorgehen? Wo beantrage ich dann bei wem einen Edit, weil der Bot unerwünschterweise revertiert hat? --Huebi 07:24, 29. Sep 2006 (CEST)

Ich habe mich mal auf der Seite des Bots umgesehen und seine Reverts angeschaut. Mir scheinen die Ergebnisse durchaus gut. Wie das nun mal in Deutschland ist, wernden bei uns vor jeder Neuerung alle möglichen und unmöglichen Argumente gebracht, was denn passieren könnte und das mögliche positive wieder total unterschlagen. Um diesen Leuten entgegenzukommen wäre die Idee von Btr nicht schlecht. Dannach könnte jeder sehen obs klappt oder nicht. Aber bitte gebt dem Bot doch mal eine Chance.--Arma 08:25, 29. Sep 2006 (CEST)
Nun auf der einen Seite bat man um Senf, und den hab ich gegeben. Probleme sollte man aber schon im vorraus mal andiksutiert haben. Ohne jetzt auf Realisierbarkeit oder Performance nachzudenken würde ich schon jetzt mal folgendes vorsehen:
  • Whitelists von Benutzern, meinetwegen durch Beschluss der Portale/Projekte/Redaktionen.
  • Gerne auch Blacklists von Wörtern, die durch nicht "whitegelistete" Benutzer eingefügt werden
Was ist denn sonst so angesagt? Revertieren von Edits, die einen Artikelschwund von sagen wir mal mehr als 30% bringen? Du sagst, eine Chance geben, aber ich würd gerne wissen, wie denn der Ansatz aussehen soll, sprich das Regelwerk. --Huebi 09:09, 29. Sep 2006 (CEST)

Ich wäre sehr neugierig wie das Teil funktioniert. Könnte man nicht wirklich mal einen 48h Testlauf machen, wobei der Bot nur anzeigt was er machen würde, wenn er dürfte wie er wollte? Dann könnten wir etwas sinnvoller diskut.--Olaf2 11:21, 29. Sep 2006 (CEST)

Siehe auch: en:User:Tawkerbot2, en:User:Tawkerbot2/FAQ, en:User:Tawkerbot2/diffs und en:User:Tawkerbot2/requests. --Asthma 11:25, 29. Sep 2006 (CEST)


Eine wichtige Information, sowohl für die, die Angst haben, dass ihre eigenen Beiträge revertiert werden, als auch für die, die zuerst eine Probephase wünschen, in denen Tawkerbot nur meldet:
  • Tawkerbot2 has two modes, angry and calm which can be set to either:
    • angry where it will revert as many times as it detects vandalism
    • calm where it will revert only once and will not re-revert. The bot is normally calm and will only be set on angry in extreme cases (like Tawker getting sick of hitting rollback 50 million times)
D.h. Im Normalfall revertiert Tawkerbot nur einmal, das ist für den meisten Schülervandalismus O.K. und meldet ja gleichzeitig den Vorfall. Wenn man doch mal der Heuristik zum Opfer fällt und der eigene sinnvolle Edit von Tawkerbot revertiert wird, revertiert man einmal zurück und alles ist in Butter.
Pjacobi 11:35, 29. Sep 2006 (CEST)
Na toll, jede Einfügung einer Umfangreichen URV wird also demnächst problemlos durchgehen, aber revertieren muss ich das wenigstens zweimal. Seht mal zu, dass ihr die URVs in den Griff kriegt, das ist wesentlich wichtiger. --87.78.181.0 15:14, 29. Sep 2006 (CEST)

Verläuft das hier jetzt wieder im Sand oder wie siehts aus?--Arma 20:04, 20. Okt. 2006 (CEST)

Momentan recht besch*****en, da ich Probleme mit meinem Server habe. Hoffe aber, dass das bald vorbei is...HardDisk rm -rf chmod 19:25, 27. Okt. 2006 (CEST)

2007-11-04 15:42 (diff) (minor) Augiasstallputzer 2007-02-13 20:43 (diff) Hoch auf einem Baum (revert - kein grund für löschung erkennbar, thema ist weiterhin aktuell, mehrfachdiskussionen vermeiden) 2006-12-13 20:10 (diff) (minor) Augiasstallputzer (AZ: Der Seiteninhalt wurde durch einen anderen Text ersetzt.) 2006-10-27 17:47 (diff) Pjacobi (Lösche eigenen wirren Eintrag, der offenbar ein c+p Unfall war)

Bot gegen Vandalismus

Wie wär´s damit, wenn man einen Bot (oder mehrere Bots) gegen Vandalismus programmiert? Immer wieder wird vandaliert, was nervig ist. Der Bot könnte alle neuen Artikel und Beiträge auf Vandalismus überprüfen und sie anschließend revertieren. Dies könnte z. B. der Fall sein, wenn ein großer Teil eines Artikels entfernt wird oder bestimmte Wörter (z. B. das mit "F" am Anfang) reingeschrieben werden oder alles in Großbuchstaben geschreiben wird. Ich glaube, dass es in der englischen Wikipedia so einen Bot schon gibt. Kann man auch hier einen Bot gegen Vandalismus programmieren und betreiben? --Siku-Sammler 01:23, 20. Jan. 2007 (CET)

ja, ich schraube auch schon daran, einen zumindest gegen das komplettleerern von seiten zu bauen.HardDisk rm -rf 10:59, 20. Jan. 2007 (CET)
Gute Idee! --Siku-Sammler 19:00, 20. Jan. 2007 (CET)
Es gab eine Machbarkeitsstudie zu solch einem Bot, der seine Leistung bereits eindrucksvoll demonstriert hat. So etwas ist in der Wikipedia aber weder nicht erwünscht.
Was kann schon dabei schiefgehn, komplettleerende IPs zu reverten? --seb 15:10, 8. Feb. 2007 (CET)
Nichts kann dabei schiefgehen. Eher würde solch ein Bot uns sogar Arbeit ersparen, da nicht mehr so viel Unsinn revertiert werden muss. --Siku-Sammler ?! +- 21:12, 9. Mär. 2007 (CET)

Begriffsklärungsseiten

Ich würde gerne pywikipedia dazu benutzen Statistiken bezüglich Begriffsklärungsseiten zu erstellen. Ich will dabei nicht auf die Wikipedia schreiben, sondern nur lesen. Ist es akzeptabel, wenn ich die Daten hierfür live von de.wikipedia.org hole? Secular mind 22:07, 20. Jan. 2007 (CET)

Sollte OK sein, aber lad die Seiten nicht einzeln, sondern mehrere auf einmal über Spezial:Export. Du kannst dafür den PreloadingGenerator von pywikipedia benutzen, guck dir touch.py an, wenn du ein Beispiel dafür brauchst, oder meld dich, wenn du Hilfe brauchst. --Head 16:34, 21. Jan. 2007 (CET)
Hat sich erledigt. Mit Pywikipedia hat es nicht so geklappt wie ich mir das vorgestellt habe, inzwischen habe ich ein Rupyskript, welches einen xml-Dump durchforstet. Secular mind 13:25, 2. Feb. 2007 (CET)

Franz Büchner

Wie kann man abstellen, dass ein Bot (Benutzer:JAnDbot) immer wieder fehlerhaft zuschlägt? Der Fall: im deutschen Artikel Franz Büchner wird ein Wissenschaftler und Mediziner beschrieben. Dieser hat aber auch gar nichts mit einem in der engl. u. tschech. Wikipedia vorhandenen Franz B. zu tun, der ein Soldat des 1. Weltkriegs war und 1920 ermordet wurde. Er ist auch nicht so sehr von Belang, dass es einen deutschen Artikel über ihn geben müsste. Aber wie kann man den irreführenden Automatismus unterbinden? --Chleo 17:49, 8. Feb. 2007 (CET)

Du musst den Link nicht nur auf de: rausnehmen, sondern auch auf en: und cs:. --Head 18:16, 8. Feb. 2007 (CET)

BLUBot

Hallo - ich plane gerade einen Bot (BLUbot) welcher die Kategorie:Wikipedia:Bilder ohne Lizenzangabe abarbeiten soll, dabei auf den jeweiligen Seiten {{BLU}} durch {{subst:BLU-User}} ersetzen und den entsprechenden Benutzern einen Hinweis auf die jeweilige Benutzerdiskussion setzen soll - da es hier auch um Benutzerdiskussionen handelt, würde ich jedoch gerne hier ausdiskutieren in wiefern das OK ist und was dabei beachtet werden sollte. Prinzipiell währe es auch möglich Emails über die Wikipedia-Mail-Funktion an die entsprechenden Benutzer zu verschicken - ich bekomme jedoch etwas Bauchschmerzen dabei... . Für Vorschläge und Meinungen zu diesem Verfahren bin ich natürlich offen. Viele Grüße, --C-M ?! +- 19:06, 12. Feb. 2007 (CET)

Hört sich super an, besonders die Sache mit den E-Mails. Vorlagen findest du auf Benutzer:Flominator/BLU-User FAQ. Nur bitte verteil es über die Tage und richte eine Diskussionsseite für Rückfragen ein, sonst werde ich mit dem Abarbeiten der Kategorien hoffnungslos überlastet sein. Du koordinierst das hoffentlich mit Benutzer:Mdangers/DOL? --Flominator 19:15, 12. Feb. 2007 (CET)
Die Idee finde ich sehr gut! Vorschlag: In alle DOL-Bilder {{BLU}} reinsetzen, und diese dann mit dem geplanten BLUbot abarbeiten > Zwei Fliegen Seiten auf einen Streich :) --Luxo 22:06, 12. Feb. 2007 (CET)
Doppelt bis dreifach super ist dann noch eine email und eine Diskussionsseitenbenachrichtuigung für jeden BLU-Uploader höchstautomatisch! Danke an C-M, wir haben heute schon durch Forrester vermittelt miteinander gesprochen. Dies erfordert mehr Leute zum Abarbeiten der BLU-User, wenn der bot soweit ist, müssen wir gross die Werbetrommel rühren. Alles wird besser, sagt --Mdangers 00:11, 13. Feb. 2007 (CET)

Bitte dabei beachten, dass ein Benutzer mit Bot-Flag bei Benutzerdiskussionsseitenänderungen keinen Kackbalken erzeugt, der Benutzer es dann also ggf. nicht mitbekommt, wenn einer auf seine Seite geschrieben hat. --BLueFiSH  (Klick mich!) 00:23, 13. Feb. 2007 (CET)

Das stimmt nur, wenn der Bot die Änderung als „Kleinigkeit“ markiert. Sonst erscheint der Balken wie bei einem normalen Benutzer. sebmol ? ! 00:27, 13. Feb. 2007 (CET)
wieder was gelernt ;-) --BLueFiSH  (Klick mich!) 02:07, 13. Feb. 2007 (CET)

Worauf setzt du auf, um den Bot zu programmieren? Falls du mit dem Wikipedia:Pywikipediabot arbeitest, melde dich, wenn du Hilfe bei der Umsetzung brauchst. --Head 01:52, 13. Feb. 2007 (CET)

Ich hab mich jetzt auf das DotNetWikiBot-Framework festgelegt, es fehlen "nur" noch die methoden zum Auslesen der History (um den Uploader zu erhalten) sowie eine Methode zum versenden von Mails über Wiki-Mail. Viele Grüße, --C-M ?! +- 02:12, 13. Feb. 2007 (CET)
Schade, im Pywikipediabot-Framework gibt es schon eine Routine für das Auslesen der Versionsgeschichte der Datei und auch der Bildbeschreibungsseite. Die E-Mail-Funktion wäre für das Framework auch interessant geworden. Naja, mich mit dem DotNet-Ding noch nicht beschäftigt, aber damit wird's wohl auch machbar sein. --Head 02:26, 13. Feb. 2007 (CET)

Bot Vorschlag: Bilder Interwiki

In der deutschsprachigen Wikipedia gibt es viele bilderlose Artikel, obwohl es in anderen Wikipedias in den entsprechenden Artikeln Bilder gibt. Könnte man einen Bot schreiben, der diese Artikel/Bilder erkennt und die (der de.wikipedia-Lizenzen genügenden) Bilder in einer Liste zum manuellen Abarbeiten auflistet? Oder gibt es so einen Bot schon, oder ist es technisch nicht möglich/zu aufwändig oder würde zuviel Schrott rauskommen oder ist es gar unerwünscht? --129.217.129.133 00:27, 14. Feb. 2007 (CET)

Dafür gibt es in PyWikipediaBot den Parameter -interwiki im Skript imagetransfer.py. Das Skript sucht Bilder in allen über Interwiki verlinkten Sprachen und fragt nach, welche davon es hochladen soll.
Der Code ist allerdings entstanden, bevor es Commons gab. Upload nach Commons ist kein Problem, allerdings stolpert das Skript über Bilder, die schon auf Commons liegen. --Head 00:43, 14. Feb. 2007 (CET)
Habe ihn repariert, so dass er bei schon auf Commons liegenden Bildern nicht mehr krepiert. Allerdings weiß ich nicht, ob es wirklich das ist, was du dir vorstellst. --Head 00:51, 14. Feb. 2007 (CET)
Danke, habe mir gerade Python-Programmierung: Pywikipediabot durchgelesen, allerdings nicht viel davon verstanden; habe mich nämlich vorher mit dem Thema auch nie beschäftigt. Ob es wirklich das ist, was ich mir wünsche kann ich nicht sagen.
Ich hatte mir das ungefähr so vorgestellt:
  1. Bot sucht sich bilderlose Artikel in de.wikipedia.org aus
  2. Bot vergleicht durch die Interwikilinks, ob es Bilder in den anderssprachigen Wikipedias gibt
  3. Bot überprüft, ob die Lizenzen de.wikipedia.org konform sind
  4. Bot schreibt Artikel und in-Frage-kommende-Bilder in ne schöne Liste
  5. Benutzer arbeitet Liste ab
--129.217.129.133 01:51, 14. Feb. 2007 (CET)
Das hört sich nicht schlecht an. Ein weiterer Vorschlag wäre, dass ein Bot irgendwelche in Wikipedia herumliegende Bilder, die in keinem Artikel eingefügt sind und daher wahrscheinlich nur der Hochlader kennt, in eine Liste stellt. Es könnte ebenfalls ein Bot sämtliche Bilder auf die Commons hochladen, welche sich dort noch nicht befinden. --Siku-Sammler ?! +- 21:18, 9. Mär. 2007 (CET)
Bin der Bot und das ganze fertig ist, kann ich dir dieses Tool empfehlen: Missing images. Gruß, --Svens Welt 11:19, 10. Mär. 2007 (CET)

Kann man das Einfügen von Interwiki-Links durch Bots verhindern?

Weiter oben gab es schon eine ähnliche Frage, hier liegt der Fall aber etwas anders. Der Artikel Liste der Lokomotiv- und Triebwagenbaureihen der PKP hat in der polnischen Wikipedia kein exaktes Gegenstück, sondern steht dort 5 Einzelartikeln gegenüber. Da die Interwikilinks das nicht abbilden können, stehen die Links dorthin direkt im Artikel. In der Gegenrichtung werden natürlich gewöhnliche Interwikilinks verwendet, da ist es ja eindeutig. Nun werden aber die vermeintlich fehlenden Interwikilinks auf der deutschen Seite ständig von Bots nachgetragen. Kann man das verhindern, z. B. im nicht sichtbaren Quelltext des Artikels? Oder kann man von einem Bot verlangen, dass er die Historie eines Artikel durchsieht? Denn wenn ein Interwikilink irgendwann mal entfernt wurde, sollte man eigentlich davon ausgehen, dass er prinzipiell unerwünscht ist. Die Bots merken aber noch nicht mal, dass sie die selben Links immer wieder nachtragen (Benutzer:DodekBot) bzw. sich selbst überschreiben (Benutzer:K.J.Bot). Muss man derart blöde Bots dulden? Oder ist das Standard? Kann mich da mal bitte jemand aufklären, was technisch machbar ist, damit ich die Betreiber ansprechen kann? MBxd1 20:36, 22. Feb. 2007 (CET)

Kann man nicht verhindern. Nur durch Entfernen von allen Interwikilinks in allen Sprachen, die nicht eindeutige Gegenartikel haben. --BLueFiSH  (Klick mich!) 23:21, 22. Feb. 2007 (CET)
Technisch machbar wäre es, z.B. mit einem auskommentierten Hinweis, auf den Bots dann achten, ähnlich der robots.txt. Organisatorisch wäre das allerdings sehr aufwendig- man müsste eine entsprechende Syntax definieren, und vor allem jeden einzelnen Bot da draußen entsprechend konfigurieren. Wahrscheinlich ist es weit weniger Aufwand, den Artikel von Hand zu überwachen, und die betroffenen Botbetreiber auf das Problem aufmerksam zu machen. --seb 00:07, 23. Feb. 2007 (CET)
Oder eine Schutzliste (Blacklist), die jeder Bot innehaben muss. Gruß, --Rhododendronbusch «D» 00:24, 23. Feb. 2007 (CET)
Ergänzung Ich meinte eine Wikiseite, die ein Bot vor jedem Botlauf einliest. --Rhododendronbusch «D» 01:37, 23. Feb. 2007 (CET)
Interessant wäre vielleicht die Möglichkeit, eine Seite "Links auf diese Seite" für Interwiki-Links (Vorschlag A) zu haben bzw. eine Art Weblink-Suche für Interwikilinks (Vorschlag B). Soll heißen:
  • A: Man hat z. B. hier für jede Seite eine extra Spezialseite, in der man die Links auf diese Seite von anderen Wikis heraus sehen kann. Das dürfte technisch aber sehr schwer realisierbar sein, die Interwikilinks aller Sprachversionen aktuell genug anzubieten. Daher vielleicht eher der zweite Vorschlag:
  • B: Man hat z. B. in der polnischen Wikipedia eine Spezialseite, auf der man suchen lassen kann, welche polnischen Artikel auf de:Liste der Lokomotiv- und Triebwagenbaureihen der PKP linken. Die Daten dafür müsste dann lediglich jede Sprachversion intern bereitstellen. Das das dürfte maximal so viel Rechenleistung in Anspruch nehmen wie bei den Weblinks. Jedoch müsste dann ungefähr pro Seite und pro in Betracht gezogener Sprachversion jeweils eine Anfrage an diese Seite gestellt werden, wobei sich dann bei den meisten aber dann doch nur ein einziger Treffer findet.
Die anderen Lösungsvorschläge sind auch ganz gut, mein Vorschlag kam mir so als spontane Idee, über die man auch nachdenken kann. --CyRoXX (? ±) 00:57, 23. Feb. 2007 (CET)

Vielen Dank. Das sind ja ganz interessante Hinweise, nur sehe ich da nichts, wo ich als Nichtbotbetreiber eingreifen könnte. Es scheint also Standard zu sein, das Bots keine Sperrlisten führen, nicht die Historie durchsuchen und auch verborgenen Text nicht durchsuchen. Dann kann ich mir auch einen Hinweis an den Betreiber sparen, denn der kann da offensichtlich auch nichts ändern. Mir bleibt in diesem Fall wohl nur, entweder den Bots immer wieder hinterherzukorrigieren oder aber die Interwikilinks auf den polnischen Seiten zu entfernen bzw. in den Text zu setzen (da es ja keine eineindeutigen Verknüpfungen sind), was sicherlich regelmäßig irgendein wohlmeinender Nutzer revertieren wird. MBxd1 00:05, 24. Feb. 2007 (CET)

Man kann aber vielleicht jetzt einen entsprechenden Grundstein legen. Eine Wikiseite als Blacklist würde auch nicht Botbetreibern Eingreifmöglichkeiten einräumen ;-)
Gruß, --Rhododendronbusch «D» 20:53, 24. Feb. 2007 (CET)

Besonders einfach ist es, einen Kommentar wie z.B. <!--NOINTERWIKIBOT--> auf der Seite zu platzieren und dann dafür zu werben, dass der Bot diesen String als Anlass zum Überspringen nimmt. Mein Bot z.B. ist beim Suchen und Ersetzen dazu in der Lage. Augiasstallputzer Signatur Augiasstallputzer.png 16:11, 4. Mär. 2007 (CET)

Es gibt noch en:Template:Nobots, das ist eine Vorlage, die dasselbe erreichen soll wie die Variante von Augiasstallputzer, das hat sich aber auch auf der englischen Wikipedia nicht durchgesetzt und woanders erst recht nicht, und ich glaube auch nicht, dass sich das noch durchsetzen wird. Ich fände es auch extrem blöd, alle Bots auszusperren (also auch solche, die etwas ganz anderes machen wollten), nur weil die Interwiki-Links nicht passen. --Head 18:52, 4. Mär. 2007 (CET)

Die Kennung im Komentar kann ja relativ frei gewählt werden. Für meinen Bot ist es z.B. kein Problem, bei jeder Aufgabe andere Kennungen oder auch keine zu berücksichtigen. So z.B. nimmt er bei bestimmten Prozeduren Rücksicht auf <!--NOBOTLINKFIX--> und bei anderen auf <!--NOBOTEDIT--> . Daher sehe ich kein Problem für Unterscheidungen. Augiasstallputzer Signatur Augiasstallputzer.png 21:33, 4. Mär. 2007 (CET)

Qualia

Verschoben nach Wikipedia:Bots#Qualia --Head 14:53, 3. Mär. 2007 (CET)

Aibot

User:Aibot

  • Owner - uk:User:A1
  • Purpose - interwiki
  • Got flag - uk, ru, en, pl and some others --uk:User:A1 20:48, 6. Mär. 2007 (CET)

Benutzer:Matboth

Hallo, wie ist das denn mit der Genehmigung für einen Bot? Ich will noch nichts im Artikelnamensraum machen (höchstens vielleicht mal ganz einzelne Edits, die ich von Hand überprüfe), sondern erst mal lernen, einen Bot zu programmieren. Muß ich dafür schon den Bot ankündigen? --Matgoth 17:15, 10. Mär. 2007 (CET)

Solange keine Änderungen im größeren Umfang durchgeführt werden, ist der Bot-Status überhaupt nicht nötig, erst dann, wenn so viele Bearbeitungen gemacht werden, dass die Liste der letzten Änderungen überflutet wird. --Head 19:46, 10. Mär. 2007 (CET)

Commons-Interwiki

Hallo! Wie ergänzt und ändert man denn automatisch die Interwiki-Links von Commons-Seiten? Gibt es überhaupt eine Möglichkeit? Grüße, --Polarlys 18:56, 11. Mai 2007 (CEST)

Interwiki Links für diese Projektseite

Oben steht:

International requests for bot status on de.wikipedia: Please ask directly on Wikipedia:Bots under the section "Vorstellung neuer Bots und Beantragung des Bot-Status" and not on this talk page. Thanks

und daraus ergibt sich ein Problem. In vielen Wikies sind Beschreibung und Vorstellung-von-Bots / Beantragung-des-Botstatus auf unterschiedlichen Seiten. Daher verlinken zum Teil Beschreibungsseiten und zum Teil Antragsseiten anderer Wikipedias nach hier und umgekehrt. Sammelt man von allen Wikipedias alle solche Interwikilinks, was ich getan habe, bekommt man zwei (überlappende) Klassen oder drei streng getrennte, je nach Betrachtung; plus möglicherweise Sonderfälle, deren Bedeutung mir mangels Sprachkenntnis nicht klar wurde.

Wie soll man damit umgehen? Ich sehe nur zwei ordentliche Lösungen mit dem derzeitigen Interwikilinksystem:

  1. Drei streng separierte Gruppen von Interwikilinks:
    1. Seiten über Bots ohne Anträge,
    2. Botantragsseiten,
    3. Gemischte Seiten, wie unsere.
    Diese Seitenklassen können untereinander nur über normale Links auf andere Sprachen verweisen, nicht über Interwikilinks. Das ist relativ schlecht manuell zu pflegen, während es für die Interwikilinks Bots jibt.
  2. Alle Wikis mit gemischten Seiten teilen diese auf und wir bekommen nur zwei Seitenklassen, die dann leicht über normale Interwikilinks vernetzt werden können.

Ideen und Kommentare?

--Purodha Blissenbach 14:39, 19. Mai 2007 (CEST)

Mißbruach KatBot

Haie ihrs,

IMO wurde der KatBot mißbruacht um eine Löschentscheidung zu revertieren. Dabei kann ich nicht erkennen, dass die WP:LP bemüht wurde. Die Löschentscheidung findet sich unter Wikipedia:Löschkandidaten/19. Januar 2007#Kategorie:Insel (Europa) (gelöscht). Man kann IMO zu der Entscheidung des löschens stehen wie man will; aber dafür gibt es die Löschprüfung. Einfach per bot vollendete Tatsachen schaffen ist IMO Mißbruach des Bot-Statuses. ... Als begründung wurde angegeben, dass die sache ja "ein halbes Jahr" diskutiert wurde - fragt man sich wie von Januar bis Mai 6 Monate zusammenkommen; nebenbei wird natürlich gerade ein MB dazu veranstaltet; aber schön, dass schonmal fakten geschaffen wurden ...Sicherlich Post 00:02, 24. Mai 2007 (CEST) PS: mir ist die kat vergleichweise egal, der mißbrauch eines Bots aber nicht; denn dieser "verschwindet" in vielen Beobachtungslisten

Die besagte Kategorie ist eine parallele Kategorie zu gleichartigen Kategorien. Die leere Kategorie mit parallelen gefüllten Kategorien ist für mich ein Armutszeugnis für die WP. Nach Lesen der Diskussion auf unter WP:WpG sah ich keinen Anlass, den Antrag von Benutzer:Zollwurf nicht auszuführen, zumal mir nicht bewußt war, dass die Kategorie schon mal in einer Löschdiskussion war. Die Löschentscheidung wurde damals schon nach wenigen Stunden revertiert, weil eine Umstrukturierung vorgenommen werden sollte. Ich wollte nur helfen, eine auch aus meiner Sicht richtige Struktur für die Inselkategorien zu schaffen. Vollendete Tatsachen mit dem Bot schaffen, nur damit die Edits untergehen, wollte ich auf keinen Fall. --SteveK ?! 10:15, 24. Mai 2007 (CEST)

@Sicherlich: was soll das hier werden, ständig nervst du hier rum nur weil dir ein Konzept nicht paßt, aber Alternativvorschläge kommen von dir auch nicht oder auch nur irgendwas anderes Konstruktives - vielleicht solltest du dich einfach mal aus dem Bereich der Geo-Kategorien raushalten - sven-steffen arndt 11:09, 24. Mai 2007 (CEST)

Kannst du dich bitte mal ein bisschen zusammenreißen? Es handelt sich hier nicht um einen privaten Blog, wie dir zweifellos bekannt sein dürfte. Danke und Gruß, j.budissin+/- 11:34, 24. Mai 2007 (CEST)
danke J budissin, ansonsten finde ich es interessant sven-steffen arndt, dass ich des nervens beschuldigt werde wo du ja die fragliche Kat wiederhergestellt hast ohne dass ich einen Antrag diesbezüglich irgendwo sehen kann. Du magst dies als nerven empfinden; ich empfinde das als Mißbrauch deiner Adminrechte. Mir ist natürlich bewusst, dass du die perfekte Idee für die Kats hast; nur leider können nicht alle diese Perfektion erfassen und die WP ist nunmal ein Projekt vieler; auch der unperfekten. ...Sicherlich Post 22:30, 24. Mai 2007 (CEST)

Benutzer:RobotQuistnix arbeitet mit langen Cache-Zeiten

Für's Protokoll: Der Bot hat hier Artikeländerungen überschrieben, die mehr als eine halbe Stunde vorher stattgefunden haben - Benutzer ist angeschrieben (auch auf nl:).

Ich habe bisher noch nicht überprüft, ob es sich um einen Einzelfall handelt - bitte ein Auge darauf haben. -- srb  13:26, 5. Jun. 2007 (CEST)

Da mich das Ausmass des Problems interessiert hat, habe ich die Edits der letzten 14 Tage überprüft - das Bearbeiten von veralteten Versionen ist zwar zum Glück selten, aber leider kein Einzelfall. Insgesamt habe ich in dem Zeitraum 3 Fälle gefunden:
  1. http://de.wikipedia.org/w/index.php?title=Optische_Täuschung&diff=prev&oldid=32799026 (5. Juni) -> iwikilink-Ergänzung erfolgte bereits 9 Minuten vorher -> nur zwei Leerzeilen ergänzt (unschön, aber nicht weiter tragisch)
  2. http://de.wikipedia.org/w/index.php?title=Mars_(Planet)&diff=prev&oldid=32758695 (5. Juni) -> 2 Änderungen (38 Minuten früher) revertiert (vom ändernden User selbst bemerkt und korrigiert)
  3. http://de.wikipedia.org/w/index.php?title=Kurdische_Sprachen&diff=prev&oldid=32707588 (3. Juni) -> 1 Änderung (80 Minuten früher) revertiert (war noch aktuell)
Ich werde mir in den nächsten Tagen noch ein paar weitere Bots anschauen, ob die die gleichen Probleme haben. -- srb  17:59, 7. Jun. 2007 (CEST)

Das Problem liegt m. E. auch am WP-Server. Die Cache-Zeit hängt bei einem Botlauf zum Einen davon ab, wieviele Seiten beisammen gelesen werden und zum Anderen von der Geschwindigkeit des Server. Ein Lesezugriff (Download), egal, wieviele Seiten (Paket), bewirkt eine Wartezeit bis zum Start der Übertragung und jeder Schreibvorgang (Upload) auch eine. Wenn bei einem Leseversuch der Server längere Zeit nicht antwortet, dann hat das u. U. den Abbruch des Programms zur Folge. Ein großes Seitenpaket hat also den Vorteil, dass die Zahl der Lesezugriffe klein ist, der Bot daher seltener auf Seiten warten muss und entsprechend schneller fertig ist und das Abbruchrisiko kleiner wird. Der Nachteil besteht darin, dass die Zeit zwischen dem Download und dem Upload der letzten, editierten Seite des Pakets zunimmt. Damit steigt auch die Wahrscheinlichkeit einer Überschneidung mit manuellen Edits. Hier muss also die Größe des Downloadpakets an das Servertempo und an die Uhrzeit angepasst werden. Ist der Server tagsüber langsam, so ist ein kleines Paket notwendig. Ein Botlauf in der Nacht bei schnellem Server erlaubt ein großes Paket. Augiasstallputzer Signatur Augiasstallputzer.png 21:14, 7. Jun. 2007 (CEST)

Was den Bots also anscheinend fehlt, ist eine Überprüfung wie alt die heruntergeladenen Daten sind - reverts nach einer halben oder sogar mehr als einer Stunde sind m.E. jedenfalls völlig inakzeptabel, vor allem da bei den Massenedits (v.a. der iwikibots) wohl kaum jeder Edit kontrolliert wird. -- srb  21:43, 7. Jun. 2007 (CEST)

30 Minuten oder mehr sind m. E. unnötig lange, aber eine Überprüfung ist aus folgenden Gründen nicht sinnvoll:

Zur Technik: Es sind genaugenommen Bearbeitungskonflikte. Während die WP-SW im Browser dies erkennt, fehlt diese Möglichkeit beim Bot, denn im Gegensatz zum manuellen Edit, bei dem der Editor meistens durchgehend aktiv ist, arbeitet der Bot meistens (sinngemäß) nach der Methode:

Seite aufrufen ⇒ Editor starten ⇒ Inhalt des Editfensters komplett downloaden ⇒ Editmodus abbrechen ⇒ Seite offline berarbeiten ⇒ Editmodus erneut starten ⇒ Inhalt komplett durch den eigenen Text ersetzen ⇒ Speichern .
Um das Problem technisch zu lösen, benötigt man also bei jedem Upload einen Vergleich zwischen dem Zeitstempel des Downloads und dem Zeitstempel der aktuellen Version. Das erfordert aber einen zusätzlichen Lesezugriff, was bei einem Botlauf erhebliche Auswirkungen auf die Laufzeit hat. Gerade Massenedits sind da empfindlich. Es fehlen auch noch die Programme dazu.
Rechenbeispiel: Am Tage kann die mittl. Lesezugriffszeit schon mal 15 Sekunden betragen, Schreibzugriffe 30 Sekunden. Bei einem 20 Seiten-Paket wäre also die letzte hochgeladene Seite mehr als 10 Minuten alt. Für 100 Edits benötigt der Bot dann mind. 51 Minuten.
Wird die Paketgröße halbiert (10 Seiten) so kommen 10 Lesezugriffe dazu und 100 Seiten erfordern 52 Minuten, wobei die Seiten max. 5 Minuten alt sind.
Kontrolliert man nun den Zeitstempel, so dauert ein Edit mindestens 40 Sekunden, die letzte Seite eines 20er-Pakets ist ca. 13 Minuten alt, was die Anzahl der nicht geänderten Seiten erhöht und 100 Seiten sind erst in ca 67 Minuten durch, bei 10er-Paketen nach 68 Minuten. Einhundert Seiten würden also beits eine Viertelstunde länger dauern.

Fazit: Zeitstempel vergleichen ist m. E. nicht zumutbar, wenn man seinen Bot bei der Arbeit ordnungsgemäß kontrolliert. Der einzige Weg ist die Anpassung der Paketgröße an die Serverlast, meistens beim Programmstart möglich, und die Nutzung lastarmer Zeiten, um das Risiko des Überschreibens von Seiten gering zu halten.

Augiasstallputzer Signatur Augiasstallputzer.png 23:31, 8. Jun. 2007 (CEST)

Wieso sollte ein Bot den Editmodus "abbrechen" wollen? Solche Bots sind schlicht kaputt. Und das hat nichts mit Zugriffszeiten oder Paketgrößen zu tun, sondern mit grundlegenden Verständnisprobleme seitens des Programmierers. -- aka 23:41, 8. Jun. 2007 (CEST)

Selbstverständlich sind es separate Zugriffe und ein Bot muss auch genauso Wartezeiten in Kauf nehmen wie ein User mit Browser. Beim Öffnen der Seite, beim Start des Edit-Modus und beim Speichern muss auch der Bot auf "de.wikpedia.org" warten. Die WP-Software erlaubt Edits nur mit Hilfe von "http://de.wikipedia.org/w/index.php" und daher auch nur entweder "action=edit" oder "action=submit", jedoch nicht Beides beisammen. Und behaupte nicht einfach, dass es nicht auf Paketgrößen ankommt, wenn die Praxis es anders aufzeigt. Allein die Tatsache, dass der Bot nicht beliebig schnell schreiben darf, erzwingt für jeden Schreibvorgang eine separate "Kontaktaufnahme" mit dem Server. Lesen darf er so schnell wie es möglich ist, also hängt hier die Zahl der "Kontaktaufnahmen" und damit Wartezeiten von der Größe des Pakets ab. Alle Pywikipediabots arbeiten mit der oben beschriebenen Methode, und das sind die meisten. Augiasstallputzer Signatur Augiasstallputzer.png 02:04, 9. Jun. 2007 (CEST)

Die Kollisionskontrolle ist recht einfach umsetzbar. Wenn eine Wiki-Seite zum Lesen geladen wird, steht dabei im HTML-Code immer die gerade übermittelte Revisionsnummer (Javascript-Variable wgCurRevisionId). Das passiert genauso beim Laden einer Seite zum Bearbeiten. Der Bot muss sich also beim ersten Laden der Seite nur die aktuelle Revisionsnummer merken und beim Speichern die gemerkte Nummer mit der gerade übermittelten vergleichen. Das geht fehlerfrei ohne zusätzliche Lesezugriffe. sebmol ? ! 02:11, 9. Jun. 2007 (CEST)
Augiasstallputzer, was du beschreibst - das eigentliche Bearbeiten mit edit und submit - ist bereits sicher und überhaupt nicht das Problem, denn das ist eine Transaktion und hat nichts mit irgendwelchen Zeiten, Paketgrößen oder Kontaktaufnahmen zu tun. -- aka 09:33, 9. Jun. 2007 (CEST)

Das Problem stellt sich folgendermaßen dar. Der PyWikipediaBot kann Seiten entweder einzeln laden (über die normale Bearbeitungsseite) oder bandbreiten- und zeitsparend über Spezial:Export. Beim Laden der Bearbeitungsseite wird die StartTime ausgelesen (ein Zeitstempel, der besagt, wann die Bearbeitung gestartet wurde), und beim Speichern wird diese StartTime an den Server zurückgeschickt. Der Server kann anhand dessen Bearbeitungskonflikte entdecken, und wenn ein solcher auftritt, überspringt PyWikipediaBot die Seite und lässt sie ungeändert.

Problematisch ist, dass das Auslesen des StartTime-Zeitstempels nicht möglich ist, wenn über Spezial:Export geladen wird. Im gelieferten XML steht nämlich kein Zeitstempel. PyWikipediaBot nimmt deshalb als Behelfslösung die Systemzeit des Botbetreibers (natürlich in UTC). Das funktioniert allerdings nur, wenn die Systemuhr korrekt gestellt ist. Wenn z. B. die Systemuhr 5 Minuten nachgeht, und zwischen Seitenexport und Speicherung liegen knappe 5 Minuten, dann können Bearbeitungen verloren gehen, die dazwischen von jemand eingeschoben wurden. Interessant wäre natürlich, ob bei RobotQuistnix tatsächlich die Systemuhr eine halbe Stunde vor geht. Jedenfalls ist es eine mögliche Erklärung. Hier ist der entsprechende Code-Kommentar (wikipedia.py, GetAll.oneDone()):

       # There's no possibility to read the wpStarttime argument from the XML.
       # This argument makes sure an edit conflict is raised if the page is
       # deleted between retrieval and saving of the page. It contains the
       # UTC timestamp (server time) of the moment we first retrieved the edit
       # page. As we can't use server time, we simply use client time. Please
       # make sure your system clock is correct. If it's too slow, the bot might
       # recreate pages someone deleted. If it's too fast, the bot will raise
       # EditConflict exceptions although there's no conflict.
       page2._startTime = time.strftime('%Y%m%d%H%M%S', time.gmtime(time.time()))


Sich darauf zu verlassen, dass alle Botbetreiber ihre Systemuhr mit einem Zeitserver synchronisieren, ist zugegebenerweise etwas optimistisch, aber als ich den Part programmiert habe, ist mir nichts besseres eingefallen. Gerade eben ist mir aber noch eine Idee gekommen: man könnte den Zeitstempel aus dem HTTP-Header auslesen und als StartTime verwenden. Zwar können zwischen Datenbank-Lesezugriff und Webserver-Auslieferung ein paar hundert Millisekunden liegen, aber die Wahrscheinlichkeit, dass genau in dieser Zeit jemand anders auf den Speichern-Knopf drückt, dürfte marginal sein. Meinungen? --Head 03:39, 9. Jun. 2007 (CEST)

Ich hätte mir das ganze Geschreibsel sparen können. Ich lag mit meiner Vermutung (falsch gehende Systemuhr) richtig, aber Andre Engels hat sich schon darum gekümmert: Benutzer Diskussion:Quistnix. Wenn jemand wissen will, wie: [11]. Bitte beachtet auch, dass einiges von dem, was weiter oben steht, schlicht nicht stimmt, z. B. die Annahme von Augiasstallputzer, PyWikipediaBot würde keine Zeitstempel verwenden. Das spielt aber ja jetzt hoffentlich keine Rolle mehr. --Head 04:04, 9. Jun. 2007 (CEST)

Die wirklich korrekte Lösung wäre meiner Meinung nach, eine ganz normale Bearbeitung durchzuführen, wenn der Bot festgestellt hat, dass er etwas ändern möchte - z.B. eben nach irgendwelchen Exports. Also Seite zum Bearbeiten laden (Zeitstempel und Edit-Token merken), an der geladenen Seite die Änderung durchführen, speichern. -- aka 09:33, 9. Jun. 2007 (CEST)

Ich habe bei meinem Bot noch nie bemerkt, dass er eine Seite nicht zurückschreibt, weil es einen Bearbeitungskonflikt gibt, allerdings dauert die Abarbeitung eines gelesenen Seitenpakets - das ist offensichtlich das Lesen per Spezial:Export - nur wenige Minuten. Daher bin ich davon ausgegangen, dass der Bot keine Zeitstempel nutzt. Das Problem ist neben einer falschen Systemuhrzeit gerade dieses von Sebmol erwähnte " gemerkte Nummer mit der gerade übermittelten vergleichen" wie das ohne einen Lesezugriff auf die Daten der aktuellen Seite auf dem User-Rechner gehen soll, kann ich mir beim besten Willen nicht vorstellen. Eine "Annahmeverweigerung" von Seiten des Server, also ein Vergleich auf dem Server und nicht auf dem Rechner des Bot, wäre da schon praktischer. Allerdings muss das Botskript auch auswerten (können), ob die Seite angenommen wurde.
@Head: Welche Möglichkeiten gibt es da deiner Meinung nach ? Augiasstallputzer Signatur Augiasstallputzer.png 11:48, 9. Jun. 2007 (CEST)

Jetzt wird mir erst klar, was ihr macht. Ihr holt euch mehrere Seiten auf einmal, bearbeitet die lokal und schickt sie nach und nach an den Server? Dann wundert es mich gar nicht, dass sowas passieren kann. So ähnlich hatte ich meinen ArchivBot auch mal programmiert, bis offensichtlich wurde, dass sowas gar nicht funktioniert. Seitdem passiert jeder Edit separat: Seite lesen, ändern, schreiben, nächste Seite lesen, etc. sebmol ? ! 11:37, 9. Jun. 2007 (CEST)

Ich habe das Programm nicht selbst geschrieben... Die Seite einzeln zu lesen, würde in obigem Beispiel für 100 Seiten statt 50 Minuten satte 85 Minuten dauern. Das geht nur, wenn man seinen Bot falscher Weise unbeaufsichtigt lassen würde. Augiasstallputzer Signatur Augiasstallputzer.png 11:49, 9. Jun. 2007 (CEST)

Eintragen der vorletzten Version in der Zusammenfassungszeile

Durch zeitweilig auftretende Botänderungen kommt es immer wieder vor dass große Teile der Artikel meiner Beobachtungsliste nahezu zeitgleich geändert werden und sie dadurch mehr oder weniger unbrauchbar wird und Änderungen kurz vor Botänderungen unbemerkt bleiben. Dies könnte im Einzelfall dazu führen, dass auch Vandalismus unentdeckt bleibt. Meiner Meinung nach könnte dies vehindert werden, wenn bei jeder Botänderung immer die vorletzte Version in der Zusammenfassungszeile eingetragen wird, so wie dies z.B. der ArchivBot bereits macht. Würde mich freuen, wenn dies bei alle Botänderungen machbar wäre. Gruß --Septembermorgen 15:03, 11. Jun. 2007 (CEST)

Das Problem dabei ist, dass die meisten Bots - anders als z. B. ArchivBot - die Versionsgeschichte nicht ausgelesen wird (was ja in der Regel auch nicht nötig ist), so dass der letzte Bearbeiter nicht bekannt ist, wenn die Seite geladen wird. --Head 15:14, 11. Jun. 2007 (CEST)
Das ist nicht korrekt, denn die Information der letzten Änderung steht beim Bearbeiten einer Seite verdeckt zur Verfügung ("wpEdittime"). Die letzte Änderung wird beim Speichern dann zur vorletzten Änderung, so dass der Wunsch von Septembermorgen eigentlich von jedem Bot-Betreiber erfüllbar wäre, auch ohne Lesen der Versionsgeschichte. --SteveK ?! 15:23, 11. Jun. 2007 (CEST)
Angesichts der aktuell massenhaften Änderungen von Benutzer:SieBot im Ortsartikelbereich würde ich inständig darum bitten diesen Vorschlag auch umzusetzen, da ich mir sonst überlege meine Beobachtungsliste zu leeren. Grüße --Septembermorgen 14:12, 28. Sep. 2007 (CEST)

Bot gesucht

Hallo, RKraasch hat z.Zt. eine unbestimmte Auszeit, deshalb meine Frage hier. Um die Einwohnerzahlen in den Infoboxen der Gemeinden nicht händisch korrigieren zu müssen, hat vor einem halben Jahr RKraasch seinen Sklaven arbeiten lassen. Nun liegen die ersten Daten von 2006 vor und es wäre wieder an der Zeit. Tabellen zu Gemeinden in Thüringen und Gemeinden in Sachsen-Anhalt liegen aktualisiert vor. MeckPomm fehlt noch, das Statistische Amt hat noch nichts veröffentlicht. Wer hat einen Knecht für diese Arbeit? ... oder kennt jemanden, der einen kannt .... :-) Die Aktualisierung sollte dann in Zukunft nur einmal jährlich erfolgen. Gruß. --Schiwago 14:57, 18. Jun. 2007 (CEST)

Bitte wende dich an Wikipedia:Bots/Anfragen. —Pill (Diskussion · Bewertung) 17:36, 22. Jul. 2007 (CEST)

Funktionsliste der Bots

Gibt es eine Aufschlüsselung, welche Funktion welcher Bot erledigt. Die bloßen Stichwörter "interwikilinks" und ... sind als Anhaltspunkte relativ wenig, da man den geeigneten Bot erst nach sequentieller Suche durch fast alle Bots rausfinden kann. Wie findet man den geeigneten Bot schneller? --SonniWP2 13:42, 21. Aug. 2007 (CEST)

zB gibt es haufenweise links auf redirect XML (-> Hypertext Markup Language), sieht einfach aus, ist aber mit nem Bot wohl ein Klax --SonniWP2 13:45, 21. Aug. 2007 (CEST)

Bot-Schnittstelle?

Hoi, Ich stell die Frage einfach mal hier, ich hoffe ich bin hier richtig.

Ich denke selbst darüber nach, einen Bot zu Programmieren. Allerdings ohne Framework, ich würde das ganze gerne von grund auf selbst bauen. (Jaja ihr kennt sicher den Drang, sich etwas zu beweisen, den man als Programmierer hin und wieder mal verspürt ;) )

Gibt es in der Wikipedia sowas wie eine Spezielle Schnittstelle, über die ein Bot Aktionen (Einloggen, Artikel anlegen/bearbeiten etc.) ausführen kann, oder muss ich mich den "normalen" HTTP-Seiten bedienen? (Das würde natürlich bedeuten, dass ich mir immer die ganzen wichtigen Dinge aus den HTML-Seiten rausholen muss)

Ich hoffe ihr versteht ein wenig was ich meine.

--Stummvoll 11:51, 30. Aug. 2007 (CEST)

Für einige Dinge gibt es die query.php und api.php, für die meisten Dinge wirst du um normale HTTP-Requests mit HTML-Auslesen, -Auswerten und -Posten aber nicht herumkommen. sebmol ? ! 12:01, 30. Aug. 2007 (CEST)
Das Query-Interface ist die ältere Variante und wird nicht mehr weitergepflegt - das API-Interface wird derzeit aktiv weiterentwickelt: Im Moment sind erst Abfragefunktionen realisiert (aber auch die noch nicht vollständig), eine Funktionalität zum Bearbeiten, Verschieben, Löschen, etc. existiert jedoch bisher noch nicht. Wenn Du hier über die weiteren Entwicklungen auf dem laufenden bleiben willst, empfehle ich die API-Mailinglist (low-traffic): dort werden Änderungen angekündigt und auch Vorschläge zur API diskutiert. -- srb  12:14, 30. Aug. 2007 (CEST)
Vielen Dank, ich werd es mir mal bei gelegenheit genauer ansehen. Darf ich das "noch nicht" so interpretieren, dass die Funktionen zum verändern von Artikeln schon fest eingeplant sind? ;) Und wäre es da nicht eigentlich ratsam mit dem Bot zu warten, bis das API komplett fertig ist? --Stummvoll 14:25, 30. Aug. 2007 (CEST)
und noch eine Frage: Ist eine deutsche Dokumentation in Planung? ich bin zwar der Englichen Sprache mächtig, aber mein Verständniss beschränkt sich auf Realschul-Kentnisse. Und diese sind mehr oder weniger nutzlos, wenn es darum geht solche Fach-Texte zu verstehen :/

Brauche Hilfe bei Erstellung eines Skripts

Ich würde gerne die Textersetzungsfunktion von replace.py mit dem Skript commons_link.py verbinden, um Schwesterlinks auf den Schwesterprojekten Wikisource und Wikiquote per bot automatisiert einfügen zu können. Kann mir jemand helfen? --Tets 22:30, 18. Sep. 2007 (CEST)

Interwikilinks auf Ortsartikel in der Volapük-Wikipedia

Vor ein paar Tagen ist diese Diskussion aufgekommen: Wikipedia:Fragen_zur_Wikipedia#Volapük

Das Problem ist, dass auf der Volapük-Wikipedia binnen kürzester Zeit eine fünf oder gar sechsstellige Anzahl von Ortsartikeln per Bot erstellt wurde, die nun von unseren Interwiki-Bots natürlich alle auch verlinkt werden. In der Diskussion kam nun auch die Meinung auf, dass diese Interwikilinks zur Volapük-Wikipedia evtl. nicht erwünscht sind. (Wie man beispielsweise am Artikel Bad Oeynhausen in der History sehen kann wurde bereits zweimal nacheinander der vo-Link auch wieder entfernt.) Nun folgendes: Die vo-Wikipedia wird voraussichtlich nicht geschlossen, noch werden die Interwikibots auf de.wikipedia gestoppt werden. Auch werden höchstwahrscheinlich die Interwikilinks von anderen Wikis zur vo-Wikipedia erhalten bleiben, sodass die Bots die vo-Links immer wieder einfügen werden.

Gibt es im Interwiki-Pywikipediabotskript eine Option, mit der sich die vo-Wikipedia vom Botlauf einfach ausschliessen lässt? Noch problematischer daran ist natürlich, dass Interwikilinks auf vernünftige (!?) Artikel in der vo-Wikipedia weiterhin bestehen sollen... ?!?

Oder was gibt es sonst noch an Möglichkeiten?

--The-viewer Wikipedia nach PDF exportieren 14:25, 24. Sep. 2007 (CEST)

DEFAULTSORT

Hallo Bots! Ich betätige mich selber gerade als Aushilfsbot und verteile eine Kategorie an geschätzte hundert Personenartikel. Was dabei enorm aufhält ist die Ergänzung des Namens, wie er einsortiert werden soll, wenn DEFAULTSORT nicht verwendet wird. Wäre es theoretisch möglich, dass ihr euren Bots beibringt, die Sortierung automatisch anzupassen oder gibt es Gründe dies nicht zu tun? Also aus:

[[Kategorie:Mann|Mueller, Michael]]
[[Kategorie:Geboren 1900|Mueller, Michael]]
[[Kategorie:Gestorben 2000 |Mueller, Michael]]
{{DEFAULTSORT:Mueller, Michael}}
[[Kategorie:Mann]]
[[Kategorie:Geboren 1900]]
[[Kategorie:Gestorben 2000]]

Es müssen ja keine zusätzlichen Änderungen durchgeführt werden, sondern nur umgestaltet werden, wenn sowieso Interwiki oder ähnliches gemacht wird. Imho würde dies die Wartung doch deutlich erleichtern. MfG --Carlos-X 04:35, 8. Nov. 2007 (CET)

Probleme mit dem Java Framework

hoi, ich weis nicht, ob ich hier mit meinem Problem richtig bin, aber irgendwie will das Java-FW nicht so, wie ich will:

	public static void main(String[] args) throws ActionException {
		MediaWikiBot bot = new MediaWikiBot("http://de.wikipedia.org/w/");
		bot.login("Stummvoll", ******);
		EditContentAccessable c = new EditContentAccessable() {
			public String getEditSummary() {
				return "sumary";
			}
			public boolean isMinorEdit() {
				return false;
			}
			public String getLabel() {
				return "Benutzer:Stummvoll/Test";
			}
			public String getText() {
				return "Test";
			}
		};
		bot.writeContent(c);
	}

löst bei mir folgendes aus:

log4j:WARN No appenders could be found for logger (org.apache.commons.httpclient.HttpClient).
log4j:WARN Please initialize the log4j system properly.
Exception in thread "main" net.sourceforge.jwbf.actions.http.ActionException: java.lang.NullPointerException
	at net.sourceforge.jwbf.actions.http.HttpActionClient.performAction(HttpActionClient.java:106)
	at net.sourceforge.jwbf.bots.HttpBot.performAction(HttpBot.java:80)
	at net.sourceforge.jwbf.bots.MediaWikiBot.writeContent(MediaWikiBot.java:483)
	at test.main(test.java:29)
Caused by: java.lang.NullPointerException
	at java.util.Hashtable.put(Hashtable.java:396)
	at net.sourceforge.jwbf.actions.http.mw.GetEnvironmentVars.findContent(GetEnvironmentVars.java:136)
	at net.sourceforge.jwbf.actions.http.mw.GetEnvironmentVars.findContent(GetEnvironmentVars.java:147)
	at net.sourceforge.jwbf.actions.http.mw.GetEnvironmentVars.findContent(GetEnvironmentVars.java:147)
	at net.sourceforge.jwbf.actions.http.mw.GetEnvironmentVars.getNewValues(GetEnvironmentVars.java:123)
	at net.sourceforge.jwbf.actions.http.mw.GetEnvironmentVars.processReturningText(GetEnvironmentVars.java:115)
	at net.sourceforge.jwbf.actions.http.HttpActionClient.get(HttpActionClient.java:193)
	at net.sourceforge.jwbf.actions.http.HttpActionClient.performAction(HttpActionClient.java:101)
	... 3 more

Das Einloggen und auch das Abrufen von Artikeln funktioniert wunderbar.. nur bei dem bearbeiten gibts bis jetzt Probleme.. gibts noch irgendwas, das ich beachten muss? --Stummi(D|B) 10:25, 13. Nov. 2007 (CET)

Nachtrag: die Exception scheint daher zu kommen, das die Seite noch nicht Existiert. Wenn ich eine schon existierende Seite überschreiben möchte bekomme ich zwar keinen Fehler, aber es tut sich trotzdem nix. --Stummi(D|B) 17:46, 13. Nov. 2007 (CET)
Hi Stummi, ich vermute du verwendest eine ältere Version, tritt der Fehler auch in der Aktuellen auf. Die optimale Position für Fragen wäre wohl die Entwicklungsseite zu versuchen und dort einen Beitrag (Stichwort: Forum, Mailingliste, Bug Tracker) zu hinterlassen. --EldurLoki 21:19, 13. Nov. 2007 (CET)

Captcha bei neuem externen Link?

Hoi, mir ist aufgefallen, dass ich bei einem neuen Externen Link in einem Artikel ein Captcha abtippen muss. Ich wollte nur mal Frage, ob diese Überprüfung wegfällt, wenn ein Benutzer den Bot-Status hat.

--Stummi(D|B) 10:52, 16. Nov. 2007 (CET)

Einfach 4 Tage warten, dann muss man auch keinen Captcha mehr eingeben. --Revolus Echo der Stille 12:58, 16. Nov. 2007 (CET)

Normaluser sind Bots hilflos ausgeliefert

Hallo Botbetreiber,

ich bitte um Entschuldigung, wenn ich hier nicht auf der richtigen Seite diskutiere. Falls das der Fall sein sollte, weist mir bitte den Weg.

Ich möchte hier einmal dringend anregen, dass Botedits in Ihren Editkommentaren auf folgende Dinge verlinken sollten:

  • Link auf eine Seite, an die er sich wenden muss, wenn die Diskussionsseite des ändernden (maschinellen) Benutzers hierfür nicht genutzt werden darf und Fragen dort nicht beantwortet bzw diskutiert werden.
  • Link auf eine Wikipedia:Oma-Test-kompatible Beschreibung, die erklärt, was ein Bot ist. Insbesondere kann der Zusatz "Bot" allein nicht ausreichend für einen Hinweis darauf sein, dass es sich um eine Maschine und nicht um einen menschlichen Benutzer handelt. Wer rechnet schon mit einer Maschine als Benutzer, außer Euch Spezialisten. ;-)
  • Link auf eine Wikipedia:Oma-Test-kompatible Beschreibung, die erklärt, wer, wann und warum maschinelle Benutzer auf Wikipedia legitimiert hat.
  • Link auf eine Wikipedia:Oma-Test-kompatible Beschreibung auf das, was der konkrete Edit bezwecken soll.
  • Link auf die zugehörige Diskussion, die diesen Bot-Edit initiiert hat. Gegebenenfalls sollte das Ergebnis der Diskussion vor einer Botausführung Wikipedia:Oma-Test-kompatibel übersetzt werden. Sollte eine solche Übersetzung nicht möglich sein, wäre die Frage zu stellen, ob hier ein Edit vorgenommen wird, der vom Normaluser nicht mehr nachvollzogen werden kann. Hiermit hat man ein treffliches Prüfungsmittel in der Hand, ob der Edit nicht dazu führt, dass zukünftige Edits von Artikeln durch Normalusern nun nicht mehr durchgeführt werden können.
  • Link auf eine Wikipedia:Oma-Test-kompatible Beschreibung der involvierten Boxen, an denen herum gebastelt wurde.

Das Gleiche gilt für die Benutzerseiten und die Diskussionsseiten des Bots. Insbesondere der deutliche prangende Hinweis: "Ich bin kein Mensch, sondern eine Maschine, die vollautomatische Edits auf Wikipedia durchführt", sollte obligatorisch und in großen Lettern unübersehbar auf diesen unvermuteten Umstand hinweisen.

Ferner sollten massive Editvorhaben mit sehr vielen Edits in jeweils sehr vielen Artikeln zuvor diskutiert werden. Auf den von den Edits betroffenen Artikelseiten sollte mit angemessener Vorfrist eine Ankündigung zum Beispiel durch Drüberhängen eines Bausteins und ein Link auf diese Diskussion erfolgen. Genau so, wie es bei einer Löschdiskussion oder einer Review-, Lesenswert- etc Aktion üblich ist, wo der Artikel auch von einer Diskussion außerhalb der Artikeldiskussion betroffen ist. Wofür gibt es denn schließlich Bots ;-)

Es kann in meinen Augen nicht angehen, dass hier irgendwo in den Tiefen von Wikipedia über Änderungen im Botbetreiber-Fachchinesisch diskutiert wird, die viele Artikelseiten betreffen und auf jeder dieser Artikelseiten viele Edits hervorrufen, ohne dass die Autoren auf den betroffenen Seiten davon vorher unterrichtet und dazu gehört werden. In dem speziellen Fall, der Aufhänger für diese Intervention ist, wurden die bisher intuitiv verstehbaren Boxen mit den funktionellen Straßenverläufsboxen auf den Autobahn und Bundesstraßenseiten massiv von Botänderungen betroffen. Und zwar so massiv, dass Otto Normaluser diese in Handarbeit nicht mehr zurücknehmen kann. Ferner ist das Editieren der Boxen, das zuvor intuitiv verstehbar war, ist zu einer Spezialistensache geworden, ohne dass sich ein erkennbarer Darstellungsvorteil oder ein erkennbarer funktioneller Vorteil ergeben hätte.

Ich würde mich freuen, Eure allgemeinverständlichen Diskussionsbeiträge zu diesem Thema zu hören. Grüße -- Tirkon 02:23, 26. Nov. 2007 (CET)

Der Edit-Kommentar soll eine Beschreibung enthalten, was geändert wurde, und ggf. einen Link auf die Begründung. Ansonsten sind Bot-Betreiber über die Diskussionsseite des Bots erreichbar, Ausnahme bei Interwiki-Bots, die in einer anderen Ausgabe beheimatet sind. Bei denen müsste dann aber ein deutlich sichtbarer Hinweis auf der Diskussionsseite stehen. --08-15 11:01, 11. Jan. 2008 (CET)

Pulsschlag

Ich bin nicht so weit bewandert, selbst einen Bot zu schreiben, aber könnte mal jemand für das gesamte Wiki einen erzeugen, der das Unwort Pulsschlag gegen Herzschlag austauscht? Puls (v. lat.: pellere = schlagen) -> Pulsschlag = Schlagschlag -> also Unsinn. Entweder nur Puls oder Herzschlag)--Rowan 18:58, 28. Dez. 2007 (CET)

Hallo Rowan,
aus folgenden Gründen macht es keinen Sinn, einen Bot zu schreiben, der den Pleonasmus (oder Unwort, wie Du es nennst ;-) Pulsschlag gegen Puls oder Herzschlag austauscht:
  • Es gab ein Nachrichtenmagazin, das sich Pulsschlag der Zeit nannte. Mit einem Bot würde auch dieser Name des Magazins geändert, was nicht korrekt wäre.
  • In sehr vielen (v. a. literarischen) Zitaten auf der Wikipedia kommt der Pleonasmus Pulsschlag vor; auch diese Zitate würden mit einem Bot fälschlicherweise geändert.
  • Der Begriff Pulsschlag ist – obwohl falsch – nach wie vor gebräuchlicher als Herzschlag, um die Anzahl Schläge pro Minute anzugeben.
Aus diesen Gründen erachte ich einen „Pulsschlag-Bot“ als nicht geeignet. Dafür habe ich in elf Artikeln den Pleonasmus durch Puls ausgetauscht (→ siehe meine Benutzerbeiträge). -- Debianux 23:02, 9. Mär. 2008 (CET)

Request for bot status

Hi, I've read the notice above (International requests... ask directly on Wikipedia:Bots and not on this talk page), but there is no section there or no indication where to put it, and I don't want to break that page (Tip: Put some information in english). (...)--Geraki 07:58, 14. Dez. 2006 (CET)

moved to correct place. note about the specific section added above :-) --:Bdk: 20:37, 2. Jan. 2007 (CET)

Interwikilink in Singapur

Im Artikel Singapur wird von allen möglichen Bots der falsche Interwikilink (bpy:সিঙ্গারপুর) ergänzt. Dieser Artikel ist aber über ein anderes Singapur. Kann man das für die Zukunft irgendwie verhindern? --NCC1291 10:13, 14. Dez. 2006 (CET)

Auf jeden Fall mal in allen andersprachigen Wikipedien den Link rausnehmen, dann dürfte er bei der Interwikilink-Angleichung nicht mehr berücksichtigt werden. Zu verhindern, dass der Link von jemanden in einen der andersprachigen Artikel eingetragen wird, wodurch er dann wieder bei einem Botlauf bei uns rein kommt, geht nicht. --BLueFiSH  (Langeweile?) 10:26, 14. Dez. 2006 (CET)
Die sicherste Methode wäre, z. B. in der deutschen oder englischen Wikipedia einen kurzen Artikel über die indische Stadt zu schreiben und von bpy: darauf zu linken. Dann würde der Bot einen Konflikt erkennen. Alternativ würde es auch helfen, wenn jemand einen Artikel über das Land Singapur auf bpy: schreibt. Ich nehme jetzt erstmal mit dem Bot alle Links auf bpy: raus. --Head 11:39, 14. Dez. 2006 (CET)
Das mit dem eigenen Artikel für Singapur (Andhra Pradesh) ist eine gute Idee, werde bald selbst etwas schreiben. Auf bpy: einen Artikel zu erstellen wäre etwas schwieriger, ich weiss nicht einmal, was dass für eine Sprache ist :-) --NCC1291 15:07, 14. Dez. 2006 (CET)

Aufteilung

Wie wäre es wenn wir die Seite etwas übersichtlicher machen mit den Unterseiten 1. Liste der Bots, 2. Botstatus-Anfragen und auf dieser Seite die allgemeine Beschreibung + Anforderungen belassen? Dann lassen sich auch die einzelnen Teile besser über die Beobachtungsliste verfolgen, wenn jemand nicht alles sehen will. --Euku B ¿ 13:16, 14. Jan. 2008 (CET)

erledigt Erledigt – soeben erfolgt. --BotCounter 11:21, 20. Jan. 2008 (CET)
Danke, habe auch nochmal hier und da editiert. Hast du eine Idee wie man den "Für die Beantragung.."-Kopf etwas dezenter hinbekommt? --Euku B ¿ 12:44, 20. Jan. 2008 (CET)
Ich hab das mal unauffälliger versucht, hinzukriegen. -- Baxxter (Diskussion | Beiträge) 15:06, 21. Jan. 2008 (CET)

Falsche Interwikilinks

Moin, ich weiß nicht, ob das auf diese Seite gehört: im Artikel Obra hat jetzt ein zweiter Bot den Interwikilink [[bpy:ওবরা]] gesetzt, der sich nicht auf den Fluss in Polen, sondern auf eine Stadt in Indien bezieht. Der erste durch PixelBot hat mich dazu gebracht, den Stub Obra (Indien) mal aus der englischen WP zu übersetzen und den Interwikilink dort einzufügen. JAnDbot hat den Link heute nochmal eingesetzt.

Bevor ich die beiden Benutzer darum bitte, das von Hand abzustellen (Artikel blacklisten oder wie auch immer) - gibt's eine Möglichkeit, das automatisch zu blockieren? Haben die beiden Bots in den letzten Tagen noch anderswo Murx gebaut? Wegen einem Artikel möchte ich eigentlich keinen nerven. Grüße, --20percent 11:35, 23. Jan. 2008 (CET)

Ich habe meinen Bot über die beiden Artikel laufen lassen. Jetzt ist bpy: nur noch mit der Stadt verbunden und nicht mehr mit dem Fluss. --Head 11:41, 23. Jan. 2008 (CET)
Ja, danke, aber kann man irgendwie verhindern, dass in drei Tagen der nächste kommt? Umbenennen und BKL I statt II anlegen hilft vielleicht, ist aber wohl nicht gerechtfertigt. --20percent 11:49, 23. Jan. 2008 (CET)
Die Bots werden das nicht mehr ändern, weil sie nur den Interwikilinks folgen. Es gibt aber keine Interwiki-Verbindung mehr zwischen Fluss und Ort. --Head 12:17, 23. Jan. 2008 (CET)
Ah so, ich glaube, ich hab's kapiert ;-) Ich dachte, dass die Bots teilweise auch die Datenbank nach neuen Einträgen durchsuchen. Danke! --20percent 12:53, 23. Jan. 2008 (CET)

Request from fr:

Dieser Vorschlag kommt von NicDumZ (fr:) mit der Bitte, ihn an geeigneter Stelle unter zu bringen. Er weiss dass man hier eine Gemeinschaftsentscheidung für die Umsetzung braucht und sucht jemanden, der den Nutzen der Sache erkennt, zustimmt und umsetzen möchte. (Ich habe inhaltlich nichts damit zu tun und editiere hier nur für ihn.) --Carl 01:35, 10. Jan. 2008 (CET)


Giving titles to untitled links in <ref>'s I have developed a bot that crawls an XML dump for untitled links in references, i.e.

  1. <ref>[http://www.google.fr]</ref>[1]
  2. or <ref>http://www.google.fr</ref>[2]

It then fetches the HTML title from the link, and edits the page to add the title : <ref>[http://www.google.fr Google<!-- Automatically generated title -->]</ref>[3] For concrete examples, see these two diffs : [12] and [13]. For more information, read en:User:DumZiBoT/refLinks or fr:Utilisateur:DumZiBoT/liensRefs.

  1. [1]
  2. http://www.google.fr
  3. Google

Now as you could have guessed, I have asked for a bot flag on Wikipedia:Bots. But the real question is not about getting a botflag or not. My script is working, and is safe, it is not a bot question. The real concern is : is the de: community okay for such link processing ? Do you think that automatically fetching titles is fine or not ?

I wrote this script because the fr: and en: community asked for it, and now both communities are quite pleased with how it works. But what does the de: community thinks about it ? (And where should I ask for this ?) NicDumZ 01:05, 10. Jan. 2008 (CET)

I believe you, that it is safe, checked twice and so on. But that is not my objection. I just think it should be done by man. I even think not to change the article, but to give a notice on the talk page (then of couse without flag) would be well. But in the end a bureaucrat has to decide whether your bot should do what you told or not. I only wanted to tell my scurple. Regards, --Revolus Echo der Stille 01:57, 10. Jan. 2008 (CET)
Oh, of course. And I understand perfectly your point. I was just surprized : I only got your answer in 5 days, on what is to me quite a big issue. I was wondering if I was not missing some step, somewhere, e.g. a community announce. For example your idea makes sense to me, but is the bureaucrat going to say, "well, you should follow Revolus's recommandations", or is there is a place to ask the community for its preference, and then Wikipedia:Bots is only the place for the final vote ? I have trouble understanding how this works on de:, when a prior discussion is needed. DumZiBoT 02:04, 10. Jan. 2008 (CET)
For the most bots there is not anyone saying anything. I do not think many people are watching this page. Maybe you could ask your question on Project talk:Bots/Anfragen (Anfragen = requests). I think you will going to have more and sooner answers there. --Revolus Echo der Stille 02:19, 10. Jan. 2008 (CET)
@Revolus: I think posting the results to the talk pages is quite useless as most people just won't notice or won't care.
@NicDumZ: I like the idea, however I think that adding one ref link description isn't worth an edit (bandwidth/storage etc., version history clarity etc.). What about just changing pages which contain, for example, at least 5 untitled external links? Also, what do you think about extending your bot so that it not only labels ref links, but also links in the 'external links' section? You could search for things like this:
* [http://example.org]
--Head 04:04, 10. Jan. 2008 (CET)
I must say that I do not quite clearly share your concerns about bandwidth/storage & version history :
  • For version history/storage, I do not clearly see your point. Don't you perform minor typo edits ? Don't interwiki bots perform minor edits ?
  • For bandwidth, this can be easily solved, configuring the edit rate.
Your input about external links is funny : I was thinking about this specific improvement. It is definitely in my TODO list, will implement it in the next few days :) DumZiBoT 11:48, 10. Jan. 2008 (CET)

Hi NicDumZ, what will be your output for

[http://www.llv.li/pdf-llv-stv-mb_23_merkblatt_betreffend_gesellschafterbeitraege.pdf]
[http://v3.espacenet.com/textdoc?DB=EPODOC&F=0&IDX=US1745175]
[http://www.google.de/patents?as_pnum=1745175]

kind regards -- visi-on 11:04, 10. Jan. 2008 (CET)

Hi :)
See [14]:
  • First link is not some html content, title is unbracketed to avoid "[1]" type links.
  • Second link works fine to me.
  • And third returns me a 401 - Unauthorized, so I skip it. You might think that I should also unbracket that last link, however, the behavior choice that I made was not to change a link if I can't access it (404, 401, timeout, etc...) The underlying idea is that users are more likely to check "[1]" type links than http://thatothertype.com/ : If my bot can't access a link, I don't remove it, I leave it with a "bad syntax", hoping that, eventually, a user will check it and remove it if unavailable. A second idea is that I am thinking about writing a script that I would run at least one week after giving titles to link, a script that would check for these ignored links, and that would add a message on the talkpage, somethinkg like "This link is bot-unreachable, hence DumZiBoT couldn't find a proper title for it. Please double-check for its avaibility and add a title to it".
Are you aware that this is exactly what weblinkchecker.py from the Python Wikipedia Bot Framework does? For example here: ksh:Klaaf:De Simsens --Head 23:59, 10. Jan. 2008 (CET)
sure. But it needs some significant improvements : 1) that script is threaded, and goes too fast, causing network errors, hence stating that some links are dead when they aren't. (After trying it on my personal laptop, I tried it on a corporate server with a 5Gbps internet connection, and it was still giving me way to much false positives. It *is* too fast.) 2) It currently does not allows you to do something else than crawling a whole langage wiki. This can't be done on big wikis, and it has no -continue options to stop the script and to start over later. Furthermore, the KeyboardInterrupt handler is messy, and can't stop the script properly : after one complete run day, I had to stop it, the Ctrl-C caused the script to *fail*, and the link database was *not* saved.
Yes, the basic behavior has been implemented. Still, some work has to be done. DumZiBoT 10:51, 11. Jan. 2008 (CET)
For 1), you can edit your user-config.py and add this: max_external_links = 20 (default value is 50). About 2): yes, the continue option is in fact missing, and it sometimes loses its data. But I think fixing these issues should be much easier than rewriting from scratch, don't you think so? --Head 13:23, 14. Jan. 2008 (CET)
Also, en:Wikipedia:Bots/Requests for approval/DumZiBoT is very long, but should worth the read if you are searching for more behavior information. However, feel free to submit me links for me to test them :) DumZiBoT 11:25, 10. Jan. 2008 (CET)
Botflag granted for tests. If there are too many complains I will revoke it, please contact me in this case. Thanks. — Raymond Disk. Bew. 09:51, 31. Jan. 2008 (CET)

Break

This discussion is the result of a message posted on WP:VM.--Richarddd 23:18, 3. Feb. 2008 (CET).

You write: "My script is working, and is safe, it is not a bot question. The real concern is : is the de: community okay for such link processing ? Do you think that automatically fetching titles is fine or not ?" I checked quite a few of the edits your bot made, and I object. It is not safe, and although the edits often are not plainly wrong, they are often less than perfect (first edit ok, second not).

There is another important aspect: Raw URLs might look ugly, but they contain useful information about the origin and reliability of the referenced article (look at this and compare the two versions. Or this one. Another example. Another one. Yet another one.) If it is not to possible to change them into correct plaintext (without removing important information) in a highly reliable way, one should leave them as they are. --Richarddd 20:40, 3. Feb. 2008 (CET)

  • I must admit that I have problems understanding the problems included in the diffs you provided, since I do not understand german.
  • I must admit also, that I'm very curious that fr: is pleased with this script, that en: contributors are this pleased (5 hours of run and Your bot is most excellent, thanks, your bot is awesome, your bot is wonderful!), while you have a very different reaction here :)
  • Still, I am willing to help, trying to improve my script (perhaps altering it, a custom-de script ? :þ). The underlying problem to me, is that the number of bare references (60,000 as of now) is too high to allow a manual, or a semi-automatic processing. I assumed, like an english user stated on my english talkpage, that a Decriptive text as a link label sure beats just a number ([2]) in the references section.
A first measure could be to process only links labeled like this "[15]". One cannot deny that converting these links would be a significant improvement...! NicDumZ ~ 21:50, 3. Feb. 2008 (CET)
Exactly that are the problems I could forecast. It needs a human being to understand titles and their context. I'd say stop your bot here and run it on en: and fr: where it is beloved. And you know, in en: they are quick with telling someone they love him... --Revolus Echo der Stille 22:10, 3. Feb. 2008 (CET)
hmhm... you know that's it was not what I was meaning. Don't answer like this, I come here to talk, and to try to find a fix, not to fight... Also, interwikis apart, it's stopped since the first complain... :) NicDumZ ~ 22:14, 3. Feb. 2008 (CET)
It is a very good idea to process only links labeled like this "[16]" and turn them into http://example.com. That is obviously and undeniably useful and the perfect task for a bot. I also tried to find an algorithm to fix the problems I mentioned above because I like the general idea behind your script. However, I don't think such an algorithm exists. It takes a significant amount of knowledge about the real world to make the necessary decisions. It can't be done by a machine, it takes a human being. However, a machine can do the technical stuff, make suggestions and reduce the work of the human being to a simple click (in many cases). What is so bad about a semiautomatic solution? A thousand excellent edits are worth far more than 60.000 of poor quality. --Richarddd 22:44, 3. Feb. 2008 (CET)
No, I was talking about turning them into Example Web Page. Anyway, I notice that I'm starting to take this a bit too personally. I'll take a break from de: for a few days :setting up this script has been a hell of a work, I'm tired, and I'm afraid I might turn up saying things I'm not meaning.
Please use these few days to discuss what should be done, without having me interfering. I'll try to help when I'm back, fresh and fitted.
DumZiBoT won't edit references until told to do so.
Thanks...
NicDumZ ~ 00:19, 4. Feb. 2008 (CET)

In most cases the description will be helpful but in some cases it isn't. Also, in most cases humans will find a better description specifically in the context of the reference instead of just based on the headline of the html document. When the bot is set to a reasonable speed, I can imagine that the bot's contributions could be reviewed and, if necessary, improved by humans. This would be kinda like suggesting a description which is then reviewed by humans. Alternatively, you could publish the source code and maybe we find someone at de-Wikipedia who would be willing to run it in a semi-automatic way because it certainly is a great idea! ;-) One could also combine it with other tools in order to save edits and therefore bandwidth and storage space. For example you could run a spellchecker at the same time or review the weblinks or whatever. --X-'Weinzar 17:25, 5. Feb. 2008 (CET)

Mmmmh, source is available here. It's not that up-to-date, title/url blacklists are evolving for example, and minor changes are on the go, but nonetheless, it gives you a snapshot on how it works... :)
NicDumZ ~ 17:38, 5. Feb. 2008 (CET)
Background: I worked with/against NicDumZ on his EN bots approval. I've ported reflinks.py (use de: prefix) to the Toolserver and have been working on an advanced dead link tool.
  • Significants of edits, technically it could be run through AWB with general fixes turned on as AWB now allows external processing of data.
  • The title thing could be improved, for instance by calculating the overlap between the <title> tag and headers (<h1>) tags. A harder method would be to calculate the overlap with the URL and only really works with English titles. A simplest solution could be the title needs to be longer than 6 characters. In principle it should be able to avoid bad titles by using statistical AI.
  • The domain could be added to the end if it doesn't already exist in the URL.
  • Some of the stuff the bot's did wrong was because the links were of soft-404 errors
  • As noted above possibly the best solution on de is to running the bot a slow edit rate with the edits fully visible. However at a generous edit rate of 3/minute it would take two week to complete. (or 1 edit/minute, 41 days, less annoying)
  • It should note that debracketing URLs can actually be worse than a badly titled link which could be just a set of number
  • It is far easier to find dead links again using the page title
en:User:Dispenser 05:36, 11. Feb. 2008 (CET)

Botnamen

Ich persönlih finde, dass man Bots nicht als User anmelden soll sondern ein eigenen Lemmabereich mit "Bot:XXXX" bekommen sollten um sie besser von normalen User zu unterscheiden. Wie seht ihr das?--Sanandros 13:16, 10. Mai 2008 (CEST)

Spezial:Benutzer/bot: Bots tragen in der Regel das "Bot" im Namen haben. Das sollte zur Unterscheidung reichen. Grüße Aktionsheld Disk. 15:38, 10. Mai 2008 (CEST)
Naja ich finde es jedoch übersichtlicher, aber wenn die meisten anderer Meinung sind, dann kann man das auch so lassen.--Sanandros 17:32, 10. Mai 2008 (CEST)
Ich sehe noch nicht den Vorteil. Auf der Benutzerseite des Bots steht ja normalerweise, dass er ein bot ist. In den diversen Listen wird ja jede Änderung durch einen Bot mit "B" markiert. Was möchtest du damit erreichen??
Herzliche Grüße, --Drahreg·01RM 17:46, 10. Mai 2008 (CEST)
Das B sehe ich aber eher selten wenn ich auf meine Beobachtungsliste schaue, oder es ist mir nicht auf gefallen.--Sanandros 17:59, 10. Mai 2008 (CEST)
AFAIK steht das B bei jedem Edit, der unter BotFlag gemacht wurde. Vielleicht siehst du es nicht auf deiner Beobachtungsliste, weil du generell Bot-Änderungen ausgeblendet hast? --Knopfkind 18:23, 10. Mai 2008 (CEST)
Nein aber jetzt habe ich das mal überprüft und es steht überlal ein B dran (nicht signierter Beitrag von Sanandros (Diskussion | Beiträge) 09:53 (CEST))
Botbetreiber können sich aussuchen, ob eine Bestimmte Aktion als Botedit deklariert werden soll, oder nicht. Wenn kein B dasteht, wollte der Betreiber einen bestimmten Edit als nicht-Botaktion deklarieren. Ich habe so einen Fall zwar noch nicht gesehen, aber es wäre möglich. Wenn ein Bot:-Namensraum eingerichtet werden würde, wäre er eh nur ein Verweis auf den Benutzer-Namensraum. So wie mit WP: -> Wikipedia:. D.h. jeder und niemand könnte mit {{displaytitle}} den Seitennamen ändern und in der Adresszeile stünde eh immer Benutzer:. Ich halte es für ausreichend, dass alle Bots auch irgendwo im Namen Bot zu stehen haben. Unpraktisch für Benutzer:Niabot ;-) --Revolus Echo der Stille 10:38, 11. Mai 2008 (CEST)
Das Flag wird automatisch gesetzt. Wie sollte man das deiner Meinung nach abschalten können? Für nicht-automatische Edits benutzt man nicht den Bot-Account. --08-15 10:42, 11. Mai 2008 (CEST)
Wikipedia:Projektneuheiten/Archiv/2008-1#13. Januar --Revolus Echo der Stille 10:47, 11. Mai 2008 (CEST)

Überschrift "Links"

Hi, wo genau diskutiert ihr Botvorhaben? Ich überlege, mehr oder weniger automatisch Abschnitte, die "Links" heißen und Weblinks enthalten in "Weblinks" umzubenennen. Hintergrund ist, dass ich in den letzten Tagen auf zwei oder drei solche Artikel gestoßen bin und es der Einheitlichkeit halber aber sowas nicht geben sollte... zu unwichtig? Zu riskant? --APPER\☺☹ 00:54, 14. Mai 2008 (CEST)

Riskant ist das sicher nicht. Du müsstest nur darauf achten, dass teilweise wohl auch Weblinks und Wikilinks in einem Abschnitt kombiniert sind; dann reicht es nicht, die Überschrift zu ändern. --08-15 00:59, 14. Mai 2008 (CEST)

Falsche interwikis

Kann ich die Bots irgendwie dran hindern, eine Seite zu behandeln? [17] stimmt nämlich nicht. --MBq Disk Bew 13:48, 16. Jun. 2008 (CEST)

Ja, von allen Seiten, in denen der deutschsprachige interwiki steht denselben entfernen. --Aktionsheld Disk. 16:59, 16. Jun. 2008 (CEST)
Danke. --MBq Disk Bew 17:41, 16. Jun. 2008 (CEST)

IRC-Channel für Botbetreiber

Hoi, Meiner Meinung wäre ein Offizieller IRC-Channel für Botbetreiber Sinnvoll. Meine Erfahrung ist, dass es im hauptchannel immer Schwierig ist, hilfe zu bekommen, wenn man konkrete Fragen hat. (Keine reinen Programmierfragen, sondern Fragen z.B. zur API) Da wäre es gut, wenn es einen Channel gibt, in dem sich Botbetreiber direkt austauschen können. Hätte auch den Nebeneffekt, dass man sich bei größeren Dingen "mal Schnell" absprechen bzw Organisieren kann. Das wäre auf jeden Fall effektiver als bis jetzt über die (Benutzer-)Diskussionsseiten. --Stummi(D|B) 19:48, 16. Jun. 2008 (CEST)

Gute Idee. Bin ich für. --Aktionsheld Disk. 20:07, 16. Jun. 2008 (CEST)
Probieren wir mal. Vorschlag: irc://irc.freenode.net/wikipedia-de-bots --Euku:B 10:13, 17. Jun. 2008 (CEST)
So, da der Chan bis jetzt leer war, habe ich mir einfach mal erlaubt, diesen zu registrieren. (Mir ist hier kein "komitee" aufgefallen, das für alle wp-chans zuständig ist, also gehe ich davon aus, dass das in der Hand normaler User liegt, sollte ich mich täuchen, einfach bescheid sagen, dann gebe ich ihn natürlich wieder frei). Da ich sowieso jeden Tag im IRC bin (normalerweise immer zwichen 9 und 18 uhr, diese Woche aber ausnahmsweise gerade nicht), habe ich den Channel im Autojoin drin. Mal sehen, ob sich da was im laufe der Zeit füllt. Eventuell sollte das auch auf der Projektseite, also WP:BOT erwähnt werden --Stummi(D|B) 15:49, 17. Jun. 2008 (CEST)
Bin ab sofort auch öfter mal dort zu finden. AutoJoin, klar.... --Guandalug 16:00, 17. Jun. 2008 (CEST)
PS: Aus Namenskonventionen heraus habe ich den Channel-Namen mal geändert. Channel ist registriert und 'bewohnt'. :D

Seit wann dürfen Bots Änderungen selbständig sichten?

Mir ist das hier aufgefallen, es geht insbesondere darum ([18], [19], [20]). Eine Änderung, die schon mal von einem Nutzer revertet wurde (Inhaltlich stimmts, aber es fehlte eine Quelle), wird dann von einem Bot gesichtet. Ist der Benutzer:Muro Bot nur kaputt oder soll das so? sугсго 19:11, 23. Jun. 2008 (CEST)

Dieser Eintrag im Log "markierte „Andrei Sergejewitsch Arschawin“ ‎ ((automatisch) " macht mich misstrauisch - ich tippe auf einen Bug (denn automatisch Sichten sollte doch nur gehen, wenn die Vor-Version gesichtet war).... --Guandalug 19:24, 23. Jun. 2008 (CEST)
Danke für die Meldung. Ich befürchte dass es ein Bug ist. Denn so wie ich das verstanden habe sichtet ein Bot wenn er meint, dass es nötig wäre (d. h. wenn die Vorversion gesichtet ist) und nicht automatisch wenn er ein Sichter-Flag hat. Ich vermute, dass seine "Entscheidung" auf Grund der Version von 23. Jun. 2008, 18:44 fiel. Bis er aber zum Editieren kam hat schon jemand die Seite entsichtet. --Euku:B 20:10, 23. Jun. 2008 (CEST)

Benutzer:Amirobot ohne Botflag

Hallo, ich bin gerade auf Amirobot (Diskussion • Beiträge • hochgeladene Dateien • Sperr-Logbuch • globale Beiträge • SUL • Logbuch) gestoßen, der kein Botflag hat, aber fröhlich editiert. Das Benutzerkonto wurde mit SUL automatisch erstellt. Der Betreiber ist vermutlich en:User:Ladsgroup, wie auf en:User:Amirobot zu lesen ist. Gruß, --Church of emacs 19:36, 29. Jun. 2008 (CEST)

Hi. Um ein Botflag zu beantragen muss man schon etwas Erfahrung vorweisen, die er bisher nicht hat. Ich denke er machte in vielen Wikis eine Handvoll Bearbeitungen und stellt dann die Anträge. Das habe ich auch so gemacht und es war sehr lästig, dass das die eine WP 50 Beiträge die andere erst einen Antrag sehen wollte und der nächsten das ganze egal war oder ich einen Flag ohne Anfrage bekam. Also abwarten. :) --Euku:B 20:12, 29. Jun. 2008 (CEST)

Wäre ein stündlich laufender Bot machbar?

Ich kenne mich leider nicht gut damit aus, aber wäre es machbar, dass ein bestimmter Bot stündlich laufen könnte? Die Frage bezieht sich darauf, ob es möglich ist, einen Bot z.B. auf einem ständig mit dem Internet verbundenen Server zu betreiben und ob es Wikipedianer gibt, die bereits in diesem Gebiet aktiv sind, sowie ob dieser Bot von der Serverlast her akzeptabel wäre.

Ein solcher Bot würde benötigt oder zumindest die Sache sehr vereinfachen, wenn eine der derzeit in Wikipedia:Meinungsbilder/Umstrukturierung der Eingangs- und Bestandskontrolle diskutierten Lösungen umgesetzt werden sollte, die auf einem modularen Aufbau der Löschkandidaten/QS basiert. Mir geht es aber nur um die theoretische Möglichkeit eines solchen Bots (das Meinungsbild befindet sich ja noch in der Diskussion). Gruß --cromagnon ¿? 19:50, 7. Jul. 2008 (CEST)

Radio Eriwan... ;) So einen Bot würde ich auf dem Toolserver laufen lassen (nicht wegen großer Datenmengen - die sind wohl eher begrenzt - sondern wegen zuverlässiger Anbindung. Möglich ist es... wenn genau spezifiziert wird, was der Bot tun soll (das habe ich jetzt nur überflogen, schließlich war das nur eine allgemeine Anfrage und kein Bot-Auftrag). --Guandalug 20:24, 7. Jul. 2008 (CEST)
Danke, damit kann ich schon was anfangen. Der Bot soll nur Vorlagen aus bestimmten Seiten aus- und dafuer in andere eintragen. Konkreteres sobald die Diskussion fortschreitet. Gruß --cromagnon ¿? 22:12, 7. Jul. 2008 (CEST)
Siehe auch: cron --Revolus Echo der Stille 22:23, 7. Jul. 2008 (CEST)
DAS war wohl nicht dir Frage, Revolus ;) --Guandalug 22:38, 7. Jul. 2008 (CEST)
Dann habe ich wohl nicht ordentlich gelesen :-) --Revolus Echo der Stille 22:43, 7. Jul. 2008 (CEST)

Klasse "wikitable"

In diesem Abschnitt wurde sich dafür ausgesprochen, die class="prettytable" stückweise gegen class="wikitable" auszutauschen. Ich wollte daher anfragen, ob es möglich ist, das diese Änderung als "kosmetische Änderung" aufgenommen wird und bei jeder Bearbeitung nebenbei gemacht wird? Ich möchte keinen vollautomatischen Austauch und es ist nicht sinnvoll einfach edits deshalb zu machen, nur im Rahmen andere Sachen soll dies erledigt werden. Wäre es möglich, das einige das aufnehmen könnten? Falls ich hier falsch sein sollte, wo wäre ich besser aufgehoben? Der Umherirrende 02:22, 17. Jul. 2008 (CEST)

Eventuell ist WP:BOT/A besser geeignet --Church of emacs 08:42, 17. Jul. 2008 (CEST)
Ich hatte mir für hier entschieden, da es ja keine direkte Botanfrage wäre, nachher versteht irgendjemand das falsch, was ich zwar nicht hoffe, aber man weiß ja nie. Ansonsten kann ich ja immernoch umziehen. Danke. Der Umherirrende 10:09, 17. Jul. 2008 (CEST)

Vielleicht ist das Ganze ein wenig "Bot-Phobie" ;-) ? Es werden hier jeden Tag mehrere 10.000 Edits vorgenommen. Da wird es doch wohl nicht drauf ankommen, wenn zu Gunsten der Sorgfalt ein separater Botlauf erfolgt. Diese schätzungsweise 5000 Bot-Edits wird die WP wohl verkraften. Cäsium137 (D.) 13:33, 17. Jul. 2008 (CEST)

Ich glaube nicht das es eine Botphobie ist. Die Botedits sind in der Regel sinnvoll und auch nicht wegzudenken, vorallem bei Kategorieumsortierung und interwikilinks. Aber eine Umstellung der verwendeten CSS-Klasse ist nicht für einen extra Edit sinnvoll genug. Gerade da sie Vandalismus verdecken können und man auch etwas Ressourcen schonender Arbeiten sollte, falls möglich. Vorallem denke ich, das man mit 5000 Seiten viel zu wenig kalkuliert. Ich möchte mich nicht festlegen, aber (enorm) höher wird es schon sein, vielleicht kann man auf Basis des letzten Dumps eine Zählung machen? Wer hat einfache Möglichkeiten dazu? Der Umherirrende 15:41, 17. Jul. 2008 (CEST)

Zählen ist eine gute Idee. Es können ja auch 20.000 oder mehr sein...Cäsium137 (D.) 18:25, 17. Jul. 2008 (CEST)

Es sind deutlich mehr. Ich hab mal gezählt (Dump vom 12. Juli 2008): 34.943 Lemmata in ANR verwenden class="prettytable", 3070 verwenden class="wikitable". -- Koerpertraining 22:02, 17. Jul. 2008 (CEST)

Bist du dir sicher, dass dabei Vorlagen nur einmal im Original und nicht in den Einbindungen gezählt wurden ? Cäsium137 (D.) 22:51, 17. Jul. 2008 (CEST)

Ich durchsuche den Quelltext der einzelnen Lemmata und zähle, in vielen die entsprechenden Ausdrücke vorkommen. Vorlagen spielen überhaupt nicht mit. -- Koerpertraining 23:03, 17. Jul. 2008 (CEST)
Wenn ich das so lese, dann hat er keine Vorlagen gezählt. Beim XML-Dump ist außerdem nur der reine wikitext verfügbar, dort werden keine Vorlagen aufgelöst etc. Du kannst dir ja testweise ein paar Seiten exportieren, das Format ist mit dem des Dumps identisch. Aber gut ist zu wissen, das es noch wikitable im Quelltext gab, somit hätte man nicht einfach die Definition herrausnehmen können, weil die interne Suche nichts ergeben hat. Der Umherirrende 23:06, 17. Jul. 2008 (CEST)

Das ist soviel, dass es "nebenbei" garantiert nicht funktioniert, es sei denn, wir warten drei Jahre, bis das durch ist. Kann man diese Umstellung nicht auf dem Toolserver laufen lassen ? ein eigenes Skript würde sich bei der Menge lohnen. Cäsium137 (D.) 23:07, 17. Jul. 2008 (CEST)

Was wäre der Nachteil, wenn uns class="prettytable" noch drei Jahre erhalten bliebe?
Die Idee der Nebenbei-Änderungen gefällt mir. Könnte man da auch Benutzer:Codeispoetry/Kosmetika einbauen? Ich würde gerne noch erhöhen um 16.000 × {{Commons|Category:…}}{{Commonscat|…}}. --Tim Landscheidt 23:21, 17. Jul. 2008 (CEST)
Ist doch schon? Ergänzungen solltest du auf der Diskussionsseite oder seiner Diskussionsseite loswerden können, denke ich. Der Umherirrende 23:27, 17. Jul. 2008 (CEST)
Nein, ich meinte, dass seine Kosmetika von allen Bots beachtet wird. --Tim Landscheidt 00:34, 18. Jul. 2008 (CEST)
Nicht zu vergessen die ganzen Koordinaten-Vorlagen, das sind insgesamt über 60.000 Einbindungen (nota bene: Die Vorlagen sollten nur dann automatisch ersetzt werden, wenn angegebene Koordinate und Text identisch sind). FlaBot und Zwobot nehmen ja häufiger solche kosmetische Änderungen vor; gibt es da eine Koordinierung? --Tim Landscheidt 09:00, 18. Jul. 2008 (CEST)
Nein, das Problem ist, das jeder Bot eine andere (selbstgeschriebende) implementierung haben kann, daher wird es schwierig sein, das alles unter ein Dach zu bekommen, die verbreiteste Implementierung wird wohl der Pywikipediabot sein, aber da kann ich dir nicht sagen, wie man das hinbekommt. SpBot ist auch so einer, der bei der Umstellung der Koordinatenvorlagen in Infoboxen auch immer kosmetische Änderungen vorgenommen hat. Der Umherirrende 12:55, 21. Jul. 2008 (CEST)
Ich meinte auch eher menschliche Gespräche zwischen den Bot-Betreibern und -Programmierern, wo der eine sagt: „Schaut ’mal, ich lösche jetzt immer Leerzeichen an dem Zeilenende, wollt Ihr das nicht auch machen?“ :-) --Tim Landscheidt 13:26, 21. Jul. 2008 (CEST)
Da ist auch das Problem der verschiedenen Sprachen, es gibt aber eine Mailinglist, aber auch die muss nicht jeder abonniert haben. Eine deutschsprachige Seite kenne ich aber nicht. Daher ist eine koordinierung schwierig. --Der Umherirrende 16:51, 21. Jul. 2008 (CEST)

Der Nachteil ? Nun:

  1. In der WP kann man nicht über Monate hinweg planen.
  2. Danach ist immer noch viel übrig
  3. Es kommen immer wieder neue Seiten dazu.

Insbesondere der letzte Punkt ist bedeutend. Bei einer Bearbeitung "nebenbei" werden die "prettytable" u. U. langsamer entfernt als sie an anderer Stelle oder auf der gleichen Seite wieder eingefügt werden. Man wird also nie fertig. Nur eine konzentrierte, schnelle Arbeit innerhalb von sagen wir mal vier bis sechs Wochen ermöglicht es, hier einen Fuß auf den Boden zu bekommen. Dann kann nach ein paar Durchläufen die alte Klasse gelöscht werden. Nur dann ist eine Umstellung dauerhaft und überhaupt sinnvoll. Cäsium137 (D.) 23:49, 17. Jul. 2008 (CEST)

Die Hilfeseiten habe ich schon entsprechend angepasst (hoffe alle erwischt zu haben), somit sollten nur durch C&P die prettytable ihre verbreitung finden, aber genauso gut auch die wikitable. Man sollte aber auch bedenken, das die Wikipedia ein Projekt ist was eigentlich kein Ende hat, daher kann man die Sache ruhig angehen, es drängt keiner. Zusätzlich hat die Wikipedia begrenzte Ressourcen, diese braucht man nicht ausreizen, so finde ich das. Der Umherirrende 00:03, 18. Jul. 2008 (CEST)

Da wäre ggf. eine Kombination sinnvoll. Zunächst eine Änderung "nebenbei". Dazu würde ich vorschlagen, diese mit den Interwikibots und den Botläufen der "Kategorie-Pfleger" zu verknüpfen. Die schreiben hier viele Edits. Nach einer gewissen Zeit müsste erneut ein neuer Dump durchsucht werden, um zu sehen, was noch übrig ist. Cäsium137 (D.) 00:17, 18. Jul. 2008 (CEST)

Okay, dann andersherum: Was ist der Vorteil, wenn alle class="prettytable" durch class="wikitable" ersetzt sind? Bekomme ich dann ein Eis? --Tim Landscheidt 00:34, 18. Jul. 2008 (CEST)

Diese Frage musst du die Initiatoren der Disk. fragen. Ich bin eigentlich ganz dagegen, aber wenn, dann muss es richtig gemacht werden. Cäsium137 (D.) 00:37, 18. Jul. 2008 (CEST)

Wird es ja auch. --Tim Landscheidt 09:00, 18. Jul. 2008 (CEST)

Wissenstand (erl.)

Gruss! Etwa 44 x in der WP: "Wissenstand" (unbekannt im Duden), statt "Wissensstand" (im Duden). Wäre nett, wenn dieser Unwissensstand bot-artig verbessert würde. Gruss --Grey Geezer 00:50, 20. Jul. 2008 (CEST)

Diese Seite ist nicht für Anfragen, siehe WP:BA, aber 44 Artikel sollten von Hand schaffbar sein, vorallem können dann noch andere Fehler behoben werden. Der Umherirrende 12:51, 21. Jul. 2008 (CEST)

API-Doku auf Deutsch?

Hoi,

Hat schoneinmal jemand die API-Doku ins Deutsche übersetzt? (Ich meine den Text, wenn die api.php ohne parameter aufgerufen wird)

Wenn nicht, würde ich mich gleich mal freiwillig melden, dies zu machen. Dabei würde ich dann auch gleich gerne mit Anfragen, ob dann die theoretische Möglichkeit besteht, dass in der api.php die dokumentation durch meine neue Übersetzte Version ersetzt wird. Oder (was mir sogar noch lieber wäre) dass man verschiedene Übersetzungen der API per Parameter abrufen kann.

Bevor ich hier aber evtl sinnlos Energie vergeude würde ich vorher gerne anfragen, ob es sowas schon gibt, bzw ob grundsätzlich Irgendwas dagegen sprechen würde.

--Stummi(D|B) 13:28, 8. Sep. 2008 (CEST)

Also, was die Kurz-Hilfe angeht, die auftaucht, wenn man nur die api.php aufruft, würde ich von einer Übersetzung absehen, das ist die "Zusammenfassung". Wo sich hingegen eine Übersetzung (und ggf. ein Abgleich mit der vorgenannten Doku) lohnen würde, ist auf der ausführlichen MediaWiki - API-Dokumentation. Diese gibt es schon in mehreren Sprachen - aber halt nicht auf Deutsch. --Guandalug 13:30, 8. Sep. 2008 (CEST)
Ich würde lieber ein ausführliches und funktionierendes Beispiel zur writeAPI sehen. Ob deutsch oder usbekisch ist ermal egal... :)= --Euku: 14:03, 8. Sep. 2008 (CEST)
Ich habe mir übrigens gerade mal erlaubt, einen Stub für die Deutschsprachige MediaWiki-Doku anzulegen und werde auch hin und wieder, wenn ich zeit habe den einen oder anderen Artikel übersetzen. Natürlich bin ich gegen Hilfe nicht abgeneigt ;) --Stummi(D|B) 14:12, 8. Sep. 2008 (CEST)

Hilfe gesucht

Hallo, ich bräuchte einen Bot, der die Vorlageneinbindung der Infobox Mineral auf Fehler überprüfen kann. Konkret geht es darum, die Vollständigkeit der Kopiervorlage (bestehend aus 32 Parametern) in den Artikeln zu überprüfen und wenn nötig, die fehlenden Parameter zu ergänzen. Wer könnte mir da helfen? Gruß -- Ra'ike Disk. LKU GS 23:48, 13. Sep. 2008 (CEST)

Habe deine Anfrage nach Wikipedia:Bots/Anfragen#Hilfe_gesucht verschoben. Gruß --Euku: 00:14, 14. Sep. 2008 (CEST)

Was tun?

Schaut mal in diese Versionsgeschichte. Dann erkennt ihr das Problem (Rudelbildung von Bots, die sich darum Revertwaren, ob ein Interwiki no:mmHg oder no:MmHg heißen soll, was MediaWiki wegen des Erste-Buchstabe-immer-groß-Bug egal ist). Die Frage ist: Was tun? sугсго 19:32, 23. Sep. 2008 (CEST)

Botbetreiber anschreiben und so lange die Seite sperren, oder falls der Fehler bei mehreren Seiten auftritt, die Bots sperren --Church of emacs D B 19:48, 23. Sep. 2008 (CEST)
Allen Botbetreibern sagen, dass sie ihren Bot auf den neuesten Stand (SVN) bringen und alle Patches oder was auch immer sie noch selber daran gefrickelt haben überprüfen. Dann kann sowas nicht auftreten. Ich gehe davon aus, dass alle den Pywikipediabot benutzen. Bots sperren wäre vielleicht etwas viel. Immerhin ist "no:%C2%A0mmHg" alles andere als normal. --Euku: 20:06, 23. Sep. 2008 (CEST)
ich habe eben die betreiber von Ptbotgourou und BodhisattvaBot angeschrieben, vielleicht wissen sie ja näheres/können das problem beheben. —Pill (Kontakt) 20:14, 23. Sep. 2008 (CEST)
Bei solchen Problemen: Immer ran an die Bot-Betreiber (nicht mit der Sperre, sondern mit 'ner Anfrage, was das denn soll). Die bekommen das sonst nämlich vermutlich NIE mit. --Guandalug 20:20, 23. Sep. 2008 (CEST)
Nachtrag: Der Spass läuft nicht nur bei uns. --Guandalug 21:05, 23. Sep. 2008 (CEST)
http://de.wikipedia.org/w/index.php?title=Benutzer_Diskussion%3APill&diff=51081999&oldid=51078772 - vielleicht interessant. —Pill (Kontakt) 22:12, 23. Sep. 2008 (CEST)