Wikipedia:Bots/Anfragen

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Hier ist Platz, Bearbeitungs- und Änderungswünsche an die Botbetreiber zu notieren, die in „Handarbeit“ ausgeführt eher als Zumutung gelten können, zum Beispiel das Korrigieren von mehr als 50 Einbindungen einer verschobenen Vorlage (gilt nur für zu löschende Falschschreibungsweiterleitungen auf Vorlagen!).

  • Für Rundschreiben (Einladungen zu Stammtischen usw.) gibt es auch die neue Funktion Hilfe:Massennachricht.
Für Anfragesteller gilt
  1. Anfragen bitte begründen, gegebenenfalls mit Links auf relevante Diskussionen, und unterschreiben.
  2. Es gibt keine Verpflichtung der Botbetreiber, diesen Anfragen nachzukommen und insofern auch keinen Anspruch auf Umsetzung eines Änderungswunsches.
  3. Größere Änderungen an Artikeln eines Themengebietes, z. B. an Einbindungen viel genutzter Vorlagen, bitte mit den jeweiligen Fachportalen oder -redaktionen abstimmen. Die Verantwortung für die Aktion liegt beim Anfragesteller.
  4. Vor dem Stellen einer Anfrage, die einen regelmäßigen Boteinsatz und keine einmalige (Massen-)Änderung betrifft, bitte ebenfalls das betroffene Portal bzw. Projekt informieren und den geplanten Boteinsatz dort diskutieren.
  5. Bei einem Boteinsatz ist oft noch Vor- und Nacharbeit durch den Anfragesteller notwendig, zum Beispiel nach Auflösung von Weiterleitungen die Kontrolle und das Stellen eines Schnelllöschantrages. Auch kann es immer Fälle geben, in denen der Bot nicht richtig arbeitet und die dann manuell nachgearbeitet werden müssen.
  6. Ent- oder Umkategorisierungen von Artikeln in die Kategoriendiskussion eintragen, dort diskutieren und dann in die Warteschlange des WikiProjekts Kategorien stellen.
  7. Ein einfaches Umbiegen von Links nach einer Verschiebung auf das neue Ziel wird grundsätzlich nicht vorgenommen.
    1. Umgebogen werden können Verweise auf zwingend zu löschende Weiterleitungen – wie z. B. bei Falschschreibungs-Weiterleitungen oder nach Verschiebungen falsch geschriebener Vorlagen.
    2. Neue Begriffsklärungsseiten können zur Entlinkung an das Fließband des WikiProjekts BKS gemeldet werden.
  8. Änderungen der Signatur werden nicht durchgeführt, auch nicht im Rahmen der Umbenennung von Benutzerkonten (siehe Archiv).
  9. Es werden keine Änderungen der Rechtschreibung zwischen zulässigen Versionen bzw. Variationen durchgeführt.
Für Botbetreiber gilt
  1. Jeder Botbetreiber ist verpflichtet, die Sinnhaftigkeit vor Ausführung eines Änderungswunsches zu prüfen und bei Einsprüchen gegebenenfalls von der Änderung abzusehen (kein blindes Vertrauen in die Angemessenheit/Richtigkeit hier gestellter Anfragen).
  2. Für jede hier gelistete Anfrage gelten die auf Wikipedia:Bots genannten grundsätzlichen Regeln (zum Beispiel keine Änderungen im Benutzer- oder Wikipedia-Namensraum ohne Absprache).
  3. Bot-Anfragen (insbesondere nach Löschdiskussionen) sollten mindestens 3 Tage ruhen, um eine gegebenenfalls initiierte Löschprüfung nicht durch vollendete Tatsachen unmöglich zu machen. Bei offensichtlichen Botaufträgen (z. B. aus einer Portal-Diskussion für das Portal beschlossene Änderungen und dergleichen) ist diese Wartezeit nicht zwingend notwendig, desgleichen nicht für „Anfrage-Aufträge“, die keine Seiten in der Wikipedia ändern.
Durchführung
  • Die Botbetreiber sollen bitte vor Umsetzung den jeweiligen Punkt entsprechend kommentieren, um Überschneidungen zu vermeiden.
  • Dazu sollte unmittelbar (maximal 15 Minuten) vor dem Botstart hier im entsprechenden Abschnitt die Vorlage InuseBot platziert werden:
{{InuseBot|Botname|Betreiber}}
  • Den Bot bitte sorgfältig beobachten!
  • Bitte nach Erledigung den Punkt in der Liste als erledigt kennzeichnen.

Neue Anfrage stellen

Abkürzung: WP:BA, WP:BOT/A, WP:B/A


Automatische Archivierung
Auf dieser Seite werden Abschnitte automatisch archiviert, die seit einem Tag mit dem Baustein {{Erledigt|1=~~~~}} versehen sind. Die Archivübersicht befindet sich unter Wikipedia:Bots/Anfragen/Archiv.

Anzeige von fälligen KLA-Kandidaturen[Bearbeiten]

Moin! Ich möchte in Erfahrung bringen, ob ein Bot fällige WP:KLA-Kandiaturen in eine noch zu erstellende Vorlage schreiben kann. Nach zehn Tagen können diese ausgewertet werden, häufig passiert das jedoch viel später. Das hängt damit zusammen, dass an die Auswertung nur auf der Diskussionsseite erinnert wird, und dort nur ein relativ kleiner Personenkreis angesprochen wird - übrigens ein Personenkreis, der selbst kräftig mitstimmt und für die Auswertung nicht in Frage kommt. Eine automatisch gepflegte Vorlage könnte z.B. auch bei WP:KALP oder WP:R angebracht werden. Sie müsste lediglich nach Ablauf der Frist (10 Tage ab Erstellung) den entsprechenden Artikel inkl. dem Link zur Diskussion angeben. Ist das vollautomatisiert möglich? --Spielertyp (Diskussion) 13:12, 29. Jun. 2013 (CEST)

Da ich gerade eine Anfrage zur KALP-Benachrichtigung auf meiner DS habe (vielleicht gehts das dann in einem Abwasch): Was soll der Bot denn genau machen?  @xqt 08:51, 14. Jul. 2013 (CEST)

(Späte Antwort wegen Urlaubs) Die kurze Diskussion dazu findet sich hier: Wikipedia_Diskussion:Kandidaten_für_lesenswerte_Artikel#Auswertung. Meine erste Überlegung war, eine Vorlage zu haben, in welche der Bot am 10. Tage den Artikel einträgt. Ab dann sind die Kandidaten nämlich fällig. Zusätzliche Spielereien, die die Verwaltung erleichtern können, wären denkbar: Kopiervorlage für {{Lesenswert}} sowie die Stimmen. Vielleicht als Box zum Ausklappen. --Spielertyp (Diskussion) 23:46, 18. Jul. 2013 (CEST)

Lesenswert-Vorlage funktioniert nicht, da müsste der Bot immer den Permanentlink austauschen sobald jemand den Artikel editiert - und auf neuen Unfug in der letzten Version (=potentielle Auszeichnungsversion) sollte man den Artikel eh prüfen. Und die Stimmen kann ein Bot auch nicht auswerten, solange nicht alle konsequent und perfekt die Vorlagen benutzen (wird nicht passieren). Es ist einfach, bei einem KLA-Besuch die ältesten Artikel anzuschauen, ich denke am Sehen liegt ein Auswertungsrückstand nicht, eher an mangelnden Stimmen (Verlängerung also sinnvoll) oder schwierigen Auswertungen die ggf. Fachwissen benötigen, um Einwände beurteilen zu können.
Nützlicher wäre ein Bot, der nach einer Auswertung die Verwaltungsseiten aktualisiert. Auf meiner Spielwiese habe ich dazu ein paar Infos gesammelt. --mfb (Diskussion) 17:19, 10. Mär. 2014 (CET)

Ref-Bot: "Eierlegende Wollmilchsau"[Bearbeiten]

Hallo! Es wäre super, wenn man Internetlinks der Form "www.Text.Domain.BlaBlub.html" als Refernzen in die ref Klammern eintragen würde und dann ein Bot alles weitere automatisch erledigt. Abrufdatum, Datum der Veröf., Titel, Autor, usw automatisch anhand des Links nachtragen würde. Es wäre schon gut, wenn zunächst nur einige bekannte Onlinemedien darunter erfasst würden.--Alberto568 (Diskussion) 18:26, 9. Nov. 2013 (CET)

Das würde nur bei Webseiten funktionieren, die eine feste Struktur haben, so dass ein Bot-Programm Autor, Titel etc. sicher identifizieren kann. Und das am besten seit Bestehen der Seite/WP, damit auch alte Refs korrekt verarbeitet werden. Außerdem sollten sich die Inhalte einer Seite nicht ändern, damit man nicht was falsches referenziert. In der Summe dürfte das nur relativ selten zutreffen. Schwebt dir eine konkrete Webseite vor? So allgemein kann man zur Machbarkeit sonst wenig sagen. Es wird jedenfalls keinen Bot geben, der beliebige Webseiten in obigem Sinne abarbeiten kann.-Berita (Diskussion) 12:08, 12. Nov. 2013 (CET)
Beispiel sind:
  • www.sueddeutsche.de
  • welt.de
  • faz.net
  • spiegel.de
  • stern.de

usw. --Alberto568 (Diskussion) 18:55, 18. Nov. 2013 (CET)

Kennst du tools:~dispenser/view/Reflinks? --Leyo 20:08, 21. Nov. 2013 (CET)
Für einige Webseiten wäre eine technische Umsetzung durch die Auswertung der COinS-Daten sicherlich möglich. Zotero kann zumindest bei einigen der Webseiten die Daten automatisch übernehmen. Keine Ahnung, ob über das COinS-Format oder andere Spezifikationen. Ist die Frage, ob wer Lust hat seinem Bot das beizubringen. --Häuslebauer (Diskussion) 00:50, 3. Feb. 2014 (CET)
Offenbar fand sich niemand, der das bauen möchte. --Krd 20:44, 27. Dez. 2014 (CET)

Ich habe mal die Erle entfernt, da ich weiß, dass Benutzer:Kuebi an etwas ähnlichem (fortgeschritten) bastelt. --Drahreg01 (Diskussion) 21:24, 27. Dez. 2014 (CET)

In der Tat (Zitat: A. Klenk), ich bastle an so etwas. Das ist zwar derzeit nur ein Script (mehr dazu: Benutzer:Kuebi/Weblinkeditor), aber das Thema ist sehr komplex. Selbst eine einzelne Domain wie spiegel.de kann einem fast zum Wahnsinn treiben. Nicht nur, dass nackte PDF-Dateien zu den entsprechenden Artikeln verlinkt werden, da gibt es noch Bilder, Flash-Animationen, Spiegel-Videos, Spiegel-Fotostrecken, Spiegel Online, die Printversion, Spiegel Special, Spiegel Kultur, u.v.a.m. und unfreundlicherweise sind die alle irgendwie anders codiert. Mit dem Titel klappt es meist noch ganz gut, aber Autor(en) und vor allem Datumscodierung variieren sehr stark. Es ist unglaublich wieviel Datumsformate es gibt und leider auch genutzt werden. Aus der Vielzahl der Formate muss auch noch das Richtige erkannt werden (nicht das Tagesdatum, nicht das des letzten Kommentars). Das Script lernt mit jedem Edit. Faktisch schraube ich ständig an Erweiterungen herum. Die wesentlichen deutschsprachigen Leitmedien (alle o.a.) funktionieren jetzt ganz gut. Zu den Varianten der Quellen kommen noch Varianten bei der Verlinkung in der Referenz hinzu. Reine nackte Links sind ja ein Kinderspiel. Aber es gibt Zweitgenossen, die setzen gleich vier davon in eine Referenz. Dann wird noch auf die verrückteste Art und Weise der Link garniert: von Kurzzitaten bis zu mehrzeiligen Zitaten – die erhalten werden müssen – sich aber für ein dummes Programm kaum von anderen, verzichtbaren Angaben (wie beispielsweise dem Artikeltitel /-untertitel unterscheiden). Dann werden an die Links so nette Verziehrungen wie Gedankenstriche, Kommata, Semikolons, Doppelpunkte u.v.a.m. angehängt, die beim Aufruf gnadenlos Fehler erzeugen, wenn sie nicht ausgefiltert werden. Heute hatte ich einen mit drei /// hinter dem http:. Ich könnte stundenlang erzählen. Außer dem Script, das ich momentan auf Artikelschwergewichte wie Adolf Hitler, Brustkrebs, Alzheimer-Krankheit, Autismus loslasse und dort teste, gibt es noch einen Linkformatierer der öffentlich zugänglich ist. Der benutzt dieselben Module wie das Script, hat aber ein völlig anderes Interface. Zu testen ist der Linkformatierer hier. Einfach einen Weblink eines Mediums eingeben und das Ding wirft bei den wichtigsten Medien auch was brauchbares aus. Ich habe mittlerweile ca. 90 unterschiedliche Websites erfolgreich (z.T. nach Anpassungen) getestet. Wünsche und Verbesserungen können dort per Formular geäußert werden (natürlich auch auf meiner Diskussionsseite). --Kuebi [ · Δ] 23:27, 27. Dez. 2014 (CET)

Weblinkfix INSEE Canton-Links[Bearbeiten]

Bitte diese Liste:Weblinksuche INSEE Canton-Links (natürlich nur ANR-Seiten) wie folgt umsetzen

//Regexp: von:
"http://www.recensement.insee.fr/RP99/rp99/co_navigation.co_page\?nivgeo=P&theme=ALL&typeprod=ALL&codgeo=(\d{4,4})&quelcas=LISTE&lang=FR"
//nach:
"http://www.insee.fr/fr/bases-de-donnees/esl/comparateur.asp?codgeo=cv-$1"
Ergebinis
//Beispiel mit ID 5520; aus:
"http://www.recensement.insee.fr/RP99/rp99/co_navigation.co_page?nivgeo=P&theme=ALL&typeprod=ALL&codgeo=5520&quelcas=LISTE&lang=FR"

//wird:
"http://www.insee.fr/fr/bases-de-donnees/esl/comparateur.asp?codgeo=cv-5520"

Davon betroffen sind etwas mehr als 1400 URLs im ANR und nochmal soviele Diskussionsseiten, die per SLA aufgeräumt werden müssen.  Frohes Schaffen — Boshomi ☕⌨☺   18:52, 8. Dez. 2013 (CET)

Global sind es 4411 Links. Deshalb bin ich wohl mit MerlLinkBot dran. Dauert aber ein paar Tage. Merlissimo 20:57, 8. Dez. 2013 (CET)
Ich habe das Regexp auf \d{4,4} vier Stellen eingeschränkt. Bei den wenigen Ausnahmen passt der Ersatz nicht. Frohes Schaffen — Boshomi ☕⌨☺   21:36, 8. Dez. 2013 (CET)
Die Links die nicht dem obigen Muster entsprachen habe ich inzwischen per Hand bearbeitet. Für andere Sprachversionen ist zu beachten dass es ID mit dem Muster "2[AB]\d{2,2}"  //z.B. "2A61" oder "2B04" entsprechen. Frohes Schaffen — Boshomi ☕⌨☺   22:50, 8. Dez. 2013 (CET)
@Boshomi Was kann ich mit nivgeo=C&codgeo=\d{5,5} machen? Bsp: http://www.recensement.insee.fr/RP99/rp99/co_navigation.co_page?nivgeo=C&codgeo=25510&theme=ALL&typeprod=ALL&quelcas=LISTE Merlissimo 22:37, 13. Mär. 2014 (CET)
Im konkreten Fall geht das nach http://www.insee.fr/fr/themes/dossier_complet.asp?codgeo=COM-25510 ;

::::: Das dürfte aber kein Kanton sondern eine Commune sein (nivgeo-"C").

Anmerkung: Informativer wäre das Le dossier complet - pdf. Darauf würde ich nicht direkt verlinken. (Manuell würde ich da einen Hinweis im Linktext hinterlassen. etwa so: (siehe auch Le dossier complet (format pdf) - Commune de Ruffey-le-Château (25510), (pdf))) Frohes Schaffen — Boshomi ☕⌨☺  15:14, 1. Mai 2014 (CEST)
Mit dem angeführten Linkmuster sollten sich auch die nivgeo=C&codgeo Links ausbessern lassen Frohes Schaffen — Boshomi ☕⌨☺  22:51, 24. Feb. 2015 (CET)

Weiter INSEE Muster:[Bearbeiten]

//Regexp: von:
"http://www.recensement.insee.fr/searchResults.action\?zoneSearchField=&codeZone=(\d{5,5})-COM"
//nach:
"http://www.insee.fr/fr/bases-de-donnees/esl/comparateur.asp?codgeo=com-$1"
Ergebnis

Siehe Diff für 49194. Davon Betroffen sind derzeit rund 194 Artikel  Frohes Schaffen — Boshomi ☕⌨☺   23:46, 10. Dez. 2013 (CET)

Vorlage:Infobox Unternehmen[Bearbeiten]

Hallo, bitte die Parameter "Gewinn" und "Produkte" aus den Artikeln bzw. den Vorlageneinbindungen entfernen. Die Entfernung der Parameter wurde vor Jahren beschlossen, siehe hier und hier (kurz: Gewinn soll nicht verwendet werden weil die Gewinnermittlung nicht einheitlich ist und Produkte wird durch den Parameter Branche vollständig erschlagen). Beide Parameter sind schon länger nicht mehr in der Kopiervorlage und Doku enthalten und werden aus dem Vorlagencode entfernt sobald die Artikel korrigiert sind. Danke und Grüße --Millbart talk 16:11, 26. Feb. 2014 (CET)

Willst du die Angaben ersatzlos löschen lassen oder in den Artikeltext verschieben? Ich habe mangels besserem Wissen die Angabe benutzt mit <ref>Geschäftsbericht</ref> als Quelle. Wenn die gesamte Zeile Gewinn gelöscht wird, geht der Einzelnachweis mit verloren.--kopiersperre (Diskussion) 00:13, 27. Feb. 2014 (CET)
Im Idealfall hätte ich gerne eine Liste mit der jeweils entfernten Zeile, so dass ein ggf. entfernter Einzelnachweis an anderer Stelle, sofern nötig, eingebaut werden kann. Den Gewinn könnte man theoretisch in den Artikeltext übertragen nur müsste dann, um daraus eine enzyklopädische Information zu machen, die Gewinnermittlung und das wirtschaftliche Umfeld in dem jeweiligen Berichtszeitraum aus dem die Zahl stammt erläutert werden. Einzelne Bilanzwerte sind ohne zeitliche, räumliche und industrielle Einordnung kein enzyklopädisches Wissen, siehe auch die verlinkte Diskussion. --Millbart talk 08:08, 27. Feb. 2014 (CET)
@Millbart: Zur Beurteilung habe ich mal die Vorlageneinbindungen auslesen, für Gewinne sind es 807 Einbindungen, für Produkte 5328 Einbindungen (jeweils mit "unausgefüllten" Einbindungen). Das sind noch nicht alle, die Kleinschreibungen der Parameter fehlen, soll nur vorerst einen Überblick liefern. </ref> kommt bei den Gewinnen 48 mal vor, bei den Produkten 10 mal. --sitic (Diskussion) 23:38, 27. Feb. 2014 (CET)
Cool, danke für die Info. Wenn es möglich wäre eine Liste der Artikel mit Einzelnachweisen zu bekommen wäre das super. Bisher sieht es so aus als ließe sich das noch ganz gut manuell handhaben. Grüße --Millbart talk 23:50, 27. Feb. 2014 (CET)
@Sitic: Mir ist leider gerade erst aufgefallen, dass der auch schon diskutierte Parameter "Bilanzsumme" noch nicht entfernt wurde. Wäre es möglich, ihn einem Abwasch mitabzuräumen? Die entsprechende Diskussion ist hier. Danke und Grüße --Millbart talk 18:39, 2. Mär. 2014 (CET)
Hallo, ich habe dich nicht vergessen, leider ist in den letzten Tagen etwas dazwischen gekommen weshalb ich um etwas Geduld bitten muss, bis ich mich genauer damit beschäftigen kann. Grüße sitic (Diskussion) 22:46, 5. Mär. 2014 (CET)
Moin @Sitic:, keine Hektik. :-) --Millbart talk 21:37, 10. Mär. 2014 (CET)

@Sitic: Ist das hier erledigt? --Krd 19:22, 1. Dez. 2014 (CET)

Nein, ich habe mich leider schon lange nicht mehr darum gekümmert, schaue es mir bald aber mal wieder an. Grüße sitic (Diskussion) 00:55, 3. Dez. 2014 (CET)

MAK-Werte auslesen und in Infobox einfügen[Bearbeiten]

Die SUVA veröffentlichte unter Grenzwerte am Arbeitsplatz 2014 (S. 40–122) eine ausführliche Liste von MAK-Werten. Hat jemand die Möglichkeit, die Werte auszulesen und anhand des Substanznamens und/oder der CAS-Nummer in die {{Infobox Chemikalie}} einzufügen (inkl. Einzelnachweis)? --Leyo 00:02, 15. Apr. 2014 (CEST)

Wenn es irgendwem gelingen sollte die Daten in maschinelle verwertbarer Form aus dem PDF-Dokument zu extrahieren, wäre der Abgleich mit den Artikeldaten für mich machbar. Vielleicht lohnt es sich mal anzufragen, ob man die Daten auch im Rohformat bekommen kann, also die Datengrundlage zur Erstellung dieses PDF-Dokuments.--Cactus26 (Diskussion) 14:32, 22. Apr. 2014 (CEST)
Unter DOI:10.1002/9783527682010 gäbe es eine alternative Quelle. Ist diese ev. besser geeignet? --Leyo 22:33, 10. Sep. 2014 (CEST)
Evtl. auch anmailen, ob man das nicht als Exceldatei bekommt? ÅñŧóñŜûŝî (Ð) 18:31, 16. Sep. 2014 (CEST)
Imho wäre es sinnvoller, die Werte in Metadatenvorlagen abzulegen, bzw. sobald dazu Klarheit besteht, auf Wikidata zu deponieren. Allerdings kann man aus dem Pdf keine Liste generieren, die bottauglich wäre, bzw. als Metadatenvorlage verwendet werden könnte. --Septembermorgen (Diskussion) 20:52, 16. Sep. 2014 (CEST)
Deswegen meinte ich ja eine Excel-Datei, denn aus der lassen sich die Daten bot- oder WD-tauglich extrahieren. Wikidata erscheint mir hier aber sehr mühsam. Evtl. geht es auch mittels Unterseite der Infobox, dann benötigt man den Bot nur für das Entfernen der direkten Angabe aus den Artikeln. Eine Unterseite der Vorlage kann auch mit Lua-Modul arbeiten. ÅñŧóñŜûŝî (Ð) 20:00, 18. Sep. 2014 (CEST)

Wikipedia:Redundanz/Knacknüsse - per Bot erstellte Liste[Bearbeiten]

Wikipedia:Redundanz/Knacknüsse wurde anscheinend mal händisch erstellt und dann mehr oder weniger gepflegt. Jedenfalls scheint es recht aufwändig. Mein Vorschlag daher: Kann nicht ein Bot solch eine List erstellen. Und zwar: Grundgesamtheit sind alle Artikel, die aktuell einen Redundanzbaustein haben. Für diese Artikel wird Version für Version geprüft, seit wann sie ununterbrochen einen Redundanzbaustein tragen und das entsprechende Datum gespeichert. Der Bot erstellt dann eine WP:Liste der am längsten bestehenden aktuellen Redundanzen. Diese kann dann gerne in regelmäßigen Abständen aktualisiert werden.

Problemchen bei dem Vorschlag: Es ergibt sich eine Artikelliste, keine Liste der "Redundanzfamilien". Da das aber denke ich schwieriger zu lösen ist mein obiger Vorschlag. Denn manchmal kommen zu 2er-Redundanzen ja noch weitere Redundanzen dazu etc.

Ich bin gespannt. --Zulu55 (Diskussion) Unwissen 09:47, 15. Jul. 2014 (CEST) (Eine themenverwandte Anfrage gab es schon mal unter Wikipedia:Bots/Anfragen/Archiv/2009-1#.C3.9Cbersicht_der_Redundanzen_erstellen., damals insbesondere von Benutzer:Merlissimo bearbeitet.) --Zulu55 (Diskussion) Unwissen 09:54, 15. Jul. 2014 (CEST)

Toolserver → Toollabs[Bearbeiten]

Auf unzähligen Seiten sind noch Toolserver-Tools verlinkt, obwohl die dort nicht mehr vorhanden sind bzw. nach Toollabs umgezogen sind. Es fände es sehr hilfreich, wenn zumindest für die häufig verlinkten Tools die Links per Bot angepasst werden könnten. Ich würde ein Vorgehen nach Namensräumen vorschlagen:

  • (Seite): wohl nicht selten direkt im Quelltext drin
  • Vorlage: durchführen
  • Kategorie: durchführen
  • Hilfe: abzuklären
  • Wikipedia: durchführen, falls keine Diskussionsbeiträge enthalten sind (auf (CET)/(CEST) prüfen)
  • Benutzer: würde ich befürworten

--Leyo 00:11, 7. Aug. 2014 (CEST)

Links auf die Stimmberechtigung tools:~guandalug/tools/stimmberechtigung.php und tools:~chm/stimmberechtigung.php. Die meisten davon auf gesperrten Seiten. Am besten durch Vorlage Vorlage:Stimmberechtigt ersetzen. --Nachcommonsverschieber (Diskussion) 11:54, 30. Aug. 2014 (CEST)


Ich habe mittlerweile alle erreichbaren Einzelstücke gefixt oder ansonsten kategorisiert; auch unter Mitwirkung von Benutzer:Nachcommonsverschieber. Ich habe alle URL überflogen.

  • Statistik:
    • Es gibt heute insgesamt rund 42.000 URL im Projekt.
  • Namensräume:
    • Wir haben eine allgemeine Praxis, wie wir bei solchen Fixereien vorgehen:
      • Hier: Nur noch Namensräume 4, 10, 14, 100;
      • Ausschluss bei /Archiv im Seitennamen;
      • auch nicht AK, FzW, LK, MB (CU, SG, SP, VM, WP:Administ... haben /Archiv/).
    • Auf gesperrten Seiten, Diskussionen, in Archiven längst vergessener Angelegenheiten wird nicht mehr masseneditiert. Es ist auch völlig Wurscht, ob das Stimmberechtigungstool zu einer Wahl, die 2009 mal stattgefunden hatte, und wo der Gewählte schon vor zwei Jahren die Knöpfe wieder abgegeben hatte, jetzt noch auf Klick die Stimmberechtigung feststellen kann. Sollte das wirklich sechs Jahre später jemanden interessieren (Was will man damit anfangen? Was für Konsequenzen hätte das?), dann können die Daten in ein aktuelles Stimmberechtigungstool geworfen werden. Und ein Editcount in einer Angelegenheit von 2007 lieferte damals die Benutzerbeiträge bis 2007, heute die bis 2015; die damaligen Zahlen werden nicht mehr reproduziert. An einer FzW von 2008 herumzulinkfixen ist höherer Blödsinn.
    • Benutzer: Die können ihre Links selbst fixen, sofern sie noch aktiv sind; WP:LT hilft gern. Die überwiegende Zahl der Benutzer ist nicht mehr aktiv, und der Rest macht einen Zwergenaufstand, wenn ein Bot in ihren Seiten herumpfuscht.
    • Artikel, Hilfe, MediaWiki: Alle bekannt und kategorisiert. Zurzeit kein Fix mehr möglich. Artikel sind weniger als 20. Datei gibt es praktisch nicht (mehr); wenn WP:LT/giftbot/weblinksuche hoffentlich mal aus dem Streik kommt, kann man die ein oder zwei Dateibeschreibungsseiten noch mal suchen.
  • Arbeitsschwerpunkt:
    • Das sollte die Unterstützung der Portale, Redaktionen, WikiProjekte sein; die benötigen für ihre tägliche Wartungsarbeit Werkzeuge, insbesondere Catscan.
    • Die haben alle voneinander abgeschrieben und verwenden vielhundertfach URL mit gleicher Struktur, nur unterschieden durch:
      • Kategorien (Vorsicht: Separator zwischen mehreren Kategorien nicht mehr Pipe, sondern %0D%0A)
      • Unterkat-Tiefe
      • Alter in Stunden
      • Maximalgröße von Stubs
      • Linkanzahl von Stubs
    • Es gibt 7800 nicht mehr funktionierende URL auf
      //toolserver.org/~daniel/WikiSense/CategoryIntersect.php?wikilang=de&wikifam=.wikipedia.org&basecat=*-*-*-*-*&basedeep=.....&go=Scannen&userlang=de
    • Sie können zu jeweils mehreren Hundert gleichen Schemas ersetzt werden durch
      {{fullurl:toollabs:catscan2/catscan2.php|project=wikipedia&language=de&categories=*-*-*-*-*&...........&interface_language=de&doit=1#results}}
      • Verbreitet ist etwa: &mode=rc&hours= für „Neue Artikel“, jetzt max_age= mit only_new=1.
      • Ebenso öfters &mode=ss&size= und mehr für Stubs, jetzt smaller=
      • Trivial ist Ersatz von ~magnus/catscan_rewrite.php – Parameter sind gleich.
    • Nur in Portalen auf rund 210 Seiten:
      //toolserver.org/~erwin85/randomarticle.php?
      durch
      {{fullurl:toollabs:erwin85/randomarticle.php| und hinten dran }}
    • Bei vielen Portalen/Red. gibt es
      ~magnus/deep_out_of_sight.php?
      und
      ~magnus/deep_insight.php?
      als
      {{fullurl:toollabs:sighting/deep out of sight.php|
      und
      {{fullurl:toollabs:sighting/sighting/deep insight.php|
    • Bei knapp 50 WikiProjekten gibt es trivialen Ersatz für
      //toolserver.org/~kolossos/templatetiger/tt-table4.php?
  • Um die Beos nicht zu ersäufen, sollte versucht werden, nach Rumprobieren an Einzelschicksalen in einem automatischen Lauf möglichst viele URL in einem Edit zu fixen. Aber das wissen Botbetreiber ja selbst.
  • Ich hätte gern die Form mit {{fullurl:toollabs:, einer Pipe und hintendran irgendwo noch }} – falls denen eines Tages einfällt, auf wmftools.org umzurüsten, hätten wir schon mal die richtige URL und keinen Zoff mit Weiterleitung, CORS, unerlaubter Domain. (Die Domain scheint verkäuflich zu sein; ob man sie sich als Faustpfand sichern sollte?)
  • Insgesamt schätze ich, dass sich bei 10 % der URL (also 4000–5000) der Aufwand für eine Reparatur lohnen würde, weil mit den Tools noch gearbeitet wird. Der Rest steht auf Seiten, mit die nicht mehr genutzt werden, die niemand mehr liest, und die voller redlinks sind; oder die in Eigenverantwortung noch aktiver Benutzer liegen. Gerade letztere sind auch völlig bunt und individuell und können nicht systematisch repariert werden.

Liebe Grüße --PerfektesChaos 22:39, 2. Sep. 2014 (CEST)

Danke für deine umfassenden Ausführungen!
Einen Punkt sehe ich anders als du: Die Mehrheit der Benutzer würde sich bestimmt über ein Linkfixen freuen. Die wohl wenigen Ausnahmen können ja den Bot revertieren. Ich jedenfalls würde es schätzen, wenn die toten Links auf meiner Benutzerseite (sowie ggf. auch in meinen .js-Seiten) aktualisiert würden. --Leyo 22:38, 3. Sep. 2014 (CEST)
Die sind aber nicht schematisiert, sondern sehr individuell. Und stundenlang Leuten hinterherzubasteln, die schon seit fühf Jahren nicht mehr aktiv sind, während die Portale auf die Wartung warten, ist wohl nicht Sinn der Sache.
Da sich übrigens kein Bot rührt, habe ich übrigens mal begonnen, ein gutes 1000 der CategoryIntersect-URL auf catscan2 umzuschreiben.
VG --PerfektesChaos 16:15, 12. Sep. 2014 (CEST)

i Info: Es gibt auch noch über 2000 tools.wikimedia.de – dabei handelt es sich um eine funktionsidentische Weiterleitung auf toolserver.org aus der Frühphase.

Ich habe in einer kleinen Marathon-Schlacht 700 Seiten mit CategoryIntersect editiert und diesen, soweit in catscan2 konvertierbar, weitgehend abgearbeitet. Ein paar Portale und Redaktionen könnten noch übrig sein; der Rest sind Archive, LD, Disku und Benutzer. Insgesamt sind wohl um 2000 dieser URL unmittelbar gefixt worden; dazu etwas trivialer Beifang plus Syntaxfehler. Aus der Statistik sind eher 2500 URL verschwunden, weil die Seiten teils dreifach ineinander eingebunden sind.

Jetzt habe ich für eine Weile keine Lust mehr. --PerfektesChaos 13:24, 15. Sep. 2014 (CEST)

Mittels Spezial:Suche/insource:/toolserver\.org/ findet man sogar noch Toolserver-Links im ANR … --Leyo 20:43, 23. Jan. 2015 (CET)

Weblinks auf nicht mehr funktionierende Online-Version der Encyclopedia Britannica korrigieren[Bearbeiten]

1911encyclopedia.org, eine Online-Version der Encyclopedia Britannica von 1911, ist down, wird aber im ANR 700-mal verlinkt. Per Bot liesse sich ggf. eine der folgenden Optionen umsetzen:

Die beiden ersten Varianten wären am besten, aber wohl auch am schwierigsten. --Leyo 00:54, 27. Aug. 2014 (CEST)

auf Achive.org dürfte die gesammte Ausgabe liegen: <https://ia600809.us.archive.org/21/items/1911britannicatiff/>, bzw. <https://archive.org/details/EncyclopaediaBritannicaDict.a.s.l.g.i.11thed.chisholm.1910-1911-1922.33vols> Das Problem ist, wie man das auf vernünftige Weise verlinkt.  Frohes Schaffen — Boshomi ☕⌨☺  19:23, 28. Aug. 2014 (CEST)
Puh, keine Ahnung… --Leyo 00:10, 10. Sep. 2014 (CEST)
Der 1. Weblink taugt gar nichts. Wer kann schon zum einmaligen nachschauen ein 23-GByte-Tar-Archiv gebrauchen.
Der 2. linkt auf eine laienhafte Archivierung. Die direkte Auflistung des Ordners hier zeigt, dass die 33 Bände nur als PDF-Dateien vollständig, aber inkonsistent benannt sind. Andere Formen, insbesondere der Onlinezugriff auf Seiten, sind unvollständig (nur 22 Bände konvertiert). Ergo auch kaum zu gebrauchen. Da hat jemand mittendrin die Lust verloren und aufgehört... Darüber hinaus sind die Links auf der Webseite unsortiert und einige PDFs haben mehrere Gigabyte (bis 4,4 GByte), was selbst bei schnellen 25 MBit/s eine Downloadzeit von 25 bis 30 Minuten bewirkt... eigentlich auch unbrauchbar. Hier könnte man allenfalls eine Vorlage schreiben, welche die richtige PDF des vollständigen Sets heraussucht und den Link (mit Dateigröße, bis 300 MByte) angibt.
ÅñŧóñŜûŝî (Ð) 19:13, 14. Sep. 2014 (CEST)
Nachtrag: Die Linkliste wäre:
Präfix (Ordner) https://ia600406.us.archive.org/26/items/EncyclopaediaBritannicaDict.a.s.l.g.i.11thed.chisholm.1910-1911-1922.33vols/
Dateien:
Dateiname Datum Größe
01.EncycBrit.11th.1910.v.1.A-AND..pdf 05-Jan-2010 04:42 94.299.612
02.EncycBrit.11th.1910.v.2.AND-AUS..pdf 06-Jan-2010 05:17 118.241.117
03.EncycBrit.11th.1910.v.3.AUS-BIS..pdf 15-Mar-2011 04:19 112.123.985
04.EncycBrit.11th.1910.v.4.BIS-CAL..pdf 05-Jan-2010 05:27 104.923.429
05.EncycBrit.11th.1910.v.5.CAL-CHA..pdf 05-Jan-2010 05:49 113.600.623
06.EncyBrit.11th.1910.v.6.CHA-CON..pdf 05-Jan-2010 06:08 110.372.183
07.EncycBrit.11th.1910.v7.CON-DEM..pdf 06-Jan-2010 05:37 124.465.637
08.EncycBri.11th.1910.v8.DEM-EDW..pdf 05-Jan-2010 07:13 153.333.857
09.EncyBrit.11th.1910.v.9.EDW-EVA..pdf 05-Jan-2010 07:29 93.868.661
10.EncycBritan.1911.v.10.EVA-FRA..pdf 06-Jan-2010 06:06 122.983.626
11.EncycBrit.11th.1911.v.11..FRA-G..pdf 05-Jan-2010 08:06 116.631.036
12.EncycBrit.11th.1911.v.12.GIC-HAR.pdf 05-Jan-2010 08:56 123.398.255
13.EncycBrit.11th.1911.v.13.HAR-HUR..pdf 05-Jan-2010 09:16 126.011.033
14.EncycBrit.11th.1911.v.14.HUS-ITA..pdf 05-Jan-2010 12:31 117.659.922
15.EncycBrit.11th.1911.v.15.ITA-KYS..pdf 05-Jan-2010 13:48 126.762.981
16.EncycBri.11th.1911.v16.L-LOR..pdf 05-Jan-2010 14:47 140.176.819
17.EncycBrit.11th.1911.v17.LOR-MEC..pdf 05-Jan-2010 15:15 175.467.820
18.EncycBrit.11th.1911.v.18.MED.MUM..pdf 05-Jan-2010 15:38 86.194.969
19.EncyBrit.11th.1911.v.19.MUN-ODD.pdf 05-Jan-2010 16:03 106.053.558
20.EncycBrit.11th.1911.v.20.ODE-PAY.pdf 05-Jan-2010 16:37 118.806.506
21.EncycBrit.11th.1911.v.21.PAY-POL..pdf 06-Jan-2010 06:39 138.539.929
22.EncycBrit.11th.1911.v22.POL-REE..pdf 06-Jan-2010 06:57 115.389.905
23.EncycBrit.11th.1911.v23.REF-SAI..pdf 06-Jan-2010 07:22 122.869.508
24.EncycBrit.11th.1911.v24.SAI-SHU..pdf 06-Jan-2010 07:53 107.941.327
25.EncycBrit.11th.1911.v25.SHU-SUB..pdf 06-Jan-2010 08:20 148.830.473
26.EncycBrit.11th.1911.v.26.SUB-TOM..pdf 06-Jan-2010 13:22 153.523.501
27.EncycBrit.11th.1911.v.27.TON-VES..pdf 06-Jan-2010 14:38 107.406.039
28.EncycBrit.11th.1911.v.28.VET-ZYM..pdf 06-Jan-2010 15:02 138.579.455
29.EncycBrit.11th.1911..11th.v29.Index..pdf 07-Jan-2010 06:51 126.564.824
30.EncycBrit.12th.1922.v30.nv1.ABB-ENG..pdf 06-Jan-2010 16:47 191.404.607
31.EncycBrit.12th.1922.v31.nv2.ENG-OYA..pdf 06-Jan-2010 17:23 229.989.964
32.EncycBrit.12th.1922.v32.nv3.PAC-ZUL..pdf 07-Jan-2010 06:19 255.097.261
33.ReadersGuideEncycBrit.v33.1913..pdf 07-Jan-2010 05:38 17.920.388
ÅñŧóñŜûŝî (Ð) 19:33, 14. Sep. 2014 (CEST)
* Wenn man das ordentlich machen will, sollte man die großen Files downloaden, die jeweils best verfügbare Qualität in Einzelseiten-Tiff-s zerlegen, mit ImageMagick die Tiff-s noch ein wenig aufbessern und mittels tesseract text und hocr-Files anlegen und das Ergebnis Seite für Seite auf Commons hochladen.
* Ist das erledigt bräuchte man noch ein Tool zum Editieren der hocr-Files direkt über dem Image. So ein Tool hätte recht offensichtlich großen langfristigen Nutzen, müsste aber von der Mediawiki entwickelt werden. Damit könnte man dann ganze Bibliotheken gemeinfreier Bücher online nutzbar und längerfristig weitgehend fehlerfreie durchsuchbare Texte daraus erstellen. Ohne Editiermöglichkeit sind die Ergebnisse leider recht fehleranfällig, wie man auch bei Archive.org sieht. Halbfertige Ansätze als Firefox-addon existieren, funktionieren aber zumindest bei mir nicht.  Frohes Schaffen — Boshomi ☕⌨☺  20:45, 15. Sep. 2014 (CEST)

Bevor GiftBot beim bevorstehenden(?) Run all die toten Links auf den Diskussionsseiten melden, würde ich vorschlagen, die Weblinks zumindest mittels {{Toter Link}} zu taggen. --Leyo 18:00, 8. Feb. 2015 (CET)

@Antonsusi, Boshomi: Oder seht ihr mittelfristig eine andere Lösung? --Leyo 00:28, 23. Feb. 2015 (CET)

Hilfe im Projekt Tennis[Bearbeiten]

Hallo Botexperten, im WikiProjekt Tennis Pflegen wir Navigationsleisten, die die Top 10 Spieler eines jeweiligen Landes enthalten. Ein Bot könnte uns dabei helfen, die Navileisten nach der Aktualisierung in die verlinkten Artikel einzubauen und aus Artikel, die nicht mehr verlinkt sind, herauszunehmen. Eine Sammlung der Navileisten findet man auf der Benutzerseite von SuperAle unter Benutzer:SuperAle/ToDo nach der Überschrift Navigationsleisten Die zehn bestplatzierten Tennisspieler. Gruß, Korrektor123 (Diskussion) 17:39, 1. Sep. 2014 (CEST)

Hier zwei Sammelseiten mit ALLEN Navigationsleisten, die betroffen sind: von der ATP und von der WTA. Der Link oben enthält nur die ATP-Leisten und auch Navileisten zu Turnieren, die nicht betroffen sind. Wir wollen doch die Ladies nicht vergessen, lieber Korrektor ;-) --DonPedro71 (Diskussion) 21:44, 1. Sep. 2014 (CEST)
Man sollte sich eher mal fragen, wie sinnvoll Navigationsleisten sind, die per Bot aktualisiert werden müssen. Dieses Pseudo-Auswahlkriterium "Top 10 Spieler" ändert sich doch permenant. Heute ist ein Spieler drin und morgen wieder draussen und jedes Mal wird die Navigationsleiste eingefügt und wieder entfernt (und selbst angepasst). So eine Navigationsleiste sollte schon halbwegs stabil sein, um brauchbar zu sein.--213.61.99.155 12:16, 9. Sep. 2014 (CEST)
Das sollte man sich wirklich fragen: Wikipedia:Löschkandidaten/9. September 2014#Vorlagen --FannyRoertle (Diskussion) 12:40, 9. Sep. 2014 (CEST)
Man kann sich die Arbeit auch schaffen. Eigentlich sollte für sowas Wikidata zuständig sein… --Leyo 00:15, 10. Sep. 2014 (CEST)
@Korrektor123: Frag doch mal unter d:WD:Forum nach. --Leyo 00:25, 23. Feb. 2015 (CET)
@Leyo: Hallo Leyo, schön, dass sich seit längeren mal wieder jemand um die Frage kümmert. Ich habe im WD:Forum deine Disk zu #Nutzung von Wikidata bei wartungsintensiven Vorlagen gelesen. Dabei ist mir aufgefallen, dass das mit den Kadern bei Fußballmannschaften eigentlich das selbe ist wie bei den Navileisten mit den zehn bestplatzierten Tennisspielern. Wenn das (irgendwann) mal funktionieren sollte, würde uns bei der Aktualisierung der Vorlagen das schon ein bisschen Arbeit abnehmen. Ein anderes Problem, wo ich meinte, dass uns ein Bot helfen könnte ist, dass eine Navileiste in einen Artikel eingebaut werden muss wenn der Spieler gelistet wird und wieder herausgenommen werden muss wenn er nicht mehr gelistet wird. Ich glaube, dass das schwer mit Wikidata realisierbar sein wird. --Korrektor123 (Diskussion) 17:10, 23. Feb. 2015 (CET)
Je mehr Benutzer diese Funktionalität nachfragen, desto eher kommt sie bei der Softwareentwicklung an die Reihe. ;-)
Bezüglich der Artikel: Vielleicht wäre eine solche Übersichtsseite nützlich. --Leyo 18:09, 23. Feb. 2015 (CET)

Wikipedia:Artikel, die es in allen Wikipedias geben sollte/Erweitert aktualisieren[Bearbeiten]

Im Rahmen eines Kurier-Artikels rückte die erweiterte Liste in den Fokus. Sie ist allerdings auf den Stand von September 2012, seitdem hat sich die ursprüngliche Meta-Liste sehr, sehr stark geändert, doch per Hand ist eine Aktualisierung der vielen Daten kaum zu schaffen.

  • Die Links müssten von Wikidata auf deutsche Wikipedia-Artikel umgestellt werden
  • man müsste die bereits in der veralteten Version vorhandenen Lesenswert-, Exzellent- und Gesprochen-Versionen-Bapperl aktualisieren
  • Bei Rotlinks müssten dann auch ein Interwiki-Link zum en-Artikel (alternativ: Wikidata-Eintrag) hinzugefügt werden.

Kann das ganze auch per Bot ausgeführt werden?--CG (Diskussion) 18:22, 1. Sep. 2014 (CEST)

Bildersuche in fremden Wikis[Bearbeiten]

Gibt es eine Möglichkeit die Seiten mit "Bilderwunsch" durchzugehen und zu testen ob es in einer anderen Wikpedia bei dem entsprechen Artikel ein Bild gibt? Die Suche nach "File:" oder "Image:" wäre da der erste Schritt, die unzähligen lokalen Varianten der zweite. Und dann eine Wartungsliste erstellen.

Das ist ein etwas anderer Wunsch als weiter oben. Es müssteneben händisch geeignete Bilder nach Commons verschoben werden, bevor sie bei "uns" eingefügt werden können. --Eingangskontrolle (Diskussion) 20:08, 15. Nov. 2014 (CET)

Finde ich schwierig bis unmöglich, das vernünftig zu machen. Also sicherlich ist es möglich alle Vorlageneinbindungen zu checken, ob in einer anderen Sprache ein Bild eingebunden ist. Aber geprüft werden, ob das Bild das ist, was an der Stelle gewünscht ist, kann ich mir nicht vorstellen, wie ich das programmieren würde.
Nimm als Beispiel Oranienburg. Da wird eine spezielle Ansicht gewünscht .. der englische Artikel enthält zwar Bilder aber sicherlich nicht eines, wie es gewünscht ist.
Also was möchtest du mindestens erfüllt haben, damit du zufrieden bist? --Croesch (Diskussion) 21:54, 15. Nov. 2014 (CET)
So etwas gibt es schon. Schau mal auf Benutzer:Tsor/Tischtennis unter "Bilderwunsch". --tsor (Diskussion) 17:36, 16. Nov. 2014 (CET)

bot als quasi-hook auf den recent changes[Bearbeiten]

gudn tach!
im rahmen einer automatischen link-ersetzung (fuer details siehe WP:SBL#denkmalschutz.de) habe ich ueberlegt, meinen bot das quasi in realtime erledigen zu lassen, weil er per irc sowieso auf den recent changes lauscht. allerdings bin ich davon nach kurzem ueberlegen schon wieder abgerueckt, da ich vermute, dass das nur extrem viel ressourcen fressen wuerde -- bei nur minimalem nutzen. deshalb ergibt sich nun meine frage:
gibt es sowas wie einen zentralen bot, der diverse aufraeumarbeiten auf den recent changes durchfuehrt, in den man diverse kleinere aufgaben reinhaengen koennte -- also quasi sowas wie das edit filter, nur mit einer automatischen post-korrektur statt einem edit-block? -- seth 22:50, 24. Nov. 2014 (CET)

Das Schöne an so einer Lösung wäre, dass man die Benutzer nicht ständig zurechtweist, weil sie etwas falsch machten (und damit im Filter landeten) sondern, dass man nachträglich zeigt, wie man eine nach AGF guten Edit weiter verbessern kann. Ich erledige eine vergleichbare Tätigkeit per Hand bei der Umwandlung von archiv.today-shortlinks in menschenlesbare Langlinks. Den Lernerfolg bei den Benutzern schätze ich als recht gut ein, jedenfalls finden sich im Filter 182 von einer hartnäckigen Troll-IP abgesehen keine Dauergäste.  Frohes Schaffen — Boshomi ☕⌨☺  23:35, 24. Nov. 2014 (CET)
gudn tach!
ja, man koennte auf diese weise einige regeln im edit filter deaktivieren und einfach einen bot diese arbeit erledigen lassen. ein heisser kandidat waere z.b. regel #6, denn ich bezweifle mittlerweile, dass diese regel dazu geeignet ist, user zu "erziehen". auch sowas wie doppelte protokollangaben "http://http://www.example.com" liessen sich darueber korrigieren, ohne dass ein bot auf dem gesamten bestand jedes mal danach suchen muesste.
nachteil waere natuerlich, dass die histories durch die korrekturen dann einen eintrag mehr bekommen koennen. dafuer muessten sich aber weniger leute durch das edit filter gegaengelt fuehlen.
eine naive idee waere, dass ein solcher bot nach einem detektierten zu korrigierenden edit solange wartet, bis ein artikel 15 minuten nicht mehr geaendert wurde, bevor er hand anlegt.
@Der Umherirrende: da hier bisher sonst niemand geantwortet hat, weisst du, ob es sowas bereits gibt? -- seth 19:56, 30. Nov. 2014 (CET)
Soweit ich weiß, gibt es derzeit keinen explizit dafür vorgesehenen Bot, aber schon einige, die die Letzten Änderungen überwachen. Spontan fiele mir da Krdbot ein. Gruß, IW — 20:04, 30. Nov. 2014 (CET)
Eine Erweiterung in MediaWiki für solche Sachen gibt es nicht, da müsste sich die lokale Community etwas ausdenken. Benutzer:CopperBot als Signatur-Bot dürfte auch so etwas ähnliches sein, wenn er auch bis 30 Minuten wartet. Der Umherirrende 20:06, 30. Nov. 2014 (CET)
gudn tach!
dass es keine (implizit agierende) erweiterung dafuer gibt, ist vermutlich auch besser, weil transparenter (weniger magic).
an sich kann ich auch einfach CamelBot erweitern. sollte nicht soo viel arbeit sein, weil er wie gesagt eh schon auf den RCs lauscht und von einigen edits getriggert wird, bisher allerdings nicht durch den inhalt, sondern nur den titel der jeweils entsprechenden artikel.
ich denke bloss, dass das abrufen jedes inhalts jeder aenderung ordentlich ressourcen frisst und deswegen vielleicht besser gebuendelt werden sollte oder nicht?
@Krd, P.Copp: wie sind eure erfahrungen damit? laufen eure bots auch auf dem (neuen) toolserver? ist euer code offen zugaenglich? -- seth 20:44, 30. Nov. 2014 (CET)
Meine Sachen sind nicht offen zugänglich, und laufen größtenteils nicht auf WMF Labs (nur die Teile, die Datenbankzugriff brauchen), weil das Setup dort für den Kleinkram, den ich mache, viel zu kompliziert ist.
Ob die RC-Sachen umsetzbar sind, weiß ich nicht. Ich horche im IRC nur auf Metadaten, ob die Diffs dort auch kommen, weiß ich aus dem Stand nicht. Ich denke, man muss das, wenn überhaupt, in Echtzeit machen, da jede Verzögerung dem menschlichen Benutzer Bearbeitungskonflikte bringt, was bei Neulingen fatal wäre. Allein schon dass ein Benutzer, der seinen Fehler bemerkt, ihn dann aber nicht mehr findet weil er schon korrigiert wurde, dürfte für einige Verwirrung sorgen. --Krd 22:35, 30. Nov. 2014 (CET)
gudn tach!
im irc werden zwar nur die metadaten gepostet, mit denen kann man jedoch sich dann das zugehoerige diff heraussuchen. das wuerde dann schon wesentlich mehr ressourcen beanspruchen. machbar waere es jedenfalls grundsaetzlich.
echtzeit vs. verzoegerung: mit dem genannten argument der verwirrung duerfte man dann auch als normaler user keine korrekturen durchfuehren. deswegen wuerde ich wie gesagt, aehnlich wie beim nachsignier-bot, ein mehrminuetiges delay einbauen, um die edit-conflict-wahrscheinlichkeit runterzuschrauben. und wie gesagt, es geht vor allem um faelle, bei denen man ansonsten aufs edit filter zurueckgreifen wuerde, was zu noch groesserer verwirrung sorgen kann. -- seth 23:05, 30. Nov. 2014 (CET)
Du fragtest nach meiner Erfahrung, und die lautet: Egal wie groß Du die Verzögerung wählst, wirst Du bei dem geplanten Setup mehr als eine Rückfrage/Beschwerde pro Tag bekommen. Das _kann_ akzeptabel sein, aber man sollte vorher klären, wer das dann beantworten wird. Ich kenne schonmal mindestens einen, der keine Lust auf sowas hat.
Ob das Abfragen aller Diffs performt, weiß ich nicht. Evtl. könnte man im ersten Schritt einzelne Benutzergruppen ausblenden, mindestens Admins und Bots. --Krd 23:21, 30. Nov. 2014 (CET)
gudn tach!
ja, du wirst sicher recht damit haben, dass eine solche loesung auch nicht allen gefallen wird. meine hoffnung ist, dass sie insg. fuer weniger reibung sorgt.
und ja, der bot sollte am besten schon im summary auf eine seite hinweisen, auf der man feedback geben kann. im zweifel wuerde ich erstmal meine talk page dafuer hergeben. -- seth 00:16, 2. Dez. 2014 (CET)

Angenommen wir wollten das einfach mal testen, haben wir schon eine Liste von Sachen, die da gemacht werden sollen? --Krd 23:35, 30. Nov. 2014 (CET)

Soweit ich sehe ist die Performance kein echtes Problem. Sobald wir wissen, was genau gemacht werden soll, können wir starten. --Krd 09:45, 1. Dez. 2014 (CET)
gudn tach!
drei beispiele wurden ja in der diskussion bereits von mir genannt (1. link-korrektur denkmalschutz.de, siehe oben verlinkter thread, 2. doppelte protokoll-angaben, 3. regel #6 des edit filters).
eine open-source-loesung ist mir allerdings lieber. wir hatten auf dem alten toolserver ja auch hin und wieder das problem, dass nicht klar war, was mit verwaisten tools passieren soll.
da ich heute morgen eh schon ueberlegt hatte, wie ich das ganze mit CamelBot umsetze, habe ich das soeben mal ausprobiert und es funktioniert. ich werde dann die tage mal die obigen drei punkte dort einbauen und das dann weiter beobachten. danke jedenfalls schon mal fuer die tipps. -- seth 00:16, 2. Dez. 2014 (CET)
gudn tach!
hab jetzt CamelBot so programmiert, dass er die ersten beiden korrekturen durchfuehrt. wenn sich das bewaehrt, kann ich ihm relativ leicht auch andere korrektur-ersetzungen befehlen. performance-maessig kostet das tatsaechlich fast nix. die RCs lasse ich zeitlich ueberlappend (statt streng sequenziell) durchrattern, sodass zudem auch kein zusaetzliches delay mit der zeit reinkommen oder edits uebersehen werden sollten. -- seth 20:58, 3. Dez. 2014 (CET)
Ich hatte der Code dafür auch fast fertig. Falls wir das zwecks Redundanz parallel laufen lassen sollen, melde Dich bitte. (Vielleicht solltest Du es auf einem separaten Benutzer laufen lassen, damit man im Notfall diesen Job besser stoppen kann?) --Krd 15:30, 7. Dez. 2014 (CET)

Bot für die Abarbeitung von Kategorie:Benutzer:Importartikel[Bearbeiten]

Normalerweise werden Importartikel nach 3 Monaten Nichtbearbeitung gelöscht. Ich schlage daher, falls jemand daran Interesse hat, folgenden Bot vor (ich kann das leider nicht): Automatische Löschung von Importartikel, die drei Monate unbearbeitet sind und der Benutzer auch inaktiv. Automatische Benachrichtigung auf er Benutzerdisk (entfällt bei gesperrten Benutzern). Automatische Benachrichtigung auf der Benutzerdisk, falls der Importartikel drei Monate nicht bearbeitet wurde, der Benutzer aber aktiv ist. Siehe dazu auch die Diskussion auf meiner Disk unter Benutzer Diskussion:Informationswiedergutmachung#SLAs auf alte Importe. Es erspart Zeit, sinnlose Diskussionen und dürfte automatisierbar sein. MfG --Informationswiedergutmachung (Diskussion) 22:38, 2. Dez. 2014 (CET)

Ich würde diese Angelegenheit federführend den Importeuren überlassen.
Auf Wikipedia:Importwünsche/Wartung wird eine detaillierte Auflistung generiert, wann welcher Artikelentwurf zuletzt bearbeitet wurde und von wem.
VG --PerfektesChaos 23:03, 2. Dez. 2014 (CET)
Diese detaillierte Auflistung wurde zuletzt am 30. Januar 2014 aktualisiert (siehe Verson) und drin steht: Letzter Stand: Sonntag, 1. September 2013 16:20:18. Außerdem stimmt sie hinten und vorne nicht: es sind noch drei Artikel vom Mai 2011 nicht fertig übersetzt, siehe Kategorie:Benutzer:Importartikel 05 - 2011, viele haben gar kein Importdatum in der Tabelle. Ein Bot würde eher dazu führen, dass man diese Projektseite schnelltonnen kann. Ach ja: spaßigerweise steht da noch ein Importartikel von mir drin (angelegt unter meinem alten Benutzernamen: Benutzer:Jack User/Hoot Gibson. Hat sich auch schon längst erledigt. Fazit: ein Bot macht es schneller, besser und entlastet die Importeure vor unnützen Arbeit. Fragen wir mal Itti, was sie als Importeur von der Idee hält. Die Projektseite gibt es übrigens erst seit Januar 2013 und hat sich offensichltich nicht bewährt, immer noch offene Importartikel von 2011 und 2012 sind da gar nicht drin, wenn ich richtig gezählt habe knapp 60 Artikel. --Informationswiedergutmachung (Diskussion) 23:20, 2. Dez. 2014 (CET)
Oh ja, das ganze lässt sich gut per Bot machen, nur müssen eine Menge Fakten beachtet werden. Ebenso auch das Ansprechen von Benutzern z.B. Das ist eine ganz interessante Idee, und ich als Importeur mach mich mit meinem Bot da ran. Das wird aber eine größere Sache. Also schauen wir mal, -- Doc Taxon @ Disc – BIBR – 23:26, 2. Dez. 2014 (CET)
Schön zu sehen, wie sich eine Idee nach dem Wikiprinzip weiterentwickelt und durchsetzt. Vielen Dank posthum an Benutzerin:Lady Whistler, die hier viel Arbeit investierte. Frohes Schaffen — Boshomi ☕⌨☺  00:30, 3. Dez. 2014 (CET)

in Arbeit  -- in Arbeit, -- Doc Taxon @ Disc – BIBR – 23:26, 2. Dez. 2014 (CET)

@Doc Taxon: Danke, der Vorteil ist ja auch, dass die Benutzer mal an ihre Artikel erinnert werden. --Informationswiedergutmachung (Diskussion) 23:45, 2. Dez. 2014 (CET)
@Informationswiedergutmachung:
Oh du mein Herzchen. Na klar, wenn da oben lang und breit erklärt ist, wie die Fachleute den Seiteninhalt aktualisieren, und dort als letztes Datum 2013 vermerkt ist, dann muss halt mal wieder jemand auf den Knopf drücken.
Jetzt mit 812 Einträgen und detaillierter Analyse aktualisiert.
@Doc Taxon: Die Wartungskat darf nicht leer sein; wurde irrtümlich aus der Vorlage herausgenommen – dann natürlich null Treffer.
VG --PerfektesChaos 00:36, 3. Dez. 2014 (CET)
@PerfektesChaos: Ach, PerfektesHerzchen, und was spricht gegen eine Automatisierung des Löschens und auch eine automatische Nachricht? Die gibt es trotz der Fachherzchen nämlich nicht und wäre gar formidabel, wenn nicht gar famos. --Informationswiedergutmachung (Diskussion) 01:36, 3. Dez. 2014 (CET)
Aber supa, das ein Fachmann mal den richtigen Knopf gedrückt hat. Auch wenn es nur ein Jahr gedauert hat. Oder so. --Informationswiedergutmachung (Diskussion) 01:37, 3. Dez. 2014 (CET)
Praktisch wäre auch, wenn man als Knöpfeldrücker automatisch drauf aufmerksam gemacht wird, wenn ein neues Lemma, das identisch mit dem Importnamensartikel ist. Dann könnte man auch umgehend feststellen, dass bsp. Max Maven im Oktober 2014 angelegt wurde, aber im BNR bei einem inaktiven Benutzer Benutzer:Benji Wiebe/Baustelle/Max Maven fröhlich vor sich hinschimmelt. --Informationswiedergutmachung (Diskussion) 01:41, 3. Dez. 2014 (CET)
eine Funktion dazu habe ich vor, in den Bot mit einzubauen. -- Doc Taxon @ Disc – BIBR – 07:30, 4. Dez. 2014 (CET)


@Informationswiedergutmachung:

  • Die fragliche Wartungsseite blieb deshalb auf Stand Sommer 2013, weil die abarbeitende Importeurin im Sommer 2013 verstorben war und ihre Nachfolger sich hier bislang nicht einbrachten.
  • Ein Bot oder Admin, der automatisch Benutzerseiten löschen würde, wäre bald knopflos.
  • Die von dir verlangte Benutzerseitenlöschung wäre dann und nur dann möglich, wenn seit dem Import überhaupt kein oder nur ein Mini-Edit erfolgte. Genau dieser Sachverhalt wird auf der fraglichen Wartungsseite auseinandergefieselt.
  • Vor irgendwelchen Aktivitäten müssen die Benutzer auf ihren Diskus angesprochen werden, und es muss ihnen ausreichend Gelegenheit zur Stellungnahme (rund ein Monat) gegeben werden. Nur diese Ansprache könnte als botgestützte Massenpost erfolgen. Benutzer müssen auch nicht pausenlos aktiv sein.
  • Kam es erstmal durch den Wirt oder gelegentlich andere Benutzer zu nennenswerten Bearbeitungen, wurde gar der Artikel schon zur Hälfte übersetzt, dann ist überhaupt keine Löschung von Amts wegen mehr möglich.
  • Schwierig ist der Fall, wenn zum gleichen Thema und ggf. von jemand anderem übersetzt schon ein Artikel im ANR steht; dann muss für alle erarbeiteten Passagen überprüft werden, ob sie inhaltsreicher sind als die ANR-Version.
  • Die grundsätzliche Politik mit Benutzerseiten ist, dass diejenigen, die dem Ziel der Enzyklopädieerstellung dienen, auch im BNR verweilen dürfen; sie fressen keinerlei zusätzliche Ressourcen mehr als ohnehin schon angefallen.
  • Der Umgang mit den fraglichen Benutzerseiten bedarf der Einzelfallprüfung und eines vorsichtigen Umgangs mit den Autoren. Eine automatisierte Kahlschlagsanierung, wie sie dir vorschwebt, wird es nicht geben.

@Doc Taxon: CC

VG --PerfektesChaos 12:35, 5. Dez. 2014 (CET)

Ja ja, das seh ich schon auch alles so. Ein Konzept dazu erarbeite ich gerade. -- Doc Taxon @ Disc – BIBR – 13:44, 5. Dez. 2014 (CET)
Programmierung wird nach der AdminCon fortgesetzt werden, -- Doc Taxon (Diskussion) 16:51, 16. Feb. 2015 (CET)

Gesucht: Artikel ohne Überschriften[Bearbeiten]

Ich hätte gerne eine Liste aller Artikel in der Kategorie:Schach, die keine Überschrift zweiter Ordnung (also die normale Überschrift) haben. Artikel mit Überschriften der Ordnungen 1 und >2 können gerne mit aufgeführt werden. 85.212.17.126 18:01, 19. Dez. 2014 (CET)

Gemäss incategory:Schach -insource:/\=\=/ gibt es keine. Falls du den Katbaum gemeint haben solltest, so wirst mit Schach* -insource:/\=\=/ fündig. --Leyo 18:21, 19. Dez. 2014 (CET)
Nein, das funktioniert nicht. Schach* -insource:/\=\=/ findet auch Artikel außerhalb der Kategorie:Schach, incategory:Schach* -insource:/\=\=/ findet gar nichts. 85.212.38.115 19:00, 19. Dez. 2014 (CET)
Das ist mir bewusst. Ein paar zusätzliche Artikel schaden dann doch nicht so sehr. --Leyo 19:06, 19. Dez. 2014 (CET)
Es sind nicht nur ein "paar zusätzliche Artikel", aber ok, das tut den Dienst. 85.212.38.115 19:09, 19. Dez. 2014 (CET)
insource:/\[\[Kategorie\:Schach/ -insource:/\=\=/ wäre sonst noch eine Alternative. --Leyo 19:15, 19. Dez. 2014 (CET)
Aber keine gute, denn das findet z. B. Kategorie:Person (Schach) nicht. 85.212.38.115 19:22, 19. Dez. 2014 (CET)
Ich hätte jetzt eigentlich erwartet, dass insource:/\[\[Kategorie\:[^\]]*Schach/ -insource:/\=\=/ entsprechend funktioniert, aber irgendwo habe ich da einen Denkfehler (oder die regexp-Suche einen Fehler). Auf jeden Fall sollte insource:/\[\[Kategorie\:.*Schach/ -insource:/\=\=/ alle liefern, wenn auch unsauber. Dabei gibt es aber auch false positives. \b funktioniert anscheinend in den regulären Ausdrücken bei der Suche auch nicht. Scheint doch recht eingeschränkt. --APPER\☺☹ 01:11, 26. Dez. 2014 (CET)

Gebietsreform in portugiesischen Gemeinden[Bearbeiten]

Hallo zusammen,

im September 2013 sind durch eine Gebietsreform rund 2000 Gemeinden (Freguesias) in Portugal verschwunden. Da die meisten Artikel zu diesen Gemeinden immer nach dem gleichen Schema erstellt wurden und aus nicht mehr als dem Einleitungssatz + Infobox bestehen, könnte man die Artikeländerung zu den Gemeindezusammenschlüssen in den meisten Fällen per Bot eintragen:
- hierzu müsste der Text angepasst werden (hierzu erstelle ich gerade eine Liste mit den zu ergänzenden Textstellen)
- die Navigationsleiste entfernt werden
- Kategorien in den Artikelquelltext eingetragen werden
- Infoboxparameter entfernt werden
- die Einwohnerzahlen direkt in den Artikelquelltext eingetragen werden.

Die Änderung sähe dann so aus: [1]. Die Liste den zu ändernden Artikel erstelle ich noch. Viele Grüße --Septembermorgen (Diskussion) 12:34, 21. Dez. 2014 (CET)

Kann bitte jemand Lebenszeichen geben, ob es möglich ist oder nicht? Falls es nicht möglich ist, spar ich mir den Mehraufwand, der für eine Botliste nötig wäre. VG --Septembermorgen (Diskussion) 20:49, 7. Jan. 2015 (CET)
Hier ist die Liste: Benutzer:Septembermorgen/Bottabelle/Gebietsreform Portugal, allerdings ungefiltert. Sie enthält alle Artikel, die geändert werden müssen, nicht nur diejeinigen, die per Bot geändert werden könnten. --Septembermorgen (Diskussion) 20:50, 12. Jan. 2015 (CET)
Ich kann es mir mal anschauen.
  • Textergänzung: reicht es, die erste Überschrift zu suchen und diesen Text davor einzufügen? Was muss noch ersetzt werden?
  • Navileisten: muss ich Vorlage:NaviBlock beachten?
  • Kategorien: sind in jedem Artikel bereits Kategorien vorhanden?
  • Infoboxparameter: welche genau?
  • Einwohnerzahlen: reicht das substen von EWZ, EWD und EWR?
Gruß, IW — 20:56, 12. Jan. 2015 (CET)
Hallo Inkowik,
Textergänzung müsste immer vor die erste Überschrift.
Folgende Textpassagen müssten geändert werden (z. B. in diesem hier: Santo André (Barreiro)):
  • Santo André ist eine Gemeinde“ durch „Santo André ist ein Ort und eine ehemalige Gemeinde
  • Zudem: „In ihr leben 11.485 Einwohner (Stand 30. Juni 2011).“ durch „Die Gemeinde hatte 11.485 Einwohner (Stand 30. Juni 2011).“
  • Vorlage:NaviBlock musst Du nicht beachten, falls vorhanden ändere ich die entsprechenden Artikel manuell. Die „Navigationsleiste Freguesias im Concelho XY“ müssten immer entfernt werden.
  • Kategorien sind in allen Artikeln enthalten, allerdings werden Kategorien aus der Infobox eingebunden, die direkt in den Artikelquelltext müssten und zwar Kategorie:Ort in ''Region XY''. Ebenfalls müsste die Kategorie:Ehemalige Freguesia in Porugal ergänzt werden.
  • Folgende Infoboxparameter müsstest Du entfernen: „Bürgermeister“ oder „Bürgermeisterin“ , „VerwaltungName“, „VerwaltungStraße“, „VerwaltungAdresse“, „VerwaltungOrt“ und „LAU“. Beim Infoboxparameter „Typ“ müsste immer nofreguesia ergänzt werden. Der Infoboxparameter „Gemeinde“ müsste ergänzt und ausgefüllt werden (die Spalte für die neuen Gemeinden ergänze ich noch in der Tabelle). „Gemeinde“ am besten immer an die Stelle von „LAU“
  • EWZ, EWD und EWR zu substen geht glaub ich nicht (d. h. ich war nicht erfolgreich damit). Bei Bedarf kann ich die Werte aber auch noch in der Tabelle ergänzen.
Viele Grüße --Septembermorgen (Diskussion) 21:45, 12. Jan. 2015 (CET)

Ok, ich versuche mal, etwas dafür zu programmieren, wird aber wahrscheinlich erst ab dem Wochenende gehen. Eine Liste mit den Einwohnerzahlen, -daten und -quellen wäre gut. Gruß, IW — 14:29, 13. Jan. 2015 (CET)

Bin die Liste nochmal durchgegangen: Bitte noch nicht loslegen, es gibt ein paar Änderungen, was die Botantrag betrifft. Muss mir aber erst eine Übersicht verschaffen, was genau sich ändert. --Septembermorgen (Diskussion) 23:04, 16. Jan. 2015 (CET)
So, es gibt einen neuen Stand: Ich habe zwei Listen angelegt: Benutzer:Septembermorgen/Bottabelle/Gebietsreform Portugal und Benutzer:Septembermorgen/Bottabelle/Gebietsreform Portugal/Liste 2. Die erste, umfangreichere, enthält die Artikel in denen Infobox, Artikeltext, Navileisten und Kategorien geändert werden sollten, in der zweiten Liste entfallen die Änderungen im Artikeltext.
Folgende Änderungen müsste man durchführen:
In den Infoboxen (gilt für beide Listen):
  • Folgende Infoboxparameter müsstest Du entfernen: „Bürgermeister“ oder „Bürgermeisterin“ , „VerwaltungName“, „VerwaltungStraße“, „VerwaltungAdresse“ und „VerwaltungOrt“. Beim Infoboxparameter „Typ“ müsste immer nofreguesia ergänzt werden. Der Infoboxparameter „Gemeinde“ müsste ergänzt und ausgefüllt werden. Der Infoboxparameter „LAU“ wird nicht gelöscht, sondern geändert und erhält den LAU-Code der neuen aufnehmenden Gemeinde. „Gemeinde“ am besten immer an die Stelle oberhalb von „LAU“ ergänzen.
  • Kategorien: Die Kategorie:Ehemalige Freguesia in Portugal müsste ergänzt werden, der Rest bleibt (Kategorie:Ort in XY wird weiterhin automatisch eingebunden).
  • Navigationsleisten: Die „Navigationsleiste Freguesias im Concelho XY“ müsste entfernt werden.
Nur in den Artikeln der ersten Liste:
Wie oben: Textpassagen müssten geändert werden (z. B. in diesem hier: Santo André (Barreiro)):
  • Santo André ist eine Gemeinde“ durch „Santo André ist ein Ort und eine ehemalige Gemeinde
  • Zudem: „In ihr leben 11.485 Einwohner (Stand 30. Juni 2011).“ durch „Die Gemeinde hatte 11.485 Einwohner (Stand 30. Juni 2011).“. Bei die Textänderungen gibt's weitere Fälle. Die muss ich aber erst raussuchen und hier ergänzen.
  • Text aus der Tabelle müsste vor dem ersten Abschnitt eingefügt werden.
Viele Grüße --Septembermorgen (Diskussion) 21:51, 21. Jan. 2015 (CET)
Hallo Septembermorgen, meine Zeitplanung sieht für die nächste Woche erst mal schlecht aus, ich behalte es aber im Hinterkopf. Gruß, IW — 21:32, 23. Jan. 2015 (CET)

@Septembermorgen: Ich habe alles oben geforderte soweit implementiert, Testedits: 1, 2, 3, 4, 5. Ich würde dann im fertigen Lauf auch ein vollständiges Protokoll anlegen, was der Bot gemacht hat und was nicht, damit eventuelle Nacharbeiten einfacher werden. Vorher habe ich aber noch Fragen:

  • Soll die Einwohnerzahl formatiert ausgegeben werden (Tausendertrennpunkte) bei >=10000 ?
  • Was mache ich mit Metadaten zur Fläche Vorlage:FL etc., wie z.B. in Santiago Maior (Beja)?

Ansonsten schau nochmal bitte drüber. Momentan noch nicht implementiert ist, dass der Bot bei fehlenden Parametern LAU und Typ diese nachträgt (ist das überhaupt nötig?). Außerdem verlässt er sich derzeit darauf, dass es einen References-Abschnitt gibt und mindestens eine Kategorie vorhanden ist. Die Textersetzung funktioniert derzeit auch nur für die beiden Fälle, die du oben unterstrichen aufgezeigt hast. Gruß, IW — 18:00, 8. Feb. 2015 (CET)

Hallo Inkowik, ich gehe die Liste gerade nochmal durch. Die Änderungen bislang sehen schon recht gut aus. Die Einwohnerzahlen sollten immer mit Tausendertrennpunkte ab >=10000 eingetragen werden. Die Fälle, in denen die Vorlage FL vorkommt, würde ich im Nachgang manuell ändern. References-Abschnitt ist überall vorhanden, ebenso mindestens eine Kategorie. Bei den Textersetzungen kommen noch ein paar weitere Varianten hinzu, trag ich nach, wenn ich die Liste durchgesehen habe. Der Parameter LAU ist immer vorhanden, beim Parameter Typ bin ich mir da nicht sicher (sollte aber vorhanden sein). Gruß --Septembermorgen (Diskussion) 23:06, 8. Feb. 2015 (CET)

Hallo IW, Liste habe ich nochmal durchgesehen. Folgende Textersetzungsvarianten kommen noch hinzu:

  • ist eine Gemeinde freguesia --> ist ein Ort und eine ehemalige Gemeinde (Freguesia)
  • ist eine portugiesische Gemeinde --> ist ein portugiesischer Ort und eine ehemalige Gemeinde
  • ist eine Freguesia --> ist ein Ort und eine ehemalige Freguesia
  • ist eine Stadtgemeinde --> ist ein Ort und eine ehemalige Gemeinde
  • ist eine Gemeinde --> ist ein Ort und eine ehemalige Gemeinde (Freguesia)
  • , besitzt eine Fläche von -->. Die Gemeinde hatte eine Fläche von
  • , mit einer Fläche von -->. Die Gemeinde hatte eine Fläche von
  • }} km² und hat {{Metadaten Einwohnerzahl --> |}} km² und Fließtext_Einwohnerzahl

Hier [2] müsste noch der Parameter VerwaltungName entfernt werden. Ansonsten könnte man starten, aber vielleicht erst mal mit 100 Änderugen. --Septembermorgen (Diskussion) 19:54, 13. Feb. 2015 (CET)

Nur zur Kenntnis: ich habe das weiterhin auf dem Schirm, bin aber nächste Woche nicht da, einige letzte Kontrollen sind noch zu machen. Anfang März sollte es losgehen können. Gruß, IW — 14:36, 21. Feb. 2015 (CET)

Liste der Mitglieder der American Academy of Arts and Sciences[Bearbeiten]

Die American Academy of Arts and Sciences wählt jedes Jahr ein paar Dutzend neue Mitglieder. Es gibt auch eine Kategorie:Mitglied der American Academy of Arts and Sciences. Wäre es möglich, anhand der PDF-Dateien unter 1, 2, 3, 4, 5 und 6, in denen die Mitglieder für jedes Wahljahr nach dem Schema Elected in YYYY und dann eine Liste von xx Namen nach dem Schema Nachname, Vorname(n) (Geburtsjahr-ggf. Sterbejahr) aufgelistet sind, in Einzellisten abzuspeichern? Wunschlemma wäre Liste der Mitglieder der American Academy of Arts and Sciences/YYYY. In diesen Listen sollte folgendes stehen:

Im Jahr YYYY wählte die American Academy of Arts and Sciences xx Personen zu ihren Mitgliedern.
__INHALTSVERZEICHNIS__
Neugewählte Mitglieder
Weblinks
[[Kategorie:Liste (Mitglied der American Academy of Arts and Sciences)]]

Um eine allfällige Anpassung von Lemmata an hier übliche Namenskonventionen, Auflösung von BKLs und etwaige Nachträge in den jeweiligen Artikeln würde ich mich nach und nach kümmern.

Unter https://www.amacad.org/contentu.aspx?d=941 stehen neben den Jahreslisten auch Mitgliederlisten, die nach dem Anfangsbuchstaben sortiert sind. Entsprechende Listen würde ich vermeiden wollen, weil sie z.T sehr groß würden und jedes Jahr anlässlich der Neuwahl gepflegt werden müssten, während ich nach o.g. Modell nur einfach eine neue Liste anlegen müsste.

Viele Grüße, --Drahreg01 (Diskussion) 23:12, 25. Dez. 2014 (CET)

Nur eine Nebenbemerkung, da der Botauftrag nichts für mich ist, ich aber ein Script habe, was fehlende Auszeichnungskats findet, welches ich mal eben kurz auf diese Kat angesetzt habe:
Es gibt 1045 existierende dewiki-Personenartikel, die nicht in Kategorie:Mitglied der American Academy of Arts and Sciences enthalten sind, jedoch in mind. einer fremdsprachigen Wikipedia (vor allem enwiki und das persische fawiki) in dieser Kategorie einsortiert wurden. Wenn du interessiert bist, kann ich dir die Liste geben. Merlissimo 00:57, 26. Dez. 2014 (CET)
Jein, ich wollte die Sache mehr an der Wurzel (also den Mitgliederlisten) packen. Auch en: und fa: werden bezüglich der Kategorisierung nicht vollständig sein. Und es mag (einzelne) Artikel auf de: geben, die nicht auf anderssprachigen Wikis existieren. Trotzdem danke für das Angebot, ich schicke dir mal ne Mail. --Drahreg01 (Diskussion) 09:00, 26. Dez. 2014 (CET)
@Merlissimo: Meine Wikimail an dich ist gebounced. --Drahreg01 (Diskussion) 09:44, 26. Dez. 2014 (CET)
Ups, sorry und danke für den Hinweis. Ich hatte auf dem alten Toolserver mir ein Archiv für Mails angelegt. Jetzt sollte ich wieder erreichbar sein.
Von vollständig habe ich nicht gesprochen. Es heißt nur dass die Kat statt der jetzigen 849 Einträge eigentlich mind. 1894 enthalten könnte, wenn die Kategorisierung auf dewiki konsequenter erfolgt wäre. Merlissimo 11:46, 26. Dez. 2014 (CET)
2. Mail ist raus. --Drahreg01 (Diskussion) 12:06, 26. Dez. 2014 (CET)

Hm, gibt es diese Liste auch als Nicht-PDF? Beim Rauskopieren aus den Dateien werden Umbrüche übernommen, die ich nicht alle per Hand korrigieren kann und möchte. Gruß, IW — 7J — 13:36, 29. Dez. 2014 (CET)

Auf deren Webseite finde ich nichts. Ich könnte höchstens deren Büro anmailen, ob sie uns soetwas zur Verfügung stellen können. Gruß, --Drahreg01 (Diskussion) 14:23, 29. Dez. 2014 (CET)
Habe eine Mail an die Academy geschickt. --Drahreg01 (Diskussion) 14:44, 29. Dez. 2014 (CET)
Vor dem 4. Januar ist keine Antwort zu erwarten. --Drahreg01 (Diskussion) 15:30, 29. Dez. 2014 (CET)
Bisher keine Antwort, ist denen vielleicht auch zu popelig. Also von dort ist keine Hilfe zu erwarten. Kann mir denn jemand hier mit meinem Anliegen helfen? --Drahreg01 (Diskussion) 14:30, 9. Jan. 2015 (CET)
Da ich auch hier keine Antwort bekomme, nehme ich diese Seite von meiner Beo und der Thread kann geschlossen werden. Gegebenenfalls mich anpingen. Danke für eure Aufmerksamkeit. --Drahreg01 (Diskussion) 11:49, 18. Jan. 2015 (CET)
Dieser Botauftrag wird gerade von InkoBot (Beiträge) bearbeitet. Um Konflikte zu vermeiden, warte bitte mit anderen Aktionen, bis diese Markierung entfernt ist, oder kontaktiere den Betreiber (Diskussion).

Verlinkte Überschriften[Bearbeiten]

Ich hätte gerne eine Liste mit Artikeln, in denen ein Wikilink in einer Überschrift enthalten ist. Sowas ist unschön und sollte entfernt werden (vgl. Wikipedia:Typografie#Grundregeln). 79.217.186.95 00:30, 27. Dez. 2014 (CET)

Eine Liste der Artikel, bei denen eine Überschrift mit einem Wikilink anfängt liefert die neue Suche mittels insource:/\=\= ?\[/. Nicht dabei sind Artikel, bei denen der Wikilink weiter hinten in der Überschrift kommt. Aber schonmal ein Anfang. --APPER\☺☹ 02:21, 27. Dez. 2014 (CET)
Könnte da in systematisierbaren Fällen ein Bot ran? Ein Anfang wäre z. B. in allen Jahresartikeln die Überschrift "Gestorben XXXX" zu entlinken und direkt unter die Überschrift den Link per Vorlage:Hauptartikel anzubringen (zur Zeit geht der Link meistens auf die entsprechende Kategorie:Gestorben XXXX, aber da es seit kurzem Nekrologe zu sehr vielen Jahresartikeln gibt, könnte man stattdessen die verlinken). 79.217.172.9 17:04, 27. Dez. 2014 (CET)
Verlinkte Überschriften sind nicht nur unschön, sie funktionieren in der mobilen Ansicht auch nicht bei Überschriften der obersten Ebene. Beim Anklicken wird der Abschnitt ein- oder ausgeblendet. -- FriedhelmW (Diskussion) 16:51, 20. Jan. 2015 (CET)

Fehlerhafte Tabellen[Bearbeiten]

Ist es möglich, automatisiert nach Tabellen zu suchen, die im Header eine andere Anzahl von Spalten definiert haben, als dann (vereinzelt oder durchgängig) in der Tabelle verwendet werden? Ein Beispiel wäre Olympische Sommerspiele 1992/Teilnehmer (Deutschland), wo im Kapitel "Teilnehmer" die Tabelle eine ganz schmale rechte Spalte ohne Inhalt hat. 85.212.17.126 12:59, 29. Dez. 2014 (CET)

Schwierig. Im Wikitext müsste man prüfen, wie viele Felder es zwischen einem ! und einem Zeilenumbruch gibt, wie viele Felder es zwischen zwei !! gibt und wie viele Felder es zwischen !! und einem Zeilenumbruch gibt. Das gleiche Analog mit | und || für die Tabellenzeilen. Dann vergleichen. Auswertung per HTML-Quelltext wäre hier einfacher, die gibt es aber nicht als Dump, soweit ich weiß. Gruß, IW — 21:38, 23. Jan. 2015 (CET)

Wahrscheinlich gab es die Frage irgendwann schon[Bearbeiten]

Aber macht es Sinn links auf BKLs per Bot zu fixen. Irgendwann waren mir Dutzende links auf Hube aufgefallen. Wenn ich gerade wenig motiviert auf anderes war habe ich die im Laufe der Zeit umgebogen auf das bisher immer richtige Hufe. Babei ist mir aufgefallen, das irgendwann auch Sahne auf Rahm verschoben wurde und Odsun auf Vertreibung der Deutschen aus der Tschechoslowakei. Wieder ohne die links zu korrigieren. Per Hand ohne zusätzliche Hilfsmittel eine eher langwierige und auch langweilige Beschäftigung. --V ¿ 18:57, 15. Jan. 2015 (CET)

Im Falle von Odsun könnte mMn eine BKL III stehen, da braucht es keine BKL I. Zumal es den Ortsartikel noch gar nicht gibt. Dann braucht man auch nix fixen. Ansonsten ist nach Nr. 7 des Intros eine botgestützte BKL-Auflösung eigentlich unerwünscht. --Matthiasb – Vandale am Werk™ Blue ribbon.svg (CallMyCenter) 22:07, 17. Jan. 2015 (CET)

Personen ohne Foto - geordnet nach Kategorien[Bearbeiten]

Ähnlich dem Bot „Personen ohne Fotos" suche ich für das Dauer-Fotoprojekt „3F" in der Redaktion Film und Fernsehen einen Bot, der alle Personen-Artikel ohne Foto aus der Kategorie Filmschaffender und deren Unterkategorien anzeigt. Gibt es sowas schon? --Jens Best (Diskussion) 03:03, 17. Jan. 2015 (CET)

Hallo Jens, vielleicht kann Krd den bestehenden Bot für diese Kategorie erweitern? Da es auch eine NRW-Liste gibt, stehen die Chancen nicht so schlecht, dass man auch einfach eine dritte generieren könnte. ireas (Diskussion) 22:58, 17. Jan. 2015 (CET)
Das wäre super. --Jens Best (Diskussion) 23:48, 17. Jan. 2015 (CET)
@Jens Best, geht mit Fist. Wenn Untercat mit abgefragt werden sollen ist bei Categories of articles ( subcategories deep) der Wert u ändern. Gruß --Knochen ﱢﻝﱢ‎  16:46, 18. Jan. 2015 (CET)
Danke. --Jens Best (Diskussion) 22:58, 19. Jan. 2015 (CET)
@Jensbest: Auf welcher Projektseite der Redaktion Film und Fernsehen soll das dargestellt werden? --Krd 19:04, 18. Jan. 2015 (CET)
@Krd: Könnte mir vorstellen, dafür eine eigne Unterseite zur Hauptseite des Projektes zu machen. --Jens Best (Diskussion) 22:58, 19. Jan. 2015 (CET)
Das kann ich mir auch vorstellen. --Krd 23:21, 19. Jan. 2015 (CET)
Ich habe intern schon eine solche Liste von Personen ohne Bild, weil ich diese beim MerlBot auch auf Bildervorschläge untersuche. Sofern ein Bildvorschlag vom Bot gefunden wurde (nur nur dann) erscheint ein Eintrag in der Teilliste Bilderwünsche mit dem Vorschlag - auch ohne die entsprechende Wartungsvorlage im Artikel. Eine weitere Teilliste mit den restlichen Personen ohne Fotovorschlag wäre leicht zu erstellen. So wie ich die Projektseite verstehe müsste ich diese dann aber auf noch lebenden Personen beschränken, oder?
Abgesehen davon gibt es gerade im Bereich Film noch sehr viele Bildervorschläge meines Bots, die nicht abgearbeitet wurden. Merlissimo 10:16, 26. Jan. 2015 (CET)
Mein mein Bot derzeit für 1256 Artikel ohne Bild aus in der Kategorie Kategorie:Person (Film) einen Bildvorschlag. Merlissimo 10:43, 26. Jan. 2015 (CET)
Ich könnte einen WebProxy bauen, der Personen mit Bilderwunsch/fehlendem Bild auf der Seite hervorhebt. Wenn man dadurch Seiten wie http://www.max-ophuels-preis.de/programm/prominente_gaeste_2015 jagt, könnte das hilfreich sein. Aber andere Projekte von mir gehen vor - ich schreibe es dennoch als Idee ans Ende meiner langen ToDo-Liste.
Ich habe beim MerlBot-Worklist die standardmäßig nicht sichtbare BW2 als neue Teilliste ergänzt (konnte ich eben noch nicht, da die tägliche Aktualisierung gerade stattfand), die nun die restlichen lebenden Personenartikel ohne Bild enthält und die Botvorlage auf Wikipedia:Redaktion_Film_und_Fernsehen/3F/Bilderwunsch eingebaut. @Jens Best Schau mal, ob du damit was anfangen kannst. Eine Sortierung nach Aufrufzahlen kann derzeit aber nur Krd bieten, wikiviewstats seit einigen Monaten tot ist. Merlissimo 13:19, 26. Jan. 2015 (CET)

SessionID aus Weblinks entfernen[Bearbeiten]

Eine SessionID hat IMO in Weblinks in Wikipedia-Artikeln nichts zu suchen. In einigen Fällen könnten diese gar als problematisch angesehen werden. Aktuell haben mehrere Tausend Artikel Weblinks mit einer SessionID. Ich schlage vor, bei denjenigen, die sich per Bot entfernen lassen, dies auch zu tun. Ein sehr häufiges Muster ist ;jsessionid= (Beispiel). Hat jemand die Möglichkeit solche Weblinks zu bereinigen? --Leyo 04:06, 17. Jan. 2015 (CET)

Im Prinzip hast Du recht. Allerdings halte ich die Aufgabe für Bots ungeeignet (die Betreiber mögen mich da gerne korrigieren):
  • Die SessionID ist oft mitten im Weblink, nachfolgende Parameter werden noch benötigt und dürfen keinesfalls entfernt werden
  • Der Link wird ohne SessionID ungültig
  • Der Link ist sowieso tot (weil bspw. die SessionID verfallen ist) und wurde auf der Disku schon als defekt gemeldet, ein Entfernen der SessionID "heilt" ihn aber nicht
  • Falls er durch Entfernen der SessionID geheilt werden kann, müsste die Disku mitkorrigiert werden
  • Möglicherweise sind die Inhalte der Zielseite im Webarchiv gespeichert - aber unter der Adresse mit SessionID
Ich habe >>100 dieser Links händisch korrigiert und bin dabei so vorgegangen, dass ich für jede Domain, die Links mit SessionID verwendet, an 3-5 Fällen exemplarisch geprüft habe, ob die Links auch ohne SessionID funktionieren. Wenn ja, bin ich via Weblinksuche durch alle Links auf diese Domain gegangen und habe die SessionIDs entfernt.
Bestimmte Fälle sind ohnehin höchst zweifelhaft, z.B. Links auf den Beuth-Verlag, die hier auch für die SBL diskutiert werden oder Links auf angebliche Volltextversionen von Journals (Beispiel), die möglicherweise sowieso nicht frei zugänglich sind und besser durch den DOI bzw. PMID ersetzt werden würden.--Mabschaaf 16:04, 17. Jan. 2015 (CET)
Die Fälle nach Domains oder Typen zu unterteilen, ist bestimmt keine schlecht Idee.
Hast du ein Beispiel, wo ein Weblink durch die Entfernung der SessionID ungültig wird? --Leyo 16:11, 17. Jan. 2015 (CET)
In Arnsberg, EN 48, ist die SessionID unabdingbar, aber das ist ein Link aufs Webarchiv. In Nekrolog 1947 funktioniert der Link hinter Saint-Georges de Bouhélier (20. Dezember) ohne SessionID nicht.--Mabschaaf 17:05, 17. Jan. 2015 (CET)
Bouhélier-Link funktioniert bei mir ohne sessionID, mit jedoch nicht. Auch der Arnsberg-Link ist ungeeignet, die Bedenken zu belegen. Der archive.org-Filter erlaubt im übrigen das mit sessionID archivierte Dokument anhand anderer Merkmale der URL zu finden.
SessionID-Links sind Links mit Zwangs-Referrer. Nach meiner Erfahrung mit der händischen Korrektur solcher Links sind die aufgeführten Bedenken dagegen relativ bedeutungslos. --Thoken (Diskussion) 18:39, 17. Jan. 2015 (CET)
Nachtrag: beim Bouhélier-Link Javascript abschalten! --Thoken (Diskussion) 18:46, 17. Jan. 2015 (CET)

Weiterleitung mit gleicher Kat wie Ziel[Bearbeiten]

Wäre es möglich, eine Liste zu erstellen mit allen Weiterleitungen, die eine Kategorie enthalten, die auch im Zielartikel enthalten ist? Als zusäztliche Schwierigkeit könnte ich mir als weiteres vorstellen, Weiterleitungen abzufragen, die eine Kategorie enthalten, die eine Ober- oder Unterkategorie einer Kategorie ist, die im Ziel enthalten ist. Aber eins nach dem anderen ;) 85.212.17.126 22:53, 21. Jan. 2015 (CET)

Sicher ist das möglich. Nur müsste eine komplette Liste aus DB-Performancegründen in Teilabschnitten erstellt werden, weil sie so riesig ist. Wenn man die ersten hundert grob hochrechnet müsste die Gesamtliste irgendwo bei 35000-50000 Einträgen liegen. Aufgrund der ersten hundert Einträge sehe ich keine sinnvolle Verwendung bzgl. Wartung, weshalb ich mir ohne weitere Erklärung nicht die Mühe machen werde, die Liste komplett zu erstellen.
Hier die Query:
SELECT rp.page_title, p.page_title, cl.cl_to
 FROM  page rp
  INNER JOIN redirect ON rd_from=rp.page_id
  INNER JOIN page p ON rd_namespace=p.page_namespace AND rd_title=p.page_title
  INNER JOIN categorylinks rcl ON rp.page_id=rcl.cl_from
  INNER JOIN categorylinks cl ON p.page_id=cl.cl_from
 WHERE rp.page_namespace=0 AND rp.page_is_redirect=1
  AND rcl.cl_to=cl.cl_to;

Das Ergebnis ist dann voll von z.B.

Merlissimo 12:03, 27. Jan. 2015 (CET)
Uff, das hatte ich nicht erwartet. Kannst du die Abfrage auf die Weiterleitungen reduzieren, die mindestens zwei Kategorien enthalten, die auch im Zielartikel enthalten sind? 85.212.17.126 20:10, 28. Jan. 2015 (CET)

Einwohnerzahlen aktualisieren[Bearbeiten]

Hallo Leute, gibt es die Möglichkeit, die Einwohnerzahlen von türkischen Provinzen durch ein Bot zu aktualisieren? Der Bot müsste aber auf das türk. Amt für Statistiken zugreifen und die Infos raussuchen. Geht sowas überhaupt? Schöne Grüße--KureCewlik81 Bewerte mich!!! 13:08, 22. Jan. 2015 (CET)

Hallo KureCewlik81, Einwohnerzahlen werden normalerweise nicht per Bot aktualisiert, sondern über sogenannte Metadatenvorlagen automatische eingebunden. Solche Vorlagen gibt's zwar noch nicht für die Türkei, kann man aber erstellen. Interessant wären allerdings auch Einwohnerzahlen für türkische Gemeinden. Hast Du für die vielleicht einen Link? --Septembermorgen (Diskussion) 13:13, 23. Jan. 2015 (CET)
das türkische statistikamt führt jedes jahr eine adressengebundene volkszählung durch, die bis auf die gemeindenebene und auch stadtbezirke und dörfer geht und auch zB zwischen männlichen und weiblichen anteil unterscheidet. wie kann man so eine metavorlage erstellen? die einzelnen daten erhellt man soweit ich weiß nur durch abfragen der datenbank. es gibt einen link zu den provinzeinwohner über die letzten knapp 10 jahre.--KureCewlik81 Bewerte mich!!! 13:38, 23. Jan. 2015 (CET)
Um die Vorlage kann ich mich kümmern. Für die Provinzen ist das schonmal kein Problem, da habe ich die Zahlen gefunden. Beim türkischen Amt für Statistik habe ich auch gefunden, dass jedes jahr eine Adressengebundene Volkszählung bis runter zu den Dörfern durchgeführt wird, aber leider nicht die zugehörigen Zahlen. Die sind immer nur auf Provinzebene aggregiert. --Septembermorgen (Diskussion) 14:24, 23. Jan. 2015 (CET)
Das wichtigste wäre erst mal die einwohnerzahlen der provinzen und der kreisstädte aktuell zu halten. dafür könnte man die gleiche datenbank nehmen, denn bei abfrage der einwohnerzahl der kreisstädte werden auch die gesamteinwohner des kreises (hauptort+außerhalb des hauptortes) und die summe aller einwohner der provinz angegeben. bei 81 provinzen und hunderten kreisstädte wäre es eine enorme erleichterung. einige provinzen sind zB immer noch auf den stand von vor vier oder fünf oder mehr jahren.--KureCewlik81 Bewerte mich!!! 16:27, 23. Jan. 2015 (CET)
Kannst Du mir bitte genau beschreiben (verlinken falls möglich) wie ich auf die Tabelle mit den Einwohnerzahlen für die Kreisstädte komme? Die Einwohnerzahlen für die Provinzen habe ich zwar gefunden, nicht aber die für die Kreisstädte. Gruß --Septembermorgen (Diskussion) 10:19, 24. Jan. 2015 (CET)
Geh auf diesen Link und gebe nacheinander folgendes ein: Das Jahr 2014 -> yerlesim yeri nüfuslari->ilce nüfuslari->dann gewünschte provinz anwählen->tüm ilceler->dann ganz rechts unten in der ecke raporu olustur anwählen. da kannst es auch als exceldatei ausgeben, aber man müsste es für alle 81 provinzen einzeln machen. hilft dir das weiter?--KureCewlik81 Bewerte mich!!! 21:07, 28. Jan. 2015 (CET)
OK, danke. Ich komm wahrscheinlich am Wochenende dazu, die Vorlage zu erstellen. Einbinden in die Artikel wird aber etwas länger dauern. --Septembermorgen (Diskussion) 21:40, 29. Jan. 2015 (CET)
Sorry, wird jetzt doch etwas länger dauern. Viele Grüße --Septembermorgen (Diskussion) 23:07, 8. Feb. 2015 (CET)

eingebundene Subst-Vorlagen[Bearbeiten]

Wäre es möglich eine Liste zu generieren mit allen Vorlagen in Kategorie:Vorlage:nur Subst, die eingebunden sind (also nicht gesubstet wurden)? Die Einbindungen auf Wikipedia:WikiProjekt Vorlagen/Unbenutzte Vorlagen/subst sollen hierbei ignoriert werden. 129.13.72.197 13:03, 11. Feb. 2015 (CET)

www.seiten.faz-archiv.de/faz mit {{Toter Link}} Taggen.[Bearbeiten]

Bitte die URLs http://www.seiten.faz-archiv.de/faz mit der Vorlage {{Toter Link}} taggen. Sind die Links bereist in {{Internetquelle}}, cite web,... , dann bitte den Paramete |offline=ja setzen. Frohes Schaffen — Boshomi ☕⌨☺  21:19, 11. Feb. 2015 (CET)  Frohes Schaffen — Boshomi ☕⌨☺  22:59, 19. Feb. 2015 (CET)

Bitte auch gleich noch alle http://afp.google.com/ Links, da auch diese zu 100% tot.

Veraltete Links zu EUR-Lex durch Vorlage(n) ersetzen[Bearbeiten]

Die Regeln zur Verlinkung mit EUR-Lex haben sich verändert. Für die neuen Regel siehe z.B. das FAQ zur Verlinkung oder generell die Hilfe bei EUR-LEX. Es gibt Vorlagen zur Verlinkung von EUR-Lex ({{EG-RL}}, {{EU-Verordnung}} und {{EUR-Lex-Rechtsakt}}), die ich angepasst habe. Aber es gibt noch knapp 3200 Weblinks in Wikipedia, die das alte Format verwenden (Weblinks). Von daher habe noch eine neue Vorlage {{CELEX}} erstellt, die als Basis für die beiden ersten dient, aber auch für die anderen Rechtsakte ausser Richtlinien und Verordnungen verwendet werden kann, sofern sie eine CELEX-Nummer haben. Damit sollte es per Bot möglich sein, die veralteten Links durch die Vorlagen zu ersetzen.

Folgende Möglichkeiten sehe ich:

  • Alle URLs der Form [http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:<celex-nummer>:<sprache>:<format> <text>] nach {{CELEX|<celex-nummer>|<text>|sprache=<sprache>}} wandeln. Das Format braucht es dort nicht, es wird aktuell nur HTML und NOT verwendet, wobei NOT den Übersichtstab auswählt, das könnte man m.E. weglassen (wenn gewünscht gibt es dafür den Parameter tab bei {{CELEX}}).
  • Alle URLs der Form [http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CONSLEG:<celex-nummer>:<konsolidierungsdatum>:<sprache>:<format> <text>] nach {{CELEX|<celex-nummer>|<text>|<konsolidierungsdatum>|format=<format>|sprache=<sprache>}} wandeln
  • Alle URLs der Form [http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:<reihe>:<jahr>:<amtsblattnummer>:<anfangsseite>:<endseite>:<sprache>:<format> <text>] nach {{EUR-Lex-Rechtsakt|reihe=<reihe>|jahr=<jahr>|amtsblattnummer=<amtsblattnummer>|anfangsseite=<anfangsseite>|endseite=<endseite>|format=<format>|sprache=<sprache>|titel=<text>}} wandeln (wobei man Defaultwerte weglassen kann)

Als "Kür" könnte man auch versuchen, die {{CELEX}}-Links, wo sinnvoll/fachlich richtig in Verwendungen der Vorlagen {{EG-RL}} und {{EU-Verordnung}} umzuwandeln. Die Umwandlung von {{EUR-Lex-Rechtsakt}} in Verwendungen der Vorlagen {{CELEX}}, {{EG-RL}} oder {{EU-Verordnung}} dürfte noch einmal deutlich aufwändiger sein, weil man da die EUR-Lex-Suche nutzen muss, um den Amtsblatt-Verweis in eine CELEX-, Richtlinien- oder Vorlagen-Nummer umzusetzen.

Danke und Gruss, --S.K. (Diskussion) 12:27, 14. Feb. 2015 (CET)

Eine weitere Idee wäre, zumindest zu den Richtlinien/Vorlagen Wikidata-Items anzulegen/ergänzen. Dann könnte man die entsprechenden Vorlagen aufgrund der Wikidata-Items mit Werten versorgen. --S.K. (Diskussion) 16:04, 21. Feb. 2015 (CET)
gudn tach!
das thema hatten wir uebrigens schon mal: Wikipedia:Fragen_zur_Wikipedia/Archiv/2014/Woche_19#Mehrere Hundert Weblinks auf EUR-Lex defekt -- seth 12:12, 23. Feb. 2015 (CET)
Okay, wobei damals "nur" die ganz alte Linkform in die neuere umgewandelt wurde. Da wäre eine Verwendung der Vorlagen m.E. "nachhaltiger", da bei EUR-Lex wohl immer mal wieder am URL-Format "gebastelt" wird... --S.K. (Diskussion) 21:03, 24. Feb. 2015 (CET)

Interwikis entfernen[Bearbeiten]

Nachdem ich gerade in einem Artikel darüber gestolpert bin: Es gibt hier offenbar noch manuell gesetzte Interwiki-Links in Artikeln, die ebenfalls im zugehörigen Datenobjekt in Wikidata stehen. Die sollten per Bot entfernt werden. Beispiel:

  • Heizöl hat einen manuellen IW auf et:Kütteõli im Artikel, im zugehörigen Datenobjekt d:Q912452 ist der Link aber ebenfalls exakt so enthalten.

Nicht gemeint sind dagegen IWs, die auf WD nicht vorhanden sind - die sind auf alle Fälle manuell zu korrigieren.--Mabschaaf 21:32, 15. Feb. 2015 (CET)

Den Antrag bitte auch für Vorlagen und Kategorien durchführen. 85.212.17.126 18:34, 17. Feb. 2015 (CET)

Wiktionary[Bearbeiten]

An alle gelangweilten Programmierer: Da die Einträge des Wiktionarys sehr botverträglich sind, können wir erfahrene aber auch weniger erfahrene Programmierer gut gebrauchen (Hauptsache es wird viel Elan und Zeit mitgebracht!). Was einen dort erwartet, kann man ungefähr meiner Benutzerseite im Wiktionary entnehmen: wikt:Benutzer:Impériale#Aufgaben für Bots. Sollte jemand Fragen oder Interesse haben einfach bitte hier oder auf meiner Diskussionseite im Wiktionary melden :) Grüße Impériale (Diskussion) 19:40, 17. Feb. 2015 (CET)

ja, ich möchte mitmachen. Gelangweilt bin ich nicht gerade, kann aber sicher gut helfen. -- Doc Taxon (Diskussion) 05:40, 19. Feb. 2015 (CET)

Wie kann man Virtuelle Links in Export Kategorien via Bot auslesen und in eine Diskussionsseite eintragen[Bearbeiten]

Es handelt sich in dem Fall um diese Kategorie. Ich habe eine ähnliche Anfrage gestern auch auf Fragen zur Wikipedia gestellt. Es gibt zwar diese Spezialseite aber ich weiß nicht ob man die mit Hilfe eines Bots auslesen kann. Ob man das mit Hilfe von Catscan lösen kann, kann ich nicht beurteilen. Am liebsten hätte ich solche Listen, wie der MerlBot sie anlegt. Zum einem um über Änderungen informiert zu werden, aber auch gerne als kleine Kurzinformation, für all diejenigen, die gerne oberflächlich wissen möchten was u.a. in die WikiProjekte Andere Wikis durchschnittlich exportiert wird. Sei es auch nur um mal zu schauen, was mit den entsprechenden Artikeln dort passiert. Vieleicht hat ja jemand ein paar Anregungen dafür. Denn ich könnte mir gut vorstellen, das auch andere Autoren gerne wissen würden, was bei Kategorien die sie interessieren, dort täglich neu reinkommt. Ich bin für jede Lösung offen. Mit Gruß und Dank Frank schubert (Diskussion) 19:07, 19. Feb. 2015 (CET)

Gehe ich recht in der Annahme, dass Artikel durch das Setzen der Vorlage {{Export|VW|2=~~~~}} in die Kategorie eingefügt werden? Und diese Vorlage dürfte sich doch eigentlich nur in Artikeln finden, die zum löschen vorgeschlagen sind (zumindest hätte ich sie nirgendwo anders beobachtet). Wenn ja, müsste es doch eigentlich möglich sein, einen Bot darauf einzustellen, dass er alle Artikel, sagen wir zweimal am Tag, durchsieht, die in den Löschkandidaten verlinkt sind und die dann meldet, wenn diese Vorlage eingefügt wird. Entsprechende Artikel werden zwei Wochen lang durchsucht (dann sollten die meisten LDs abgeschlossen sein, oder zumindest der Baustein gesetzt). Ist das möglich? Oder, Frank schubert, würde das eh nicht deine Wünsche erfüllen, da etwas fehlt? --BHC (Disk.) 12:44, 22. Feb. 2015 (CET)
Neben den Löschdiskussionen werden in der letzten Zeit auch Artikel aus dem BNR verschoben. Meistens bei Fragen im Relevanzcheck. Wenn die Vorlage als Suchkriterium genauso schnell und einfach genutzt werden kann und wo die Suchtreffer in irgendeine Liste rein geschrieben werden. Dann wäre das vollkommen ausreichend. Denn das Problem bezieht sich tatsächlich auf die Löschdiskussionen. Das hat damit zu tun, das beim setzen der Vorlage erwartet wird, das innerhalb von 24 Stunden ein Export stattfindet. Ein Service der meistens auch eingehalten werden kann, wenn man über diese Anfrage informiert wird. Denn ein reiner Artikelexport ohne Bilder dauert auch bei einer langsamen Datenverbindung weniger als 5 Minuten. So kann ein Admin in der LD (wenn es ums Löschen geht) ein Urteil auch wesentlich einfacher und schneller entscheiden. Denn wenn der Export durchgeführt wurde, wird er innerhalb des Bausteins mit einem ok markiert. z.B. {{Export|VW|~~~~→|ok}}. Gruß Frank schubert (Diskussion) 13:17, 22. Feb. 2015 (CET)
Also was die BNR-Artikel angeht, kann ich nichts sagen, mit Bots kenne ich mich nicht aus, kann daher nur Überlegungen anstellen. Doc Taxon, wäre so ein Durchsuchen mit angemessenen Aufwand möglich? --BHC (Disk.) 13:56, 22. Feb. 2015 (CET)
Ja, na klar geht das. Aber es wird höchstens was nach der AdminCon nächstes Wochenende, vorher schaff ich das nicht mehr. Dazu bräuchte ich aber noch paar Details. Ich komme am besten auf Deiner Diskussionsseite auf Dich zurück. Grüße, -- Doc Taxon (Diskussion) 18:57, 22. Feb. 2015 (CET)
Selbst wenn du erst in 4 Wochen dazu kommen solltest, dürfte das vollkommen ausreichend sein. Mir ist ein ausgeruhter Spezialist immer lieber als ein abgehetzter. :) Vielen Dank für deine Antwort und viel Spaß noch auf der AdminCon. Gruß Frank schubert (Diskussion) 19:29, 22. Feb. 2015 (CET)

Neue Links bei archive.org einreichen[Bearbeiten]

Hallo, wäre gut wenn ein Bot jedesmal wenn ein neuer Link ins Nicht-Wikimedia-Web gemacht wird, diesen bei archive.org einreicht, damit, wenn die gelinkte Seite gelöscht wird, noch eine Kopie da ist. --Distelfinck (Diskussion) 20:14, 22. Feb. 2015 (CET)

Erscheint mir sinnvoll. Möglicherweise könnte das Benutzer:Lustiger_seth mit seinem Camelbot umsetzen, daher angepingt.--Mabschaaf 11:22, 23. Feb. 2015 (CET)
gudn tach!
wie kann man das was "einreichen"? ich dachte, das sei nicht moeglich, vgl. https://archive.org/about/faqs.php#1. -- seth 11:51, 23. Feb. 2015 (CET)
Jepp, dat is uch meen Stand. -- Doc Taxon (Diskussion) 02:18, 24. Feb. 2015 (CET)
Auf https://archive.org/web/ ist ein Formular (betitelt Save Page Now), da geht es. Gibt es einen Stream von neuen URLs in der Wikipedia, oder ähnliches? Am besten mit zugehöriger Diff-Nummer, um Spam besser auszufiltern? Dann könnten wir die URLs bei archive.org und ähnlichen Diensten einreichen. --Distelfinck (Diskussion) 04:06, 26. Feb. 2015 (CET)

Referenzierungsmethode "Gruppierung"[Bearbeiten]

Hi alle, wegen dieser Diskussion würde ich gerne wissen, in wievielen Artikeln bei den Belegen die Methode "Gruppierung" eingesetzt ist. Dafür sollte eine Suche nach Artikeln mit der Zeichenfolge <ref group= ausreichend sein. Könnte das jemand übernehmen? Danke! --Aalfons (Diskussion) 11:11, 23. Feb. 2015 (CET)

Für den Anfang: [3] (erfasst möglicherweise nicht alle Vorkommen)--Mabschaaf 11:18, 23. Feb. 2015 (CET)
Danke! --Aalfons (Diskussion) 11:26, 23. Feb. 2015 (CET)

Wiedergänger suchen[Bearbeiten]

Zuerst der Anlassfall: Vorgestern bemerkte ich zufällig, dass der 2007 nach regulärer LD gelöschte Artikel Gottfried von Bismarck Ende 2013 als Wiedergänger angelegt wurde - in formal gutem Zustand und unbemerkt, aber ohne jeden neuen Relevanzbeleg. Mein neuerlicher LA führte demnach zur Schnelllöschung als Wiedergänger. Ich nehme an, dass es gar nicht so wenige solche Fälle gibt - eine Suche könnte hilfreich sein. Demnach bitte ich um eine Botsuche nach folgenden Artikeln:

  1. Bei einer regulären LD wurde auf "gelöscht" entschieden.
  2. Der Artikel ist wieder da.
  3. Es gab keine neuerliche LD oder LP, in der auf Behalten entschieden worden wäre.

Die LD-Suche müsste intelligent genug sein, um verschiedene Wortlaute für Löschentscheidungen zu erkennen. Die Ergebnisse wären in einer zweispaltigen Tabelle (Artikel, Löschdiskussion(en)) aufzulisten in einer Unterseite meines BNR, Benutzer:KnightMove/Wiedergängersuche, zur manuellen Überprüfung (natürlich werden viele solcher neu angelegten Artikel - wegen gestiegener oder besser herausgearbeiteter Relevanz - völlig legitim sein). --KnightMove (Diskussion) 09:58, 27. Feb. 2015 (CET)