Wikipedia:Bots/Anfragen

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Hier ist Platz, Bearbeitungs- und Änderungswünsche an die Botbetreiber zu notieren, die in „Handarbeit“ ausgeführt eher als Zumutung gelten können, zum Beispiel das Korrigieren von mehr als 50 Einbindungen einer verschobenen Vorlage (gilt nur für zu löschende Falschschreibungsweiterleitungen auf Vorlagen!).

  • Für Rundschreiben (Einladungen zu Stammtischen usw.) gibt es auch die neue Funktion Hilfe:Massennachricht.
Für Anfragesteller gilt
  1. Anfragen bitte begründen, gegebenenfalls mit Links auf relevante Diskussionen, und unterschreiben.
  2. Es gibt keine Verpflichtung der Botbetreiber, diesen Anfragen nachzukommen und insofern auch keinen Anspruch auf Umsetzung eines Änderungswunsches.
  3. Größere Änderungen an Artikeln eines Themengebietes, z. B. an Einbindungen viel genutzter Vorlagen, bitte mit den jeweiligen Fachportalen oder -redaktionen abstimmen. Die Verantwortung für die Aktion liegt beim Anfragesteller.
  4. Vor dem Stellen einer Anfrage, die einen regelmäßigen Boteinsatz und keine einmalige (Massen-)Änderung betrifft, bitte ebenfalls das betroffene Portal bzw. Projekt informieren und den geplanten Boteinsatz dort diskutieren.
  5. Bei einem Boteinsatz ist oft noch Vor- und Nacharbeit durch den Anfragesteller notwendig, zum Beispiel nach Auflösung von Weiterleitungen die Kontrolle und das Stellen eines Schnelllöschantrages. Auch kann es immer Fälle geben, in denen der Bot nicht richtig arbeitet und die dann manuell nachgearbeitet werden müssen.
  6. Ent- oder Umkategorisierungen von Artikeln in die Kategoriendiskussion eintragen, dort diskutieren und dann in die Warteschlange des WikiProjekts Kategorien stellen.
  7. Ein einfaches Umbiegen von Links nach einer Verschiebung auf das neue Ziel wird grundsätzlich nicht vorgenommen.
    1. Umgebogen werden können Verweise auf zwingend zu löschende Weiterleitungen – wie z. B. bei Falschschreibungs-Weiterleitungen oder nach Verschiebungen falsch geschriebener Vorlagen.
    2. Neue Begriffsklärungsseiten können zur Entlinkung an das Fließband des WikiProjekts BKS gemeldet werden.
  8. Änderungen der Signatur werden nicht durchgeführt, auch nicht im Rahmen der Umbenennung von Benutzerkonten (siehe Archiv).
  9. Es werden keine Änderungen der Rechtschreibung zwischen zulässigen Versionen bzw. Variationen durchgeführt.
Für Botbetreiber gilt
  1. Jeder Botbetreiber ist verpflichtet, die Sinnhaftigkeit vor Ausführung eines Änderungswunsches zu prüfen und bei Einsprüchen gegebenenfalls von der Änderung abzusehen (kein blindes Vertrauen in die Angemessenheit/Richtigkeit hier gestellter Anfragen).
  2. Für jede hier gelistete Anfrage gelten die auf Wikipedia:Bots genannten grundsätzlichen Regeln (zum Beispiel keine Änderungen im Benutzer- oder Wikipedia-Namensraum ohne Absprache).
  3. Bot-Anfragen (insbesondere nach Löschdiskussionen) sollten mindestens 3 Tage ruhen, um eine gegebenenfalls initiierte Löschprüfung nicht durch vollendete Tatsachen unmöglich zu machen. Bei offensichtlichen Botaufträgen (z. B. aus einer Portal-Diskussion für das Portal beschlossene Änderungen und dergleichen) ist diese Wartezeit nicht zwingend notwendig, desgleichen nicht für „Anfrage-Aufträge“, die keine Seiten in der Wikipedia ändern.
Durchführung
  • Die Botbetreiber sollen bitte vor Umsetzung den jeweiligen Punkt entsprechend kommentieren, um Überschneidungen zu vermeiden.
  • Dazu sollte unmittelbar (maximal 15 Minuten) vor dem Botstart hier im entsprechenden Abschnitt die Vorlage InuseBot platziert werden:
{{InuseBot|Botname|Betreiber}}
  • Den Bot bitte sorgfältig beobachten!
  • Bitte nach Erledigung den Punkt in der Liste als erledigt kennzeichnen.

Neue Anfrage stellen

Abkürzung: WP:BA, WP:BOT/A, WP:B/A


Automatische Archivierung
Auf dieser Seite werden Abschnitte automatisch archiviert, die seit einem Tag mit dem Baustein {{Erledigt|1=~~~~}} versehen sind. Die Archivübersicht befindet sich unter Wikipedia:Bots/Anfragen/Archiv.

Inhaltsverzeichnis

Vorsortierung von Links auf BKS[Bearbeiten]

Auf Diskussion:Freie Wähler#Nomenklatur werden verschiedene Lösungsmöglichkeiten diskutiert, wie die über 1000 bis max 1500 Links auf die derzeitige BKS Freie WählerBKL korrigiert werden können. Eine erste Aufteilung wäre in zwei disjunkte Listen, d.h.

Wie "einfach" eine BKL nach Bundesland aufzulösen ist, kommt auf das Bundesland und natürlich auf den Artikel-Kontext an. Bevor aber jetzt 16 oder gar 32 Listen vom Typ B erzeugt werden, interessiert mich erstmal die Liste A. Wo wäre der richtige Speicherort für diese? --grixlkraxl (Diskussion) 18:31, 3. Jan. 2013 (CET)

Bevor jetzt ein Bot loslegt, müssen die zu bearbeitenden Artikel rausgefunden werden. Weil mich die Spezial:API-Spielwiese schon lange interessiert hat:

  1. Die backlink-Abfrage auf "Freie Wähler" (/w/api.php?action=query & list=backlinks & bltitle=Freie%20W%C3%A4hler & blnamespace=0 &...) liefert etwa 1396 Ergebnisse
  2. Die categorymembers-Abfrage "Kategorie:Gemeinde in Niedersachsen" (/w/api.php?action=query & list=categorymembers & cmtitle=Kategorie%3AGemeinde%20in%20Niedersachsen & cmnamespace=0 &...) bringt insgesamt 100 Eintrage.

Kraft eigener Hausmittel (sort ... | uniq -d) wären als Schnittmenge etwa 24 Artikel zu bearbeiten ... Meine Frage ist jetzt: Können die Abfragen (1) und (2) zusammen durchgeführt (z.B. als "generator") werden? Wenn ja, wie gehts? --grixlkraxl (Diskussion) 13:58, 7. Jan. 2013 (CET)

Nach meiner Kenntnis geht das nicht, da du die Seitentitel der einen Abfrage in einen impliziten titles-Parameter der anderen Abfrage einfüttern müsstest. Du kannst zwar beide Module als Generator verwenden, aber keines akzeptiert als Eingabe einen Generator. Aber du könntest die backlinks als Generator für categoryinfo nehmen, z.B. Es spricht allerdings nichts dagegen, die gewonnen Informationen anderweitig zu verarbeiten und die Schnittmenge daraus zu bilden. – Giftpflanze 14:50, 7. Jan. 2013 (CET)
Erstmal Danke an Giftpflanze für "Nach meiner Kenntnis geht das nicht ...". Ich habe also gelegentlich mit meinen eigenen "Hausmitteln" gearbeitet, sprich Spezial:API-Spielwiese, libmediawiki-api-perl und MediaWiki::API.pm. In erster Näherung ergibt sich:
  • Aktuell verlinken 1385 Artikel (vorher 1396) auf die BKS,
  • davon sind 989 verschiedenen Bundesländern zuzuordnen.
Für die bisher noch nicht zugeordneten 396 Links sind noch weitere Kategorien zu prüfen. Für ungefähr fünf Kats "Xyzzy (Deutschland)" oder "Xyzzy in Deutschland" ist nach allen Unterkats des jeweiligen(!) Bundeslandes gefragt. Mit dem Toolserver catscan_rewrite.php?... ginge es natürlich schon, allerdings suche ich noch nach einer API-Lösung für:
Zeige mir alle Unterkats einer bestimmten Kategorie Xyzzy. Das wären bei etwa 5 Xyzzy für max. 16 Länder also über 50 zu prüfende Start-Kategorien "Xyzzy pro Bundesland".
Wenn ich es richtig verstehe, liefert mir "? action=query & list=categorymembers & cmtitle='Xyzzy in Land' & cmtype=subcat & ..." nur immer eine Kat-Ebene. Den Baum entlang hangeln muß ich mich aber selber. Sollte ich falsch liegen, bitte beim Widerspruch eine API-Aufruf beigeben.
PS: mit dem Vorschlag "action=query & prop=categoryinfo & f generator=backlinks &..." bin ich nicht weitergekommen, aber das ist egal.
PPS: Noch ist nicht klar, ob und wenn ja welcher Auftrag einem Bot erteilt werden soll ;-)
--grixlkraxl (Diskussion) 13:19, 17. Jan. 2013 (CET)

Vorsortierung Dez. 2013[Bearbeiten]

@Grixlkraxl: Ist diese Anfrage noch aktuell? Was fehlt noch, was genau soll gemacht werden? --Krd 16:49, 21. Dez. 2013 (CET)
<Wischiwaschi>Ich danke Krd für die Nachfrage. Ich versuche es kurz zu machen:</Wischiwaschi>
  1. "Ist diese Anfrage noch aktuell?"
    Zur Zeit verlinken immer noch 1186 Artikel auf die BegriffsklärungBKL. Die gute Nachricht: Das sind immerhin über 200 weniger als zu Beginn der Anfrage, in voraussichtlich fünf bis sechs Jahren hat sich das Problem von selbst erledigt. Die schlechte Nachricht: manche sind damit unzufrieden, daß bspw. im selben(!) Artikel-Abschnitt verschiedene(!) Stadtratsfraktionen auf dieselbe(!) BKL weiterleiten. Dummerweise ist sowohl(!) die Lage in den echten (Vorsicht: real life!) 16 deutschen Bondesländern unübersichtlich, als auch(!) der Artikelbestand der de.WP schwer zuzuordnen. Die inhaltliche(sic!) Problematik wird u.a. auch bei den Parteien-RK besprochen. Das tut technisch(!) allerdings nix zur Sache.
  2. "Was fehlt noch?"
    Ich muss zugeben, meine am 7. Jan. 2013 gestellte Bitte um Bot-Unterstützung war etwas naiv, also ungenau, gestellt. Danach haben sich meine Kenntnisse der Wikimedia-API verbessert, und zusammen mit etwas Perl-Zauberei und Shell-Skripting bin ich in der Lage, so etwas wie Diskussion:Freie Wähler#Zwischenstand 2013-02-04 zu wiederholen. Beim aktuellen code review lese ich z.B. TOOLSERVER => 'http://toolserver.org/~magnus/catscan_rewrite.php'. Die Liste der wesentlichen Kats zur Bundesland-Zuordnung lässt sich sicherlich auch anders gewinnen...
  3. "was genau soll gemacht werden?"
    Die über 1000 Fehlverlinkungen sollen programm-gesteuert auf ein händisch abarbeitbares Maß (kleiner 10%) reduziert werden. Dabei muss(!) die Link-Auflösung je nach Bundesland verschieden sein. JA, eine regex für die 80-90% existiert. NEIN, ein Kommandozeilen-Tool habe ich noch nicht. Irgendwo habe ich allerdings mal einen Screenshot einer python-Lösung gesehen.

Grob gesprochen: Es ist ein Script gesucht, das eine vorgegebene Liste von Artikeln abarbeitet und für jeden Artikel die Entscheidung lässt zwischen:

1) Den Link durch einen definierten andern WP-Artikel ersetzt, lesbarer Text wird beibehalten

2) Link wird gelöscht, sichtbarer Text wird beibehalten

3) Das aktuelle Lemma wird in eine Datei zur weiteren Verarbeitung gespeichert.

4...5) weitere Aktionen, wobei mehr als insgesamt fünf Alternativen dem Sinn und Zweck einer Script-Bearbeitung widersprechen.

Mir ist inzwischen klar, das eine simple technische Lösung ("einfach mal mit einem Programm über alle fraglichen Artikel drüberbügeln") so nicht existiert. Weiterhin werde ich keine Bots mit Python programmieren. Wie soll es in diesem Thread weitergehen? Ist eine andere Stelle geeigneter? Oder führen wir das mal an Hand eines Bundeslandes exemplarisch durch? --grixlkraxl (Diskussion) 22:10, 26. Dez. 2013 (CET)

@Grixlkraxl: Wenn also ein Artkel beispielsweise auf Freie Wähler verlinkt und unterhalb von Kategorie:Brandenburg einsortiert ist, dann soll [[Freie Wähler|…]] auf [[Brandenburger Vereinigte Bürgerbewegungen / Freie Wähler|…]] geändert werden. Habe ich das richtig verstanden? --Krd 19:04, 29. Dez. 2013 (CET)
Ja, so gefähr. Die Probleme am Beispiel Brandenburg: (1) Bundesverband Freie Wähler Deutschland#Brandenburg meint die kommunalen Gruppen, die sich als (2) Freie Wähler Brandenburg organisiert haben. Dagegen ist (3) Freie Wähler Deutschland eine Partei mit LV in Berlin und Brandenburg. Dann gibt's noch (4)Brandenburger Vereinigte Bürgerbewegungen / Freie Wähler als weitere "sonstige politische Vereinigung" nach EuWG. Und als fünftes könnte auch noch (5)Freie Wählergemeinschaft Die Nationalen (1991-1997) in Frage kommen. Mit Stand 4. Februar 2013 waren das "nur" 81+X Fehlverlinkungen für Brandenburg. Hinter dem X verstecken sich noch "326 Nicht-Zugeordnete Personenartikel aus Kategorie:Politiker (Deutschland) (o.s.ä, die Katsystematik ist hier schwer zu durchschauen" (meine Worte zum damaligen Zwischenstand).
Nur kurz zu den eigentlichen Artikelinhalten: Die ewiggleichen Diskussionen auf LK und zu den Parteien-RK hängen mir inzwischen zum Hals raus. Ebenso hat sich der Kategorienbaum, die Bezeichnung "Systematik" verbietet sich wg. Schönfärberei, für diesen Zweck hier(!) als beinahe unbrauchbares Gestrüpp herausgestellt.
Trotzdem könnte ich mich bei Interesse nochmal durch mein proof of concept wühlen:
  • (a) Kurze Beschreibung mit welchen API-Aufrufen ich zu den einzelnen Länderliste kommen, das geht sicher besser;-) Ist der Thread hier geenignet?
  • (b) Wohin lade ich eine einzelne Liste, die dann abzuarbeiten wäre?
Beim letzten Punkt habe ich damals aufgehört. Irgendwo fand ich mal einen screenshot eines phyton scripts für die console, aber wo nochmal? Ich hatte sogar schon mit dem Nachbau in perl begonnen, ... möglicherweise, vielleicht kommt die Motivation zurück:-) --grixlkraxl (Diskussion) 16:58, 23. Jan. 2014 (CET)

Vorlage in Esperantowikipedia entlinken[Bearbeiten]

Hallo. Vor einigen Tagen habe ich vorgeschlagen in der Esperantowikipedia die Vorlage eo:Ŝablono:Geofra aus den Artikeln zu entfernen. Wie so ein Edit aussieht, ist in dem Artikel eo:Abancourt (Nord)‎ zu sehen. Dort wurden also folgende Änderungen vorgenommen:

  • Titel der Vorlage im Artikel {{urbokadro}} zu {{Informkesto urbo}} geändert (Erster ist nur ein Redirekt.)
  • Entfernung von {{geofra}} aus dem Parameter wie folgt
|mapo2={{geofra|3.2141666|50.234722|desc=Situo de Abancourt en Francio}}
---- in ----
|mapo2=
  • die Parameter für die Koordinaten wurden von 8 Parametern - in 2 Parameter geändert.
| longitudo-gradoj = 3
| longitudo-minutoj = 12
| longitudo-sekundoj = 51
| longitudo-direkto = E
| latitudo-gradoj = 50
| latitudo-minutoj = 14
| latitudo-sekundoj = 05
| latitudo-direkto = N
---- in ----
|latitudo = 50/14/05/N
|longitudo = 3/12/51/E
  • Der Parameter regiono-ISO wurde wie folgt ergänzt. Dessen Wert läßt sich aus den ersten beiden Stellen des Parameters kodo bei gleichzeitiger Definition von |laŭ=INSEE (Vorsicht x-Schreibweise als laux im Quellcode der Esperantowikipedia, womit der Bot also klarkommen muß!) ableiten. In diesem Falle also aus 59001
|regiono-ISO=FR-59
  • Korrektur des Parameters für die Einwohnerzahl wie folgt. (Bei Einwohnerzahlen im Tausenderbereich sollen denn auch noch Leerzeichen oder Punkte entfernt werden, damit die Vorlage keine Fehlermeldung ausgibt. Auch hier tritt die x-Schreibweise als logx bzw. logxantaro im Quelltext auf.)
|loĝ=432<small> ([[1999]])</small>
---- in ----
|loĝantaro=432
|jaro=([[1999]])

Wessen Bot kann solch eine Änderung an allen Artikeln vornehmen, bei denen eo:Ŝablono:Geofra im Parameter mapo2 der Vorlage eo:Ŝablono:Informkesto urbo steht? Allerdings hat die Vorlage eo:Ŝablono:Informkesto urbo einige Redirekts: eo:Ŝablono:Urbokadro und eo:Ŝablono:Urbo fr. Weitere Redirect spielen für diese Änderung keine Rolle. Gruß --Tlustulimu (Diskussion) 16:49, 26. Feb. 2013 (CET)

Hallo. Weil manche ISO-Vorlagen für Departements eine Karte für das Departement auswählen, sollte vorsichtshalber auch noch folgender Kode am besten hinter regiono-ISO, aber in einer eigenen Zeile, eingefügt werden:
|situo sur mapo=Francio
Dies verhindert, daß die Karte des Departements eventuell angezeigt wird und somit die Änderung größer ausfällt als gewünscht. --Tlustulimu (Diskussion) 10:48, 2. Mär. 2013 (CET)
Wenn's nicht auf ein paar Tage ankommt, kann ich mir mal Gedanken machen. Mit dem AutoWikiBrowser müßte es machbar sein. Obersachse (Diskussion) 17:39, 2. Mär. 2013 (CET)
Bin immer noch nicht dazu gekommen. Keine Zeit, keine Zeit :-( --Obersachse (Diskussion) 06:42, 11. Jul. 2013 (CEST)
@Tlustulimu: Ist diese Anfrage noch aktuell? --Krd 16:51, 21. Dez. 2013 (CET)
@Krd: Ja leider, weil ich es noch nicht geschaft habe die Vorlage manuell zu entlinken und ich auch nicht weiß wie man einen Bot betreibt. --Tlustulimu (Diskussion) 22:46, 21. Dez. 2013 (CET)
Ich kann es mir anschauen, wenn Du für mich klärst, ob dafür dort ein Botflag nötig ist. Mir fehlt leider die Zeit, das selbst herauszufinden. --Krd 10:08, 22. Dez. 2013 (CET)
Hallo, @Krd:. Ein Botflag ist ratsam, damit unter den letzten Änderungen nicht nur die Botänderungen erscheinen, denn es sind noch viele Artikel betroffen. Die Seite für die Beantragung ist eo:Vikipedio:Roboto/Permespeto. Da dort relativ wenig los ist und ich auch noch Bürokrat in der Esperantowikipedia bin, geht das meistens problemlos. :-) Du kannst dort auch in Deutsch schreiben, falls dir das lieber ist. Gruß --Tlustulimu (Diskussion) 21:06, 13. Jan. 2014 (CET)
Hallo Tlustulimu. Am liebsten wäre es mir, wenn Du Dich mal per Wikimail bei mir meldest. Gruß… --Krd 20:06, 21. Feb. 2014 (CET)

Wikipedia:Liste der am längsten geschützten Artikel - monatlich?[Bearbeiten]

Hallo, Benutzer:Reinhard Kraasch hat freundlicherweise die beiden Unterseiten per lokalem Bot händisch aktualisiert. Ich würde es begrüßen, wenn ein Bot das automatisiert monatlich machen könnte. Wie Benutzer:Reinhard Kraasch schreibt: "aber dann müsste das ein anderer Bot machen, am besten einer, der auf dem Toolserver und dauerhaft läuft - mein Botprogramm läuft ja auf meinem Rechner, und muss von Hand angestoßen werden.". Das wäre toll. --Zulu55 (Diskussion) Unwissen 16:17, 29. Apr. 2013 (CEST)

Übersetzte Liste tschechischer Gemeinden[Bearbeiten]

Hallo! Kann ein Bot die beiden Listen cz:Seznam obcí s rozšířenou působností und cz:Seznam obcí s pověřeným obecním úřadem übersetzen, d.h. die deutschen Entsprechungen heraussuchen und in Portal:Tschechien/Mitarbeit/Gemeinden einfügen? Nicht existente deutsche Entsprechungen müssen nicht angegeben werden. Der Hintergrund ist kurz auf dieser Portal-Unterseite beschrieben. Anlaß ist eine Diskussion im Portal zu der Beobachtung, dass zahlreiche (wenn nicht alle) tschehichen Gemeindeartikel den Verwaltungsstand von Ende 2000 angeben. Danke! --Spielertyp (Diskussion) 00:13, 12. Jun. 2013 (CEST)

Wenn sich das mit einem Bot prinzipiell nicht erledigen lässt, sagt uns das bitte! Dann erstellen wir die Liste mit der Hand (innerhalb der nächsten zwölf Monate). --20:06, 13. Jun. 2013 (CEST)

Ist es das was Du möchtest?

Die cz-Links kann man natürlich noch rauswerfen, man kann das ganze auch anders aufbereiten.--Cactus26 (Diskussion) 18:37, 17. Jun. 2013 (CEST)

Vielen Dank! Das ist genau, was wir brauchen - zumindest in einem ersten Schritt. Jetzt müssen wir noch wissen, welche (normalen) Gemeinden zu diesen Gemeinden zählen. Intuitiv würde ich sagen, dass das folgende Vorgehen das einfachste ist: Dein Bot sucht all jene Artikel tschechischen Gemeinde Artikel (solche mit der cz:Template:Infobox české obce a města) in welchen der Parameter "ob.roz.půs" für Wirkungsbereich-Gemeinden bzw. "pov.ob" für Gemeindeamt-Gemeinden mit den jeweiligen Einträgen in der Liste auf Portal:Tschechien/Mitarbeit/Gemeinden korrespondiert. Sprich: (Bot (1) nimmt ersten Eintrag (Benešov), (2) sucht in der cz-Wikipedia nach Vorkommen unter dem angegebenen Parameter, (3) sucht für diese Artikel das deutschsprachige Pendant heraus und fügt (3) sie in die Liste ein. Ist das möglich? Falls nicht müssen wir die ersten beiden Schritt mit der Hand machen. --Spielertyp (Diskussion) 15:47, 21. Jun. 2013 (CEST)
Wie kann es hier weiter gehen? Wäre das Auslesen des in Wikidata hinterlegten deutschen Lemmas eine Hilfe? Kann soetwas ein Bot mahcne? --Spielertyp (Diskussion) 00:34, 2. Nov. 2013 (CET)

Anzeige von fälligen KLA-Kandidaturen[Bearbeiten]

Moin! Ich möchte in Erfahrung bringen, ob ein Bot fällige WP:KLA-Kandiaturen in eine noch zu erstellende Vorlage schreiben kann. Nach zehn Tagen können diese ausgewertet werden, häufig passiert das jedoch viel später. Das hängt damit zusammen, dass an die Auswertung nur auf der Diskussionsseite erinnert wird, und dort nur ein relativ kleiner Personenkreis angesprochen wird - übrigens ein Personenkreis, der selbst kräftig mitstimmt und für die Auswertung nicht in Frage kommt. Eine automatisch gepflegte Vorlage könnte z.B. auch bei WP:KALP oder WP:R angebracht werden. Sie müsste lediglich nach Ablauf der Frist (10 Tage ab Erstellung) den entsprechenden Artikel inkl. dem Link zur Diskussion angeben. Ist das vollautomatisiert möglich? --Spielertyp (Diskussion) 13:12, 29. Jun. 2013 (CEST)

Da ich gerade eine Anfrage zur KALP-Benachrichtigung auf meiner DS habe (vielleicht gehts das dann in einem Abwasch): Was soll der Bot denn genau machen?  @xqt 08:51, 14. Jul. 2013 (CEST)

(Späte Antwort wegen Urlaubs) Die kurze Diskussion dazu findet sich hier: Wikipedia_Diskussion:Kandidaten_für_lesenswerte_Artikel#Auswertung. Meine erste Überlegung war, eine Vorlage zu haben, in welche der Bot am 10. Tage den Artikel einträgt. Ab dann sind die Kandidaten nämlich fällig. Zusätzliche Spielereien, die die Verwaltung erleichtern können, wären denkbar: Kopiervorlage für {{Lesenswert}} sowie die Stimmen. Vielleicht als Box zum Ausklappen. --Spielertyp (Diskussion) 23:46, 18. Jul. 2013 (CEST)

Lesenswert-Vorlage funktioniert nicht, da müsste der Bot immer den Permanentlink austauschen sobald jemand den Artikel editiert - und auf neuen Unfug in der letzten Version (=potentielle Auszeichnungsversion) sollte man den Artikel eh prüfen. Und die Stimmen kann ein Bot auch nicht auswerten, solange nicht alle konsequent und perfekt die Vorlagen benutzen (wird nicht passieren). Es ist einfach, bei einem KLA-Besuch die ältesten Artikel anzuschauen, ich denke am Sehen liegt ein Auswertungsrückstand nicht, eher an mangelnden Stimmen (Verlängerung also sinnvoll) oder schwierigen Auswertungen die ggf. Fachwissen benötigen, um Einwände beurteilen zu können.
Nützlicher wäre ein Bot, der nach einer Auswertung die Verwaltungsseiten aktualisiert. Auf meiner Spielwiese habe ich dazu ein paar Infos gesammelt. --mfb (Diskussion) 17:19, 10. Mär. 2014 (CET)

BKLs[Bearbeiten]

Wir haben ja Zigtausend BKLs. Mich würde mal interessieren, wieviele davon nur blaue Links haben und wieviele nur rote Links. Kann das jemand mit vertretbaren Aufwand feststellen? --Matthiasb – Vandale am Werk™ Blue ribbon.svg (CallMyCenter) 16:22, 14. Jul. 2013 (CEST)

Der zweitgenannte Fall wäre interessanter. --Leyo 17:22, 6. Sep. 2013 (CEST)
Ich kümmere mich um den zweitgenannten Fall - falls mir jemand einen über die reine Statistik hinausgehenden Nutzen von erstgenanntem Fall erklärt, gerne auch darum. Falls ich mich innerhalb von einem Monat nicht hier melde, fragt bitte bei mir nach. Gruß --dealerofsalvation 07:45, 5. Jan. 2014 (CET)

@Matthiasb:: Was lange währt … Also, in 13 Minuten Laufzeit hat mein Sourcecode von .338 Whisper bis Ahirwar 223 Ergebnisse (BKLs mit ausschließlich roten Links) gefunden. Schau mal rein, ich hab nur ein paar Stichproben überprüft. Das mal als erste Abschätzung. Besteht Interesse daran, den Code bis Z weiterlaufen zu lassen? Gruß --dealerofsalvation 21:10, 10. Mär. 2014 (CET)

Sorry, dass ich das übersehen hatte. Es sind insgesamt 9957 Begriffsklärungen, auf die das zutrifft, eine vollständige Liste kann jeder Tool Labs User in unter einer Minute mit folgendem Kommandozeilenaufruf in eine Datei namens test.txt erstellen:

mysql --defaults-file="${HOME}"/replica.my.cnf --disable-column-names -e "SELECT CONCAT('* [[',page_title,']]') FROM page AS page1,categorylinks 
WHERE page_namespace=0 AND page_id=cl_from AND cl_to LIKE 'Begriffskl%rung' 
AND (SELECT count(*) FROM pagelinks,page WHERE pl_from=page1.page_id AND page_namespace=0 AND pl_namespace=0 AND page_title=pl_title)=0" -h dewiki.labsdb dewiki_p > test.txt

Das gute: Ich komme auf die gleichen ersten Seiten wie dealerofsalvation, also scheint alles korrekt. Also wenn eine vollständige Liste benötigt wird, bitte nachfragen. --APPER\☺☹ 21:43, 10. Mär. 2014 (CET)

Ich wollte das damals im Rahmen einer Diskussion haben, weiß aber nicht mehr den genauen Zusammenhang, nur noch, daß irgendwer meinte, wir hätten zuviele BKLs mit nur roten Links. In der BKL-Kategoriesind 195.580 Seiten eingetragen, also scheinen knapp unter fünf Prozent aller BKLs nur rote Links zu haben. Eine konkrete QS-Maßnahme hatte ich nicht beabsichtigt.
@Dealerofsalvation:: Wenn du nix dagegen hast, würde ich die Seite gerne in meinen BNR rüberschieben, um mir diese "Stichprobe" bei Gelegenheit näher zu betrachten.
Grüße und danke an euch beide. --Matthiasb – Vandale am Werk™ Blue ribbon.svg (CallMyCenter) 20:41, 11. Mär. 2014 (CET)
Ach und vielleicht noch die Buchstaben M und S dazu. Bei A scheinen ja BKLs mit geographischen Namen vorzuherrschen, viele Flüsse sind da dabei, aber derjenige, der das geschaffen hat, hat vielleicht irgendwo das Handtuch geworfen. --Matthiasb – Vandale am Werk™ Blue ribbon.svg (CallMyCenter) 20:45, 11. Mär. 2014 (CET)
Habe die Anfangsbuchstaben M und S hinzugefügt. --APPER\☺☹ 22:31, 11. Mär. 2014 (CET)
Fein. Matthiasb, wenn du magst, verschieb die Seite gerne, du darfst aber auch gerne dort wo sie ist nach deinem Gusto mit ihr verfahren. Gruß --dealerofsalvation 05:58, 12. Mär. 2014 (CET)

Wikimail an eine größere Anzahl von Benutzer wg. Verifizierung[Bearbeiten]

Im Bereich der Benutzer-Verifizierung wird auf Wikipedia:Benutzerverifizierung/Benutzernamen-Ansprachen eine Übersicht geführt, welchen Benutzer aufgrund des Namens auf der Disk ein Hinweis auf die Verifizierung hinterlassen wurde. Leider wird auf diesen Hinweis nur sehr selten reagiert. Am besten ist es, direkt per Wikimail den Benutzer auf die Verifizierung und die ggf. drohende Sperrung anzusprechen. Ich habe dies in den vergangenen Tagen mehrach erfolgreich gemacht. Als Benutzer kann ich allerdings nur 20 Wikimails pro Tag verschicken. Könnte ein Bot diese Aufgabe übernehmen. Ausgangslage: Auf einer Seite würde ich den Mail Text schreiben und auf einer weiteren die entsprechenden Benutzernamen. Allerdings sind nicht alle Benutzer per Wikimail erreichbar. --Olaf Kosinsky (Diskussion) 08:02, 10. Aug. 2013 (CEST)

Ich melde mich mal ganz zaghaft, unter Umständen hab ich was Passendes. Werde aber noch nicht gleich zum Testen kommen. Wenn jemand anderes möchte, nur zu. IW 12:56, 10. Aug. 2013 (CEST)
Ja, da habe ich was und würde den Job auch übernehmen: Was ich brauche ist:
  • eine Quelle (Seite, Kategorie oder Vorlage etc.), aus der der Bot entnehmen kann, welche Benutzer benachrichtigt werden soll
  • den Text, der versandt verden soll (Seite oder Vorlage)
  • Sollen die Benutzer per Mail, per DS oder beides angesprochen werden
  • Soll die Art der Benachrichtigung irgendwie dokumentiert werden?
  • Ist eine Protokollseite erwünscht?
 @xqt 15:14, 10. Aug. 2013 (CEST)
Herzlichen Dank für Euer Interesse.
  • Der Text kommt von dieser Seite: Benutzer:Olaf Kosinsky/Wikimail-Text Es wäre natürlich toll, wenn der individuelle Benutzername eingesetzt werden kann
  • Die Liste der Benutzer würde auf dieser Seite stehen (Die Liste ist noch nicht vollständig): Benutzer:Olaf Kosinsky/Wikimail-Liste
  • Die Benutzer sollen nur per Mail angesprochen werden. Der Hilfetext auf der Benutzer-Disk wird zum Zeitpunkt des Wikimail Versand schon vorhanden sein
  • Es wäre gut, eine Protokollseite zu haben. Da nicht alle Benutzer eine E-Mail Adresse hinterlegt haben, wird Wikimail auch nicht bei allen funktionieren
--Olaf Kosinsky (Diskussion) 17:11, 10. Aug. 2013 (CEST)
Kann ich die Verteilerliste noch ergänzen? --Olaf Kosinsky (Diskussion) 09:24, 14. Aug. 2013 (CEST)
Ja, am Besten gleich mit dem Benutzernamen verlinken.  @xqt 10:47, 24. Aug. 2013 (CEST)
Ich habe den ersten Namen mit dem Benutzernamen verlinkt. Ist das ausreichend? --Olaf Kosinsky (Diskussion) 11:02, 24. Aug. 2013 (CEST)
Der Text und die Verteilerliste sind fertig. Der Wikimail Versand könnte jetzt erfolgen. --Olaf Kosinsky (Diskussion) 21:30, 24. Aug. 2013 (CEST)
@Olaf Kosinsky: Ist diese Anfrage noch aktuell, oder inzwischen erledigt? --Krd 14:35, 4. Jan. 2014 (CET)
@Krd: Die Anfrage ist noch aktuell. Die Liste mit den Benutzernamen habe ich eben aktualisiert. --Olaf Kosinsky (Diskussion) 15:07, 4. Jan. 2014 (CET)
Ich hab dafür leider nichts fertiges in der Schublade. --Krd 15:11, 4. Jan. 2014 (CET)

Wäre es möglich, das anderweitig mit Xqt zu klären? Dann könnte dieser Abschnitt hier erledigt werden. IW 13:37, 4. Feb. 2014 (CET)

Reicht kommendes Wochenende?  @xqt 14:32, 4. Feb. 2014 (CET)

js durch anderen Bot startbar?[Bearbeiten]

Hallo, der Bot Benutzer:MerlBot/Touch/täglich.js läuft seit einem Dritteljahr nicht mehr korrekt.
Siehe WP:AA#Keine Warnhinweise mehr, dass der „Artikel des Tages“ und „Schon gewusst“ aktualisiert werden muss
und BD:Merlissimo#Benutzer:MerlBot/Touch/täglich.js.
Frage: Kann dieses Script kopiert werden und von einem anderen Bot, der keine Server- und Sprachprobleme hat, laufen gelassen werden? Gerald SchirmerPower (Diskussion) 14:53, 10. Aug. 2013 (CEST)

Die WikiLinks liegen eigentlich nur auf einer .js-Seite, damit nur Admins dort herumeditieren können.
Was ist zu tuen? Um Mitternacht oder ein paar Minuten später, die Seite im Kontext einer deutschsprachigen Seite parsen und dann für jeden WikiLink einmal die Api-Action action=purge&forcelinkupdate=&titles= ausführen. Beispiellinks zum parsen gibt es auf Merls Diskussionsseite. Der Umherirrende 18:10, 10. Aug. 2013 (CEST)
Es würde auch ausreichen, folgende Befehle einmal am Morgen automatisch ausführen zu lassen:
1. Zur Setzung der Kategorie:
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Hauptseite/Artikel%20des%20Tages/Freitag&forcelinkupdate= (*)
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Hauptseite/Schon%20gewusst/Freitag&forcelinkupdate= (*)
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Administratoren/Anfragen&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Administratoren/Anfragen/Aufgaben&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Hauptseite/morgen&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia%20Diskussion:Hauptseite/Artikel%20des%20Tages/Intro&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia%20Diskussion:Hauptseite/Artikel%20des%20Tages/Vorschläge&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Hauptseite/Artikel%20des%20Tages/Bearbeitungshinweise&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Hauptseite/Schon%20gewusst/Bearbeitungshinweise&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia%20Diskussion:Hauptseite/Schon%20gewusst&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Hauptseite/Diskussionsseitenhinweis&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia%20Diskussion:Hauptseite&forcelinkupdate=
2. Zur Auffrischung der Seiten, die die Hinweise zur Aktualisierung verwenden:
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/Artikel_des_Tages/Bearbeitungshinweise&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/Artikel_des_Tages/Freitag&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia_Diskussion:Hauptseite/Artikel_des_Tages/Intro&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia_Diskussion:Hauptseite/Artikel_des_Tages/Vorschläge&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/Schon_gewusst/Bearbeitungshinweise&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/Schon_gewusst/Freitag&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia_Diskussion:Hauptseite/Schon_gewusst&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Administratoren/Anfragen/Aufgaben&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Administratoren/Anfragen&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/Diskussionsseitenhinweis&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia_Diskussion:Hauptseite&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/morgen&action=purge
3. Weitere Auffrischungen, die gleich miterledigt werden können:
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite&action=purge (zur Auffrischung der Hauptseite auf aktuellen Tag)
http://de.wikipedia.org/w/index.php?title=Hauptseite&action=purge (zur Auffrischung des Redirects)
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/morgen&action=purge (zur Setzung der Kaskadensperre)
Eventuell müssen nicht alle Zeilen ausgeführt werden, aber so funktioniert es auf alle Fälle. Danke. Gerald SchirmerPower (Diskussion) 14:39, 13. Aug. 2013 (CEST)
Ich mach das. – Giftpflanze 19:27, 13. Aug. 2013 (CEST)
Weißt du schon, ab wann der Bot läuft und um welche Uhrzeit? Und läuft der Bot mit den Seiten von Merlissimo oder werden die oben genannten Links aufgerufen? SchirmerPower (Diskussion) 02:57, 15. Aug. 2013 (CEST)
Nachtrag: Aktuell scheint noch nichts zu laufen; die Warnhinweise kamen heute erst, nachdem ich die Befehle manuell gestartet hatte. Die mit (*) markierten LinkUpdates müssten ausreichend sein. Die Purges machen die Änderung dann auf den betreffenden Seiten sofort sichtbar. Die gelisteten Seiten sind alle, die ich kenne, auf denen die "Warnungen" angezeigt werden. Wieso in Merlissimos Liste neben +1 days auch -1 days steht, ist mir noch unklar. Gerald SchirmerPower (Diskussion) 09:52, 16. Aug. 2013 (CEST)
Eventuell könnte der Bot gleich noch die Hauptseite purgen
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite&action=purge
Das dürfte solche Anfragen minimieren. Gerald SchirmerPower (Diskussion) 13:20, 20. Aug. 2013 (CEST)
Ein purge auf "Heute" könnte auch nicht schaden, damit wäre die Kaskadensperre wohl wieder funktionstüchtig:
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/Heute&action=purge
Siehe auch diese Diskussion. Gerald SchirmerPower (Diskussion) 03:26, 21. Aug. 2013 (CEST) Scheint erledigt zu sein. SchirmerPower (Diskussion) 15:14, 25. Aug. 2013 (CEST)
Seit einem Monat starte ich die Links nun jeden Morgen manuell. Ein Aufruf über einen Batchjob (DOS) funktioniert bei mir aus unbekannten Gründen nicht. Ist denn wirklich kein Bot in der Lage, die zwei "Linkupdates" durchzuführen? Die ersten beiden Aufrufe (linkupdate) würden ja schon mal reichen, die purges habe ich gestrichen, falls das jemand zu viel vorkam. Gerald SchirmerPower (Diskussion) 00:37, 5. Sep. 2013 (CEST)
Meiner läuft doch auch?! – Giftpflanze 22:42, 5. Sep. 2013 (CEST)
Das wäre toll. Kannst du dazu nähere Angaben machen? Wie heißt der Bot, wann läuft er und welche Befehle führt er aus?
Ich habe jeden Abend kontrolliert, ob der Linkupdate funktioniert hat und die beiden morgigen Vorlagen (AdT + SG?) der Wartungskategie zugeordnet sind, das waren sie aber nicht (natürlich auch nur, sofern sie auch noch nicht geändert wurden). Die oben genannten purges habe ich dann auch manuell ausgeführt, weil die Seiten in den meisten Fällen (außer bei Änderungen) nicht "gepurget" waren und somit der Änderungsbedarf an AdT und SG?, sofern nötig, nie angezeigt wurde. Die Tests habe ich seit 10.8. immer zwischen 0:05 Uhr und 9:00 Uhr gemacht, da war nie ein Linkupdate durchgeführt worden.
Hinweis: Morgen früh kann das wieder getestet werden, da der AdT für den Folgetag (Samstag) noch nicht eingetragen wurde, bei Bedarf kann ich meine manuellen Tätigkeiten zwecks Überprüfung aussetzen. Einfachste Kontrolle ist es, die Seite WD:HS aufzurufen, da müsste dann heute Nacht ab 24 Uhr stehen, dass der AdT aktualisiert werden muss; steht das dort nicht, ist entweder der Linkupdate nicht gelaufen, der purge nicht oder beides nicht (oder jemand hat den AdT schnell eingetragen). Grüße, Gerald SchirmerPower (Diskussion) 23:10, 5. Sep. 2013 (CEST)
Ok, die Wartungskategorie für Wikipedia:Hauptseite/Artikel des Tages/Samstag wurde richtig zugeordnet. Was aktuell fehlt, sind die purges der "Hinweisseiten", wie z. B. Wikipedia:Administratoren/Anfragen/Aufgaben oder Wikipedia:Hauptseite/Diskussionsseitenhinweis (komplette Liste oben). SchirmerPower (Diskussion) 00:18, 6. Sep. 2013 (CEST)
Das ganze hat eine lange Geschichte mit vielen Problemen. Es gibt zwei Unterseiten:
Bei Purge geht es um die Aktualisierung der angezeigten Seite und des Sperrstatus. Bei Touch finden sich Fälle zur Aktualisierung von Linktabellen. Weil die Fragen oben aufkam: Bei den "Gestern" (-1)-Seiten soll eine Box eingeblendet werden, dass eine Aktualisierung nötig ist. Sie sind auch bei Touch eingetragen, weil die Entsperrung sonst nicht funktioniert.
Der Purge war ein api-Purge und Touch war ein Null-Edit. Umherirrender hat dann später eine Featureerweiterung forcelinkupdate von Purge hinzugefügt, der den Null-Edit ersetzen soll, was aber aus bisher nicht verständlichen Gründen nicht so ganz funktioniert hat. Ich habe deswegen weiterhim immer linkupdate und Null-Edit durchgeführt.
Ich und Guandalug haben diese Seiten gepurget und getouched. Wir hatten es beide nie solo hinbekommen, dass die Seitensperrugnen sicher funktionieren. Nur wenn wir die Bots beide haben laufen lassen war das Problem plötzlich gelöst.
Weil sich ein paar auf meiner Disk gemeldet hatten, habe ich erst vor kurzem bemerkt, dass es im März 2012 ein Softwareumstellung gab. Mein Bot hat immer das Resultat von http:////de.wikipedia.org/w/api.php?action=query&prop=links&titles=Benutzer:MerlBot/Touch/t%C3%A4glich.js als Eingabe genommen. Die Links waren vorher korrekt mit deutschen Wochentagsnamen, wie dies auch beim Rendern angezeigt wird. Durch irgendeine Änderung sind die Namen nun auf englisch, was meinen Bot die falschen Seiten purgen bzw. touchen lässt. Deswegen ja auch die Anfrage hier nach einem Ersatz.
Ich werde versuchen das wieder zu korrigieren (notfalls mit switch) und meinen Bot demnächst wieder im Betrieb nehmen. Aber wie oben beschrieben braucht es irgendwie zwei Bots - zum einen wegen dem Problem mit der Seitensperre, zum anderen zur Ausfallsicherheit. Es wäre sehr sinnvoll, wenn wir eine gemeinsame Konfiguration haben, wie z.B. meine beiden Bot-Unterseiten. Vielleicht irgendwo im Mediawiki-NS? Ich habe z.B. eben WP:Review bei Purge hinzugefügt. Die Seite wird seid einem Monat statt manuell nun von meinen Bot und wechselnden Unterseiten aktualisiert und ich benutze darin die time-Funktion zur Fettmarkierung den aktuellen RDT.
Was ist eigentlich mit der Bildsperrung der Hauptseitenbilder auf commons geworden? Dort hatte Guandalug immer kurz vor Mitternach die Bildliste aktualisiert, die dann in eine Kaskadensperrung kamen. Ich habe die commons-Seite im Moment nicht mehr im Kopf. Muss ich mal raussuchen. Merlissimo 01:13, 6. Sep. 2013 (CEST)
In der Tat: User:Bdk/de mit den Unterseiten https://commons.wikimedia.org/w/index.php?title=User:Bdk/de/images0&action=history, https://commons.wikimedia.org/w/index.php?title=User:Bdk/de/images1&action=history und https://commons.wikimedia.org/w/index.php?title=User:Bdk/de/images2&action=history wird nicht mehr aktualisiert. Werde ich übernehmen. Einen zweiten Bot brauch es hier vermutlich nicht. Nur mal im Hinterkopf halten, falls ich mal eines Tagen ausfallen sollte. Merlissimo 01:18, 6. Sep. 2013 (CEST)
Wie oben beschrieben, sollten die purges auch Hinweisseiten wie z. B. WP:AA/Aufgaben umfassen, damit die durch den Touch verursachten Zuweisungen auch sofort angezeigt werden und nicht erst nach dem ersten Edit der Seite.
Frage: Werden die Purges in Benutzer:MerlBot/Purge/täglich.js denn aktuell und fehlerfrei (Sprachproblem?) durchgeführt? Wenn ja, könntest du das, zumindest zeitweise, zum Editieren freigeben?
Wenn das Sprachproblem noch nicht gelöst ist, würde ich vorschlagen, einfach täglich alle 7 Wochentage zu erledigen, das dürfte keine Komplikationen hervorrufen und kaum mehr Performance kosten. Gerald SchirmerPower (Diskussion) 01:31, 6. Sep. 2013 (CEST)
js-Seiten kann man nicht zum Editieren freigeben. Ich war damals noch kein Admin und mit den Links auf js-Seiten war dies eine gute Möglichkeit, damit ich aber auch jeder Admin die Konfig jederzeit ändern kann ohne die Gefahr von Vandalismus zu haben.
Ich muss dem Grund für die Sprach-Umstellung mal nachgehen und werde zu sehen, dass wie die generierten Links bald stimmen. Werde mich damit in den nächsten 3-4 Tagen beschäftigen und dachte, dass es jetzt auf die paar Tage auch nicht mehr ankommt. Merlissimo 01:39, 6. Sep. 2013 (CEST)
Das war mir neu, dass js-Seiten nur der Benutzer selbst und Admins editieren können. Wieso machst du es nicht so wie der CopperBot?
Da hast du Recht, auf die Tage kommt es nicht an. Zumal ja zumindest die Linkupdates/Touch aktuell zu funktionieren scheinen, entweder durch den Merlbot oder den Giftbot. Die Purges mache ich dann erst mal weiter händisch. Grüße, Gerald SchirmerPower (Diskussion) 02:25, 6. Sep. 2013 (CEST):::::
Nachbemerkung: Falls jemand etwas testen wollte, ich führe die Purges nun gleich manuell aus, damit auf den fehlenden AdT noch aufmerksam gemacht wird. SchirmerPower (Diskussion) 17:15, 6. Sep. 2013 (CEST)
Noch ein Nachtrag: Die Purges hatten keinen Effekt. Ich habe erst noch mal die beiden oben stehenden Linkupdates (aus meiner Liste) ausführen müssen, dann erneut die Purges (unterer Teil der Liste). Nun wird die richtige Information auf den betreffenden Seiten angezeigt. Das heißt, auch der erste Teil, der Touch bzw. Linkupdate, funktioniert noch nicht! Grüße, Gerald SchirmerPower (Diskussion) 17:25, 6. Sep. 2013 (CEST)

Gadget-Nutzer[Bearbeiten]

Mag jemand eine Datenbankabfrage machen um WD:Helferlein/Archiv#Gadget-Verwendungsstatistik zu aktualisieren? --Leyo 17:14, 26. Aug. 2013 (CEST)

Hat ja nur ein Jahr gedauert. Es wurden alle Benutzer betrachtet, deren letztes Login maximal etwa 3-4 Monate zurückliegt. Defaultwerte sind IIRC nicht berücksichtigt.
Gadget explizit (de)aktiviert Anzahl
MediaWiki:gadget-CommonsDirekt 199
MediaWiki:gadget-CommonsDirekt 1 71
MediaWiki:gadget-Doppel-s-Schreibung 0 2406
MediaWiki:gadget-Doppel-s-Schreibung 1 175
MediaWiki:gadget-Einleitung-bearbeiten 0 2269
MediaWiki:gadget-Einleitung-bearbeiten 1 2645
MediaWiki:gadget-Erweiterte-Navigationsleiste-Quicklinks 1 236
MediaWiki:gadget-Extra-Editbuttons 0 2206
MediaWiki:gadget-Extra-Editbuttons 1 3678
MediaWiki:gadget-Gadgets-InlineInterwikisI 0 5
MediaWiki:gadget-Gadgets-InlineInterwikisI 1 1
MediaWiki:gadget-Gadgets-Personendaten 0 6
MediaWiki:gadget-HideVisualEditor 1 33
MediaWiki:gadget-HotCat 0 2246
MediaWiki:gadget-HotCat 1 3079
MediaWiki:gadget-InlineInterwikisInGruen 0 26
MediaWiki:gadget-InlineInterwikisInGruen 1 1
MediaWiki:gadget-InterwikisInGruen 0 1
MediaWiki:gadget-OpenStreetMap 0 421
MediaWiki:gadget-OpenStreetMap 1 147
MediaWiki:gadget-PB 1 1567
MediaWiki:gadget-PermaPageLink 1 246
MediaWiki:gadget-Persoenliche-Bekanntschaf 0 1147
MediaWiki:gadget-Persoenliche-Bekanntschaf 1 43
MediaWiki:gadget-Personendaten 0 2411
MediaWiki:gadget-Personendaten 1 1382
MediaWiki:gadget-Pfeil-hoch 0 2275
MediaWiki:gadget-Pfeil-hoch 1 1595
MediaWiki:gadget-PrettyLog 1 367
MediaWiki:gadget-Rechtschreibpruefung 0 2162
MediaWiki:gadget-Rechtschreibpruefung 1 3821
MediaWiki:gadget-ReferenceTooltips 1 1335
MediaWiki:gadget-Rot-Gruen-Sehschwaeche 0 2389
MediaWiki:gadget-Rot-Gruen-Sehschwaeche 1 279
MediaWiki:gadget-Screenreader-Optimierung 0 2405
MediaWiki:gadget-Screenreader-Optimierung 1 118
MediaWiki:gadget-Suchfokus-Hauptseite 0 1839
MediaWiki:gadget-Suchfokus-Hauptseite 1 1791
MediaWiki:gadget-TAXman-tool 0 172
MediaWiki:gadget-TAXman-tool 1 1
MediaWiki:gadget-VectorClassic 1 172
MediaWiki:gadget-Vorlagenmeister 0 2272
MediaWiki:gadget-Vorlagenmeister 1 2414
MediaWiki:gadget-WikiMiniAtlas 730
MediaWiki:gadget-WikiMiniAtlas 0 2119
MediaWiki:gadget-WikiMiniAtlas 1 60
MediaWiki:gadget-Zeitzonenkonverter 1 694
MediaWiki:gadget-articlefeedback 1 49
MediaWiki:gadget-bkl-check 0 1761
MediaWiki:gadget-bkl-check 1 3533
MediaWiki:gadget-contribsrange 0 1384
MediaWiki:gadget-contribsrange 1 617
MediaWiki:gadget-editsection-align-end 1 168
MediaWiki:gadget-editsection-left 1 38
MediaWiki:gadget-editsection-right 1 120
MediaWiki:gadget-highlightemptysummary 1 7
MediaWiki:gadget-imagesiblings 1 376
MediaWiki:gadget-markAdmins 1 1632
MediaWiki:gadget-navigation-popups 0 2323
MediaWiki:gadget-navigation-popups 1 1870
MediaWiki:gadget-old-diff-style 1 213
MediaWiki:gadget-old-movepage 421
MediaWiki:gadget-revisionCounter 1 1324
MediaWiki:gadget-revisionjumper 0 584
MediaWiki:gadget-revisionjumper 1 995
MediaWiki:gadget-rightsfilter 1 298
MediaWiki:gadget-toolserver-integration 0 2282
MediaWiki:gadget-toolserver-integration 1 3067
MediaWiki:gadget-wikEd 0 2266
MediaWiki:gadget-wikEd 1 1960

Rohdaten von Hoo man ([3]) Mag wer das noch schöner aufarbeiten? ;-) --se4598 / ? 19:25, 6. Aug. 2014 (CEST)

Toll, vielen Dank!
Was ich nicht verstehe, sind die Doppeleinträge mit 0 und 1. Falls ich ein standardmässig deaktiviertes Gadget aktiviere, kriegt es eine 1. Wenn ich's dann wieder deaktiviere, eine 0 (≠ Ausgangszustand). Stimmt das so? --Leyo 22:45, 6. Aug. 2014 (CEST)

Bitte Diskussionsseiten - "Defekter Weblink" -Abschnitte aufräumen[Bearbeiten]

Inzwischen wurden schon eine Menge der Links ausgebessert. Vieler der Links unter dem Abschnitt "Defeker Weblink" sind im Artikel nicht mehr enthalten. Ich bitte um die Entfernung aller Links die nicht mehr im Artikel enthalten sind, oder zumindest um ein Auskommentiern, damit diese Links auf Diskussionsseiten nicht mehr in der Weblinksuche aufscheinen. Gleiches gilt für die dazugehörigen archive.org Links. Wenn dann keine Links mehr übrig bleiben sollte auch die Vorlage {{Defekter Weblink Bot}} aus der Diskussionsseite entfernt werden. Frohes Schaffen, Boshomi ☕⌨☺ –  17:32, 20. Sep. 2013 (CEST)

Suche Bot, der die Artikel mit den meisten Vorlageneinbindungen findet[Bearbeiten]

Ich suche einen Bot, der die Artikel mit den meisten Vorlageneinbindungen findet. Grund: Es sollten nicht mehr als 500 Vorlagen auf einer Seite eingebunden werden. Falls es so etwas schon gibt, wäre ich für einen Hinweis dankbar. [4] [5] [6] Kann das jemand erstellen? Die Liste könnte beispielsweise so aussehen. SchirmerPower (Diskussion) 15:32, 8. Okt. 2013 (CEST)

Liste der Artikel mit den wenigsten Einzelnachweisen[Bearbeiten]

Hallo, ich hätte gerne eine Liste der am schlechtesten belegten Artikel. Automatisieren lässt sich das natürlich nur durch einen groben Indikator. Stelle mir das wie folgt vor:

Vielen Dank --Zulu55 (Diskussion) Unwissen 14:48, 22. Okt. 2013 (CEST)

Es gibt doch genug Artikel, in denen Belege gänzlich fehlen… --Leyo 15:07, 22. Okt. 2013 (CEST)
Wollte ich auch gerade schreiben. Das Ergebnis sind dann ein paar hunderttausend Artikel ohne Belege. Gab es nicht mal eine Erhebung dazu? Ich meine, dass gut 40-50% der Artikel weder Weblinks, noch Literaturverweise, noch Einzelnachweise enthalten.
Ein guter Startpunkt zum Abarbeiten wäre vielleicht Kategorie:Wikipedia:Belege fehlen. Gruß, --NiTen (Discworld) 15:21, 22. Okt. 2013 (CEST)
Hm, also daher würden mich eben Artikel erst ab einer bestimmten Größe interessieren. Dort kommt es doch (hoffentlich) deutlich seltener vor, dass lange Artikel völlig einzelnachweisfrei sind. Würde mich ehrlich gesagt wundern. An Kategorie:Wikipedia:Belege fehlen hatte ich auch schon gedacht, allerdings wird dieser Baustein ja auch dann (gefühlt sehr oft) vergeben, wenn wichtige Belege fehlen oder ein Abschnitt unbelegt ist. --Zulu55 (Diskussion) Unwissen 16:22, 22. Okt. 2013 (CEST)
BK: Ich hab gerade versucht den Toolserver via https://toolserver.org/~hoo/catPageLinks.php?cat_name=Wikipedia%3ABelege+fehlen&depth=0&page_namespace=0&project=dewiki_p zu trietzen. Abfrage: Kategorie:Belege_fehlen sortieren nach Anzahl der Links auf die jeweilige Seite - in der Regel ein guter Indikator für besonders bedeutsame Artikel. Scheint ihn aber zu überfordern. Das geht ja in eine ähnliche Richtung. Vielleicht kann das jemand umsetzen und das Ergebnis auf einer WP-Seite speichern? --Zulu55 (Diskussion) Unwissen 16:32, 22. Okt. 2013 (CEST)
Zu meinem Punkt oben: Bei Wikipedia:Redaktion Chemie/Artikel ohne Quellenangabe gibt es beispielsweise bestimmt auch etwas längere Artikel drunter. --Leyo 16:34, 22. Okt. 2013 (CEST)
Hab mir jetzt mal WP:Liste der Artikel in Kategorie:Belege fehlen nach Größe ab 100.000 byte generiert. Das geht ja schon mal in die Richtung. Nur sind das ja leider einfach zum einen besonders große Artikel, zum anderen meist besonders umstrittene Artikel. Es können große Artikel jedoch auch schlecht belegt sein, ohne das der Baustein (zwingend) gesetzt wird. Würde mich daher immernoch über eine Umsetzung freuen. Als Einschränkung könnte man ja erstmal nur Artikel der Kategorie:Wikipedia:Belege fehlen untersuchen. --Zulu55 (Diskussion) Unwissen 16:42, 22. Okt. 2013 (CEST)
Bei den allerwenigsten dieser Artikel fehlen komplett alle Belege - meist sind nur einzelne Absätze mit dem Baustein gekennzeichnet, und das oft genug auch zu Unrecht (bzw. in der Weise, dass der Setzer des Bausteins mit der Qualität der Belege nicht einverstanden ist). --Reinhard Kraasch (Diskussion) 01:03, 25. Okt. 2013 (CEST)
Ist selten, kommt aber vor. Hier ein Beispiel: Ha'atelier. In diesem Beispiel waren nur ein Handvoll Namen aus einer langen Liste belegt. Ich habe die Personenliste wegen Irrelevanz aus dem Artikel entfernt, und plötzlich stand der zuvor scheinbar belegte Artikel völlig belegfrei da.  Frohes Schaffen, Boshomi ☕⌨☺ –  19:12, 27. Okt. 2013 (CET)

WP:FZW#Internet Archive Wayback Machine - Permalink selber erstellen[Bearbeiten]

Gibt es hier einen Botbetreiber, der diesen Vorschlag umsetzen könnte? --Leyo 15:32, 30. Okt. 2013 (CET)

Können wir uns möglicherweise sparen. Denn neben diesem neuen "Save it"-Feature web.archive.org/record/$url kündigt blog.archive.org an, archive.org würde externe Links auf Wikipediaseiten archivieren, angeblich 5 Mio. neue URLs pro Tag (und außerdem tote per Bot durch eine Archiv-URL ersetzen zu wollen). --Thoken (Diskussion) 18:48, 30. Okt. 2013 (CET)
@Thoken: Gibt es News zum Thema? --Leyo 23:49, 1. Jun. 2014 (CEST)
Es sind zwar tatsächlich viele Links bei archive.org auffindbar, aber von vollständig oder annähernd vollständig kann keine Rede sein. Ein Bot der regelmäßig alle erreichbaren Links, die noch nicht auf archive.org auffindbar sind dorthin überträgt würde mMn schon Sinn machen. Schön wäre es auch, wenn größere Inhaltsveränderungen auf den Seiten erkannt würden, und dann ebenfalls neue Mementos angelegt würden. So eine Funktion bräuchte aber viel Platz fürs Zwischenspeichern. Ein derartiges, nicht öffentlich einsehbares Archiv könnte nebenbei so manche Probleme lösen. Frohes Schaffen — Boshomi ☕⌨☺  00:08, 2. Jun. 2014 (CEST)
Das Projekt ist anscheinend insoweit abgeschlossen, als dass nur noch eine geringe Anzahl Webseiten täglich archiviert wird, diese Anzahl nimmt seit einem halben Jahr kontinuierlich ab, von ca. 5000 auf zur Zeit ca. 500 täglich. Ich hab mal die "Downloads" auf [7] aufsummiert, danach hat der "Wikipedia Outlinks Crawler" des Archivs seit September 2013 etwa 17 Mio. "Downloads" erledigt. Rein zahlenmäßig könnten das externe Weblinks der englischen Wikipedia sein, ohne defekte und evtl. ohne früher archivierte. --Thoken (Diskussion) 20:09, 2. Jun. 2014 (CEST)
Ich zitiere mal Benutzer:Merlissimo aus dieser Diskussion:
„Nach deutschem Recht in der Auftraggeber einer Archivierung (und nicht der eigentliche Archivierungsservice) dafür verantwortlich, dass diese korrekt und mit Erlaubnis der Rechteinhaber erfolgt. Aus diesem Grund fand sich bisher kein Botbetreiber von dewiki dazu bereit bei Diensten wie Wayback oder Webcite eine systematische Archivierung der Weblinks in Auftrag zu geben (was über eine Schnittstelle technisch möglich gewesen wäre). Um mal über den Tellerrand zu schauen: In Frankreich ist das Recht ähnlich erlaubt aber eine Ausnahme für Bildungseinrichtungen. Um dort die Bildungsausnahme zu unterstreichen wurde extra für frwiki ein Projekt entwickelt, dass die Archivierung übernimmt. Das amerikanische Recht ist hier deutlich freizügiger, weshalb auf enwiki immer mal wieder ein solcher Bot lief. Nun sind wir hier auf dewiki, die Server stehen aber in Amerika. Solange der Botbetreiber kein Deutscher ist, ist es also rechtlich unbedenklich.“
Es sind mehr rechtlicher Bedenken als technische Probleme die einen solchen Bot schwierig machen. --sitic (Diskussion) 21:47, 2. Jun. 2014 (CEST)
Das spricht aber nicht gegen eine eigene Archivierung auf eigenen Servern, solange man darauf keinen öffentlichen Zugang gewährt, denn auch bei gelöschten Seiten besteht ein Recht auf Zitierung. Mit Hilfe so einer eigenen Archivierung könnten man dann feststellen, wenn sich eine Seite grob verändert hat, und möglicherweise die wesentlichen Fakten nicht mehr vorhanden sind. Über OTRS könnte man falls notwendig eine Bestätigung der Stichhaltigkeit der angeführten Belege anfordern, wenn diese nicht mehr online erreichbar sind. Frohes Schaffen — Boshomi ☕⌨☺  22:05, 2. Jun. 2014 (CEST)

Wikipedia:Lesenswerte_Artikel/nach_Datum automatisch pflegen[Bearbeiten]

Moin! Kann jemand diese Arbeit in sein Botprogramm aufnehmen? Die Liste Wikipedia:Lesenswerte_Artikel/nach_Datum/2013 (für jedes Jahr eine) listet alle lesenswerten Artikel mit Datum ihrer Kür nebst lesenswerter Version-ID auf. Vielleicht ist es ja möglich, diese Liste automatisch zu pflegen, indem die relevanten Daten einfach aus dem jeweiligen Artikel ausgelesen werden. Dort befindet sich nämlich die Vorlage:Lesenswert mit zwei Parametern: Datum und Verions-ID. Dadurch würde man viel Zeit sparen wenn neue Artikel zu lesenswerten Artikel gekürt werden: Es entfiele ein ganzer Verwaltungsschritt von 7. Hier die entsprechende Diskussion dazu. --Spielertyp (Diskussion) 00:40, 2. Nov. 2013 (CET)

Vorlage {{Webarchiv}} Link ohne Linktext[Bearbeiten]

Ich habe nun in die Vorlage {{Webarchiv}} einen Wartungslink eingebaut, der alle Einbindungen ohne Linktext erfasst. Spezial:Linkliste/Vorlage:Webarchiv/Wartung/Linktext_fehlt. Wäre schön, wenn ein Bot dies, wie schon an anderer Stelle, übernehmen und die fehlenden Linktexte nachtragen könnte. Frohes Schaffen, Boshomi ☕⌨☺ –  03:50, 2. Nov. 2013 (CET)

Welcher Bot trägt Linktexte, also Inhalt, nach? Ich gehe davon aus, dass dies händisch geschehen muss.
Gibt es einen speziellen Grund, warum Du einen Wartungslink gewählt hast und keine Wartungskat? Die hätte man nämlich via CatScan mit Themenkats verschneiden können, was eine zielgerichtete Abarbeitung leichter machen würde.--Mabschaaf 10:34, 2. Nov. 2013 (CET)
Ich sehe gelegentlich Links mit einem Kommentartext "bot generated title", bzw. CactusBot hatte auch mal was vergleichbares. Daher war die Idee eines Botauftrags naheliegend.
• Der Grund für den Wartungslink war die Einfachheit die genügt, wenn die Hauptarbeit ein Bot übernimmt.
• Schlau wäre es würde der Bot dann die eine Wartungskat für das manuelle Nachkontrollieren setzen. Denkbar wäre die Vorlage {{Vorlage:Weblink ohne Linktext}} dafür einzusetzen.
• Kategorien sind dort überlegen, wo die Hauptarbeit manuell durchgeführt wird. Wartungslisten die von Bots nahe bei null gehalten werden machen als Kategorie weniger Sinn, da leere Kategorien an anderer Stelle zusätzlichen Aufwand verursachen.
 Frohes Schaffen, Boshomi ☕⌨☺ –  19:04, 2. Nov. 2013 (CET)
Wer das mal mit dem "bot generated title" war, weiß ich nicht - das ist auf alle Fälle schon ziemlich alt.
Was CactusBot gemacht hat, kannst Du hier ausführlich nachlesen (incl. Beispiel- und Difflinks). Ich persönlich fand das klasse (und extrem hilfreich im Hinblick auf später vielleicht mal sterbende Links, für die mit vernünftiger Beschreibung viel leichter ein Ersatz zu finden ist). Schade ist dagegen, dass nach Abarbeitung der Kats "Chemie" und "Physik" das Projekt nicht weiter verfolgt wurde.
Aber: Die Abarbeitung war händisch! Die CactusBot-Edits blieben nach außen unsichtbar - und das war auch gut so, denn das, was der Bot an Daten von den externen Webseiten lesen konnte, war oft nur Schrott und auf alle Fälle immer formatierungspflichtig.--Mabschaaf 19:57, 2. Nov. 2013 (CET)
Es wäre schon eine große Hilfe würde der Bot nur das "title"-Tag der Seite auslesen und in der Vorlage ablegen. Das muss nicht unbedingt sofort nach außen sichtbar sein. Frohes Schaffen, Boshomi ☕⌨☺ –  21:17, 6. Nov. 2013 (CET)
Richtig, ein ausgelesener Seitentitel kann sehr viel Tipparbeit ersparen, insofern generell Zustimmung zu diesem Wunsch - allerdings nur, wenn der Text unsichtbar bleibt, bis ein Mensch nachkorrigiert/-formatiert hat. Insofern musst Du aber in der Vorlage noch einen zusätzlichen Parameter ergänzen, wo der Bot den Text hinschreiben soll, etwa autotext=, dann genügt es im Idealfall, wenn der nacharbeitende Mensch auto entfernt, damit der Text sichtbar wird. Bitte lege das so an, dass alle Artikel, bei denen ein autotext-Vorschlag gesetzt ist, in einer Wartungskat landen, das erleichtert die Abarbeitung ungemein.--Mabschaaf 23:04, 6. Nov. 2013 (CET)
Ja, sobald der Bot den einen Titel einträgt, sollte die Seite in der Kategorie Kategorie:Wikipedia:Weblink ohne Linktext aufscheinen. Dort kann das dann per Hand abgearbeitet werden. Eventuell kann man dafür auch gleich die Vorlage {Vorlage|Vorlage:Weblink ohne Linktext}} direkt verwenden, oder man muss diese als Untervorlage in Webarchiv einbinden. Wie das genau funktionieren soll, sollte der pt. Botbetreiber vorgeben. Parameter und Untervorlage kann ich auf Wunsch einbauen. Frohes Schaffen, Boshomi ☕⌨☺ –  23:37, 6. Nov. 2013 (CET)

Ref-Bot: "Eierlegende Wollmilchsau"[Bearbeiten]

Hallo! Es wäre super, wenn man Internetlinks der Form "www.Text.Domain.BlaBlub.html" als Refernzen in die ref Klammern eintragen würde und dann ein Bot alles weitere automatisch erledigt. Abrufdatum, Datum der Veröf., Titel, Autor, usw automatisch anhand des Links nachtragen würde. Es wäre schon gut, wenn zunächst nur einige bekannte Onlinemedien darunter erfasst würden.--Alberto568 (Diskussion) 18:26, 9. Nov. 2013 (CET)

Das würde nur bei Webseiten funktionieren, die eine feste Struktur haben, so dass ein Bot-Programm Autor, Titel etc. sicher identifizieren kann. Und das am besten seit Bestehen der Seite/WP, damit auch alte Refs korrekt verarbeitet werden. Außerdem sollten sich die Inhalte einer Seite nicht ändern, damit man nicht was falsches referenziert. In der Summe dürfte das nur relativ selten zutreffen. Schwebt dir eine konkrete Webseite vor? So allgemein kann man zur Machbarkeit sonst wenig sagen. Es wird jedenfalls keinen Bot geben, der beliebige Webseiten in obigem Sinne abarbeiten kann.-Berita (Diskussion) 12:08, 12. Nov. 2013 (CET)
Beispiel sind:
  • www.sueddeutsche.de
  • welt.de
  • faz.net
  • spiegel.de
  • stern.de

usw. --Alberto568 (Diskussion) 18:55, 18. Nov. 2013 (CET)

Kennst du tools:~dispenser/view/Reflinks? --Leyo 20:08, 21. Nov. 2013 (CET)
Für einige Webseiten wäre eine technische Umsetzung durch die Auswertung der COinS-Daten sicherlich möglich. Zotero kann zumindest bei einigen der Webseiten die Daten automatisch übernehmen. Keine Ahnung, ob über das COinS-Format oder andere Spezifikationen. Ist die Frage, ob wer Lust hat seinem Bot das beizubringen. --Häuslebauer (Diskussion) 00:50, 3. Feb. 2014 (CET)

Weblinkfix INSEE Canton-Links[Bearbeiten]

Bitte diese Liste:Weblinksuche INSEE Canton-Links (natürlich nur ANR-Seiten) wie folgt umsetzen

//Regexp: von:
"http://www.recensement.insee.fr/RP99/rp99/co_navigation.co_page\?nivgeo=P&theme=ALL&typeprod=ALL&codgeo=(\d{4,4})&quelcas=LISTE&lang=FR"
//nach:
"http://www.insee.fr/fr/bases-de-donnees/esl/comparateur.asp?codgeo=cv-$1"
Ergebinis
//Beispiel mit ID 5520; aus:
"http://www.recensement.insee.fr/RP99/rp99/co_navigation.co_page?nivgeo=P&theme=ALL&typeprod=ALL&codgeo=5520&quelcas=LISTE&lang=FR"

//wird:
"http://www.insee.fr/fr/bases-de-donnees/esl/comparateur.asp?codgeo=cv-5520"

Davon betroffen sind etwas mehr als 1400 URLs im ANR und nochmal soviele Diskussionsseiten, die per SLA aufgeräumt werden müssen.  Frohes Schaffen — Boshomi ☕⌨☺   18:52, 8. Dez. 2013 (CET)

Global sind es 4411 Links. Deshalb bin ich wohl mit MerlLinkBot dran. Dauert aber ein paar Tage. Merlissimo 20:57, 8. Dez. 2013 (CET)
Ich habe das Regexp auf \d{4,4} vier Stellen eingeschränkt. Bei den wenigen Ausnahmen passt der Ersatz nicht. Frohes Schaffen — Boshomi ☕⌨☺   21:36, 8. Dez. 2013 (CET)
Die Links die nicht dem obigen Muster entsprachen habe ich inzwischen per Hand bearbeitet. Für andere Sprachversionen ist zu beachten dass es ID mit dem Muster "2[AB]\d{2,2}"  //z.B. "2A61" oder "2B04" entsprechen. Frohes Schaffen — Boshomi ☕⌨☺   22:50, 8. Dez. 2013 (CET)
@Boshomi Was kann ich mit nivgeo=C&codgeo=\d{5,5} machen? Bsp: http://www.recensement.insee.fr/RP99/rp99/co_navigation.co_page?nivgeo=C&codgeo=25510&theme=ALL&typeprod=ALL&quelcas=LISTE Merlissimo 22:37, 13. Mär. 2014 (CET)
Im konkreten Fall geht das nach http://www.insee.fr/fr/bases-de-donnees/esl/comparateur.asp?codgeo=com-25510 ;
Das dürfte aber kein Kanton sondern eine Commune sein (nivgeo-"C").
Anmerkung: Informativer wäre das Le dossier complet - pdf. Darauf würde ich nicht direkt verlinken. (Manuell würde ich da einen Hinweis im Linktext hinterlassen. etwa so: (siehe auch Le dossier complet (format pdf) - Commune de Ruffey-le-Château (25510), (pdf))) Frohes Schaffen — Boshomi ☕⌨☺  15:14, 1. Mai 2014 (CEST)

Weiter INSEE Muster:[Bearbeiten]

//Regexp: von:
"http://www.recensement.insee.fr/searchResults.action\?zoneSearchField=&codeZone=(\d{5,5})-COM"
//nach:
"http://www.insee.fr/fr/bases-de-donnees/esl/comparateur.asp?codgeo=com-$1"
Ergebnis

Siehe Diff für 49194. Davon Betroffen sind derzeit rund 194 Artikel  Frohes Schaffen — Boshomi ☕⌨☺   23:46, 10. Dez. 2013 (CET)

Ria Novosti archivieren[Bearbeiten]

Da die zeitnahe Einstellung der russ. Nachrichtenagentur Ria Novosti nun absehbar ist, wäre die Frage, ob ein Bot die Einzelnachweise durchgehen und, falls noch nicht geschehen, eine Archivierung veranlassen könnte. Könnte alles morgen oder übermorgen schon verschwunden sein... --PanchoS (Diskussion) 01:15, 10. Dez. 2013 (CET)

Es geht um Spezial:Weblinksuche/*.rian.ru, oder? --Leyo 02:07, 10. Dez. 2013 (CET)

Zunehmende Werbe- bzw. Kaufverlinkungen auf Seiten von Amazon.de und iTunes[Bearbeiten]

Hallo zusammen. Ich hätte hier ein dringendes und wichtiges Anliegen. Mir ist gerade hier aufgefallen, dass leider anscheinend gerade bei sog. Mixtapes (aber vielleicht auch noch in vielen anderen Artikeln) Werbe- bzw. Verkaufslinks zu Amazo. de und iTunes gesetzt werden. Diese Links haben nichts mit dem Artikel zu tun, sondern sollen nur den Verkauf auf den jeweiligen Plattformen ankurbeln. So gesehen und inzwischen entfernt auf Maskulin Mixtape Vol. 1, Maskulin Mixtape Vol. 2 und Maskulin Mixtape Vol. 3! Es kann doch nicht sein, dass wir hier die Wikipedia werbefrei halten wollen (und sollen) und dann setzen die Rapper und andere Künstler aus ihren Alben raus den direkten Verkaufslink auf Amazon.de und iTunes! Es ist ja nicht nur so, dass hier vom einschlägigen Leser davon ausgegangen werden kann, dass WP:D den Kauf bei dem jeweiligen Unternehmen empfiehlt, sondern dass wir auch noch was an diesen Links verdienen! Warum werden hier die Artikel nicht systematisch nach allen Verlinkungen auf solche Verkaufsplattformen durchsucht und dann sofort gelöscht? Es kann doch nicht sein, dass mir das jetzt als Erstem hier aufgefallen ist, oder? Sind das Einzelfälle? Kann man da verlässliche Zahlen erhalten, wie viele Links direkt aus der WP:D im Augenblick auf Amazon.de gehen? Ich finde es unverantwortlich, dass wir hier mit Links die Positionierung und die Marktmacht eines einzelnen Unternehmens fördern und unterstützen. Also wenn hier ein Bot gebraucht wird, dann bitte einen Amazon-Link-Kill-Bot und einen iTunes-Link-Kill-Bot - und das bitte schnell... --DonPedro71 (Diskussion) 10:29, 16. Dez. 2013 (CET)

Dazu gibt es die Weblinkssuche (oft muss man das im Einzelfall anschauen, ein blinder Bot würde mehr Schaden anrichten). Zu iTunes: Weblinksuche zu «itunes.apple.com», bei Amazon.com (plus Länderdomains) ist die Suche schwieriger, man müsste all die BNR- bzw. WNR-Seiten erst mal rausfiltern. Und evtl. einen Eintrag im Spam-Blackist (bei iTunes ist es einfach, bei Amazon dürfte es schwieriger sein)--Filzstift  10:33, 16. Dez. 2013 (CET)
Erstmal danke für die schnelle Hilfe! Super, es sind 779 Verlinkungen zu iTunes und von amazon.de und amazon.com ca. 1724! Bekommen wir von Apple oder Amazon eigentlich Geld für die über 2.500 links, die deren Stores bewerben? Das haut mich ehrlich gesagt schon locker vom Hocker! Da wird jede Verlinkung zu einer privaten oder Vereinsseite rigoros nach ca. einer Minute durch den Löschtrupp beseitigt und hier werden ca. 2500 Links aus Artikeln zu kommerziellen Anbietern einfach locker hingenommen... Muss ich das jetzt verstehen??? Was sollen diese "Verkauflinks"? --DonPedro71 (Diskussion) 16:24, 16. Dez. 2013 (CET)
Inhaltlich bin ich mit dir sowieso einverstanden, Wikipedia ist ja kein kostenloser Linkcontainer für Musiker, App-Entwickler etc. Mit der SBL kann man künftige Einfügungen wirkungsvoll verhindern, wie wir aber mit den bestehenden Links umgehen sollen, …da bin ich mir allerdings unschlüssig, … bevorzuge eher ein händisches Abarbeiten, um allfällige Kollateralschäden zu vermeiden. In einer konzentrierten Aktion schafft man diese 2'500 Links sicher auch (auch ich könnte da mithelfen, evtl. mit Hilfe eines kleinen Skripts bzw. mit AWB). Doch zuerst muss einmal darin Konsens bestehen. D.h. in einem ersten Schritt würde ich bei den SBL-Leuten anklopfen. Denn wenn das nicht in die SBL kommt, so nutzt das ganze Entfernen auch nichts, denn diese Links kommen schnell wieder. --Filzstift  21:44, 16. Dez. 2013 (CET)
Gerade hier Antrag bei SBL gestellt. Danke für dein Angebot bzgl. der alten Links! Vielleicht finden wir noch ein, zwei Mitstreiter, dann könnte man das wirklich die nächsten Tage mal abarbeiten. Gerne natürlich per Skriptunterstützung. --DonPedro71 (Diskussion) 23:39, 16. Dez. 2013 (CET)

BKL Typ 1 vs. 2/3 (Zündstoff für viele Diskussionen, durch BotListe objektivierbar?)[Bearbeiten]

Seit Anbeginn der Einführung von BKL-Seiten gibt es immer wieder Diskussionen, ob für den speziellen Fall nun Typ 1 oder 2/3 besser geeignet wäre. Um die Diskussionen zu objektivieren wurde irgendwann die Regel eingeführt, dass BKL Typ 2/3 nur dann gewählt werden sollten, wenn ein bestimmter Artikel auf der BKL-Seite 10x häufiger als alle anderen in den letzten 90 Tagen abgefragt wurde (siehe WP:BKL). Mit dem neuen WikiViewStats sind die Abrufstatistiken ja mittlerweile blitzschnell einsehbar. Daher meine Frage, ob man folgende drei Wartungslisten erstellen und sie dann dem Projekt Wikipedia:WikiProjekt Begriffsklärungsseiten zur Verfügung stellen könnte:

  1. Nimm alle BKL-Artikel, die mindestens 90 Tage alt sind UND nicht den Zusatz "(Begriffsklärung)" enthalten (= BKL Typ 1). Prüfe, ob einer der dort verlinkten Artikel ( in den letzten 90 Tagen 10x häufiger als der zweithäufigst-abgerufene Artikel abgerufen wurde. Liste alle BKL-Artikel auf die diese Bedingung zutrifft nach dem Schema "BKL-Link --> Artikellink der 10x mehr abgefragt wurde (Zahl der Abfragen) --> zweithäufigst-abgerufener Artikellink (Zahl der Abfragen)"
  2. Nimm alle BKL-Artikel, die mindestens 90 Tage alt sind UND den Zusatz "(Begriffsklärung)" enthalten (= BKL Typ 2). Prüfe, ob einer der dort verlinkten Artikel in den letzten 90 Tagen 10x häufiger als der zweithäufigst-abgerufene Artikel abgerufen wurde. Liste alle BKL-Artikel auf die diese Bedingung nicht zutrifft nach dem Schema "BKL-Link --> Artikellink der am häufigsten abgefragt wurde (Zahl der Abfragen) --> zweithäufigst-abgerufener Artikellink (Zahl der Abfragen)"
  3. Prüfe alle BKL-Artikel, die im Zeitraum "Heute minus 90 Tage" bis "Heute minus 120 Tage" neu erstellt wurden. Prüfe gemäß 1.) und 2.)

Liste 1. und 2. könnten dem Portal als generelle Vorschlagslisten regelmäßig aktualisiert angeboten werden.

Liste 3. entspräche 1.+2., würde sich aber auf relativ neue BKL-Artikel beschränken, die quasi nach 90-120 Tagen "Testlauf" im ANR dann ggf. auf die passendere BKL-Form umgestellt werden könnten.

Wären solche regelmäßig aktuaisierten Listen mit vertretbarem Aufwand technisch machbar? So hätte man einen objektiven Standard nach dem entschieden werden kann. Sollte es im Einzelfall dann doch zu Diskussionen kommen, wo eine Ausnahme beschlossen wird, dann könnte man ja einen Hinweis im Artikelquelltext neben der BKL-Vorlage hinterlassen und die BKL auf einer "Ausnahmeliste" listen, so dass der Bot sie beim nächsten Lauf nicht berücksichtigt. Weihnachtliche Grüße, --BlueCücü (Diskussion) 13:49, 27. Dez. 2013 (CET)

Nachtrag. Da hin und wieder auch Artikel in einer BKL verlinkt werden, die keine Homonyme sind, sondern nur als Platzhalter dienen, da das Homonym noch keinen Artikel hat (beispielsweise der Regisseur eines homonymen Films ohne Artikel oder die Band eines homonymen Albums ohne Artikel), dürften zur Sicherheit vielleicht nur die Links geprüft werden deren – sagen wir – ersten beiden Buchstaben/Zeichen mit den ersten beiden Buchstaben/Zeichen des BKL-Lemmas übereinstimmen. Ansonsten kämen bei einer eventuell erstellten Wartungsliste wohl zu viele falsche Treffer heraus. Auch der Link in der Vorlage auf Wikipedia:Begriffsklärung müsste von der Prüfung ignoriert werden. --BlueCücü (Diskussion) 18:23, 27. Dez. 2013 (CET)

Externe Links im Text löschen/umwandeln[Bearbeiten]

Gibt es eigentlich schon einen Bot, der unzulässige Externe Links im Artikeltext sucht & mäht? Ich meine sowohl in de: als auch en: über die Jahre einen Anstieg dieser Problematik zu beobachten, insbesondere bei wenig be(ob)achteten Artikeln - und wie Löwenzahn verbreitet sich das gerade dort wo es einmal sitzt hartnackig weiter. Und da mir noch kein Bot aufgefallen ist, der sowas verbessert, hier meine Frage a) warum nicht b) oder doch c) und wenn jein dann könnten wirhüstel so einen doch mal starten, oder?? zwinker  --Trofobi[Grundprinzipien: gelöscht] 14:40, 27. Dez. 2013 (CET)

Falls Du Dich auch für unerwünschte Interwiki-Links im Artikeltext interessierst, könnte Du Benutzer:Krdbot/ANR-Meta-Links als Arbeitsliste ansehen. --Krd 19:47, 29. Dez. 2013 (CET)
gudn tach!
ich hab den request noch nicht verstanden. es gibt mehrere bots, die links ersetzen/loeschen koennen, z.b. user:CamelBot. was genau willst du denn wie ersetzen. -- seth 23:10, 29. Dez. 2013 (CET)
Es geht in meiner Interpretation darum, Weblinks im Fließtext (also nicht in Weblink-Abschnitten) zu entschärfen, bzw. besser zu entfernen. Weblinks in Einzelnachweisen dürfen natürlich nicht nicht auslösen. Imho wird das besser händisch gemacht, Weblinks müssen entweder ganz entfernt, in Einzelnachweise umgewandelt oder in den Abschnitt Weblinks verschoben werden. Also besser eine Wartungsliste o.ä. – Giftpflanze 12:21, 5. Jan. 2014 (CET)
Danke für Eure Antworten, besonders Giftpflanze: genau das hatte ich gemeint, hier noch ein paar konkrete Beispiele: [8], [9], [10], [11]. Ein Bot könnte solche Links auf verschiedene Arten behandeln, zB.:
a) ganz löschen und nur den [http://gelöschter.link Text] stehen lassen
b) automatisch in eine ref umwandeln: Text<ref>http://verschobener.link</ref>
c) mit Edithinweis verstecken: Text<!--"http://versteckter.link" wurde deaktiviert: keine externen Links im Artikeltext, bitte. Siehe: WP:EL-->
(Alles mit Hinweis auf WP:EL in der Zusammenfassung)
Oder gibt eine Liste, wo Artikel mit verdächtigen EL gelistet werden? Oder ein Tool, wo man solche Änderungen gleich als automatischen Editvorschlag im Editor aufgemacht bekommt und dann gleich die Änderung prüfen, anpassen und speichern kann?
Ausgenommen von so einem Suchlauf bleiben können imho die Abschnitte Literatur, Weblinks und Referenzen. --Trofobi[Grundprinzipien: gelöscht] 02:49, 17. Jan. 2014 (CET) PS nein, es geht mir nicht um Blacklist- oder Sprachversions-Links. PPS es gibt einzelne Artikel, die sind mit solchen Links komplett verseucht, aber insbesondere viele kleine, wenig beobachtete Artikel, in denen unerfahrene Autoren dann denken, das sei Standard hier und so weiterarbeiten.
(Da keiner mehr Antwortet) Seht Ihr hier kein Problem? oder keine Lösung? oder…? Gibt es nicht wenigstens ein Tool, um solche Seiten überhaupt finden zu können? (bin gerade wieder nur durch Zufall über so einen Fall gestolpert... --Trofobi[Grundprinzipien: gelöscht] 01:07, 4. Feb. 2014 (CET)
Gibt mal bitte ein Beispiel für ein Problem und die dazugehörige Lösung, am besten als Difflink. --Krd 20:04, 21. Feb. 2014 (CET)
@Krd: Difflinks hatte ich gleich oben in meiner ersten Antwort vier Stück angegeben. Hier ein weiteres Beispiel. --Trofobi[Grundprinzipien: gelöscht] 01:16, 3. Aug. 2014 (CEST)

Lagebezeichnungen (Geologie)[Bearbeiten]

Nach einer Diskussion auf der Seite der Qualitätssicherung Geowissenschaften wurde der o.g. Artikel von mir gestern auf Ablagerungsmilieu verschoben, weil das Lemma nicht zum Artikel passte. Jetzt bestehen noch ca. 150 Weiterleitungen vom ursprünglichen Artikel, der damit aber eine regelwidrige Klammerweiterleitung ist. Kann das ein Bot umbiegen, damit Lagebezeichnungen (Geologie) anschließend gelöscht werden kann? Gruss --Diorit (Diskussion) 09:32, 9. Jan. 2014 (CET)

Einbindung der Vorlage:ZDFmediathek[Bearbeiten]

Hallo zusammen, hat jemand Zeit und Lust die Einbindung der Vorlage:ZDFmediathek vorzunehmen? Der Weblinksuche habe ich die derzeitigen Verlinkungen auf die ZDFmediathek entnommen und den jeweiligen Typ (vgl. Vorlage:ZDFmediathek#Parameter) ermittelt. Das Ergebnis dieser Vorarbeiten habe ich diesem Diskussionsbeitrag als auskommentierte Wiki-Tabelle beigefügt. Die übrigen Parameter lassen sich dem jeweiligen derzeitigen Weblink entnehmen. Nach der Umstellung der Links wird es für das Projekt Wikipedia:WikiProjekt Weblinkwartung/*.zdf.de einfacher sein, diejenigen Verlinkungen zu ermitteln, die nicht mehr verfügbar sind, um diese per Paramter Offline zu markieren und dadurch den Hyperlink auf die Mediathek zu entfernen. Gruß --WIKImaniac 19:26, 12. Jan. 2014 (CET)


Schon gewusst?[Bearbeiten]

Weil diese Diskussion im Sande verlief, mache ich hier eine Anfrage: Auf Wikipedia:Hauptseite/Schon gewusst/Teaser gibt es eine Hall of Fame, die seit einem Jahr nicht mehr gepflegt wird, da niemand Zeit dafür hat. Könnte die Click-through-Rate (einfach durchlesen, dann ist es verständlich) nicht ein Bot übernehmen?--84.149.186.197 11:38, 16. Jan. 2014 (CET)

KlammerBot > User:BracketBot[Bearbeiten]

Crystal Clear action run.png

Aka hat sich eine Menge Arbeit gemacht, auf Benutzer:Aka/Klammerfehler nach und nach alle Klammerfehler in Artikeln aufzulisten, die dann von einer Reihe fleißiger Helfer sukzessive händig abgearbeitet werden. Größenordnung: Zehntausend(e).
Bin auch viel in der en.WP zum Reparieren unterwegs. Seht Ihr Chancen, den User:BracketBot[1] modifiziert bei uns einzuführen? Dort dauert es eine Zeit von 10 min, und der Verursacher des Klammerproblems wird auf seine Fehler via Disk informiert und kann ihn gleich selbst beheben. Fänd ich so schlecht nicht, einen KlammerBot in der de.WP am Laufen zu haben wenn der Berg abgearbeitet ist. Mit der Bitte an die hauptamtlichen Programmierer, um das Klammerteam mit einem Licht am Ende des Tunnels zu ermutigen. Bitte beim Betreiber des Bots in der englischsprachigen Wikipedia nachfragen, ob es schon andere Sprachversionen gibt. Danke und viele Grüße --Frze > Disk 11:37, 31. Jan. 2014 (CET) CC: GM RF SJ RA BF

  1. BracketBot checks all edits to see if all open brackets ({[< have matching close brackets >]}), and informs the editor that their edit may have broken some markup if there is a mismatch.
Das Finden solcher Klammerfehler ist erst einmal ein sinnvolles Anliegen. Ich stehe aber Bots, die Benutzer automatisch mit Nachrichten beglücken, kritisch gegenüber, da sie hier oft als störend empfunden werden. Und ob die Bot-Hinweise für nicht-Wikisyntax-Kundige nachvollziehbar sind, halte ich ebenfalls für fraglich. IW 17:57, 31. Jan. 2014 (CET)
In der en.WP läuft das eigentlich problemlos. Der BracketBot zeigt Dir genau an, wo welche Klammer fehlt. Wenig-Wikisyntax-Kundige werden eben genau darauf hingewiesen, wenn durch sie ein Klammerfehler auftritt (Lernprozess). Man kann sich von BracketBot-Nachrichten befreien. --Frze > Disk 19:22, 31. Jan. 2014 (CET)
Wenn man für die 4 genannten Klammern rein nach der Anzahl geht, wären ca. 85.000 Artikel des aktuellen Bestands betroffen. Interessantes Projekt, aber nur mit Fleiß vermutlich nicht zu schaffen. --Krd 23:01, 31. Jan. 2014 (CET)
Wenn man für eckige und geschweifte Klammern die Fälle nimmt, bei denen x mehr schließende als öffnende Klammern vorhanden sind, und gleichzeitig genau x mal genau drei dieser Klammern hintereinander auftreten, findet man ca. 450 Fälle, die man mMn mit geringem Fehlerrisiko automatisch korrigieren kann. Doppelte spitze Klammern machen nochmal ca. 800 Fälle aus, wobei man da dann schon genauer hinschauen müsste. Der Hauptanteil sind ungleichzahlige runde Klammern, für die ich keine Automatisierung sehe. --Krd 09:37, 1. Feb. 2014 (CET)
Die Zahl erschreckt, aber mit vielen fleißigen Tipphelfern schaffbar. Macht meiner Ansicht aber nur Sinn, wenn dieser Bot dann kommt. Sonst ist es ein Fass ohne Boden. Scönes WE --Frze > Disk 10:39, 1. Feb. 2014 (CET) @Aka
Ich sehe es allerdings auch so, dass eine Benachrichtigung der Benutzer hier nicht machbar ist, zumindest nicht ohne weitreichende vorherige Diskussion der Vorgehensweise. --Krd 10:57, 1. Feb. 2014 (CET)
Ich habe mal kurz in den Quelltext von BracketBot reingeschaut, ist leider für meinen Geschmack nicht schön gelöst und großtenteils unkommentiert. So sind auch alle Strings hardkodiert. Das massenhafte Ansprechen sehe ich natürlich auch als Problem an, im Gegensatz zu anderen en.wiki Bots sagt er aber auch gleich if you have any questions, you can leave a message on my operator's talk page mit passendem preload-Vorlage-Link. Grüße sitic (Diskussion) 23:24, 2. Feb. 2014 (CET)

www.1911encyclopedia.org[Bearbeiten]

www.1911encyclopedia.org ist nicht mehr verfügbar und damit sind etwa 900 Weblinks unbrauchbar. Ein Bot sollte sich darum kümmern (entfernen oder umlenken). 213.54.7.243 22:56, 11. Feb. 2014 (CET)

Siehe dazu diese Diskussion.--Mabschaaf 23:00, 11. Feb. 2014 (CET)

Vorlage:Infobox Unternehmen[Bearbeiten]

Hallo, bitte die Parameter "Gewinn" und "Produkte" aus den Artikeln bzw. den Vorlageneinbindungen entfernen. Die Entfernung der Parameter wurde vor Jahren beschlossen, siehe hier und hier (kurz: Gewinn soll nicht verwendet werden weil die Gewinnermittlung nicht einheitlich ist und Produkte wird durch den Parameter Branche vollständig erschlagen). Beide Parameter sind schon länger nicht mehr in der Kopiervorlage und Doku enthalten und werden aus dem Vorlagencode entfernt sobald die Artikel korrigiert sind. Danke und Grüße --Millbart talk 16:11, 26. Feb. 2014 (CET)

Willst du die Angaben ersatzlos löschen lassen oder in den Artikeltext verschieben? Ich habe mangels besserem Wissen die Angabe benutzt mit <ref>Geschäftsbericht</ref> als Quelle. Wenn die gesamte Zeile Gewinn gelöscht wird, geht der Einzelnachweis mit verloren.--kopiersperre (Diskussion) 00:13, 27. Feb. 2014 (CET)
Im Idealfall hätte ich gerne eine Liste mit der jeweils entfernten Zeile, so dass ein ggf. entfernter Einzelnachweis an anderer Stelle, sofern nötig, eingebaut werden kann. Den Gewinn könnte man theoretisch in den Artikeltext übertragen nur müsste dann, um daraus eine enzyklopädische Information zu machen, die Gewinnermittlung und das wirtschaftliche Umfeld in dem jeweiligen Berichtszeitraum aus dem die Zahl stammt erläutert werden. Einzelne Bilanzwerte sind ohne zeitliche, räumliche und industrielle Einordnung kein enzyklopädisches Wissen, siehe auch die verlinkte Diskussion. --Millbart talk 08:08, 27. Feb. 2014 (CET)
@Millbart: Zur Beurteilung habe ich mal die Vorlageneinbindungen auslesen, für Gewinne sind es 807 Einbindungen, für Produkte 5328 Einbindungen (jeweils mit "unausgefüllten" Einbindungen). Das sind noch nicht alle, die Kleinschreibungen der Parameter fehlen, soll nur vorerst einen Überblick liefern. </ref> kommt bei den Gewinnen 48 mal vor, bei den Produkten 10 mal. --sitic (Diskussion) 23:38, 27. Feb. 2014 (CET)
Cool, danke für die Info. Wenn es möglich wäre eine Liste der Artikel mit Einzelnachweisen zu bekommen wäre das super. Bisher sieht es so aus als ließe sich das noch ganz gut manuell handhaben. Grüße --Millbart talk 23:50, 27. Feb. 2014 (CET)
@Sitic: Mir ist leider gerade erst aufgefallen, dass der auch schon diskutierte Parameter "Bilanzsumme" noch nicht entfernt wurde. Wäre es möglich, ihn einem Abwasch mitabzuräumen? Die entsprechende Diskussion ist hier. Danke und Grüße --Millbart talk 18:39, 2. Mär. 2014 (CET)
Hallo, ich habe dich nicht vergessen, leider ist in den letzten Tagen etwas dazwischen gekommen weshalb ich um etwas Geduld bitten muss, bis ich mich genauer damit beschäftigen kann. Grüße sitic (Diskussion) 22:46, 5. Mär. 2014 (CET)
Moin @Sitic:, keine Hektik. :-) --Millbart talk 21:37, 10. Mär. 2014 (CET)

NHN[Bearbeiten]

Derzeit ändert Benutzer:Malki1211 die Höhenbezeichnung NN in den Ortsartiekln auf NHN ab. Das müsste durch einen Bot viel einfacher zu machen sein. Deshalb beantrage ich, die Arbeit durch einen Bot machen zu lassen. --Karl-Heinz (Diskussion) 11:02, 1. Mär. 2014 (CET)

Ist das sinnvoll einfach nur den Höhenbezuug zu ändern, ohne die Werte zu prüfen? Immerhin weichen die Werte für NN und NHN voneinander ab. Prinzipiell ist das, wenn eine Änderungsliste vorliegt, ohne weiteres per Bot zu machen. --Septembermorgen (Diskussion) 19:33, 1. Mär. 2014 (CET)

Anzahl der geschützten Seiten[Bearbeiten]

Hallo Botniki,

ich suche eine Statistik der geschützten Seiten. Wieviele haben wir heute, wieviele in den letzten Jahren? Gibt es sowas irgendwo schon?--kopiersperre (Diskussion) 12:15, 5. Mär. 2014 (CET)

Es gibt Wikipedia:Liste der am längsten geschützten Artikel, wenn dir das hilft. IW 19:15, 5. Mär. 2014 (CET)
Sind das alle? Kann man die automatisch auszählen?--kopiersperre (Diskussion) 23:03, 5. Mär. 2014 (CET)

WP:Liste der bedeutensten Artikel ohne Bilder zu denen es in anderen Sprachversionen Bilder gibt[Bearbeiten]

Ich wünsche mir eine Liste der bedeutensten Artikel ohne Bilder zu denen es in anderen Sprachversionen Bilder aus WP/Commons gibt.

  • Filter: nur Artikel, die in der de/WP keine Bilder haben aber in einer anderen Sprachversion ein Bild aus WP/Commons haben
  • Bedeutenste Artikel: diese Artikel sortiert nach der Anzahl darauf zeigender Links wie per CatScan2 möglich. Top 100 davon ausgeben.

Würde bei dringenden und leicht umzusetzenden Bebilderungen helfen. Wer hat Lust? --Zulu55 (Diskussion) Unwissen 16:46, 6. Mär. 2014 (CET)

Ein Script um Bilder in anderen Sprachen zu suchen habe ich. Kommt ja als Bildervorschlag in meinen Wartungslisten, sofern {{Bilderwunsch}} im Artikel steht, oder beim AutoQS-Bot zum Einsatz. Nur eine dewiki-Artikelliste müsstest du mir geben. Die Catscan Top100 finde ich gerade nicht.
Das mit "nur Artikel, die in der de/WP keine Artikel haben" ist mit 16 Mio Kandidaten etwas viel und somit kaum realisierbar. Merlissimo 16:55, 6. Mär. 2014 (CET)
Ich habe gerade mal nachgeschaut: In meinen Bilderwunsch-Wartungslisten befinden sich zur Zeit 435 Bildervorschläge. Arbeitet kaum jemand ab. Merlissimo 16:59, 6. Mär. 2014 (CET)
Ok, statt für alle Artikel hätte ich das z.B. gerne für die Kategorie:Soziologie. https://tools.wmflabs.org/catscan2/catscan2.php?depth=7&categories=Soziologie&negcats=Regel&sortby=incoming_links&sortorder=descending&interface_language=de&doit=1 liefert die meistverlinkten Artikel der Soziologie. Die ersten 100 sind entsprechend die Top 100. Wenn du noch Lust hast: Dafür wäre so eine Auswertung toll. Gerne aber auch für alle Artikel der Kategorie:Soziologie (ohne Subkategorie:Regel). Gruß --Zulu55 (Diskussion) Unwissen 21:20, 6. Mär. 2014 (CET)
Da es schon spät ist, habe ich einfach mein bestehendes Script genommen und den ganzen Soziologie-Baum ohne Ausnahme als Eingabe genommen.
Mein Script entspricht so nicht ganz deinen Forderungen, weil ich im Laufe der Zeit versucht habe eine möglichst optimale Ergebnismenge zu bekommen. Es werden "nur" die 250 größten Wikipedia betrachtet. Zudem bedeutet Bild=JPEG-Bild. Auch müssen die Bilder auf commons liegen (waren sonst zuviele Fair-Use Treffer) und pro fremdsprachigem Artikel kommt nur das mit der größten Auflösung in die Ergebnismenge.
Kat Regel rausnehmen erledige ich dann erst morgen Abend. Merlissimo 23:28, 6. Mär. 2014 (CET)
Ergebnis unter Benutzer:Zulu55/Bildersuche Soziologie. Habe es so gebaut, dass du eine kleine Vorschau siehst. Merlissimo 23:51, 6. Mär. 2014 (CET)
So, Kat "Regel" ist jetzt raus und auf die größten 270 Wikipedias erweitert (wobei ich bezweifele, das dies mehr Resultate etwas bringt). Schau mal, ob die das so passt. Merlissimo 22:49, 7. Mär. 2014 (CET)
Das ist ganz fantastisch! Vielen Dank. Vielleicht wende ich mich dann noch mal mit anderen Kategorien an dich. Und wie gesagt wäre eine Sortierung nach verlinkter Häufigkeit schön - vielleicht als sortierbare Tabelle nach beiden Merkmalen, Alphabet und Häufigkeit. Bei der Soziologie ist das aber für mich übersichtlich genug. Danke und Gruß - dann mach ich mich mal ans Werk. --Zulu55 (Diskussion) Unwissen 08:45, 8. Mär. 2014 (CET)
Ich habe es nun nach Backlinkanzahl sortiert. Wenn du von Häufigkeit redest, denke ich irgendwie immer an Aufrufzahlen. Das sind im Moment reine MySQL-Queries. Für eine Tabelle müsste ich das noch erst in eine Scriptsprache stecken. Merlissimo 09:46, 8. Mär. 2014 (CET)
Wenn du das öfters haben willst, solltest du dir vielleicht überlegen eine Seite erstellen, wo du alle Bilder verlinkst, die bei zukünftigen Scans ignoriert werden sollen. Das würde für dich weniger Arbeit bei der Durchsicht neuer Reports bedeutet. Merlissimo 09:55, 8. Mär. 2014 (CET)
Hi Merlissimo, wäre es ein großer Aufwand für Dich, dieses Script auch über die Kategorie:Chemiker (incl. Unterkats) zu schicken und das Ergebnis in meinem BNR zu parken? Mit anderen Worten: Großartiges Hilfsmittel!--Mabschaaf 10:44, 8. Mär. 2014 (CET)
Die Minerale haben ja automatisch einen Bilderwunsch. Die Vorschlagsliste dort hat Ra'ike schon durchgesehen. Ist aber bei Benutzer:Mabschaaf/Bildersuche nun auch enthalten (Achtung für langsame Internetverbindungen: Beim Aufruf der Benutzerunterseite werden knapp 3700 HTTP-Request gestellt und dabei knapp 17 MB heruntergeladen). Merlissimo 21:33, 8. Mär. 2014 (CET)
In meinem Wunsch hast Du offenbar zwei Buchstaben überlesen: Ich wollte nur die Kat:Chemiker (und Unterkats) - weil ich schon vermutet hatte, dass sonst zu viel Unbrauchbares mitkommt. Könntest Du bitte nochmals entsprechend filtern? Danke --Mabschaaf 21:39, 8. Mär. 2014 (CET)
Ups, sorry. Ist korrigiert. TS hat übrigens gerade NFS Probleme, weshalb ich mich länger nicht einloggen konnte. Merlissimo 23:00, 8. Mär. 2014 (CET)
Prima, vielen Dank!--Mabschaaf 11:49, 9. Mär. 2014 (CET)

GESTIS-Lemmata, die hier als Weiterleitung fehlen[Bearbeiten]

Ich habe unter Benutzer:Kopiersperre/GESTIS eine Liste aller GESTIS-Lemmata angelegt. Einige, wie z.B. Lanthan(III)-oxid, haben dort einen anderen Namen als in der Wikipedia (Lanthanoxid). Ich wünsche mir also, die CAS-Nummern aus der Tabelle mit den CAS-Nummern in den Chemoboxen abzugleichen und bei Treffern in einer weiteren Tabellenspalte das zugehörige WP-Lemma anzugeben, falls dieses nicht identisch ist. Siehe auch die Diskussion dazu--kopiersperre (Diskussion) 17:13, 15. Mär. 2014 (CET)

Ich hab grad nicht die Zeit, das vollständig zu machen, aber falls jemandem die CAS-Parameter helfen: [12]. --APPER\☺☹ 19:07, 15. Mär. 2014 (CET)

Auslesen von Tennis-Spielerprofilen bei ATP/WTA[Bearbeiten]

Hallo zusammen,

sollte ich mit der folgenden Anfrage nicht am richtigen Ort sein, bitte ich um entsprechenden Hinweis.

Eine der anstrengensten Aufgaben im Rahmen des Portal:Tennis ist die Aktualisierung der Spielerprofile in den Infoboxen. Diese Spielerprofile enthalten insbesondere die Weltranglistenposition, die Siege/Niederlagen, Gesamtpreisgeld, etc. und werden direkt von der jeweiligen Spielerprofilseite der Profiorganisationen ATP (Herren) oder WTA (Damen) genommen. Ein Beispiel: Aktueller Diff-Link Roger Federer / ATP-Profil Roger Federer. Die entsprechenden Daten werden immer Montags mit Veröffentlichung der neuen Weltrangliste aktualisiert. Es gibt für die Webseiten dabei eindeutige IDs für jeden Spieler, die auf Wikidata gespeichert sind (für ATP: Property 536).

Es wäre uns eine große Hilfe, wenn ein Bot diese Aktualisierungen automatisch jeweils montags vornehmen könnte. Idealerweise würden die Daten dabei (auch) in Wikidata geschrieben werden, wobei ich hierfür dann ggfs. am falschen Ort frage.

Falls so etwas möglich wäre, wäre es auch gut zu wissen, was noch an Vorarbeiten vom Portal gebraucht werden würde.

Vielen Dank schonmal, --mad_melone (Diskussion) 11:11, 16. Mär. 2014 (CET)

Hinweis: Ich habe einen entsprechenden Abschnitt direkt bei Wikidata gefunden und meine Frage dort ebenfalls gestellt [13] --mad_melone (Diskussion) 08:19, 19. Mär. 2014 (CET)
Die obige Diskussion ist mittlerweile beendet, ich hätte jedoch zum selben Thema ein Frage: Ist es möglich, dass ein Bot auf einer Seite im BNR eine Auflistung macht, welche Spieler wann zuletzt aktualisiert wurden? Die letzte Passage in der Infobox ist jeweils das Aktualisierungsdatum der Infobox. Wenn also der Bot mir eine Aufstellung machen könnte, dann sehe ich auf einen Blick, welche Seite dringend wieder auf den neusten Stand gebracht werden muss. Vielen Dank für die Rückmeldung. --Olympic pictogram Tennis.png SuperAle - Disk 16:32, 25. Mär. 2014 (CET)
Genau die selbe Fragestellung ist mir heute auch eingefallen. Konkret geht es um die Infobox Tennisspieler und die Angabe "Updated". Falls dies grundsätzlich möglich ist, wäre es dann auch möglich, im selben Botlauf eine Ausgabe zu bekommen, bei welchen Spielern noch Bilder fehlen? Die erste Anfrage wäre wöchentlich/monatlich, die zweite Anfrage mit den Bildern noch unregelmäßiger und ggfs. auf Bedarf. --mad_melone (Diskussion) 11:55, 21. Mai 2014 (CEST) (und hier noch der ping an SuperAle @SuperAle:, damit du Bescheid weisst

Wartungsbausteine in Artikeln mit Israelbezug[Bearbeiten]

Hallo werte Botbetreiber, nach langen Kämpfen durch Artikel mit Bezug zu Israel und der dabei festgestellten Häufigkeit von Wartungsbaustein jeder Coleur möchte ich gerne eine Liste wie diese, aber nicht auf Lückenhaft beschränkt. Ich würde mich freuen, wenn eine/r von Euch sich die Mühe machen würde :) Das Ergebnis kann gerne in meinem BNR unter Benutzer:Markus Schulenburg/Israel/Wartung veröffentlicht werden :D Mit ganz großem Dank im voraus. --Markus S. (Diskussion) 21:39, 27. Mär. 2014 (CET)

PS: Bevor ich es vergesse bitte erst einmal nur den Bereich Kategorie:Politik (Israel)‎. --Markus S. (Diskussion) 21:40, 27. Mär. 2014 (CET)
Ich habe dir mal das Ergebnis meines MerlBot-InAction Skript auf deine Unterseite gestellt. Entspricht zwar nicht so ganz deiner Anfrage, aber damit hast du zumindest schon mal alle Wartungsbausteine und der nächste Botbetreiber braucht den Katbaum nicht mehr zu bilden. Um nun noch das Alter der Bausteine zu bestimmen wäre @Dealerofsalvation der richtige Ansprechpartner. Merlissimo 01:09, 28. Mär. 2014 (CET)
Danke für die schnelle Reaktion. Da ist mehr zu tun, als ich dachte :( Wo da die jüdischen Friedhöfe herkommen???? Aber es passt schon und das Alter der Bausteine ist vollkommen egal. Hauptsache die werden irgendwann einmal weg sein. --Markus S. (Diskussion) 05:36, 28. Mär. 2014 (CET)
„Alter der Bausteine ist vollkommen egal“ – das verstehe ich jetzt mal so, dass ich ich hier nicht weiter tätig werden soll. Falls trotzdem du oder jemand anderes gerne eine Liste mit Alter der Wartungsbausteine hätte, gerne nochmal melden. In dem Fall danke an Merlissimo für die Vorarbeit, das wäre natürlich eine Erleichterung. Gruß --dealerofsalvation 06:41, 28. Mär. 2014 (CET)
@Dealerofsalvation: Bitte nicht mißverstehen. Nur für die Abarbeitung von Wartungsbausteinen spielt das Alter in diesem eng begrenzten Bereich keine Rolle. Für den WBW ist das natürlich eine ganz andere Herausforderung, denn dort wäre es schon interessant Uralt-Bausteine (von vor zum Beispiel 2008 - gibt es die überhaupt?) abzuarbeiten. Das über diverse Beziehungen auch Friedhöfe, Schlösser in Heilbronn, ... und auch arisierte Unternehmen in dem Strang Kategorie:Politik (Israel) landen war mir gar nicht so klar. Dies hatte wiederum ein gewisses Aha-Erlebnis und erweitert wiederum den Horizont. --Markus S. (Diskussion) 07:35, 28. Mär. 2014 (CET)
Was mich gerade ganz verstört: In den Artikeln Meretz-Jachad und Meretz ist ein Redundanzbaustein vorhanden. Auf der Wartungsseite taucht das aber gar nicht auf????? --Markus S. (Diskussion) 15:11, 28. Mär. 2014 (CET)

Vorlage:Patent[Bearbeiten]

Ich hätte gerne eine Auswertung aller her verwendeten Patente als Tabelle--kopiersperre (Diskussion) 00:17, 10. Apr. 2014 (CEST)

Versuche das mal mit WP:Templatetiger Frohes Schaffen — Boshomi ☕⌨☺  17:46, 11. Apr. 2014 (CEST)
Ich hätte aber gerne einen Export.--kopiersperre (Diskussion) 13:02, 13. Apr. 2014 (CEST)
Was spricht denn gegen diese Tabelle? Die kannst du auch nach Excel importieren. IW 19:21, 13. Apr. 2014 (CEST)
Ich habe kein Excel, sondern Gnumeric, und bin auch nicht abgeneigt, selber Listen zu bauen (Siehe Benutzer:Kopiersperre/GESTIS). Wenn man mit LibreOffice eine sortierbare Wikipedia-Tabelle bekommen kann, mache ich das darüber. Falls nicht, gebt mit bitte einfach eine Botausgabe.--kopiersperre (Diskussion) 13:29, 14. Apr. 2014 (CEST)
Eine CSV-Datei kannst du mit LibreOffice importieren: [14]. --тнояsтеn 17:18, 14. Apr. 2014 (CEST)
Bei mir funktioniert der Import per C&P sowohl mit Gnumeric als auch Libreoffice weitgehend problemlos. Der Datenstand ist allerdings etwas alt.  Frohes Schaffen — Boshomi ☕⌨☺  18:24, 14. Apr. 2014 (CEST)
Wesentlich efizienter wäre allerdings ein Parsen der durch die Vorlage erstellten Links die praktisch live mit der spezial:Weblinksuche geliefert werden:
Damit bekommst da aber auch Patente, die hohe Vorlage verknüpft wurden. Frohes Schaffen — Boshomi ☕⌨☺  18:46, 14. Apr. 2014 (CEST)
Dann fehlen im aber die Informationen zum Titel usw. ;-) Des Weiteren kann man bei Vorlage:Patent den Link auch abschalten (europäische Patente vor 1870 sind meist in keiner Online-DB verfügbar). Auch werden mit dem genutzten Muster nicht alle Patent-Verweise auf espacenet.com gelistet. --Cepheiden (Diskussion) 18:20, 20. Apr. 2014 (CEST)

Hier tabellarisch sind alle Einbindungen der Vorlage: Benutzer:Cactus26/TplPrm.Patent.20140421113800. Trennzeichen ist Tab (lässt sich so direkt in Tabellenkalkulation übernehmen). Wenn mehrere Vorlagenverwendungen in einem Artikel existieren, sind diese mit dem Suffix #1 etc. sequentiell numeriert. "|NULL|" bedeutet, Parameter fehlt gänzlich (im Unterschied zur leeren Angabe). "|LF|" steht für Linefeed im Parameterinhalt. Hoffe, das hilft.--Cactus26 (Diskussion) 11:55, 21. Apr. 2014 (CEST)

MAK-Werte auslesen und in Infobox einfügen[Bearbeiten]

Die SUVA veröffentlichte unter Grenzwerte am Arbeitsplatz 2014 (S. 40–122) eine ausführliche Liste von MAK-Werten. Hat jemand die Möglichkeit, die Werte auszulesen und anhand des Substanznamens und/oder der CAS-Nummer in die {{Infobox Chemikalie}} einzufügen (inkl. Einzelnachweis)? --Leyo 00:02, 15. Apr. 2014 (CEST)

Wenn es irgendwem gelingen sollte die Daten in maschinelle verwertbarer Form aus dem PDF-Dokument zu extrahieren, wäre der Abgleich mit den Artikeldaten für mich machbar. Vielleicht lohnt es sich mal anzufragen, ob man die Daten auch im Rohformat bekommen kann, also die Datengrundlage zur Erstellung dieses PDF-Dokuments.--Cactus26 (Diskussion) 14:32, 22. Apr. 2014 (CEST)
Unter DOI:10.1002/9783527682010 gäbe es eine alternative Quelle. Ist diese ev. besser geeignet? --Leyo 22:33, 10. Sep. 2014 (CEST)
Evtl. auch anmailen, ob man das nicht als Exceldatei bekommt? ÅñŧóñŜûŝî (Ð) 18:31, 16. Sep. 2014 (CEST)
Imho wäre es sinnvoller, die Werte in Metadatenvorlagen abzulegen, bzw. sobald dazu Klarheit besteht, auf Wikidata zu deponieren. Allerdings kann man aus dem Pdf keine Liste generieren, die bottauglich wäre, bzw. als Metadatenvorlage verwendet werden könnte. --Septembermorgen (Diskussion) 20:52, 16. Sep. 2014 (CEST)

gcatholic.com[Bearbeiten]

gcatholic.com ist zur Domain gcatholic.org zurückgewechselt, sodass die Weblinks gcatholic.com nicht funktionieren. Die Struktur ist gleichbeblieben. Evtl. könnte man direkt zur Vorlage:GCatholic wechseln. Es betifft vornehmlich folgende Seiten https://de.wikipedia.org/w/index.php?title=Spezial:Weblinksuche&limit=2000&offset=0&target=http://*.gcatholic.com/ Vielen Dank im vorraus. --Dr Lol (Diskussion) 12:15, 8. Mai 2014 (CEST)

Siehe auch weiter oben mit den INSEE-Canton Links: Wäre es nicht überhaupt eine Möglichkeit einen Bot einzurichten, der ein Regexp-Replace für URLs durchführen kann. Konkret meine, ich damit, hier eine Funktionseite nach dem Vorbild von WP:SBL einzurichten, die nur von Admins bearbeitet werden kann, auf deren Diskussionsseite die URL-Regexp-Vorschläge der Benutzer eingetragen und gegebenfalls diskutiert werden können. Nach Überprüfung der Korrektheit der Regexpausdrücke werden diese in Funktionsseite eingetragen, und von einem ständig arbeitenden Bot automatisch umgesetzt.
Sinnvoll wäre natürlich, würde zuvor noch der http-Statuscode überprüft, und gegebenfalls die Fehler in einer Logseite ausgegeben, um die Restmengen per Hand erledigen zu können. Falls eine URL nur über Spezial:Linksearch aber nicht direkt im Wikitext auffindbar wäre (Vorlagen-URLs, ungewöhnliches Encoding,...) sollten diese ebenfalls im Log ausgegeben werden. Frohes Schaffen — Boshomi ☕⌨☺  20:45, 9. Mai 2014 (CEST)
Früher hatte ich die meisten Linkkorrekturen übernommen. Eigentlich habe ich da ein gutes Script, was ich immer sehr schnell auf den idividuellen Fall anpassen kann. Ich bin aber seit einen Jahr einfach zu sehr mit dem Labs-Umzug beschäftigt. Dieser durch imo unnötige Labs-Regeln verursachte Aufwand, kostet einfach eine Menge Zeit, weshalb mir kaum noch Zeit für andere Wikipedia-Tätigkeiten bleibt. Ich hoffe, dass bessert sich bald wieder. Merlissimo 20:37, 13. Mai 2014 (CEST)

Kategorie:Pkw-Modell & Klasse BoxenVerschmelzen[Bearbeiten]

Kann mir jemand eine Liste liefern, in der alle Artikel enthalten sind, welche in der genannten Kategorie enthalten sind und die genannte Klasse enthalten? Gern auch als Liste in meinem Namensraum ;) DANKE! --darkking3 Թ 13:53, 20. Mai 2014 (CEST)

@Darkking3: Mit der neuen Cirrus-Suche sollte folgende Abfrage das gewünschte Ergebnis liefern: incategory:Pkw-Modell insource:BoxenVerschmelzen. Gruß, IW 17:43, 9. Sep. 2014 (CEST)
Nö, das funktioniert nachweislich so nicht ;) (BMW F01) --darkking3 Թ 18:30, 9. Sep. 2014 (CEST)
Der Artikel enthält die Klasse BoxenVerschmelzen und ist hier eingetragen (mal mit Browser nach Titel suchen.) Hast du auch die Neue Suche in den Beta-Einstellungen aktiviert? Gruß, IW 18:44, 9. Sep. 2014 (CEST)

Auskommentierungen[Bearbeiten]

Ich möchte eine Liste von Artikeln, in denen Teile auskommentiert wurden. Da das sehr viele sind, soll die Liste auf z. b. die 1000 Artikel mit den größten auskommentierten Textstellen beschränkt sein. 129.13.72.196 14:24, 17. Jun. 2014 (CEST)

Ich warte immer noch. Das kann doch nicht so schwer sein. 129.13.72.197 13:25, 15. Sep. 2014 (CEST)

Exzellente Artikel in mehreren Sprachen[Bearbeiten]

Kann man herausfinden, welche Lemmata in den meisten Sprachen gleichzeitig exzellent sind?--kopiersperre (Diskussion) 22:33, 22. Jun. 2014 (CEST)

Ich kann dir nur sagen, in welchen Artikel derzeit am häufigsten {{Link FA}} verwendet wird (per templatetiger mit dewiki dump vom 2014-04-07):
SELECT CONCAT('# [[:',name, ']] (', COUNT(DISTINCT tp_nr),')') FROM dewiki WHERE tp_name='Link FA' GROUP BY name_id ORDER BY COUNT(DISTINCT tp_nr) DESC  LIMIT 10;
  1. Zweiter Weltkrieg (18)
  2. Schach (16)
  3. Saturn (Planet) (15)
  4. Vereinigte Staaten (15)
  5. Jupiter (Planet) (15)
  6. Sonnensystem (15)
  7. Paris (14)
  8. Gaius Iulius Caesar (14)
  9. Merkur (Planet) (14)
  10. Olympische Spiele (14)

Verschobene Dateien[Bearbeiten]

Hallo,
es kommt zwar nicht allzu häufig vor, aber wenn ein Admin eine Datei verschoben (oder umbenannt) hat, dann muss er/sie danach den dazugehörigen Antrag von der jeweiligen Dateibeschreibungsseite entfernen. Das ist zwar viel Arbeit, aber auf Dauer lästig. Wäre es möglich, das ein Bot die Vorlage:Datei umbenennen nach der Verschiebung entfernt? —Morten Haan · Wikipedia ist für Leser da 21:11, 25. Jun. 2014 (CEST)

Vorlage:Eurohockey-net obsolet[Bearbeiten]

Hallo liebe Botbetreiber, da die o.g. Seite nicht mehr existiert, bzw. nun unter .com zu finden ist, sind sämtliche Links überflüssig geworden. Da ein einfaches Ändern des ID-Parameters leider nicht möglich ist (z.b. {{Eurohockey-net|ID=1234}} auf {{Eurohockey-com|ID=1234}}, bitte ich darum, aus allen Artikeln, die die Vorlage Eurohockey-net verwenden, eben jene per Bot zu entfernen. Wenn es möglich ist, diese nur aus Artikeln zu entfernen, die ausschließlich die Vorlage verwenden und keinen weiteren Weblink, wäre das natürlich super. Die übrigen würde ich dann per Hand „umbiegen“. LG, --Avaholic 17:31, 27. Jun. 2014 (CEST)

Die Diskussion darüber findet sich im Portal:Eishockey. --Tommes  20:48, 9. Sep. 2014 (CEST)

Wikipedia:Redundanz/Knacknüsse - per Bot erstellte Liste[Bearbeiten]

Wikipedia:Redundanz/Knacknüsse wurde anscheinend mal händisch erstellt und dann mehr oder weniger gepflegt. Jedenfalls scheint es recht aufwändig. Mein Vorschlag daher: Kann nicht ein Bot solch eine List erstellen. Und zwar: Grundgesamtheit sind alle Artikel, die aktuell einen Redundanzbaustein haben. Für diese Artikel wird Version für Version geprüft, seit wann sie ununterbrochen einen Redundanzbaustein tragen und das entsprechende Datum gespeichert. Der Bot erstellt dann eine WP:Liste der am längsten bestehenden aktuellen Redundanzen. Diese kann dann gerne in regelmäßigen Abständen aktualisiert werden.

Problemchen bei dem Vorschlag: Es ergibt sich eine Artikelliste, keine Liste der "Redundanzfamilien". Da das aber denke ich schwieriger zu lösen ist mein obiger Vorschlag. Denn manchmal kommen zu 2er-Redundanzen ja noch weitere Redundanzen dazu etc.

Ich bin gespannt. --Zulu55 (Diskussion) Unwissen 09:47, 15. Jul. 2014 (CEST) (Eine themenverwandte Anfrage gab es schon mal unter Wikipedia:Bots/Anfragen/Archiv/2009-1#.C3.9Cbersicht_der_Redundanzen_erstellen., damals insbesondere von Benutzer:Merlissimo bearbeitet.) --Zulu55 (Diskussion) Unwissen 09:54, 15. Jul. 2014 (CEST)

charts.de --> officialcharts.de[Bearbeiten]

Schon vor einigen Wochen wurde aus http://www.charts.de/ die Seite http://www.officialcharts.de/. Wie ich gestern mitbekommen habe, laufen nun sämtliche charts.de-Links ins Leere. Als Beispiel die charts.de-Seite von Shakira (mit Fehlermeldung) und die funktionierende officialcharts.de-Version. Es müssten also einfach alle "charts.de" in "officialcharts.de" geändert werden. da das aber bei http://charts.de/ 219 Links und bei http://www.charts.de/ 1.858 Links sind, die geändert werden müssen, ist hier ein Bot angebracht. Könnte jemand so nett sein und etwas entsprechendes programmieren? Vielen Dank im Voraus. --Ali1610 (Diskussion) 18:10, 31. Jul. 2014 (CEST)

Die Seite ist auch global recht gut vertreten: http://toolserver.org/~merl/findexternallinks/query.php?eulink=http://charts.de (1657 Links auf 45 Wikis)Merlissimo 18:45, 31. Jul. 2014 (CEST)
Mit www davor sinds es sogar über 5000... --Ali1610 (Diskussion) 19:21, 31. Jul. 2014 (CEST)
Passiert hier noch etwas? Oder findet sich niemand? --Ali1610 (Diskussion) 23:01, 6. Aug. 2014 (CEST)
Bin im Moment stark beschäftigt, aber ich hoffe es innerhalb der nächsten Woche erledigen zu können, weil das nur ein einfacher Domainwechsel ist. Merlissimo 23:12, 6. Aug. 2014 (CEST)
Hallo? Könnte ein Botbetreiber das mal machen? Das ist doch nur ein Domainwechsel... ÅñŧóñŜûŝî (Ð) 19:38, 14. Sep. 2014 (CEST)
Hab Benutzer:Merlissimo schon mal wieder dran erinnert auf seiner Disku, aber anscheinend hat er im Moment keine Zeit. --Ali1610 (Diskussion)

Artikel mit Interwiki-Links im Quelltext zuständigen Projekten zuordnen[Bearbeiten]

Welcher Botbetreiber könnte diese Liste von Artikeln mit Interwiki-Links extrahieren und thematisch aufteilen? Dann könnten die Teillisten an die zuständigen Projekte/Redaktionen/Portale weitergereicht werden. --Leyo 00:45, 1. Aug. 2014 (CEST)

Die meisten Fälle hatte ich unter dem Punkt Interwiki-Konflikt in meinen Listen (also die Fälle davon, wo die automatischen Bots fehlschlagen). Darauf gab es mehrere Beschwerden, dass man auf dewiki nicht für wikidata-Probleme zuständig sei. Merlissimo 00:53, 1. Aug. 2014 (CEST)
Hm… Korrekte Interwikis in de-WP-Artikeln erachte ich schon als Dienstleistung an (mehrsprachigen) Lesern.
Geht denn die Anzahl der betroffenen Artikel zurück oder stagniert sie? Gibt's dazu Statistiken? --Leyo 01:04, 1. Aug. 2014 (CEST)
Ich hatte nach dem Beschwerden die Abfrage auf BKS, Frau, Mann und Intersexuelle beschränkt, wo die Fälle sehr klar sein sollten. Der Punkt Langlink-Konflikt auf Wikipedia:WikiProjekt_Begriffsklärungsseiten/Fließband/Aktuelles sieht noch recht voll aus.
Wenn das Feature wieder gewünscht werden sollte, kann ich es leicht wieder einführen. Dafür brauche ich dann aber auch ein klares Votum der Community, so dass die Kritiker (die sich meist schneller melden) überstimmt werden. Du bist bis jetzt der Einzige. Merlissimo 01:16, 1. Aug. 2014 (CEST)
Ich würde mich um die Hausviecher kümmern. Wäre gut, wenn ich zur Not Haushunde und Pferde ausklammern könnte, aber gerade im Bereich Geflügel gibt es zwischen den Verbänden Kontinentaleuropas und dem englischen Sprachraum (GB und USA und selbst zwischen PCGB und APA zum Teil erhebliche Unterschiede, wie. z. B. bei der Pekingente.)
Ziel: Benutzer:PigeonIP/Haustiere oder eine neue Unterseite auf Data: d:User:PigeonIP/Haustiere --PigeonIP (Diskussion) 07:39, 1. Aug. 2014 (CEST)
Ich hätte gerne Listen für die Katbäume Chemie und Schweiz. Weitere Katbaum-Listen könnte ich „verteilen“. --Leyo 03:02, 16. Aug. 2014 (CEST)
Ich habe eine neue Teilliste LLK2 eingeführt, der aber explizit aktiviert werden muss und standardmäßig nicht angezeigt wird (also Wert beim LISTS-Parameter bei MerlBot-Worklist ergänzen). Inhalt sind die Interwikikonflikte, die nicht von der Teilliste LLK mit den oben erwähnten KAT-Beschränkungen abgedeckt werden. Merlissimo 10:59, 18. Aug. 2014 (CEST)
Danke, ich hab's eingebaut. Mal gucken… --Leyo 21:29, 18. Aug. 2014 (CEST)
Uff, sooo viele hätten's dann doch nicht sein müssen… :-( --Leyo 22:53, 18. Aug. 2014 (CEST)

@Leyo: auf Benutzer:Inkowik/Wikidata gibt es etwas Statistik. Gruß, IW 17:53, 18. Aug. 2014 (CEST)

Danke. Die betroffenen Seiten nehmen ab, aber ziemlich langsam… --Leyo 21:29, 18. Aug. 2014 (CEST)

Noch eine Anmerkung: Die betroffenen Artikel enthalten meist Interwiki-Links auf Abschnitte. Das kann man natürlich nicht auf Wikidata übernehmen, allerdings sollen die wohl auch nicht aus den Artikeln entfernt werden. 85.212.59.26 21:38, 28. Aug. 2014 (CEST)

MerlBot könnte Interwiki-Links auf Abschnitte ggf. aussortieren, sofern dies gewünscht wäre. --Leyo 02:46, 29. Aug. 2014 (CEST)
Ich melde ja nur Konflikte und nicht alle lokalen Langlinks. Insofern sind reine lokale vorhandene Anker-Langlinks kein Problem in der Wartungsliste. Erst wenn Wikidata einen anderen Link (z.B. einfach ohne Anker) enthält wird es zu einem Problem, das gemeldet wird. Merlissimo 11:02, 9. Sep. 2014 (CEST)

Toolserver → Toollabs[Bearbeiten]

Auf unzähligen Seiten sind noch Toolserver-Tools verlinkt, obwohl die dort nicht mehr vorhanden sind bzw. nach Toollabs umgezogen sind. Es fände es sehr hilfreich, wenn zumindest für die häufig verlinkten Tools die Links per Bot angepasst werden könnten. Ich würde ein Vorgehen nach Namensräumen vorschlagen:

  • (Seite): wohl nicht selten direkt im Quelltext drin
  • Vorlage: durchführen
  • Kategorie: durchführen
  • Hilfe: abzuklären
  • Wikipedia: durchführen, falls keine Diskussionsbeiträge enthalten sind (auf (CET)/(CEST) prüfen)
  • Benutzer: würde ich befürworten

--Leyo 00:11, 7. Aug. 2014 (CEST)

Links auf die Stimmberechtigung tools:~guandalug/tools/stimmberechtigung.php und tools:~chm/stimmberechtigung.php. Die meisten davon auf gesperrten Seiten. Am besten durch Vorlage Vorlage:Stimmberechtigt ersetzen. --Nachcommonsverschieber (Diskussion) 11:54, 30. Aug. 2014 (CEST)


Ich habe mittlerweile alle erreichbaren Einzelstücke gefixt oder ansonsten kategorisiert; auch unter Mitwirkung von Benutzer:Nachcommonsverschieber. Ich habe alle URL überflogen.

  • Statistik:
    • Es gibt heute insgesamt rund 42.000 URL im Projekt.
  • Namensräume:
    • Wir haben eine allgemeine Praxis, wie wir bei solchen Fixereien vorgehen:
      • Hier: Nur noch Namensräume 4, 10, 14, 100;
      • Ausschluss bei /Archiv im Seitennamen;
      • auch nicht AK, FzW, LK, MB (CU, SG, SP, VM, WP:Administ... haben /Archiv/).
    • Auf gesperrten Seiten, Diskussionen, in Archiven längst vergessener Angelegenheiten wird nicht mehr masseneditiert. Es ist auch völlig Wurscht, ob das Stimmberechtigungstool zu einer Wahl, die 2009 mal stattgefunden hatte, und wo der Gewählte schon vor zwei Jahren die Knöpfe wieder abgegeben hatte, jetzt noch auf Klick die Stimmberechtigung feststellen kann. Sollte das wirklich sechs Jahre später jemanden interessieren (Was will man damit anfangen? Was für Konsequenzen hätte das?), dann können die Daten in ein aktuelles Stimmberechtigungstool geworfen werden. Und ein Editcount in einer Angelegenheit von 2007 lieferte damals die Benutzerbeiträge bis 2007, heute die bis 2014; die damaligen Zahlen werden nicht mehr reproduziert. An einer FzW von 2008 herumzulinkfixen ist höherer Blödsinn.
    • Benutzer: Die können ihre Links selbst fixen, sofern sie noch aktiv sind; WP:LT hilft gern. Die überwiegende Zahl der Benutzer ist nicht mehr aktiv, und der Rest macht einen Zwergenaufstand, wenn ein Bot in ihren Seiten herumpfuscht.
    • Artikel, Hilfe, MediaWiki: Alle bekannt und kategorisiert. Zurzeit kein Fix mehr möglich. Artikel sind weniger als 20. Datei gibt es praktisch nicht (mehr); wenn WP:LT/giftbot/weblinksuche hoffentlich mal aus dem Streik kommt, kann man die ein oder zwei Dateibeschreibungsseiten noch mal suchen.
  • Arbeitsschwerpunkt:
    • Das sollte die Unterstützung der Portale, Redaktionen, WikiProjekte sein; die benötigen für ihre tägliche Wartungsarbeit Werkzeuge, insbesondere Catscan.
    • Die haben alle voneinander abgeschrieben und verwenden vielhundertfach URL mit gleicher Struktur, nur unterschieden durch:
      • Kategorien (Vorsicht: Separator zwischen mehreren Kategorien nicht mehr Pipe, sondern %0D%0A)
      • Unterkat-Tiefe
      • Alter in Stunden
      • Maximalgröße von Stubs
      • Linkanzahl von Stubs
    • Es gibt 7800 nicht mehr funktionierende URL auf
      //toolserver.org/~daniel/WikiSense/CategoryIntersect.php?wikilang=de&wikifam=.wikipedia.org&basecat=*-*-*-*-*&basedeep=.....&go=Scannen&userlang=de
    • Sie können zu jeweils mehreren Hundert gleichen Schemas ersetzt werden durch
      {{fullurl:toollabs:catscan2/catscan2.php|project=wikipedia&language=de&categories=*-*-*-*-*&...........&interface_language=de&doit=1#results}}
      • Verbreitet ist etwa: &mode=rc&hours= für „Neue Artikel“, jetzt max_age= mit only_new=1.
      • Ebenso öfters &mode=ss&size= und mehr für Stubs, jetzt smaller=
      • Trivial ist Ersatz von ~magnus/catscan_rewrite.php – Parameter sind gleich.
    • Nur in Portalen auf rund 210 Seiten:
      //toolserver.org/~erwin85/randomarticle.php?
      durch
      {{fullurl:toollabs:erwin85/randomarticle.php| und hinten dran }}
    • Bei vielen Portalen/Red. gibt es
      ~magnus/deep_out_of_sight.php?
      und
      ~magnus/deep_insight.php?
      als
      {{fullurl:toollabs:sighting/deep out of sight.php|
      und
      {{fullurl:toollabs:sighting/sighting/deep insight.php|
    • Bei knapp 50 WikiProjekten gibt es trivialen Ersatz für
      //toolserver.org/~kolossos/templatetiger/tt-table4.php?
  • Um die Beos nicht zu ersäufen, sollte versucht werden, nach Rumprobieren an Einzelschicksalen in einem automatischen Lauf möglichst viele URL in einem Edit zu fixen. Aber das wissen Botbetreiber ja selbst.
  • Ich hätte gern die Form mit {{fullurl:toollabs:, einer Pipe und hintendran irgendwo noch }} – falls denen eines Tages einfällt, auf wmftools.org umzurüsten, hätten wir schon mal die richtige URL und keinen Zoff mit Weiterleitung, CORS, unerlaubter Domain. (Die Domain scheint verkäuflich zu sein; ob man sie sich als Faustpfand sichern sollte?)
  • Insgesamt schätze ich, dass sich bei 10 % der URL (also 4000–5000) der Aufwand für eine Reparatur lohnen würde, weil mit den Tools noch gearbeitet wird. Der Rest steht auf Seiten, mit die nicht mehr genutzt werden, die niemand mehr liest, und die voller redlinks sind; oder die in Eigenverantwortung noch aktiver Benutzer liegen. Gerade letztere sind auch völlig bunt und individuell und können nicht systematisch repariert werden.

Liebe Grüße --PerfektesChaos 22:39, 2. Sep. 2014 (CEST)

Danke für deine umfassenden Ausführungen!
Einen Punkt sehe ich anders als du: Die Mehrheit der Benutzer würde sich bestimmt über ein Linkfixen freuen. Die wohl wenigen Ausnahmen können ja den Bot revertieren. Ich jedenfalls würde es schätzen, wenn die toten Links auf meiner Benutzerseite (sowie ggf. auch in meinen .js-Seiten) aktualisiert würden. --Leyo 22:38, 3. Sep. 2014 (CEST)
Die sind aber nicht schematisiert, sondern sehr individuell. Und stundenlang Leuten hinterherzubasteln, die schon seit fühf Jahren nicht mehr aktiv sind, während die Portale auf die Wartung warten, ist wohl nicht Sinn der Sache.
Da sich übrigens kein Bot rührt, habe ich übrigens mal begonnen, ein gutes 1000 der CategoryIntersect-URL auf catscan2 umzuschreiben.
VG --PerfektesChaos 16:15, 12. Sep. 2014 (CEST)


i Info: Es gibt auch noch über 2000 tools.wikimedia.de – dabei handelt es sich um eine funktionsidentische Weiterleitung auf toolserver.org aus der Frühphase.

Ich habe in einer kleinen Marathon-Schlacht 700 Seiten mit CategoryIntersect editiert und diesen, soweit in catscan2 konvertierbar, weitgehend abgearbeitet. Ein paar Portale und Redaktionen könnten noch übrig sein; der Rest sind Archive, LD, Disku und Benutzer. Insgesamt sind wohl um 2000 dieser URL unmittelbar gefixt worden; dazu etwas trivialer Beifang plus Syntaxfehler. Aus der Statistik sind eher 2500 URL verschwunden, weil die Seiten teils dreifach ineinander eingebunden sind.

Jetzt habe ich für eine Weile keine Lust mehr. --PerfektesChaos 13:24, 15. Sep. 2014 (CEST)

Weblinks auf nicht mehr funktionierende Online-Version der Encyclopedia Britannica korrigieren[Bearbeiten]

1911encyclopedia.org, eine Online-Version der Encyclopedia Britannica von 1911, ist down, wird aber im ANR 700-mal verlinkt. Per Bot liesse sich ggf. eine der folgenden Optionen umsetzen:

Die beiden ersten Varianten wären am besten, aber wohl auch am schwierigsten. --Leyo 00:54, 27. Aug. 2014 (CEST)

auf Achive.org dürfte die gesammte Ausgabe liegen: <https://ia600809.us.archive.org/21/items/1911britannicatiff/>, bzw. <https://archive.org/details/EncyclopaediaBritannicaDict.a.s.l.g.i.11thed.chisholm.1910-1911-1922.33vols> Das Problem ist, wie man das auf vernünftige Weise verlinkt.  Frohes Schaffen — Boshomi ☕⌨☺  19:23, 28. Aug. 2014 (CEST)
Puh, keine Ahnung… --Leyo 00:10, 10. Sep. 2014 (CEST)
Der 1. Weblink taugt gar nichts. Wer kann schon zum einmaligen nachschauen ein 23-GByte-Tar-Archiv gebrauchen.
Der 2. linkt auf eine laienhafte Archivierung. Die direkte Auflistung des Ordners hier zeigt, dass die 33 Bände nur als PDF-Dateien vollständig, aber inkonsistent benannt sind. Andere Formen, insbesondere der Onlinezugriff auf Seiten, sind unvollständig (nur 22 Bände konvertiert). Ergo auch kaum zu gebrauchen. Da hat jemand mittendrin die Lust verloren und aufgehört... Darüber hinaus sind die Links auf der Webseite unsortiert und einige PDFs haben mehrere Gigabyte (bis 4,4 GByte), was selbst bei schnellen 25 MBit/s eine Downloadzeit von 25 bis 30 Minuten bewirkt... eigentlich auch unbrauchbar. Hier könnte man allenfalls eine Vorlage schreiben, welche die richtige PDF des vollständigen Sets heraussucht und den Link (mit Dateigröße, bis 300 MByte) angibt.
ÅñŧóñŜûŝî (Ð) 19:13, 14. Sep. 2014 (CEST)
Nachtrag: Die Linkliste wäre:
Präfix (Ordner) https://ia600406.us.archive.org/26/items/EncyclopaediaBritannicaDict.a.s.l.g.i.11thed.chisholm.1910-1911-1922.33vols/
Dateien:
Dateiname Datum Größe
01.EncycBrit.11th.1910.v.1.A-AND..pdf 05-Jan-2010 04:42 94.299.612
02.EncycBrit.11th.1910.v.2.AND-AUS..pdf 06-Jan-2010 05:17 118.241.117
03.EncycBrit.11th.1910.v.3.AUS-BIS..pdf 15-Mar-2011 04:19 112.123.985
04.EncycBrit.11th.1910.v.4.BIS-CAL..pdf 05-Jan-2010 05:27 104.923.429
05.EncycBrit.11th.1910.v.5.CAL-CHA..pdf 05-Jan-2010 05:49 113.600.623
06.EncyBrit.11th.1910.v.6.CHA-CON..pdf 05-Jan-2010 06:08 110.372.183
07.EncycBrit.11th.1910.v7.CON-DEM..pdf 06-Jan-2010 05:37 124.465.637
08.EncycBri.11th.1910.v8.DEM-EDW..pdf 05-Jan-2010 07:13 153.333.857
09.EncyBrit.11th.1910.v.9.EDW-EVA..pdf 05-Jan-2010 07:29 93.868.661
10.EncycBritan.1911.v.10.EVA-FRA..pdf 06-Jan-2010 06:06 122.983.626
11.EncycBrit.11th.1911.v.11..FRA-G..pdf 05-Jan-2010 08:06 116.631.036
12.EncycBrit.11th.1911.v.12.GIC-HAR.pdf 05-Jan-2010 08:56 123.398.255
13.EncycBrit.11th.1911.v.13.HAR-HUR..pdf 05-Jan-2010 09:16 126.011.033
14.EncycBrit.11th.1911.v.14.HUS-ITA..pdf 05-Jan-2010 12:31 117.659.922
15.EncycBrit.11th.1911.v.15.ITA-KYS..pdf 05-Jan-2010 13:48 126.762.981
16.EncycBri.11th.1911.v16.L-LOR..pdf 05-Jan-2010 14:47 140.176.819
17.EncycBrit.11th.1911.v17.LOR-MEC..pdf 05-Jan-2010 15:15 175.467.820
18.EncycBrit.11th.1911.v.18.MED.MUM..pdf 05-Jan-2010 15:38 86.194.969
19.EncyBrit.11th.1911.v.19.MUN-ODD.pdf 05-Jan-2010 16:03 106.053.558
20.EncycBrit.11th.1911.v.20.ODE-PAY.pdf 05-Jan-2010 16:37 118.806.506
21.EncycBrit.11th.1911.v.21.PAY-POL..pdf 06-Jan-2010 06:39 138.539.929
22.EncycBrit.11th.1911.v22.POL-REE..pdf 06-Jan-2010 06:57 115.389.905
23.EncycBrit.11th.1911.v23.REF-SAI..pdf 06-Jan-2010 07:22 122.869.508
24.EncycBrit.11th.1911.v24.SAI-SHU..pdf 06-Jan-2010 07:53 107.941.327
25.EncycBrit.11th.1911.v25.SHU-SUB..pdf 06-Jan-2010 08:20 148.830.473
26.EncycBrit.11th.1911.v.26.SUB-TOM..pdf 06-Jan-2010 13:22 153.523.501
27.EncycBrit.11th.1911.v.27.TON-VES..pdf 06-Jan-2010 14:38 107.406.039
28.EncycBrit.11th.1911.v.28.VET-ZYM..pdf 06-Jan-2010 15:02 138.579.455
29.EncycBrit.11th.1911..11th.v29.Index..pdf 07-Jan-2010 06:51 126.564.824
30.EncycBrit.12th.1922.v30.nv1.ABB-ENG..pdf 06-Jan-2010 16:47 191.404.607
31.EncycBrit.12th.1922.v31.nv2.ENG-OYA..pdf 06-Jan-2010 17:23 229.989.964
32.EncycBrit.12th.1922.v32.nv3.PAC-ZUL..pdf 07-Jan-2010 06:19 255.097.261
33.ReadersGuideEncycBrit.v33.1913..pdf 07-Jan-2010 05:38 17.920.388
ÅñŧóñŜûŝî (Ð) 19:33, 14. Sep. 2014 (CEST)
* Wenn man das ordentlich machen will, sollte man die großen Files downloaden, die jeweils best verfügbare Qualität in Einzelseiten-Tiff-s zerlegen, mit ImageMagick die Tiff-s noch ein wenig aufbessern und mittels tesseract text und hocr-Files anlegen und das Ergebnis Seite für Seite auf Commons hochladen.
* Ist das erledigt bräuchte man noch ein Tool zum Editieren der hocr-Files direkt über dem Image. So ein Tool hätte recht offensichtlich großen langfristigen Nutzen, müsste aber von der Mediawiki entwickelt werden. Damit könnte man dann ganze Bibliotheken gemeinfreier Bücher online nutzbar und längerfristig weitgehend fehlerfreie durchsuchbare Texte daraus erstellen. Ohne Editiermöglichkeit sind die Ergebnisse leider recht fehleranfällig, wie man auch bei Archive.org sieht. Halbfertige Ansätze als Firefox-addon existieren, funktionieren aber zumindest bei mir nicht.  Frohes Schaffen — Boshomi ☕⌨☺  20:45, 15. Sep. 2014 (CEST)

Hilfe im Projekt Tennis[Bearbeiten]

Hallo Botexperten, im WikiProjekt Tennis Pflegen wir Navigationsleisten, die die Top 10 Spieler eines jeweiligen Landes enthalten. Ein Bot könnte uns dabei helfen, die Navileisten nach der Aktualisierung in die verlinkten Artikel einzubauen und aus Artikel, die nicht mehr verlinkt sind, herauszunehmen. Eine Sammlung der Navileisten findet man auf der Benutzerseite von SuperAle unter Benutzer:SuperAle/ToDo nach der Überschrift Navigationsleisten Die zehn bestplatzierten Tennisspieler. Gruß, Korrektor123 (Diskussion) 17:39, 1. Sep. 2014 (CEST)

Hier zwei Sammelseiten mit ALLEN Navigationsleisten, die betroffen sind: von der ATP und von der WTA. Der Link oben enthält nur die ATP-Leisten und auch Navileisten zu Turnieren, die nicht betroffen sind. Wir wollen doch die Ladies nicht vergessen, lieber Korrektor ;-) --DonPedro71 (Diskussion) 21:44, 1. Sep. 2014 (CEST)
Man sollte sich eher mal fragen, wie sinnvoll Navigationsleisten sind, die per Bot aktualisiert werden müssen. Dieses Pseudo-Auswahlkriterium "Top 10 Spieler" ändert sich doch permenant. Heute ist ein Spieler drin und morgen wieder draussen und jedes Mal wird die Navigationsleiste eingefügt und wieder entfernt (und selbst angepasst). So eine Navigationsleiste sollte schon halbwegs stabil sein, um brauchbar zu sein.--213.61.99.155 12:16, 9. Sep. 2014 (CEST)
Das sollte man sich wirklich fragen: Wikipedia:Löschkandidaten/9. September 2014#Vorlagen --FannyRoertle (Diskussion) 12:40, 9. Sep. 2014 (CEST)
Man kann sich die Arbeit auch schaffen. Eigentlich sollte für sowas Wikidata zuständig sein… --Leyo 00:15, 10. Sep. 2014 (CEST)

Wikipedia:Artikel, die es in allen Wikipedias geben sollte/Erweitert aktualisieren[Bearbeiten]

Im Rahmen eines Kurier-Artikels rückte die erweiterte Liste in den Fokus. Sie ist allerdings auf den Stand von September 2012, seitdem hat sich die ursprüngliche Meta-Liste sehr, sehr stark geändert, doch per Hand ist eine Aktualisierung der vielen Daten kaum zu schaffen.

  • Die Links müssten von Wikidata auf deutsche Wikipedia-Artikel umgestellt werden
  • man müsste die bereits in der veralteten Version vorhandenen Lesenswert-, Exzellent- und Gesprochen-Versionen-Bapperl aktualisieren
  • Bei Rotlinks müssten dann auch ein Interwiki-Link zum en-Artikel (alternativ: Wikidata-Eintrag) hinzugefügt werden.

Kann das ganze auch per Bot ausgeführt werden?--CG (Diskussion) 18:22, 1. Sep. 2014 (CEST)

Bot-Hilfe bei der IB-Beschriftung[Bearbeiten]

Hallo zusammen, vielleicht könnte mir jemand bei folgender Angelegenheit helfen: Bei den derzeit knapp 500 Artikeln der Kategorie:Ort in Florida würde ich mir wünschen, dass per Bot jeweils in der Infobox unter der Zeile "Beschriftung Karte" der Hinweis "Lage in County und Bundesstaat" steht. Ein Beispiel siehe Venice (Florida). Derzeit steht an dieser Stelle in den IBs entweder gar nichts oder nur "Lage von Ort XY". Das würde meine Arbeit im Bereich Florida extrem beschleunigen. LG Stefan 03:59, 4. Sep. 2014 (CEST)

Liesse sich dies ggf. in der Vorlage einbauen? --Leyo 22:39, 10. Sep. 2014 (CEST)
Ich habe nicht den Überblick, ob das US-weit überall ratsam wäre. Es gibt auch eine handvoll Orte, wo es keine passende Positionskarte gibt, z. B. Crawfordville (Florida). LG Stefan 15:20, 14. Sep. 2014 (CEST)

SUBSTER-Aufgaben von DrTrigonBot[Bearbeiten]

Der Bot:DrTrigonBot macht schon seit April die Subster-Aufgaben nicht mehr, darunter das Aktualisieren der Artikelanzahlen in Vorlage:Metadaten Artikelanzahl Wiki. Auf entsprechende Hinweise auf drTrigons Disk folgen keine Reaktionen, weil der Botbetreiber selbst nicht mehr aktiv ist. Könnte daher vielleicht ein anderer Bot diese Subster-Sachen übernehmen? Mariofan13 (Diskussion, Beiträge) 10:04, 14. Sep. 2014 (CEST)