Wikipedia Diskussion:Meinungsbilder/Boteinsatz bei toten Links

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die zwischen dem 14. Juli und 30. September 2017 geführte Diskussion zur Vorbereitung des Meinungsbildes ist unter Wikipedia Diskussion:Meinungsbilder/Boteinsatz bei toten Links/Vorbereitung archiviert. Neue Beiträge bitte nicht dort, sondern hier.

To-do-Liste[Quelltext bearbeiten]

Vor Start des MB zu erledigen[Quelltext bearbeiten]

Nach Annahme (ggf.) des MB-Vorschlags[Quelltext bearbeiten]

Die obige Liste pflege ich zwecks Transparenz noch eine Weile weiter. --Martina Disk. 05:00, 19. Okt. 2017 (CEST)

Fehlerquote & Check[Quelltext bearbeiten]

Ich bin nicht sonderlich überzeugt von der angeblich so geringen Fehlerquote und den segensreichen Vorteilen des Bots. Vielleicht sollte man doch auf en.wp mal die letzten Edits des Bots studieren. Dort finden sich recht regelmäßig false positives, Archivlinks zeigen nicht selten ins Nichts, korrekte Livelinks wären oft ohne Schwierigkeiten zu finden. Dass eine Einsetzung von Archivlinks irgendwie nochmal geprüft wird, ist nach meinem Eindruck ein außerordentlich seltenes Ereignis. Ich hab dies in der vergangenen Diskussion öfter an Einzelfällen gezeigt. Es hieß immer, das wären eben Einzelfälle. Na gut, dann lasst uns mal ein paar zufällig ausgewählte aktuelle Edits des IABot in en.wp prüfen.--Mautpreller (Diskussion) 12:54, 2. Okt. 2017 (CEST)

Ich habe mal nachgeschaut ob deine Behauptung wirklich stimmt. Als der Botbetrieber bin ich verantwortlich das der Bot mit eine niedrige Fehlerrate arbeitet. Dabei bin ich jetzt mal durch die Beiträge von IABot auf en.wp durchgegangen und habe Zufällige Bearbeitungen nach geprüft, bezüglich die mit mehr als eine bearbeitete Link. Alle Links waren tot. Fehler passieren, aber ich arbeite dauernd daran es zu minimieren, oder, hoffentlich, ganz zu beseitigen. Eine neue IABot Funktion, ab Version 1.6, wird die Fehlerbehebung und Erkennung noch ein schritt weiter entwickelt. IABot wird automatisch erkennen ob eine vorherige Bearbeitung rückgängig gemacht wurde. Wenn ja, analysiert er warum und meldet dieses Fehler automatisch oder korrigiert es automatisch. Dieses Funktion ist noch in der Entwicklungsphase aber es wird langsam. Sehe https://phabricator.wikimedia.org/T176562. —CYBERPOWER (Diskussion) 16:17, 2. Okt. 2017 (CEST)
Entschuldige, Cyberpower: Nehmen wir en:Florence Pétry-Amiel. Der Link in Referenz 1 ist live, nicht tot. Der Link in Referenz 2 ist live, nicht tot. Der Link in Referenz 3 ist tatsächlich tot, jedoch in Sekunden live zu finden: http://cdm.athle.com/upload/ssites/001059/championnats%20de%20france/cht1888196925072017.pdf . Dieser Link hat übrigens keinen Archivlink.--Mautpreller (Diskussion) 16:52, 2. Okt. 2017 (CEST)
@Mautpreller: Sport-reference ist mal eine Ausnahme. Da hat eine Admin beschlossen die ganze Domain als Tot zu deklarieren weil die Seite anscheinend zu macht. Da hat aber jemand anders eine andere Gedanke, und wieder versucht lebendig zu schalten.—CYBERPOWER (Diskussion) 17:53, 2. Okt. 2017 (CEST)
Auf jeden fall, setze ich es mal auf die "Whitelist" das da nicht mehr herumgefummelt wird.—CYBERPOWER (Diskussion) 17:56, 2. Okt. 2017 (CEST)

Um das nochmal klarzustellen: Mein Argument ist nicht, dass der Bot seinen Job zu schlecht macht. Mein Argument ist, dass der Bot seinen Job prinzipiell nicht besser machen kann. Er kann nicht erkennen, dass bspw. der Archivlink [1] Zahlen hat, die vom Artikel abweichen. Er kann nicht erkennen, dass die Zahlen des Artikels aber im Livelink bestätigt werden. Er kann offenbar auch nicht erkennen, dass der Link überflüssig ist, weil dieselben Zahlen auch noch anderweitig belegt sind. Er kann auch nicht erkennen, dass irgendwelche Archivlinks möglicherweise prinzipiell ungeeignete Belege sind und dass sie schon als Livelinks im Grunde ungeeignet waren. Für all dies ist Urteilsvermögen erforderlich, das ein Bot prinzipiell nicht aufbringen kann. Ich halte es für völlig verfehlt, Aufgaben, die Urteilsvermögen verlangen, einem Bot zu übertragen.--Mautpreller (Diskussion) 18:16, 2. Okt. 2017 (CEST)

Danke fürs klar stellen. :-) IABot ist nur fuer Archiven. Dein Idealen Bot ist leider noch weiter in der Zukunft. :-(—CYBERPOWER (Diskussion) 18:42, 2. Okt. 2017 (CEST)
Stimmt immer noch nicht ganz. Egal wie gut der Bot technisch wäre, er könnte die Aufgaben der Qualitätssicherung nicht erfüllen. Dazu braucht es immer Menschen. Dein Bot ist nicht darauf ausgelegt, die Menschen bei der Qualitätssicherung zu unterstützen, was eine gute Sache sein könnte. Er ist darauf ausgelegt, sich an ihre Stelle zu setzen. Das ist der prinzipielle Fehler. Dieser Fehler lässt sich durch weitere technische Verfeinerung nicht heilen, weil er eben prinzipiell ist.--Mautpreller (Diskussion) 18:52, 2. Okt. 2017 (CEST)

Don't you see that it's really the attitude that is the problem? It's the same below. There are two attitudes you can assume: "There is a problem with link rot, I'll fix it. I only need your permission to do it." And: "You got a problem with link rot. Okay, I can give you information that can help you deal with it." In the first case there is no need for transparency for users, as you will do everything that is necessary. You are the actor and you need the information but nobody else. You can arrange your interface exactly as it is suitable for you. (So you did.) In the second case you absolutely need to give all information available to the users in exactly the way they want it. Your function is to serve the users, to provide additional possibilities for them. They are the actors, they define what they want and you serve their purpose. This is not how your bot works.--Mautpreller (Diskussion) 20:50, 2. Okt. 2017 (CEST)

Ich glaube es ist nicht sinnvoll die Diskussion in Englisch zu führen. Cyberpower versteht und schreibt Deutsch deutlich besser als manche von uns Englisch. Die werden ausgeschlossen, wenn du ins Englische wechselst. Was ich an diesem konkreten Bot sympathisch finde, ist die Möglichkeit dass Menschen ihn "trainieren" können. Neben einer fortlaufenden Weiterentwicklung durch den Programmierer wird der Bots also allein dadurch immer besser. Im übrigen halte ich einen unperfekten Zustand für besser als einen grottigen. Aber das ist natürlich nur meine Meinung. --Martina Disk.
Ich schrieb englisch, weil ich wirklich den Eindruck habe, dass die Message nicht ankommt. Aber gern nochmal auf Deutsch: Siehst Du denn nicht, dass das Problem hier in Wirklichkeit die Haltung ist? Das merkt man eine Überschrift weiter unten auch sehr deutlich. Du kannst zwei verschiedene Haltungen einnehmen: "Es gibt ein Problem mit toten Links, ich bring das in Ordnung. Ich brauch nur Eure Erlaubnis." Oder: "Ihr habt ein Problem mit toten Links. Okay, ich kann Euch Informationen geben, die Euch dabei helfen, damit umzugehen." Im ersten Fall gibt es keinen Bedarf an Transparenz für die User. Du machst ja alles Nötige. Du bist der Akteur, Du brauchst die Information, andere brauchen sie nicht. Du kannst Dein Interface genau so einrichten, wie es Dir am besten passt. (Und genau das hast Du auch getan.) Im zweiten Fall dagegen ist es unbedingt erforderlich, dass den Usern alle vorhandenen Informationen frei zur Verfügung stehen, und zwar genau in der Form, in der sie sie anfordern. Dann ist es Deine Funktion, den Usern zu dienen, ihnen zusätzliche Handlungsmöglichkeiten zu geben. Dann sind sie die Akteure, sie bestimmen, was sie brauchen und wollen, und Du leistest ihnen einen Dienst, damit sie ihren selbstbestimmten Zielen näher kommen können. So funktioniert Dein Bot aber nicht.--Mautpreller (Diskussion) 21:14, 2. Okt. 2017 (CEST)
Mautpreller, meine "Aufgabe" ist die Community zu dienen. IABot habe ich fuer dewiki schon ordentlich herumgebastelt bis es fuer dewiki akzeptable ist. Und weiter unten habe ich ja angekündigt das ich die Information veröffentliche, und meine Gründe gegeben warum die bis jetzt noch nicht öffentliche sind. Ich passe das Interface liebend gerne an die Bedürfnisse von die Community an, so gut wie es geht.—CYBERPOWER (Diskussion) 21:37, 2. Okt. 2017 (CEST)
Da haben wir den Kern des Problems, das Problem "in a nutshell". Die Community handelt nicht. Wer handelt, sind die einzelnen, sehr verschiedenen User. Sie kennen (hoffentlich) die Artikel, die sie auf ihrer Watchlist haben, und können (hoffentlich) beurteilen, was für diese Artikel gut und sinnvoll ist. Der Bot kann es nicht, Du kannst es nicht, die Community kann es nicht. Man kann und soll ihnen Unterstützung bieten, aber man darf ihnen diesen Job nicht abnehmen.--Mautpreller (Diskussion) 21:51, 2. Okt. 2017 (CEST)
Zur Teil verstehe was du meinst, aber zum Grossteil, check ich das nicht. Die Community sind hier unbezahlt und arbeiten nur mit ihre Freizeit. IABot soll deshalb die Arbeit zum Grossteil fuer die Benutzter ersparen. So sehe ich es zumindest. Auf jeden fall kann IABot auch auf Diskussionseiten restriktiert bleiben. Dieses Option existiert.—CYBERPOWER (Diskussion) 22:21, 2. Okt. 2017 (CEST)
@Mautpreller: 2-3 cents zu deinen Kritikpunkten:
Dein ganz grundsätzlicher Vorbehalt scheint gegenüber dem Einsatz des Tools zu sein, dass es Menschen Arbeit abnimmt, die aus deiner Sicht Menschenarbeit bleiben sollte. Also echt, ich selber halte jetzt Linkfixes nicht für die echte enzyklopädische Arbeit. Ja, es ist Arbeit, es ist auch wertvoll, aber es ist Putzarbeit - und Putzarbeit haben wir eigentlich nicht zu wenig. Und ja, natürlich, volle Zustimmung, Wikipedia soll von Menschen geschrieben werden, und genau das ist auch der Fall, daran ändert sich durch diesen Bot grad gar kein bisschen. Als Menschen sind wir dazu in der Lage, uns Werkzeuge zu basteln (also - manche von uns zumindest, wie zB Cyberpower), um uns die Arbeit zu erleichtern, und genau das tut dieser Bot - IMHO ausgezeichnet.
Und zu dem von dir mit diesem Thread eigentlich aufgeworfenen Spezialproblem: Aha, der Bot zeigt also falsche Meldungen, er markiert Links als tot, die gar nicht tot sind (oder bei denen das neue Linkziel ganz leicht zu finden wäre), er schlägt Archivlinks vor, die vielleicht falsche Angaben liefern, weil er nicht auf das ursprüngliche Abrufdatum zugreift. Na und? Es ändert sich doch gar nichts am Artikel. Dann wird demnächst ein Leser oder Schreiber eben darauf aufmerksam, dass da was geändert werden müsste, er klickt drauf, merkt, dass nichts geändert werden müsste, und entfernt den zusätzlichen Archivlink wieder oder er korrigiert den Artikelinhalt. Allemal besser (weil viel weniger falsch), als tausende von Links, die falsch, aber unerkannt den Eindruck erwecken, als könnten sie noch den Inhalt belegen, den sie ursprünglich mal belegen sollten.
Was unterscheidet denn den Bot, der nur eine (vielleicht mitunter fehlerhafte) Markierung setzt und einen Service anbietet, von einem Menschen, der dasselbe tut? Aus meiner Sicht nur, dass der Bot schneller, effektiver und genauer arbeitet. Und was die Menschen angeht - wir haben jetzt schon Leute, die massenhaft die von GiftBot angezeigten deadlinks (die man aber nur mit einer js.Erweiterung im Artikel sieht, die also nicht alle User sehen, und schon gar nicht die Leser) durch die Links aufs InternetArchive ersetzen - und zwar nach meiner Einschätzung wirklich meist ohne Prüfung.
Und wenn der Bot tatsächlich Amok laufen sollte (was ich mir grad nicht vorstellen kann)? Dann wird er eben ausgeschaltet. Gruß --Rax post 22:33, 2. Okt. 2017 (CEST)
Da bin ich ganz grundsätzlich anderer Ansicht. Externe Links zu finden, zu setzen und in Ordnung zu halten ist inhaltliche enzyklopädische Arbeit. Ich hab darauf schon oft sehr viel Zeit verwendet, brauchbare und nützliche externe Links zu suchen und zusammenzustellen, und ebenso darauf, unsinnig gewordene oder gar schädliche Links wieder zu entfernen. Das ist nicht einfach "Putzarbeit", es ist Artikelarbeit, und gar nicht unwichtige. Diese Arbeit kann aber nur ordentlich gemacht werden, wenn man sich den Inhalt dieser Links anschaut und bewertet. Das Schlimme ist, dass das weithin nicht getan wird, meist von Anfang an nicht. Das Problem des Bots wiederum ist, dass er diesen Zustand perpetuiert. Das ändert sehr wohl etwas am Artikel. Automatisch "gerettete" Verweise können Urheberrechtsverletzungen, Verstöße gegen das Persönlichkeitsrecht, völlig zu Recht vom Netz genommene Fehlinformationen, veraltete Angaben, uralte dreizeilige Pressemeldungen, niemals realisierte öffentliche Ankündigungen usw. usf. für immer breit zugänglich halten, und zwar vollkommen unkontrolliert. Welcher Segen, dass solche Links im Netz oft "sterben".
Und das Problem ist, dass die meisten Links nach der ersten Verlinkung nie mehr von einem Bearbeiter angeklickt werden. Und das erfahrungsgemäß erst recht nicht, wenn das "Problem" des Linksterbens durch den IABot "gelöst" ist. Ich habe mir eine ganze Menge der englischen Seiten angeguckt: Die Wahrscheinlichkeit, dass (auch bei eklatanten Fehlverlinkungen) irgend jemand das nochmal anfasst oder prüft, ist gleich null. Das geschieht einfach nicht. Ein toter Link mag gelegentlich dazu inspirieren, ein archivierter Link tut es nie.
Du sagst, die Menschen, die GiftBot-Meldungen bearbeiten, arbeiten meist nicht genauer. Ja, das ist oft so, aber da besteht wenigstens die Möglichkeit, dass sie es auf vernünftige Weise könnten, und gelegentlich tun sie es auch wirklich. Der Bot arbeitet gewiss schneller (was ich allerdings für einen Nachteil halte), aber definitiv nicht effektiver und genauer, im Gegenteil. Er ist eben grundsätzlich nicht imstande, Bewertungen vorzunehmen oder auch nur erfahrungsgeleitete Suchroutinen durchzuführen. Er kann nicht abschätzen, ob das gefundene Archivergebnis überhaupt plausibel ist. Er hilft auch nicht dabei. Er könnte es, wenn er sich aufs bloße Tippgeben an Autoren (!) beschränkte, aber das tut er eben nicht. In einer wahrscheinlich nicht ganz geringen Zahl von Fällen kann er sogar echten Schaden anrichten. Der größere Schaden aber ist, dass er dazu beitragen wird, dass überhaupt keine Qualitätskontrolle mehr stattfindet.--Mautpreller (Diskussion) 23:04, 2. Okt. 2017 (CEST)
ok, es ist nicht trivial, die guten Weblinks zu finden, es ist aber nicht vergleichbar mit dem Aufwand, einen guten Artikel zu schreiben (und ich meine mit "guter Artikel" jetzt nicht, alte Lexika zu versprachlichen und zu wikifizieren).
was die Möglichkeit angeht, dass die Weblinks dann von Menschen gefixt werden - da bin ich auch skeptisch, aber ich glaube, dass es gegenüber dem jetzigen Zustand, dass sich nur einige wenige damit beschäftigen (ich selbst komme damit nicht mal auf meiner eigenen Beo nach), etwas verbessern könnte. Bin also einfach etwas optimistischer als du.
ABER: Das ist ein Problem, welches nicht nur für die Weblinks gilt, sondern für den Artikelbestand/die Inhalte generell. Und im Bereich der toten Weblinks (der Belege/Einzelnachweise/Anmerkungen/whatever) wäre dann eben eine technische Lösung da, auch wenn es nur eine ist, die (falls sich niemand weiter um die Botmeldungen kümmerte) den ursprünglichen (ggf. veralteten) Zustand erhält, vielleicht zementiert. Selbst wenn du Recht hättest - Wikipedia wird vielleicht nicht besser durch den Boteinsatz, aber sie wird auch nicht schlechter, wie sie es derzeit ohne solche Fehlermeldungen seit Jahren schleichend wird. --Rax post 23:49, 2. Okt. 2017 (CEST)
Ich gebe Dir völlig recht, das Problem sind natürlich nicht nur die Weblinks, sondern die Artikelformulierungen bzw. -inhalte generell. Bloß wird es von der falschen Seite angepackt. Der Link belegt ja etwas, was in sehr vielen Fällen nichts taugt, weil der Link nichts taugt. Wenn man sich mal konkrete Fälle anguckt statt riesige Zahlen, sieht man das sehr schnell. Worauf man orientieren müsste, ist, das Sterben des Links als Zeichen dafür zu werten, dass der Inhalt wieder mal überprüft werden müsste. Aber wenn ich mir die üblichen Routinen angucke, sehe ich genau das Gegenteil: Der Bot setzt den Archivlink ein, prima, Problem gelöst. Selbst eine summarische Streichung toter Links wäre produktiver als eine automatisierte Einsetzung archivierter Links. Artikel wie Afghanistan, die mal exzellent waren, leiden unter diesem Stückwerk massiv (siehe Diskussion:Afghanistan#Anmerkungen zu toten Links). Ich sehe gar keinen Ansatzpunkt zu einer echten Qualitätskontrolle, sondern das genaue Gegenteil: die Perpetuierung eines schlechten Zustands durch Übergabe an Bots.--Mautpreller (Diskussion) 12:46, 3. Okt. 2017 (CEST)
@Mautpreller: Der Vorschlag beinhaltet ja, dass jeder Archivlink, der vom Bot eingesetzt wird, zugleich einen Bothinweis bzw. eine Prüfbitte beinhalten soll. Wenn dieser nicht zu dezent gestaltet wird (siehe auch oben), wird dadurch doch wesentlich auffälliger, dass mit den Links etwas nicht in Ordnung ist und man sie überprüfen sollte, als wenn sie einfach unmarkiert tot bleiben bzw. Botmeldungen auf der Diskussionsseite erfolgen. Der Archivlink soll den defekten Link ausdrücklich nicht ersetzen. Gestumblindi 12:54, 3. Okt. 2017 (CEST)
Das ändert nichts daran, dass es der einfachste Weg ist, die vom Bot eingesetzten Archivlinks einfach stehenzulassen. Und genau so wird es kommen. Ich kenne kein Beispiel dafür, dass es irgendwo anders wäre. Ein toter Link ist sicherlich ein Qualitätsmangel, aber ein schlimmerer Qualitätsmangel ist, wenn ein ungeeigneter (oder gar falscher/schädlicher) Link künstlich am Leben gehalten wird. Das wird der Effekt sein.--Mautpreller (Diskussion) 13:09, 3. Okt. 2017 (CEST)
Wenn du meinst, die Links und deren Inhalt seien das enzyklopädische, können wir das mit dem Artikel schreiben ja sein lassen und einfach nur noch Linksammlungen anlegen. Ich dachte ja immer, es sei der Inhalt den wir zusammen stellen. Und wenn der wieder durch die Links belegt würde, die es mal taten aber dann weg waren, sehe ich nicht, wo das etwas Anderes als eine massive Verbesserung wäre. Ich für meinen Teil habe anders als du nicht die Zeit, Lust und Energie andauernd tausenden Links hinterher zu rennen. Marcus Cyron Reden 23:51, 2. Okt. 2017 (CEST)
Ich verstehe, dass der Ansatz des Bots gewisse Probleme mit sich bringt, aber er ist alle Mal besser als der Status quo. Deine Befürchtung, dass die bisherige Arbeit nicht mehr weitergeführt wird, sehe ich nur in den Teilen, die meisten Benutzer, die heute Weblinks warten, bringen dafür gigantische Mengen Zeit auf und kommen trotzdem nicht hinterher. Trotzdem werden sie in aller Regel nur die Weblinks bearbeiten, nicht den Artikel im Allgemeinen – in diesem Punkt besteht schon mal keine Änderung gegenüber dem Status quo. (Selbiges trifft auch auf die Urheberrechtsfrage zu, wer ständig das Webarchiv einbindet, ist da doch völlig irrelevant.) Der Punkt ist: Wir müssen aus dem was wir haben, das beste machen – klar hat jeder Ansatz Probleme, doch die Menge der toten Weblinks lässt es rein objektiv angesichts unserer Manpower nicht mehr zu, das händisch zu machen. Diese Arbeitszeit kann besser, wertvoller und in Aufgaben eingesetzt werden, die weniger repetitiv botartig sind. --MGChecker – (📞| 📝| Bewertung) 01:25, 3. Okt. 2017 (CEST)
Das ist halt wieder das Argument der großen Zahlen. Klingt für sich beeindruckend. Aber wenn man wissen will, ob damit etwas Gutes erreicht wird oder eher die Gefahr für Schlechtes steigt, wird man sich doch die materiellen Edits angucken müssen. Meine (sicher selektiven) Stichproben fallen da eher nicht günstig aus. Neben Fehlern werden vor allem Links, die noch nie etwas taugten, fortgeschrieben (sozusagen verrottungsfest gemacht mittels Internet Archive). Ist das wirklich ein Gewinn? Wäre es nicht besser, die Verrottung als natürlichen Prozess zu sehen, der in vielen Fällen zeigt, dass die Links als Belege nie brauchbar waren oder mindestens nicht mehr brauchbar sind? Wie bewertet man die Gefahr, dass URV und Persönlichkeitsrechtsverletzungen auf diese Weise verrottungsfest gemacht werden? Wie meine Antwort ausfällt, habe ich deutlich gemacht. Man kann das natürlich, wie man sieht, auch anders bewerten als ich. Der wichtigste Grund für meine negative Bewertung ist, dass von dieser Botifizierung überhaupt kein Anstoß zur Qualitätskontrolle ausgeht. Vielleicht ist es einfach so, dass ich die Wikipedia in erster Linie als ein Projekt ansehe, in dem (hauptsächlich) Laien Tätigkeiten lernen und ausüben, die früher nur Spezialisten zugänglich waren, also in mancher Hinsicht ein Demokratisierungsprojekt. Gegen ein technisches Assistenzsystem, das dieses Lernen und Handeln einfacher macht, hätte ich gar nichts einzuwenden. Bloß sehe ich nicht, dass das der Fall ist.--Mautpreller (Diskussion) 13:08, 4. Okt. 2017 (CEST)

False positives[Quelltext bearbeiten]

False positives sind ein ernstes Problem mit dem InternetArchiveBot. Vorne steht bei den Erläuterungen folgender Hinweis:

Irrtümlich als nicht erreichbar erkannte Webadressen („false positives“) können auf ToolLabs gemeldet werden.

Hat das jemand mal ausprobiert? Hierzu ist diese Seite aufzurufen, die mich nach der Authentifizierung um folgendes bittet:

Hi AFBorchert,
In order to complete your request, IABotManagementConsole needs permission to perform the following actions on your behalf on all projects of this site:
  • Interact with pages
Edit existing pages; Edit protected pages; Create, edit, and move pages

Es finden sich keine Hinweise dazu, welche Edits durchgeführt werden. Sogar protected pages sind hier genannt. Ich habe da so gewisse Probleme, meine Adminprivilegien so einfach an ein Werkzeug auszuliefern. Das IABot Management Interface bietet auch noch mehr an, unter Meta findet sich beispielsweise Access false positive reports. Das ist aber Root access only und macht eine unabhängige Evaluation schwierig. Möglicherweise habe ich hierzu auch vorangegange Diskussionen verpasst, erst mit dem Start des Meinungsbilds habe ich die Planungen zu diesem Boteinsatz mitbekommen. --AFBorchertD/B 16:49, 2. Okt. 2017 (CEST)

Ich hab das ausprobiert. Siehe Erfahrungsbericht im Archiv: Unter Wikipedia Diskussion:Meinungsbilder/Boteinsatz bei toten Links/Vorbereitung#mehr technische Fragen findest Du meinen Bericht (23. Juli, 22:39). Tatsächlich erweckt das nicht eben mein Vertrauen.--Mautpreller (Diskussion) 16:56, 2. Okt. 2017 (CEST)
PS: Und hier ist mein Argument: Auch das Handling folgt den Interessen des Botbetreibers, nicht den Interessen des Anwenders. Das ist symptomatisch.--Mautpreller (Diskussion) 18:19, 2. Okt. 2017 (CEST)
Vielen Dank für den Link auf die frühere Diskussion. Du sprichst da genau die gleichen Punkte an. Ich kam nur nicht soweit wie Du, da ich meine Adminprivilegien nicht hergebe, wenn ich nicht annäherungsweise weiß, was das Ding vorhat. Und wenn die Listen nicht öffentlich zugänglich sind, ist auch nicht ohne weiteres nachvollziehbar, ob sie eingetragen sind oder ob es mit dem Eintrag nicht geklappt hat oder ob die Eintragung abgelehnt wurde. --AFBorchertD/B 19:02, 2. Okt. 2017 (CEST)
  • @AFBorchert: Es gibt ein tool womit mann einzelne Seiten analysieren kann. Dieses Tool macht aenderungen mit deinem Konto, und nur wenn du die Analyse startest. Ansonsten macht er nichts.—CYBERPOWER (Diskussion) 17:47, 2. Okt. 2017 (CEST)
    • @Cyberpower678: Aber wozu werden diese Rechte benötigt, wenn es nur darum geht, false positives zu registrieren? Und warum ist die Liste der registrierten false positives nicht öffentlich? --AFBorchertD/B 18:15, 2. Okt. 2017 (CEST)
      • @AFBorchert: Wenn du zu https://tools.wmflabs.org/iabot/index.php?page=runbotsingle&wiki=dewiki gehst, kannst du Seiten von dewiki eingeben. Dann wird die Seite sofort analysiert und wenn es was zu reparieren gibt, wird die Seite bearbeitet. Die Bearbeitung wird dann von dein Konto aus gemacht. Die Logik dahinter ist das bestimmte Seiten die Geschützt sind, das Bots nicht bearbeiten können, kann dann der Benutzter selber Ausführern. Die restliche Tools brauchen nur Öffentliche Benutzterdaten. Die Liste der registrierten false positives sind nicht öffentlich weil es ein "Developers tool" ist. Da sind tools dabei die nicht von Leute die keinen technische Erfahrung von IABot haben nicht benutzt werden sollen. Plus kein Mensch kann mit die Seite was anfangen.—CYBERPOWER (Diskussion) 18:28, 2. Okt. 2017 (CEST)
        • @Cyberpower678: Mir erscheint das unbefriedigend und nicht nachvollziehbar. Bei anderen ähnlichen Bots gibt es Black- oder Whitelists auf einer ganz normalen Wikiseite. Dann kann sie jeder einsehen und das Eintragen von Ausnahmen ist möglich, ohne Privilegien an andere Zugänge zu geben. Warum die Liste der false positives nicht öffentlich sein kann, erschließt sich mir aus Deinen Ausführungen nicht. Erstens kann ich sehr wohl mit so einer Seite etwas anfangen (z.B. analysieren, mit welchen Seiten der Bot Probleme hat, und feststellen, ob es bereits vergleichbare Probleme anderswo gab). Die Annahme, dass alle anderen hier sachunkundig sind, ist falsch. --AFBorchertD/B 18:51, 2. Okt. 2017 (CEST)
          • Hier scheint ein Missverständnis zu sein. Diese Liste ist nur fuer nicht behobene gemeldete problematische Links. Die auf der "Whitelist" siehst du nicht. Diese Seite ist nur da um Technische Fehler in IABot zu identifizieren. Komplette nutzlos fuer normale Benutzter. Sehe zum Beispiel https://tools.wmflabs.org/iabot/index.php?page=manageurlsingle&url=http%3A%2F%2Fwww.sports-reference.com%2Folympics%2Fathletes%2Fpe%2Fflorence-petry-amiel-1.html wo eine Link auf der "Whitelist" befindet. Vielleicht komm ich auch nicht ganz mit was du mit dieser Liste machen willst. Vielleicht geht es auf English besser?—CYBERPOWER (Diskussion) 19:09, 2. Okt. 2017 (CEST)
            • @Cyberpower678: I would like to access the list of URLs which were submitted as false positives and the list of URLs which is currently used by the bot. This would not be useless. Firstly, it allows to see whether other URLs from the same domain or a particular set of sites were already registered. Secondly, it helps to see in what kind of problems your bot is running into. And I still wonder why I have to authorize your tool to edit in my name – just to enter false positives. As shown above, it demands even access to protected pages. Do you understand that admins do not easily grant their admin privileges to tools they are not familiar with to do something that actually does not require these privileges, i.e. accessing the list of false positives? Other bots work with simple on-wiki lists. This makes it far more transparent and easier for all involved. Why don't you support this? --AFBorchertD/B 19:50, 2. Okt. 2017 (CEST)
Übersetzung: Ich würde gern Zugang zu der Liste der URLs haben, die als falsch positiv gemeldet wurden, und zu der Liste der URLs, auf die der Bot gerade zugreift. Das wäre nicht nutzlos. Erstens würde es ermöglichen zu sehen, ob andere URLs derselben Domain oder ein bestimmtes Set an Webseiten schon gemeldet wurden (registriert sind). Zweitens würde es dabei helfen zu erkennen, auf welche Art von Problemen der Bot stößt. und ich frage mich immer noch, warum ich Dein Tool autorisieren muss, in meinem Namen zu editieren – bloß um falsch positive Meldungen einzugeben. Wie oben gezeigt, verlangt das Tool sogar Zugriff auf geschützte Seiten. Verstehst Du denn, dass Admins nicht so ohne weiteres irgendwelchen Tools Adminrechte einräumen wollen, die sie gar nicht kennen, damit diese Tools etwas tun, wozu sie diese Rechte gar nicht brauchen, bloß um falsch positive Treffer zu melden? Andere Bots arbeiten mit schlichten On-Wiki-Listen. Dadurch wird es viel transparenter und einfacher für alle, die damit zu tun haben. Warum ermöglichst Du das nicht? --Mautpreller (Diskussion) 23:29, 2. Okt. 2017 (CEST)
              • Well to be honest, I never really considered the fact that users, that aren't IABot developers, would have any interest in a list of active false positive reports. Also there is no "list" to speak of regarding whitelisted URLs and domains. I can create a page on that interface that can list them as well as active false positive reports in a single page, but the IABot rule-set is contained within a massive global table (30 GB in size) within a DB that contains all the URLs encountered on every wiki it runs on. It's a global DB, you can call it IABot's memory, the defines IABot's behavior across all of the wikis. To have an on wiki list locally, is just not a feasible and viable solution for a bot the operates globally. As for OAuth grants, as I stated in the last response, there is a tool that lets users run the bot on a single page and even gives the option to proactively add archives to live URLs. This tool edits from your account, and the tool makes it clear that it edits from your account. See https://tools.wmflabs.org/iabot/index.php?page=runbotsingle for this specific tool. The access to protected pages is so that if an administrator wishes to have the bot run on a fully protected page the bot can't edit, the administrator can still make the edit from their own account using the tool. That's all these permissions are for. The rest of the tools just use your user information. Trust me when I say that if this tool were a problem in terms of abusing the grants of this tool, the tool's permission to ask for these would be revoked long ago. OAuth abuse is taken very seriously.—CYBERPOWER (Diskussion) 20:40, 2. Okt. 2017 (CEST)
                • It would be nice if there would be an automatically generated list of whitelisted urls and similar data. As this is associated with an open source project, it's normal to expect that all data is public where this isn't a security problem. This way I would expect that every basicuser has the viewfpreviewpage permission, maybe even a completely public feature. Furthermore, it would be cool to make regular database dumps that everyone can query to. (like dewiki_p and similar on labs). @AFBorchert: The OAuth architecture is built by all or nothing principle: Either you grant a tool all permissions it makes use of, even if you don't intend to use them, or you can't use the tool at all. Furthermore, permissions are coupled in different groups that can be granted, so Cyberpower can't choose absolutely freely the rights the tool has access too. Nevertheless, I don't think the editprotected grant is really needed by the bot. --MGChecker – (📞| 📝| Bewertung) 21:07, 2. Okt. 2017 (CEST)
                  • I will add it to the to-do list. It's not a security problem, just that the current page has buttons that shouldn't be touched by non-developers. The new page will be completely public. As for DB dumps. That might not be necessary. You can access the DB with more flexibility by going to https://tools.wmflabs.org/iabot/api.php and querying for that information. I'm not sure how the Cloud admins would feel if I routinely dumped a massive table like that on their servers.—CYBERPOWER (Diskussion) 21:23, 2. Okt. 2017 (CEST)
                    • Wikipedia has database dumps too, even though it has an API, and it isn't a problem there. Database dumps can be more performant and more flexible than api queries in my experience, expecially, if they are easily accessible like Wikipedia is on quarry. Nevertheless, you should discuss this with the cloud admins first. --01:34, 3. Okt. 2017 (CEST)
                    Übersetzung: Wikipedia hat Datenbank-Dumps, obwohl auch dort eine API existiert, und dort stellt es kein Problem dar. Datenbank-Dumps können meiner Erfahrung nach performanter und flexibler als API-Queries sein, insbesondere wenn sie so wie Wikipedia auf Quarry leicht zugänglich sind. Dennoch solltest du das erst mit den Cloud-Admins besprechen.

Auch hier die Bitte nicht diejenigen auszuschließen, die nicht so gut Englisch können. Cyberpower spricht Deutsch ist sehr gut verständlich. --Martina Disk. 21:14, 2. Okt. 2017 (CEST)

Sobald es in die technischen Details geht, ist es vielleicht doch besser, sich auf Englisch mit Cyberpower zu unterhalten. Er hat es hier selbst vorgeschlagen ("Vielleicht geht es auf English besser"?) und so können Missverständnisse und Unklarheiten vermieden werden. Man kann das Wesentliche ja dann auch wieder ins Deutsche übersetzen. Gestumblindi 22:00, 2. Okt. 2017 (CEST)
@Gestumblindi: Ich möchte mich der Bitte von Martina anschließen. Ich habe versucht, die obige englische Unterhaltung (4 Absätze) zu verstehen, bin aber nur knapp bis zur Hälfte gekommen, dann musste ich aufgeben. Wäre es nicht möglich, dass Benutzer mit besseren Englischkenntnissen in kleiner Schrift unter die jeweiligen Absätze eine Übersetzung anbringen könnten, damit jeder die Diskussion nachvollziehen kann? Gruß -- Ra'ike Disk. LKU P:MIN 22:52, 2. Okt. 2017 (CEST)
@Ra'ike: Versuch einer Kurzfassung der obigen englischen Unterhaltung: AFBorchert hätte gerne eine für jedermann einsehbare Liste der als "falsch-positiv" gemeldeten Links und ebenfalls Zugriff auf eine aktuelle "Whitelist" der als funktionierend anzusehenden URLs. Cyberpower hat darauf geantwortet, dass es bis jetzt keine solchen Listen gebe, alles sei in einer grossen Datenbank gespeichert, aber er könne im Interface eine Seite anlegen, um die gewünschten URLs dort aufzulisten. Eine in einer Wikipedia "lokal" (als "normale Wikiseite") abgelegte Liste sei hingegen für einen global arbeitenden Bot keine gangbare Lösung. MGChecker hat sich in der Folge ebenfalls für eine automatisch generierte Liste von "Whitelist"-URLs und ähnlicher Daten ausgesprochen, Cyberpower nimmt die Sache auf seine To-Do-Liste. AFBorchert hat darüber hinaus Bedenken wegen der Rechte, die man dem Bot als Nutzer via OAuth erteilt, geäussert, worauf Cyberpower u.a. geantwortet hat, dass diese dazu dienen, mit einem Tool, mit dem man den Bot eine bestimmte Seite (einzeln) überprüfen lassen kann, zu arbeiten, und dass diesem Tool die Berechtigung, um diese Rechte zu ersuchen, schon lange entzogen worden wäre, wenn es ein Sicherheitsproblem darstellen würde. Das "editprotected"-Recht soll es Admins ermöglichen, mit dem Tool auch geschützte Seiten zu bearbeiten (was MGChecker in seiner Antwort für unnötig hält). Gestumblindi 23:16, 2. Okt. 2017 (CEST)
Ich würde dem Widersprechen. Cyperpower spricht recht gut Deutsch, ja, allerdings hat die Erfahrung aus der Vorbereitung gezeigt, dass sich im Deutschen Missverständnisse und Nicht-Verständnisse auftreten, die sich im Englischen vermeiden ließen. Da wir wollen, dass ein englischer Muttersprachler hier komplexe Fragen beatnwortet, sind wir IMHO gut beraten auf Englisch zu kommunizieren, sonst ist die Verwertbarkeit des Diskussionsergebnisses nur eingeschränkt möglich. --MGChecker – (📞| 📝| Bewertung) 01:34, 3. Okt. 2017 (CEST)
Eigentlich ist Deutsch meine Muttersprache, aber da ich mein ganzes Leben in Amerika wohne, verlernt man Sachen und kommt aus der Übung. :/—CYBERPOWER (Diskussion) 03:18, 3. Okt. 2017 (CEST)
Das ist sicher kein Problem. Feel free to answer in English if this is more comfortable to you. --Succu (Diskussion) 23:27, 3. Okt. 2017 (CEST)
Schon gut. Wenn ich weiter Deutsch spreche, hilft mir das auch. Dann lerne ich auch die Technische Begriffe auf Deutsch. :-). Zum Beispiel habe ich gelernt das ANR auf dewiki ist das selbe als "Mainspace" auf enwiki.—CYBERPOWER (Diskussion) 19:01, 4. Okt. 2017 (CEST)
+1. Dein Deutsch ist schon in den wenigen vergangenen Wochen erkennbar flüssiger geworden. :-)
deWp ist ein großes, anspruchsvolles Projekt. Von uns werden weiter vergleichweise viele Rückmeldungen und Verbesserungsvorschläge kommen, und je mehr du deine Deutschkenntnisse wieder auffrischt desto reibungsloser und fruchtbarer wird das verlaufen. Wir müssen halt nur auf dem Schirm behalten, dass Deutsch nicht deine Alltagssprache ist und weiter nachfragen, wenn etwas nicht völlig klar ist oder schräg klingt. AGF ist auch bei uns ein wichtiger Grundsatz. Falls kompliziertere Fragen auftauchen, gibt es bei Bedarf genug Leute, die beim Übersetzen aushelfen können. --Martina Disk. 20:02, 5. Okt. 2017 (CEST)

Editwar ^^[Quelltext bearbeiten]

Nachfrage @Cyberpower678: Wenn ich erkenne, dass der Link, den der IA-Bot als tot gemeldet hat, doch noch ganz lebendig ist, korrigiere ich den Bot. Dabei gibt es prinzipiell drei denkbare Scenarios:

  1. ich entferne ihn durch Bearbeiten der Seite (oder durch Abspeichern der früheren Version ohne den Bot-Eintrag)
  2. ich mache ihn mit Editbegründung rückgängig ("undo")
  3. ich mache ihn kommentarlos rückgängig (wie einen Vandalenedit) ("rollback")

Was passiert anschließend jeweils - wie groß ist die Gefahr, dass der Bot umgehend meine Änderung wieder rückgängig macht - und ich damit in einem Editwar gegen den Bot lande, den ich nicht "gewinnen" kann (weil inhaltlich argumentieren kann man ja nicht gegen ein Tool). Danke für die Antwort (und falls ihr das schon diskutiert habt in der Vorbereitung und ich nur zu blöd war, es zu finden, gern Kurzantwort mit Link auf die Lösung). Grüße --Rax post 22:53, 2. Okt. 2017 (CEST)

Ich bin zwar nicht Cyberpower, aber wie ich es verstehe: Im Moment muss man solche "false positives" noch extra zur Aufnahme in die Whitelist melden, um einen Editwar mit dem Bot zu vermeiden (ich denke, das wäre der Link dafür). Aber nicht mehr lange: Weiter oben hat er angekündigt, dass IABot in Version 1.6 automatisch erkennen wird "ob eine vorherige Bearbeitung rückgängig gemacht wurde. Wenn ja, analysiert er warum und meldet dieses Fehler automatisch oder korrigiert es automatisch." Gestumblindi 22:57, 2. Okt. 2017 (CEST)
Das ^ hier.—CYBERPOWER (Diskussion) 23:03, 2. Okt. 2017 (CEST)
<quetsch> Das versteh ich nicht. Was jetzt?? --MGChecker – (📞| 📝| Bewertung) 01:36, 3. Okt. 2017 (CEST)
Danke für die schnellen Antworten! - Das heißt, wenn ein User (Leser oder Schreiber) den Bot nicht kennt (und also auch von der 'Whitelist' nichts weiß), dann wird er möglicherweise derzeit (bis Version 1.6 kommt) erstmal ein Problem bekommen können, weil er nicht dorthin geleitet wird. Das wird selten sein, aber es kann passieren.
Noch kurz zum Whitelist-Eintrag: ich hab mich grad mal probeweise über das Interface angemeldet, ist zwar trivial zu machen, dauert aber doch etwas. Und ich bin mir auch nicht sicher, ob wirklich alle Leser einfach so verstehen würden, was da beim Zugang so verlangt wird - mit der Verifizierung ist ja zB schon ausgeschlossen, dass nicht angemeldete User ohne Email dort was melden können? Und dann gibt es da zwar wenige, für einen schnellen Whitelist-Eintrag aber immer noch reichlich viele (IMHO zu viele) Optionen, angesichts dessen, dass die weitaus meisten User dort wohl einfach nur "Weblink doch erreichbar" melden wollen. Gruß --Rax post 23:29, 2. Okt. 2017 (CEST)
Es soll ja noch ein Bothinweis eingebaut werden, in diesen bzw. in die verlinkte Anleitung könnte man auch einen Hinweis auf die Whitelist und das Vorgehen aufnehmen? Gestumblindi 23:34, 2. Okt. 2017 (CEST)
fänd ich gut - und eine Vereinfachung bzgl. der Optionen beim Interface wäre hübsch (so dass man zwar alle Optionen erreichen kann, wenn man will, aber die eine(!) Whitelisting-Option klar im Vordergrund steht). --Rax post 00:00, 3. Okt. 2017 (CEST)
  • v1.6 wird wahrscheinlich erst veröffentlicht bevor IABot hier Erlaubnis hat zu schaffen.—CYBERPOWER (Diskussion) 00:40, 3. Okt. 2017 (CEST)
@Cyberpower678: Du meinst: v1.6 wird wahrscheinlich vor dem 15. Oktober veröffentlicht - d.h. falls der Vorschlag des Meinungsbildes angenommen wird, ist dann eh schon die automatische Erkennung von Reverts realisiert? Damit wären die Edit-War-Bedenken natürlich sowieso hinfällig :-) Gestumblindi 01:16, 3. Okt. 2017 (CEST)
Aaah, vielleicht ist die beta version Testbereit. ;-)—CYBERPOWER (Diskussion) 01:56, 3. Okt. 2017 (CEST)

Ich bin kein Programmierer, aber vielleicht kann man dem Bot folgendes eingeben, damit er die Menschen gemachte Änderung in Frieden lässt : Wenn die vom Bot angebrachte Prüfbitte entfernt wurde, ändert der Bot diesen Link nicht mehr. Die Konfiguration ist ja schon so eingesteilt, dass die Änderungen von Menschen Vorrang haben. --Martina Disk. 02:40, 3. Okt. 2017 (CEST)

„Prüfbitte“? - Verstehe ich das richtig: Wenn ich dem Bot nicht mitteile, dass er Unsinn verzapft, dann stellt er bisher seinen Unsinn einfach wieder her? --Succu (Diskussion) 22:09, 3. Okt. 2017 (CEST)
Die Prüfbitte beschreibt hier, dass der Bot mit der Vorlage kennzeichnet, dass der Archivlink automatisiert ohne menschliches Review gesetzt wurde. Ansonsten sollte der Bot (das befindet sich gerade in der Entwicklung) zurückgesetzte Änderungen von ihm nicht einfach wiederherstellen, ich denke er wird sie nicht anrühren und intern melden. --MGChecker – (📞| 📝| Bewertung) 00:05, 4. Okt. 2017 (CEST)
„ich denke er wird sie nicht anrühren und intern melden“ per AGF vermutlich. Wissen wir was die Version 2.0 des Bots beabsichtigt zu tun? --Succu (Diskussion) 00:21, 4. Okt. 2017 (CEST)
Jede Version wird sich an die Regeln der Community zu halten haben. Das schließt das Verbot eines Editswars ein. Ein regelverletzender Bot würde von einem Admin kurzerhand abgeschaltet. Ich halte deine Frage für rhetorisch, nachdem Cyberpower doch gerade erklärt hat, dass er dem Bot beibringen wird, Rücksetzungen durch Menschen nicht rückgängig zu machen. Meinem Verständnis nach erübrigt sich damit langfristig in etlichen Fällen z.B. die Notwendigkeit, einen falsch positiv erkannten Link zu melden.
Mit Prüfbitte meinte ich den umseitig genannten Bothinweis samt Prüfbitte wie i Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft (bitte prüfe den Link gemäß Anleitung und entferne dann diesen Hinweis). --Martina Disk. 06:02, 4. Okt. 2017 (CEST)

IABotManagementConsole vs. IABot[Quelltext bearbeiten]

Wie man hier sehen kann, nimmt die IABotManagementConsole im Artikel Marie Curie eine nicht zu erlaubene „Änderungen im Abschnitt Weblinks“ vor. Wie lassen sich manuelle Bearbeitungen die über die „Konsole“ ausgelöst werden von denen des Bots abgegrenzen? Tags? Sind sie Bestandteil dieses MBs? --Succu (Diskussion) 22:01, 3. Okt. 2017 (CEST)

das war am 21. September, also in der Evaluations- und Vorbereitungszeit, wurde 40' später gefixt. @Martina, da der Edit von dir war, kannst du was dazu sagen? Gruß --Rax post 22:17, 3. Okt. 2017 (CEST)
Das ist nur ein Beispiel, aber eine prinzipelle Frage, Rax. --Succu (Diskussion) 22:26, 3. Okt. 2017 (CEST)
wobei @Succu, dass das eben kein Bot-Edit war (also auch kein "verbotener" im Abschnitt Weblinks), ist doch eh klar, im offenen Log deines DiffLinks zu erkennen, es war Martinas Edit. --Rax post 22:23, 3. Okt. 2017 (CEST)
Weiter oben gab es unbeantwortete Fragen darüber welche Bearbeitungen per Zustimmung zu OAuth im Namen des zustimmenden Benutzer möglich sind. Ist das ein Beispiel dafür? --Succu (Diskussion) 22:35, 3. Okt. 2017 (CEST)
Könnte das nicht einer dieser Edits sein, die aufgrund der o.a. "permission to perform the following actions on your behalf" erfolgt sind? Dh Martina hat einen Analyseauftrag erteilt und der Bot hat "on her behalf" editiert? Das ist eine recht undurchschaubare Sache. Natürlich ist sie, was den Inhalt des Edits angeht, längst erledigt, was das Botverhalten angeht, wäre aber Aufklärung schon gut. Kann es passiereb, dass diese "permission to perform the following actions on your behalf", die unter anderem auch ich dem Bot ausgestellt hatte, um überhaupt ein false positive melden zu können, auf diese Weise genutzt wird, ohne dass ich überhaupt davon erfahre?--Mautpreller (Diskussion) 22:30, 3. Okt. 2017 (CEST)
Gefixt, Rax? (Mit)zu verlinken wäre ggf. der weiter oben stehende Artikel. --Succu (Diskussion) 22:55, 3. Okt. 2017 (CEST)
na gut, @Succu, nehmen wir den Artikel Marie Curie mal kurz als Beispiel, ich nehme die Version, in der der Artikel am 5. Mai wg Editwar für 1 Monat gesperrt wurde [2] als Ausgangspunkt; zu diesem Zeitpunkt finden sich bei den Anmerkungen (Einzelnachweisen), wenn ich richtig zähle, 2 nicht erreichbare links, einer davon auf eine tote Seite, einer auf eine falsche Übersicht (beide bis zur Reparatur heut Nacht auch noch drin). Bei den Weblinks gibt es zu diesem Zeitpunkt zwei, die auf InternetArchive zurückgreifen (der 3. und der 7. von unten, beide eingesetzt von einem User (nicht Bot!) am 21. September 2016), sowie einen deadlink (auf das Curie-Museum in Paris) und so ist die Situation auch noch am 21. September vor Martinas Edits (im Folgenden nur die Edits zur Linkkorrektur vermerkt):
  1. Edit (21.9., 6:08): Martina ersetzt den toten Link auf das Curie-Museum durch einen Link aufs Webarchiv [3], wohl halbautomatisch, weil unterstützt durch IABot (s. Zusammenfassung).
  2. Edit (21.9., 6:42): Martina ersetzt den zuvor von ihr eingesetzten Webarchiv-Link durch den korrekten neuen Link auf das Museum (das meinte ich mit "gefixt"), außerdem ersetzt sie einen der beiden älteren (s.o., 2016) Webarchiv-Links durch einen alternativen Direktlink auf denselben Text (das ist der von dir, Succu, kritisierte).
  3. Edit (3.10., 22:46): Succu entfernt den zweiten Weblink wieder mit der Begründung, dass der entspr. Artikel Curies bereits in einem Literatur-Abschnitt des Artikels verlinkt sei (was richtig ist, auch wenn es ein anderes Linkziel ist).
  4. Edit (3.10., 22:59): Succu entfernt 2 Weblinks (diesmal ohne Begründung) auf die Curie-Museen in Paris und Warschau, wovon der zum Pariser Museum der zuvor von Martina (mithilfe des IABots) gefixte war. (Anmerkung: Ich verstehe nicht, warum die Museen nicht verlinkt sein sollten, aber das ist inhaltliche Disk, die zum Artikel gehören würde und hier nichts zur Sache tut.)
  5. Edit (3.10., 23:01): Succu entfernt den zweiten der früher (s.o., 2016) schon auf Webarchive umgebogenen Weblinks mit der Begründung "-Memento". (Anmerkung: die Begründung finde ich etwas schräg, weil es ja wohl kein Grund sein kann, einen Link nur deshalb zu entfernen, weil er vom Webarchiv unterstützt ist - inhaltlich aber hat Succu Recht, der Weblink gibt kaum mehr her als tabellarische Lebensdaten.)
  6. Edit (4.10., 0:17): Rax fixt zwei weitere Deadlinks, die o.g. in den Einzelnachweisen, die Martinas Boteinsatz nicht gefunden hatte. (Anmerkung: Succu auch nicht, aber er hatte anders als ich auch nicht danach gesucht.)
Mein Fazit: Der Boteinsatz (wenns denn einer war, wir müssen ja noch abwarten, was Martina dazu zu sagen hat) war zwar merkwürdig, weil er im Abschnitt Weblinks stattfand, der eigentlich für den Bot tabu sein sollte, aber er hat nicht geschadet, sondern genützt, weil er den Deadlink gefunden hat; merkwürdigerweise hat er die Deadlinks in den Einzelnachweisen nicht gefunden. Menschen (zunächst Martina direkt anschließend, dann Succu, dann ich) haben den Artikel anschließend bearbeitet und haben (teilw.) auf die Vorarbeit des Bots zurückgreifen können und geprüft, ggf. verworfen. Gruß --Rax post 03:33, 4. Okt. 2017 (CEST)
nach BK: s.u. Martinas Antwort. --Rax post 03:33, 4. Okt. 2017 (CEST)
Genau, das war ein Test von mir. Kein Versehen und natürlich kein eigenständiges Werkeln des Bots ohne meinen ausdrücklichen Auftrag. Macht mal halblang.
Ich habe aktiv einen Botauftrag zum Reparieren toter Links in diesem Artikel erteilt. Und zwar aus reiner Neugier, nachdem der Bot bei einem meiner ganz frühen Einzeltests beim Entwerfen des Meinungsbilds keinen toten Weblink in diesem Artikel erkannt hatte (obwohl ich aber wusste, dass da mehrere tote Links drin sind). Inzwischen hat der Bot alle Weblinks in allen unseren Artikeln mehrfach geprüft und eine Datenbank für deWP angelegt; sowas sollte also nicht mehr vorkommen. Er hat ja auch tatsächlich den verbliebenen toten Link (ohne Archivvorlage) in dem Artikel diesmal korrekt erkannt.
Dass der Bot im Abschnitt Weblink editiert hat, war ein Versehen, das meinem Verständnis nach der Tatsache geschuldet war, dass der Bot sich in einem Zwischenzustand befand. Eigentlich war er abgeschaltet und hat daher die Restriktion auf Einzelnachweise nicht berücksichtigt. Im Hintergrund aber war der Bot aktiv geschaltet, damit die Link-Datenbank für uns aufgebaut werden konnte. Nur so kann bei einem neuen Testlauf für das Botflag eine geringe Fehlerquote bei der Erkennung erreicht werden. Nachdem ich meinen Einzelartikel getestet habe, hat Cyberpower den Bot komplett deaktiviert. Bei einer regulären Freischaltung wird die korrekte Konfiguration zur Wirkung kommen. Also auch hier: Bitte weiteratmen. :-)
Ganz grundsätzlich kann man wohl davon ausgehen, dass jeder Bot ab und an mal Fehler macht. Nicht mal wir Menschen arbeiten fehelrfrei. Die hier zur Abstimmung stehende Frage ist also nicht, ob Bots zur Wartung toter Weblinks garantiert fehlerfrei laufen können, sondern ob sie uns insgesamt und unterm Strich bei der Wartung toter Links Arbeit abnehmen und Zeit sparen. Und davon bin ich fest überzeugt.
Was an diesem Edit fragwürdig sein soll, versteh ich nicht. Ich habe einen - vor dem Botlauf von einem Menschen gesetzten - Archivlink ersetzt durch eine andere (live) Quelle mit demselben wissenschaftlichen Aufsatz. Auch dieser jetzt gelöschte Archivlink wurde nicht vom Bot gesetzt, sondern von irgendwem vorher. Der andere von mir bearbeitete Link war vom Bot korrekt als tot erkannt und um einen korrekten Archivlink ergänzt worden. Nach einer kompletten Umstrukturierung der Domain fand ich aber einen Link auf die neue Hauptseite der Domain sinnvoller als zu der früheren Unterseite (zur Museumsstiftung). Ich bin üblichwerweise gegen die Verwendung von Archivlinks im Abschnitt Weblinks. Hier setze ich aber andere Maßstäbe an als an Einzelnachweise; sie erfüllen ja auch einen anderen Zweck. Sorry, dass dies jetzt etwas länger geworden ist. Ich finde nunmal, dieses ganze Thema gehört differenziert behandelt. --Martina Disk. 03:13, 4. Okt. 2017 (CEST)
nur zu "Was an diesem Edit fragwürdig sein soll" - siehe dazu oben unter "3. Edit" in meinem Beitrag. Gruß --Rax post 03:37, 4. Okt. 2017 (CEST)
Oh, okay, danke. --Martina Disk. 03:48, 4. Okt. 2017 (CEST)
@Martina: was meinst du, warum der Bot bei deinem Testlauf die Deadlinks in den Einzelnachweisen nicht gefunden hatte? --Rax post 03:40, 4. Okt. 2017 (CEST)
Im Hintergrund muss Cyberpower für jede Wikipedia eine Datenbank aufbauen mit den lokal verwendeten Links, die als tot und live erkannt wurden. Dafür wird jeder Link dreimal getestet. Dies war bei beiden Testläufen noch nicht der Fall und deshalb war die Fehlerquote zwar schon niedrig aber noch weit höher als es nach einer regulären Freischaltung des Bots der Fall sein wird. Nach Ablauf des Tests hat sich Cyberpower dazu enstchlossen, uns schon eine Datenbank aufzubauen (obwohl er das per eigener "Policy" eigentlich nur macht, wo der Bot genehmigt wurde - finde ich sehr lobenswert). Beantwortet das deine Frage? --Martina Disk. 03:48, 4. Okt. 2017 (CEST)
jepp, merci, ich denke schon, ich wollte drauf raus, ob das an der Datenbank, den Boteinstellungen oder deiner eigenen Entscheidung lag. --Rax post 03:54, 4. Okt. 2017 (CEST)
Das eine ist derselbe Link, den der Bot im Abschnitt Weblinks korrekt erkannt und ergänzt hat. Der Bot arbeitet in diesem eigentlich nicht vorgesehenen Zwischenstadium (siehe weiter oben) nicht brav nach unserer Konfiguration (Archivlinks nur in Einzelnachweisen ergänzen, tote Links im Abschnitt Weblinks nur auf der Disk. melden). Ich nehme an, dass wir für den Botflag-Antrag nochmal einen Test laufen lassen werden. Die Anforderungen für den Erhalt eines Botflags werden von dem MB ja nicht außer Kraft gesetzt. Da kann man auf solche Details nochmal ein sehr genaues Auge halten, bevor dieser konkrete Bot zugelassen wird. Ich bin da aber sehr zuversichtlich. Der Bot ist jetzt schon mit Abstand das intelligenteste (außer Menschen natürlich), was wir zur Weblinkwartung gesehen haben, und Cyberpower reagiert zügig auf Fehlermeldungen und arbeitet kontinuierlich an weiteren Verbesserungen seines Programms. --Martina Disk. 04:09, 4. Okt. 2017 (CEST)

Ganz verstanden hab ichs noch nicht. Dies ist ein Edit, der dem Log zufolge von Dir ist, aber mit der Versionszusammenfassung: InternetArchiveBot hat 1 Archivlink(s) ergänzt und 0 Link(s) als defekt/tot markiert. #IABot (v1.5.3). Das heißt, der Bot hat hier tatsächlich in Deinem Namen agiert, er hat "performed an action on your behalf", er hat also das gemacht, wozu Du ihm die von AFBorchert und mir zitierte Einwilligung erteilt hast. Wenn er solche Edits nur dann durchführt, wenn Du ihm aktiv einen Prüfauftrag erteilt hast, ist das einigermaßen verständlich. Wir hatten aber ja oben festgestellt, dass eine solche Einwilligung bereits verlangt wird, wenn man lediglich mal (auch nur versuchsweise) ein false positive melden will. Mir wäre wichtig, dass einem Botedits dieser Art im eigenen Namen nicht "zustoßen", wenn man das nicht ausdrücklich will. Es wäre fatal, wenn der Bot bspw. in meinem Namen editieren würde, bloß weil ich mal zu Versuchszwecken eine Einwilligung gegeben habe (und das nur wegen Meldung von false psoitives). Ist das verständlich?--Mautpreller (Diskussion) 10:16, 4. Okt. 2017 (CEST)

Also Mautpreller, um das einmal klarzustellen: Der Tool nimmt sich nicht deinen Account und macht damit fröhlich ungefragt irgendwelche Edits. Das wird einfach nicht passieren. Damit das Tool tatsächlich Edits in deinem Namen durchführt, musst du ihm das aktiv auftragen. Ich bin mir sogar recht sicher, dass es technisch nicht mal theoretisch möglich wäre, nach OAuth-Authentifizierung mit deinem Account zu interagieren, ohne dass du die Seite gehst; praktisch wird es auf jeden Fall nicht passieren. Es ist einfach eine andere Art des Logins, die dadurch sicherer ist, dass sie nicht erfordert, auf anderen, potentiell sicherheitsfehlerbehafteten Seiten dein Pass wort zu hinterlegen. Falls du ein false positive melden möchtest, möchte der Bot das klar mit einem meldenden Wikipedia-Account assoziieren, daher fordert er eine Authentifizierung über OAuth an. Dass er dabei, auch wenn du lediglich false positives melden möchtest, neben den Basisrechten direkt auch die Bearbeitungsrechte einfordert, ist nicht seine Schuld, sondern eine Defizit in der OAuth-Konzeption. Ähnlich wie in alten Android-Versionen musst du dich entscheiden, ob der Bot alle Rechte kriegt, die er potentiell für seine Arbeit brauchen kann, oder kannst ihn nicht benutzen. Eine situationsabhängige Vergabe (d.h. das Tool fragt erst nach den Bearbeitungsrechten sobald du wirklich bearbeiten willst) scheint OAuth biher leider nicht zu unterstützen. --MGChecker – (📞| 📝| Bewertung) 12:42, 4. Okt. 2017 (CEST)
Ja genau darum ging es mir: Der Tool nimmt sich nicht deinen Account und macht damit fröhlich ungefragt irgendwelche Edits. Das wird einfach nicht passieren. Ich wünsche mir, dass das stimmt. Kann ich mich darauf verlassen? Ist das irgendwo niedergeschrieben? Ich habe schon verstanden, dass es nicht am Bot, sondern an dem Authetifizierungstool liegt. Ich bin aber ein bisschen skeptisch, wenn ich aufgefordert werde, eine "permission" zu geben, die ich eigentlich gar nicht geben möchte. Die Befürchtung, dass diese "permission" dann auch benutzt wird, ist ja nicht völlig abwegig und ich bin nicht der Einzige, dems dabei etwas schwummrig wird.--Mautpreller (Diskussion) 12:50, 4. Okt. 2017 (CEST)
Ich halte das für ein komplett unrealistischen Szenario. --Martina Disk. 15:34, 4. Okt. 2017 (CEST)
Naja, Du hast ja auch bei AFBorchert gesehen, dass das zumindest unbehagliche Gefühle auslöst, wenn nicht mehr. Ich geh ebenfalls davon aus, dass das unwahrscheinlich ist. Trotzdem: Bevor man eine "permission" ausstellt, möchte man doch gerne sicher sein, dass da nichts passieren kann.--Mautpreller (Diskussion) 15:39, 4. Okt. 2017 (CEST)
Wenn jemand unsicher ist, ob er einen Botauftrag erteilen will, der in seinem Namen ausgeführt wird; dann lässt es halt einfach. Wenn du dir die Anleitungen durchliest, wirst du aber sehen, dass man da eh nix kaputtmachen kann. --Martina Disk. 15:45, 4. Okt. 2017 (CEST)
Da kann nichts passieren. Der Tool macht nichts, ausser da steht darauf das es mit dein Konto was macht. Der einzige Tool das was macht ist https://tools.wmflabs.org/iabot/index.php?page=runbotsingle&wiki=dewiki und da wird es klar gemacht das Bearbeitungen von deinem Konto gemacht wird wenn es was zu bearbeiten gibt, und nur auf die Artikeln das du eingibst. "Sobald du den Artikel zur Überprüfung einsendest, wird in deinem Namen sofort eine Bearbeitung gemacht, falls der Bot in dem eingegebenen Artikel etwas findet." Solltest du Sorgen um Sicherheit haben, da kann ich dir auch helfen. Alle Konto tokens sind mit einer Zufallsgenerator verschlüsselt. Keiner kommt an dein Konto heran. Um noch weitere Sicherheit anzubieten kannst du den Appzugriff bei https://de.wikipedia.org/wiki/Spezial:Meine_Berechtigungen_verwalten entziehen. Dann ist der Tool von deiner Konto wieder getrennt.—CYBERPOWER (Diskussion) 19:37, 4. Okt. 2017 (CEST)
Danke, hab den Zugriff entzogen.--Mautpreller (Diskussion) 20:56, 4. Okt. 2017 (CEST)
Vorlage:Yo Gern geschehen. Benutztersicherheit ware Priorität Nummer 1 als ich dieses Tool entwickelte.—CYBERPOWER (Diskussion) 21:34, 4. Okt. 2017 (CEST)

Anstatt der Analyse der Versionsgeschichte wäre für mich ein Verweis auf Benutzer:InternetArchiveBot#Tools: IABot-Management-Interface (=IABotManagementConsole) hilfreicher gewesen. --Succu (Diskussion) 20:33, 4. Okt. 2017 (CEST)

OK. --Martina Disk. 20:37, 4. Okt. 2017 (CEST)
Ist sicher nicht OK. Beim Aufruf von https://tools.wmflabs.org/iabot/index.php?page=runbotsingle erscheint die Meldung
Anmeldung erforderlich
Um die Tools in diesem Interface zu nutzen, musst du mit deinem Wikipedia-Account eingeloggt sein. Hier automatisch anmelden und loslegen.
Beim Klicken auf den Link gab es eine Fehlermeldung
An error occured connecting to your account:
Error retrieving token: mwoauth-oauth-exception
Click here to try to login again!!!
Erst nach dem Klick auf try to login again!!! bin ich auf meiner OAuth-Seite gelandet. Sieht für mich fast wie Phishing aus.
Das dann in meine Namen angeforderte Recht Mit Seiten interagieren möchte:
  1. Vorhandene Seiten bearbeiten
  2. Geschützte Seiten bearbeiten
  3. Seiten erstellen
  4. Seiten bearbeiten
  5. Seiten verschieben
Da zuck ich etwas zusammen, da ja nur ein Link auf eine mehr oder minder passende Seite im IA gesetzt werden soll. --Succu (Diskussion) 00:10, 5. Okt. 2017 (CEST)
@Cyberpower678: Es gibt hier inzwischen selbst für mich als Techniker einige Dinge, die ich nicht mehr verstehe:
  1. Wozu braucht der Bot die Rechte 2, 3 und 5 aus Succus Liste?
  2. In welchen Situationen erfordert der Bot es auf die anderen Rechte zuzugreifen, die er laut mw:Special:OAuthListConsumers/view/ad8e33572688dd300d2b726bee409f5d grundsätzlich verlangen darf? Ist ewas der Bot verlangt und was er verlangen darf entkoppelt?
--MGChecker – (📞| 📝| Bewertung) 00:44, 5. Okt. 2017 (CEST)
Nummer 2 ist so das admins Vollgeschützte Seiten Analysieren können. 3 ist gebraucht um die Diskussionsseiten zu erstellen für Botmeldungen, falls erforderlich. 5 braucht er nicht aber war mit die anderen rechten gekoppelt und konnte ich nicht entfernen durch OAuth Limitationen. (nicht signierter Beitrag von Cyberpower678 (Diskussion | Beiträge) 00:54, 5. Okt. 2017 (CEST))
3, 4 und 5 sind offenbar eine Berechtigung: create, edit and move pages. Für diese Kopplung ist offenbar OAuth verantwortlich, nicht der Bot. Bleibt allerdings das Problem, dass man wegen der Art und Weise, wie OAuth funktioniert, erstmal diese Berechtigungen komplett auf Vorschuss vergeben muss, bevor man auch nur eine Fehlermeldung abgeben kann. Es ist ja abzusehen, dass das MB durchgeht (zu meinem Bedauern). Dann wäre es aber ernsthaft eine Überlegung wert, wenigstens Fehlermeldungen außerhalb dieses Mechanismus zu ermöglichen, wie es der GiftBot tut (schlicht "on wiki"). Wurde auch schon mehrmals angeregt. Dass ein dezidierter Prüfauftrag ("Schau Dir für mich mal diese Seite an, markier die toten Links und ergänze Archivlinks") diese Berechtigungen verlangt, ist ja einzusehen und auch gar nicht so dumm, denn dann ist an den Edits zu erkennen, dass der Verantwortliche derjenige ist, der den Auftrag erteilt hat. Um aber zu sagen: Dein Bot markiert folgende Links als unerreichbar, die in Wirklichkeit live sind, oder: Dein Bot setzt einen Archivlink ein, der untauglich ist, sind solche Berechtigungen überhaupt nicht nötig. Da müsste man doch einen vernünftigen Weg ohne die Limitationen von OAuth finden können.--Mautpreller (Diskussion) 10:28, 5. Okt. 2017 (CEST)
Es steht uns ja frei und ich finde es unterstützenswert, Fehlermeldungen auch in Wikipedia entgegenzunehmen und in das IABot-Interface zu übertragen. Ist arbeitsreicher und dauert länger, aber aus Erfahrung wissen wir, dass interne Abläufe manchmal besser angenommen werden als externe Tools. --Martina Disk. 19:50, 5. Okt. 2017 (CEST)

Diskussionen von Projektseite[Quelltext bearbeiten]

Thema: "Hinterzimmer-Entscheidung" zur Ablehnung des MBs durch Bestoernesto,

<snip>
@Bestoernesto: Hinterzimmer? Du musst nur Wikipedia:Meinungsbilder auf deine Beo nehmen, dort steht seit 14. Juli[4], dass dieses MB vorbereitet wird. --dealerofsalvation 20:55, 3. Okt. 2017 (CEST)
mit sicherheit nicht "hinterzimmer"; erg. dazu: MB ist (1.) in Vorlage:Beteiligen eingetragen (im Schnitt 90 Aufrufe/Tag sowie 687 Einbindungen auf anderen Seiten), ist (2.) im Autorenportal eingebunden (im Schnitt 1900 Aufrufe/Tag sowie auf jeder WP-Seite in allen Namensräumen verlinkt), ist (3.) seit seit 14. Juli bei den "Meinungsbildern in Vorbereitung" eingetragen (die MB-Seite hat 968 Beobachter und hatte im Zeitraum 14. Juli bis 1. Oktober im Schnitt 34 Aufrufe/Tag (d.h. über 2700 gesamt)). Wer sich für solche Entscheidungsprozesse interessiert, bekommt sie auch mit. Gruß --Rax post 21:22, 3. Okt. 2017 (CEST)
Hallo dealer & Rax: Sehr wohl "Hinterzimmer": Die Zahlenspielereien sind reine Augenwischerei. Z.B. die 687 Einbindungen der Vorlage in anderen Seiten betreffen ja wohl die Benutzer-Disk-Seiten derjenigen, die diese Eintragung irgendwann mal gemacht haben. Wie viele davon zu den rund 2,7 Mil. registrierten Benutzern zählen, die nur noch wenig oder gar nicht mehr aktiv sind, jedenfalls mangels genügender Aktivität aktuell keine Stimmberechtigung (mehr) haben, kann man sich ausmalen. Ebenso nichtssagend ist die Zahl der Aufrufe des Autorenportals (war da heute selbst zum ersten Mal). Das werden zum Einen im großen und ganzen immer die selben Leute sein, und wie viele Aufrufer anteilig mangels Stimmberechtigung bezüglich MBs und anderer Wahlen dort gar nicht ins Gewicht fallen steht auf einem anderen Blatt. Die 2700 Aufrufe des MBs gehen wohl zu 90% auf die daran Mitarbeitenden und / oder Diskutanten dazu. So wurde das MB in dem von dir genannten Zeitraum alleine 384 mal bearbeitet. Vor jedem der 497 Diskussionsbeiträge (wovon sich 94% grad ganze 9 Autoren teilen) wurde die MB-Seite ja wohl einige Male von immer den gleichen Leuten aufgerufen, (von mir locker ein Dutzend mal), die Aufrufzahl ist somit kaum die Nullen wert...
Bei WP gibts zu allem eine Statistik, interessanter Weise nur zur Anzahl der aktuell stimmberechtigten Benutzer nicht (welch ein Zufall!). Ich schätze es sind mal so um die 15.000. Solange diese nicht automatisch, unabhängig von irgendwelchen Vorlagen und unübersehbar auf Meinungsbilder / Wahlen hingewiesen werden, ist das eine Farce und für mich ein Hinweis darauf, dass die Abstimmerei bevorzugt im Hinterzimmer möglichst unauffällig abgewickelt werden soll. Denn sonst würde man das ganze ja jedem stimmberechtigten User wie sonst diverse andere Events (wie aktuell z.B. BARCAMP WIKIDACH) nach jeder Anmeldung in der Kopfzeile vor Augen halten und somit einen Teilnehmer-Prozentsatz erreichen, der die Meinung der stimmberechtigten Benutzer wenigstens einigermaßen realitätsbezogen widerspiegelt.--Ciao • Bestoernesto 01:00, 4. Okt. 2017 (CEST)
Ich schlage vor, diese Diskussion auf die Diskussionsseite zu verschieben. Falls du MB für Hinterzimmer hälst, lehnst du dann sämtliche MB formal ab die irgendwas relevantes entscheiden? --mfb (Diskussion) 01:41, 4. Okt. 2017 (CEST)
Zustimmung. --Rax post 02:00, 4. Okt. 2017 (CEST)
Öhm - die Aufrufzahlen dieser MB-Seite hier hatte ich weder erwähnt noch verlinkt - du hast also Recht, aber das war nicht mein Argument. Dass du heute zum ersten Mal das Autorenportal angeklickt hast - na, ist eben so; ich selbst kann mich erinnern, dass ich es zu Beginn meiner Mitarbeit als Autor als einen der ersten Links überhaupt angeklickt habe; ich denke, wenn man überhaupt interessiert ist, wie Wikipedia redaktionell funktioniert, wird man es problemlos finden. Aber: tatsächlich schwierig ist zu benennen, was "aktiv" eigentlich heißt. Es gab bis 25.9. (jüngste Stat) 1681 User mit mehr als 100 Edits/90 Tage; es gab im August 2017 (jüngste Stat) 4488 User mit mehr als 5 Edits/Monat und 724 User mit mehr als 100 Edits/Monat. Meine Vermutung ist, dass alle diese auch erreicht werden konnten - wenn sie erreicht werden wollten. Deine ist anders - ok, aber wie ließe es sich beweisen? Gruß --Rax post 02:00, 4. Okt. 2017 (CEST)
</snap> - umgesetzt --Rax post 02:07, 4. Okt. 2017 (CEST)

Do not feeeeed .... --mirer (Diskussion) 03:19, 4. Okt. 2017 (CEST)

Naja, das ist eine sehr fundamentale, aber zulässige Kritik an unseren Entscheidungsfindungsprozessen. Die Diskussion über eventuell bessere und demokratischere Lösungen anzustoßen, wäre an anderen Stellen wie etwa WD:MB, WD:Kurier oder WP:Projektdiskussion sinnvoller. Hier beim MB wird über den inhaltlichen Vorschlag diskutiert, nicht über das derzeitig gültige Verfahren. --Martina Disk. 03:30, 4. Okt. 2017 (CEST)

+1, wenn du die Wikipedia-Entscheidunsprozesse verändern willst, kannst du das auf der allgemeinen MB-Disk tun. Hier ist der falsche Ort dafür. --MGChecker – (📞| 📝| Bewertung) 12:43, 4. Okt. 2017 (CEST)

Die hoch geistreiche Bemerkung von Benutzer:Mirer ist höchst bezeichnend für die Zeit: Massen an geistlosen Totschlagsphrasen aus der Menge heraus abgeworfen, Abweichler „mundtot“ zu machen. Dem Mitmacher ist jede eigene/abweichende Meinung "Trollerei". --Trollflöjten αω 20:55, 5. Okt. 2017 (CEST)

Wow! Die ZQ war auch nicht schlecht!! Hörst dich aber schon gerne selbst reden, gell?! --mirer (Diskussion) 21:17, 5. Okt. 2017 (CEST)
Nein, überhaupt nicht (ist tatsächlich so, egal); und du weißt doch: mit Trollen spricht man nicht. --Trollflöjten αω 22:04, 5. Okt. 2017 (CEST) PS: Wäre das nicht auch eine gute Gelegenheit zum "Bullshitbingo"-Rufen gewesen? fast hätte ich auch noch entfernt den Godwin-Reflex bedient.

Können wir uns bitte hier auf Beiträge zur Sache beschränken und persönliche Betrachtungen, wenn nötig, auf Benutzerdiskussionsseiten auslagern? --Martina Disk.

Ich betrachte das durchaus als einen Beitrag zur Sache, wenn anhand derselben Allgemeingültiges angesprochen wird, das wiederum ins Konkrete wirkt. --Trollflöjten αω 22:04, 5. Okt. 2017 (CEST)

Bot ohne Flag?[Quelltext bearbeiten]

Als ich das hieer gelesen habe, ist mir ein Gedanke gekommen, bei dem ich nicht weiß, ob er schon mal berücksichtigt wurde, bei GiftBot bspw., der mir aber gerade höchst sinnvoll vorkommt: Warum sollte der Bot überhaupt mit Flag editieren? Angenommen man drosselt den Bot ausreichend, dass er die LÄ nicht zu sehr flutet (alle 30s ein Edit bspw.), scheint mir das Ideal zu sein, denn das Ziel des Ganzen ist ja, nur eine Übergangslösung herzustellen.

Habe ich nun eine Seite mit defektem Weblink auf meiner Beobachtungsliste, weiß ich das zunächst mal wahrscheinlich gar nicht. Editiert da jetzt ein Bot mit Flag drüber und markiert ein paar Weblinks als tot, wird sich wahrscheinlich daran auch nichts ändern. Sehe ich allerdings auf meiner Beobachtungsliste – also wahrscheinlich sogar in einem Bereich, in dem ich mich auskenne – dass Weblinks als tot markiert wurden, ist die Wahrscheinlichkeit recht hoch, dass ich mich dem inhaltlich annehme, was vermutlich auch für Tausende andere gilt, die regelmäßig ihre Beo checken. Durch die Vielzahl der Leute, die in ihren Themenbereichen davon mitkriegen, könnte so die Zahl der zu prüfenden Links recht schnell merklich reduziert werden und sogar bessere Alternativen eingefügt werden.

Was hieltet ihr davon? Natürlich bräuchte der Bot allerdings trotzdem noch ein Flag, allein um leicht geschützte Seiten zu bearbeiten und erhöhte API-Limits nutzen zu können. Apropos, apihighlimits kann man auch global beantragen; @Cyberpower678: Did you ever think of requesting membership in the m:API high limit requestors group? --MGChecker – (📞| 📝| Bewertung) 13:03, 4. Okt. 2017 (CEST)

Manch einer wäre genervt, wenn ein Bot ständig Nachsichtungsbedarf produziert.Cyberpower lässt seinen Bot nirgends laufen, wo er nicht ausdrücklich genehmigt wurde. Von daher ist ein globales Flag vermutlich nicht nützlich. --Martina Disk. 15:39, 4. Okt. 2017 (CEST)
Nein, Nachsichtung wäre dann doch zu übertrieben. Ich meine gerade lediglich: Bot-Edits werden für gewöhnlich aus Beobachtungslisten ausgeblendet. Das wäre in diesem Fall vermutlich eher kontraproduktiv, und man sollte das überdenken. Wenn die Edits – gesichtet – in der BEO auftauchten, könnte das für einige ein Anreiz sein was zu tun. Ansonsten: Die erhöhten API-Limits sind schon beim Aufbau der Datenbank und für ähnliche organisatorische Vorarbeiten praktisch. --MGChecker – (📞| 📝| Bewertung) 20:37, 4. Okt. 2017 (CEST)
Aha ok. Das kann man wirklich beim Antrag auf Flag, Aufhebung der Geschwindigkeitsgrenze etc vorschlagen und zuende diskutieren. --Martina Disk. 20:43, 4. Okt. 2017 (CEST)
„Bot-Edits werden für gewöhnlich aus Beobachtungslisten ausgeblendet“ - das wäre mir neu. --Succu (Diskussion) 23:34, 4. Okt. 2017 (CEST)
Das kann man an- und abstellen: "Einstellungen" -> "Beobachtungsliste" -> "Erweiterte Optionen" -> Häkchen bei "Bearbeitungen durch Bots in der Beobachtungsliste ausblenden". Viele Grüße, -- Toni (Diskussion) 23:37, 4. Okt. 2017 (CEST)
Funktioniert nur nicht... --Succu (Diskussion) 00:19, 5. Okt. 2017 (CEST)
Bei mir zumindest schon. Vielleicht wurden deine letzten Änderungen einfach nur nicht von Bots getätigt? Gruß, -- Toni (Diskussion) 00:25, 5. Okt. 2017 (CEST)
Wenn ein Bot mit Flag editiert, ist der Edit in RC und Beo mit B markiert (neben dem K für kleine Änderung ggf.). Editiert er ohne, steht da kein B und der Bot wird selbst mit entsprechender Einstellung nicht ausgeblendet. --MGChecker – (📞| 📝| Bewertung) 00:47, 5. Okt. 2017 (CEST)

Ersetzt das neue Verfahren den GiftBot?[Quelltext bearbeiten]

Hallo zusammen, eine Frage: Wird, wenn das neue Verfahren (Ergänzung von Archivlinks) eingeführt wird, GiftBot weitere Suchläufe vornehmen und weiter Hinweise auf der Artikeldisk hinterlassen oder plant ihr das einzustellen? Bisher lese ich nur Der GiftBot könnte z. B. auch weiterhin veraltete Botmeldungen von Diskussionsseiten entfernen und tote Weblinks aus dem Abschnitt „Weblinks“ auf der Diskussionsseite melden. Wenn er das nicht mehr tun sollte, fänd ich das schade, da GiftBot damit auch eine ungemein wichtige Hilfestellung übernommen hatte. Niemand prüft ohne Weiteres anstelle von GiftBot massenmäßig Artikel auf tote Links. Gruß, -- Toni (Diskussion) 23:28, 4. Okt. 2017 (CEST)

Doch, der Internet Archive Bot… Und selbst wenn, diese Frage kann dir letzlich nur Gifti beantworten. --MGChecker – (📞| 📝| Bewertung) 00:45, 5. Okt. 2017 (CEST)

(nach BK) Wir haben dies während der Vorbereitung diskutiert (mir ging es wie dir) und dann entschieden die Community lediglich zu fragen, ob sie die definierten Botfunktionen im Artikelnamensraum wünscht oder nicht. Das Meinungsbild regelt bewusst nicht, welcher Bot welche Aufgabe genau im Rahmen der generellen Weblinkwartung übernimmt. Insbesondere regelt das MB nicht, ob und welche Bots tote Links auf Diskussionsseiten melden. Dies wurde in der Vergangenheit ja auhc nciht durch ein MB geregelt. Deshalb haben wir während der Vorbereitungen entschieden, die Koordinierung und Zusammenarbeit verschiedener Bots den Botbetreibern zu überlassen.
GiftBot hat das letzte Mal im Januar 2016 tote Links gemeldet. Im Juli schrieb Giftpflanze im Zuge der MB-Vorbereitung (da hatten wir noch verschiedene MB-Vorschläge angedacht): "Wenn Bearbeitung des ANR im MB angenommen wird, ist es am zweckmäßigsten, dies den IABot durchführen zu lassen, da dieser schon fertig programmiert und getestet ist. Wenn nur die Bearbeitung des Diskussionsnamensraumes angenommen wird, hängt es davon ab, ob ich Zeit haben werde, denn ich hoffe im September/Oktober ein Medizinstudium aufnehmen zu können. Ich hatte zwar auch in den stressigen 3 Jahren, in denen ich mein Abitur nachgeholt habe, etwas Zeit nebenher, aber vorhersehen kann ich das nicht." Ich weiß nicht, was der aktuelle Stand ist. Das müsste Giftpflanze selbst sagen. --Martina Disk. 00:50, 5. Okt. 2017 (CEST)

Zusätzliche Wartungsliste und die Frage des Kaschierens von toten Links[Quelltext bearbeiten]

Weil es auf der Vorderseite beim Abstimmungskommentar von @Boehm: langsam etwas voll wird, ich die Frage aber wichtig finde und zugebe, nicht alle Diskussionen hier zu verfolgen: Gibt es den Plan, neben dem Bot-Eingriff in die Artikel auch eine allgemeine Wartungsliste zu erstellen? Den Aufwand dafür stelle ich mir gering vor, es müssten ja nur die Bearbeitungen im Rahmen des Botlaufs irgendwo gesammelt und vielleicht strukturiert werden. Und noch @Boehm: Du schreibst zuletzt: „Das Problem mit den fehlerhaften Links … ist oft begleitet von inhaltlichen Veränderungen. … Nur ein Mensch kann die Veränderung richtig bewerten. … Es besteht keine dringende Notwendigkeit für eine massenhafte Bot-Aktion, die das Problem nur kaschiert.“ Dringend vielleicht nicht, aber was sagst du zu dem Argument, dass es für die Leser von WP-Artikeln eine große Hilfe ist, wenn sie die durch die Weblinks gegebenen Belege und weiterführenden Informationen auch abrufen können? Eines der wichtigsten Prinzipen der Wikipedia ist für mich die Überprüfbarkeit ihrer Informationen, was ich hier mal mit dem Autopsieprinzip verbunden habe und mit Transparenz, Medienkompetenz und eigenverantwortlicher Abkehr von Autoritätsgläubigkeit. Dem hilft es sehr, wenn die Weblinks abrufbar sind, weshalb ich da schon Handlungsbedarf sehe. Und der Bot arbeitet ja so, dass er nicht einfach kaputte Weblinks ersetzt, sondern die alten, kaputten stehenlässt und daneben einen Archivlink-Vorschlag setzt. Das ist doch eine ziemlich gute Handlungsaufforderung, auch für zufällig vorbeischauende Leser, das zu überprüfen und nötigenfalls zu ändern, meinst du nicht? Deshalb wird da in meinen Augen nichts „kaschiert“, sondern überhaupt gerade erst offengelegt: Denn eigentlich ist es doch gerade andersrum, dass ein toter externer Link, auf den WP einen Link setzt, eine Kaschierung der Nichterreichbarkeit bewirkt; eigentlich müsste ja im Sinne unserer internen Rotlinks der broken link nach draußen sowieso automatisch als unerreichbar angezeigt werden, wenn man nach Wiki-Logik geht. --Andropov (Diskussion) 13:44, 5. Okt. 2017 (CEST)

Ja es gibt fast nichts wichtigeres als, dass die Artikelleser die Chance bekommen die Quellen zu besuchen und dort sich selbst ein Bild zu machen, wie gut die Dinge im Wikipedia-Artikel dargestellt sind und viele nutzen ja auch Wikipedia um vertiefender ins Thema einzusteigen, diese suchen ja eigentlich im wesentlichen die Quellen. Bei der Gelegenheit auch die Bitte: Falls vorhanden bitte nicht nur die Literaturangabe machen sondern auch die Online-Version oder wenigstens das Abstract zu verlinken (wird manchmal leider vergessen) ist aber Service für den Wikipedia-Besucher. --BotBln = Botaniker in Berlin (Diskussion) 14:40, 5. Okt. 2017 (CEST)
Ja vielleicht fühlen sich dann ein paar mehr Leute ermutigt sich an der Abarbeitung dieser dann einfacher zu findenden Archivlinks zu beteiligen. --BotBln = Botaniker in Berlin (Diskussion) 14:40, 5. Okt. 2017 (CEST)
Ich seh das anders. Siehe etwa die Diskussion oben über "Fehlerquote & Check". Davon geht mit einiger Sicherheit nicht eine Handlungsaufforderung aus, der Effekt wird vielmehr "Ruhe sanft" sein - Problem behoben, ob der Link passt, wird niemanden interessieren, ganz sicher keinen "zufällig vorbeischauenden Leser". Ich könnte mir vorstellen, dass in begrenzten Themenbereichen, die viele "depublizierte" Links und inhaltlich engagierte Mitarbeiter haben, ein Prüfauftrag sinnvoll sein könnte. Bei flächendeckender Anwendung halte ich das hingegen für kontraproduktiv, hier wird das bisherige Stückwerk aus schlecht gegoogleten Links nur auf Dauer gestellt.--Mautpreller (Diskussion) 15:00, 5. Okt. 2017 (CEST)
Deine Position hat schon was für sich, Mautpreller, aber du scheinst davon auszugehen, dass die jetzige Regelung mit weitgehend ungestörter Linkverrottung und allen paar Jahren mal einem Botlauf mit Diskhinweis irgendwie besser geeignet wäre, das Qualitätsproblem zu lösen. Das kann ich nun überhaupt nicht erkennen; in Bereichen, in denen ich häufiger mit seriellen ingen zu tun habe, vor allem Terrorismus mit vielen Links zu depublizierten öffentlich-rechtlichen Informationsangeboten und amerikanischen Politikern mit irgendwann vom Netz genommenen Wahlergebnissen und Kongressbiographien (wirklich, werden nach Ausscheiden einfach gelöscht!) hat es fast überhaupt keine Ersetzungen von Totlinks gegeben. Vielleicht lässt sich das Qualitätsproblem nicht lösen, aber schlimmer als jetzt kann es kaum werden; warum also nicht einfach mal ausprobieren? --Andropov (Diskussion) 15:16, 5. Okt. 2017 (CEST)
Wie wärs (meine Rede seit Beginn der Diskussionen um dieses Meinungsbild), sich mal konkrete Fälle anzugucken? Ich will Dein Argument nicht grundsätzlich bestreiten, das mag bei amerikanischen Wahlergebnissen so sein. Doch meine eigenen Erfahrungen sehen sehr anders aus. Ich habe in den von mir beobachteten Artikeln genau einen brauchbaren Archivlink gefunden. Das ist mehr als keiner, viel ist es aber nicht. Dagegen sehr viel Müll, der auf diese Weise einfach Jahr um Jahr fortgeschrieben (werden) wird. Ohne Rücksicht darauf, dass es längst Besseres zum Thema gibt als uralte gegooglete Pressemitteilungen und Zeitungsschnipsel. Um wirklich Hilfestellung für Qualitätssicherung zu bieten, müsste ein Tool Entscheidungshilfen bieten, statt den bequemen Archivlink in den Artikel zu spülen. Ein Hauptgrund für Linkverrottung ist m.E., dass die Informationen im Link nicht mehr gegenwartstauglich sind (aus sehr verschiedenen Gründen). Ein weiterer sind interne Umstellungen großer Webseiten, die man nachvollziehen müsste, statt auf nicht mehr gepflegte Archivversionen zu verlinken. Und dann gibt es noch den Fall, den Du nennst: Depublikationen und Löschungen, die nichts mit Gegenwartstauglichkeit zu tun haben. Ich hab mir mal die Archivlinks in Afghanistan angeguckt, die sind praktisch durchgängig unbrauchbar.--Mautpreller (Diskussion) 15:31, 5. Okt. 2017 (CEST)
Ich hab beispielsweise viel mit Online-Datenbanken und Webseiten wissenschaftlicher Institute zu tun. Dort passiert es immer wieder, dass die Webseiten völlig umgebaut werden und völlig neue Webadressen erzeugt werden. Das betrifft dann jeweils hunderte Artikel, mit diesen Weblinks. Problem teilweise gelöst dadurch, dass Vorlagen gebaut werden und dann die neue Webadresse nur dort geändert werden muss (naja da müssten noch einige solche Vorlagen gebaut werden). Oder aber ein Mitarbeiter verlässt die Institution und all seine Webeinträge werden einfach vom Server genommen. oder aber ein Trump lässt einfach alle Regierungs-Webseiten vom Netz nehmen, die seinen Ansichten nicht passen. Also in meinem Bereich in dem ich arbeite ist das sehr häufig. --BotBln = Botaniker in Berlin (Diskussion) 15:59, 5. Okt. 2017 (CEST)
(BK auch @Mautpreller:) In meinen letzten Bearbeitungen gekramt: Mein umseitiges Beispiel mit der ehrfurchtgebietenden Liste von 35 toten Weblinks in Nationalsozialistischer Untergrund habe ich tatsächlich anders gelöst, nämlich durch eine ziemlich aufwändige Generalüberarbeitung, bei der ich insbesondere nach dauerhaft verlinkbaren Angeboten gesucht habe. Das kann man für komplexe Themen aber nicht immer stemmen, sonst kommt man nie zu Ergebnissen. Deshalb ist die zugehörige Ceska-Mordserie, die noch niemand so recht überarbeitet hat, auch weiterhin mit sieben von ursprünglich 13 Meldungen dabei, die allermeisten davon Tagesschau.de oder Ähnliches (klar, es gibt dazu inzwischen erste Literatur, aber Medienberichte werden bei dem Thema auch weiterhin wichtig bleiben). Ansonsten aus den letzten Tagen: Michael Grimm hat durch Archivversionen jetzt auch wieder einen Beleg zum Wahlergebnis und einen Link zu seiner amtlichen Kongress-Website bekommen, was anders nicht lösbar ist, solange er aus dem Kongress ausgeschieden bleibt. Das Wahlergebnis kann man natürlich anderswo recherchieren, aber lohnt es für eine solche Kleinigkeit den Aufwand, auf den Websites irgendwelcher County-Verwaltungen zu graben? Gestern habe ich zufällig Schuldenerlass durchgesehen und einen Archivlink gelegt für einen Aufsatz in der ebenfalls depublizierten Website inwent.org (weil die Bundesregierung ihre Organisation der Entwicklungszusammenarbeit meinte ändern zu müssen). Vor ein paar Tagen: Zusammenstellungen von Wählerlisten im 9. Kongresswahlbezirk Arizonas, die sich sonst nie wieder finden lassen würden und die nicht unwesentlich sind, weil sie den Ausgangszustand des beim Redistricting 2012 geschaffenen Wahlkreises schildern. Bei Lluís Llach habe ich den Archivlink zu einer alten, ganz schönen, aber lange abgeschalteten Website namens Gantenbein gesetzt, die als eine der wenigen mir bekannten deutschsprachigen mit Tonbeispielen und guten Texten zu Llach informiert hat. Sicher alles keine weltbewegenden Sachen, aber ich halte die Versionen des Internet Archive in jedem dieser kürzlichen Fälle für eine Verbesserung und Arbeitserleichterung. Während ich zeitgleich durchaus auch andere Totlinks ganz durch bessere/neuere ersetzt habe (hier, hier oder hier). Das alles ist aber aus der Sicht des Wissensproduzenten gedacht, der vor dem gigantischen WP-Qualitätssicherungsberg nur zum Sisyphos werden kann, während mein Ausgangsblickwinkel ja eher der Wissenskonsument ist: Und für den bringt ein Totlink, dem er nicht abhelfen kann, am wenigsten. --Andropov (Diskussion) 16:01, 5. Okt. 2017 (CEST)
Mein Blickwinkel ist tatsächlich der des Wissensproduzenten. Einfach deshalb, weil mir an der Wikipedia vor allem das Potenzial wichtig ist, dass Wissensproduzenten und -konsumenten zusammenfallen können. Natürlich nicht mit Bezug auf dieselben Sachverhalte. Ich sehe das Lernen, einen Artikel zu gestalten, als eine der wichtigsten (potenziellen) Qualitäten der Wikipedia an. Mir scheint, es kann nicht in erster Linie um Serviceleistungen gehen, sondern die Fähigkeit zu argumentieren, zu schreiben, auch zu belegen ist weit wichtiger. Und ich sehe einen Verfall genau dieser Qualitäten und Potenziale. Nicht bei Dir natürlich. Aber auch beim Lesen: Deine Links sind gut. Aber was "belegen" eigentlich die zahlreichen Archivlinks, die man beim Browsen so findet? Sind sie wirklich geeignet, bei den Lesern die Fähigkeit zu entwickeln, einen Artikel oder eine Information richtig zu interpretieren und zu bewerten? Mein Eindruck ist: im Normalfall nicht. Meist bieten sie nur eine Scheininformiertheit, mit der man sich dann als Leser nur zu leicht zufrieden geben kann. Könnte man die Botaktivität auf Artikelfelder und Adressen beschränken, wo Archivlinks wirklich etwas bringen, wäre das eine Maßnahme (wobei ich auch da vorziehen würde, dass sie nicht automatisch in den ANR kommen).--Mautpreller (Diskussion) 16:25, 5. Okt. 2017 (CEST)
Diese Gedanken zur WP gefallen mir, insbesondere die Wechselwirkung zwischen Produzent und Konsument. Nur klappt die in letzter Zeit nicht so gut, wie es scheint, wenn man sich die Entwicklung unseres Artikelbestands ansieht. Und wenn ich mich außerhalb der WP umschaue, benutzen viele die WP unkritisch und kämen gar nicht auf den Gedanken, die Produktion des ihnen Vorgesetzten zu hinterfragen. Um das aufzubrechen, würde ich mir weniger glatte Oberfläche wünschen; die in der englischen WP meiner Erinnerung nach schon lange im Artikel vermerkten deadlinks fand ich zwar nie sonderlich schön, aber indem sie stören, regen sie dazu an, sich mit ihnen zu beschäftigen und diese Störung zu entfernen. Ob das klappt bei bisherigen Nur-Lesern, weiß ich nicht, aber ich fände es den Versuch wert, die boteingearbeiteten Archivlinks mit einer Aufforderung zu versehen (also etwa ein Link „Prüfen“ oder „Check“ mit dem Ziel „Dies ist ein seriell generierter Vorschlag für eine archivierte Version dieser Website. Du kannst Wikipedia helfen, indem du überprüfst, ob die damit belegte Information sich auch wirklich darin findet oder ob ein anderer Beleg für diese Aussage besser und aktueller wäre. Und stimmt überhaupt die zu belegende Aussage?“). Das ist zwar ganz aus dem hohlen Bauch gesprochen: Aber ist es nicht gerade die Anmutung des sowieso wunderbar Funktionierenden, die Leute davon abhält, hier mitzumachen? --Andropov (Diskussion) 17:04, 5. Okt. 2017 (CEST)
Die Idee hat Charme, ist aber wahrscheinlich zu umständlich. Vor allem ist es auch eine komplizierte Sache geworden, etwas in die Wikipedia zu schreiben, und die Zielgruppe ist, neben Werbern, nicht sehr groß. Aber tatsächlich würde ich mir wünschen, dass es so ähnlich funktioniert. Etwa eine Anmerkung: Dieser Link ist wahrscheinlich defekt. Was kann man tun? Mit einem Verweis auf eine entsprechende Nachricht auf der Diskussionsseite.--Mautpreller (Diskussion) 18:20, 5. Okt. 2017 (CEST)
Gefällt mir, die Idee – mir scheint, wir liegen gar nicht weit auseinander. Fände ich auch eine interessantere Anwerbeaktion als Banner; vielleicht sollte man mal bei WMDE vorstellig werden … --Andropov (Diskussion) 19:00, 5. Okt. 2017 (CEST)
Eigentlich sind viele Artikel mit defekten Weblinks veraltet, beim Umlenken auf Archive wird allerdings bereizs heute im Regelfall bei manueller Linkwartung keine inhaltliche Überarbeitung vorgenommen
Zur Sachfrage: Die entsprechenden Vorlagen können einfach automatisiert ne Wartungskategorie einbinden. --MGChecker – (📞| 📝| Bewertung) 16:56, 5. Okt. 2017 (CEST)
Danke! --Andropov (Diskussion) 17:04, 5. Okt. 2017 (CEST)
Ich dachte, Artikel mit tot markierten Links tauchen automatisch in der Wartungskategorie Kategorie:Wikipedia:Weblink offline auf? --Martina Disk. 19:46, 5. Okt. 2017 (CEST)
Mir ging es um feste Wartungslisten, die man bearbeiten kann, damit etwa Leute Teile reservieren oder sonst absprechen können, aber das ist wenig problematisch, vermute ich :) --Andropov (Diskussion) 20:06, 5. Okt. 2017 (CEST)
Sowas wie Wikipedia:WikiProjekt Weblinkwartung/Toter Link? Das wissen bestimmt die Leute vom Projekt Weblinkwartung oder können dazu praktikable Vorschläge machen? --Martina Disk. 20:11, 5. Okt. 2017 (CEST)
Ah, gut dass man jemanden fragt, der sich auskennt – genau, sowas meinte ich (und war mir bis eben wirklich nicht bewusst, dass wir das haben ..). Danke! --Andropov (Diskussion) 20:36, 5. Okt. 2017 (CEST)
Gerne! Von Auskennen bin ich noch weit entfernt, aber meine Lernkurve bezüglich Weblinkwartung und Botfunktionen hat in den letzten Wochen immerhin eine Steigerung erfahren. :-) Als ich angefangen habe dieses MB zu entwerfen, war ich noch gar nicht so sicher, was ich selbst von der ganzen Sache halte. Dann habe ich gesehen, wie viel Arbeit schon in die Weblinkwartung fließt und wie groß der Abarbeitungsstau trotzdem noch ist. Das hat mich dazu motiviert mich detaillierter in den IABot einzulesen und einzudenken, um die Funktionen besser einschätzen und darstellen zu können. Meiner Einschätzung nach können manche Wartungsschritte auch im Hintergrund in Zukunft deutlich vereinfacht werden. Das können aber die Leute vom Projekt besser einschätzen und mit den beteiligten Botbetreibern besser absprechen, als ich es je auch nur versuchen würde. --Martina Disk. 20:49, 5. Okt. 2017 (CEST)

Ich glaube bei diesem Punkt ist eine grosse Fehlannahme auf der Vorderseite, aktuell wuerden defekte Weblinks im Regelfall inhatlich bearbeitet. Das ist jedoch einfach nicht der Fall: Im Regelfall werden sie von den Weblinkwartern rein linkbezogen ueberarbeitet, die Veraltungsprobleme bleiben somit bestehen. Darauf bezog sich auch „Zwischenzeit“: Bis das jemand tut, ist es ein Gewinn, dass die Leser die Belege nachvollziehen, auch wenn der Artikel veraltet ist. --MGChecker – (📞| 📝| Bewertung) 00:00, 6. Okt. 2017 (CEST)

Genauso veralten viele Weblinks, die immer noch erreichbar sind. Eingentlich müsste ein Bot jeden Weblink beim ersten Abspeichern dokumentieren und sobald sich der Inhalt der Webseite ändert, sollte der Bot die Adresse als veraltet markieren, so dass ein menschlicher Benutzer kontrollieren kann, ob da inzwischen eine verbesserte oder im schlimmsten Fall eine völlig andere Webseite ohne viel Bezug zum ursprünglichen Inhalt zu finden ist. Also: auch immer noch erreichbare Webseiten können völlig unangebracht oder veraltet sein und kein Mensch merkt es, weil niemand den gleichen Link alle paar Wochen erneut anklickt um zu sehen, ob sich was verändert hat. Webadressen in Artikeln sind oft ein Versuch den Pudding an die Wand zu nageln.--Giftzwerg 88 (Diskussion) 00:10, 6. Okt. 2017 (CEST)
Hi MGChecker, das habe ich nie angenommen, da ich unsere "Wartungsindustrie" kenne. Ich meine vielmehr, man sollte gerade wegkommen vom formalen "Fixen" von Weblinks. Es müsste darum gehen, Leute, die bereit und in der Lage sind, einen Artikel und seinen Aufbau zu verstehen, für solche Arbeiten zu gewinnen. Jede Lösung sollte diesen Leuten Entscheidungshilfen bieten. Das ist bisher nur sehr begrenzt der Fall. Man muss immer befürchten, dass gerade die unnötigsten und unbrauchbarsten Weblinks erhalten werden. Sagen wirs so: Es gibt bereits jetzt eine Tendenz, Artikel überhaupt nicht anzuschauen, wenn man sie bearbeitet, und sie lediglich quasi botartig "auf den neuesten Stand zu bringen", der jedoch nicht etwa ein neuer Stand in der Wirklichkeit und der Literatur ist, sondern bloß der letzte Schrei in der Wartungsindustrie. Ich befürchte, dass diese Tendenz weiter gestärkt wird, indem mans nun ganz dem Bot überlässt. Meine Meinung ist, dass man etwas tun sollte, um eine Gegentendenz anzustoßen: also bei jeder Bearbeitung einen Blick auf den ganzen Artikel zu werfen, was er aussagt, wozu in ihm die Belege gut sind usw. Das geht natürlich langsamer, ist aber für die Qualität weit besser. Ein technisches Assistenzsystem käme m.E. nur in Frage, um diese Haltung und Bearbeitungsweise zu unterstützen und dafür Hilfen zu geben. D.h. es sollte nicht "für die Zwischenzeit" fixen, sondern vielmehr helfen, diese "Zwischenzeit" irgendwann auch mal zu beenden. Gerade weil ich weiß, dass "Linkwartung" gewöhnlich bloß eine Routine zum "Fixen" ist, gerade deshalb befürchte ich, dass die hier vorgeschlagene Botlösung den schlechten Zustand nur zementiert und die "Zwischenzeit" daher überhaupt nicht mehr zu Ende gehen wird.--Mautpreller (Diskussion) 10:17, 6. Okt. 2017 (CEST)
So kann es durchaus kommen – ich halte es aber auch nicht für ausgeschlossen, dass durch die frei werdenden Kapazitäten bei den vorhandenen Wikipedianern eher mehr inhaltlich gearbeitet wird (das würde ich jedenfalls bei mir persönlich als Folge vermuten). --Andropov (Diskussion) 11:41, 6. Okt. 2017 (CEST)
Wir werden es sehen. Das MB wird ja sehr wahrscheinlich erfolgreich sein. Dann wird es m.E. wichtig werden, sich dafür einzusetzen, dass inhaltliche Prüfungen so gut wie möglich unterstützt werden und Falsches und Störendes möglichst reduziert wird. Vielleicht können dafür auch andere Features dieses Bots oder andere technische Assistenzsysteme nützlich sein, das will ich gar nicht in Abrede stellen.--Mautpreller (Diskussion) 11:53, 6. Okt. 2017 (CEST)

Ich habe mir die Diskussion hier jetzt nicht komplett durchgelesen, wird wahrscheinlich aber von niemand wirklich in Abrede gestellt, dass es unbedingt sehr wichtig ist, die durch den Bot ersetzten Links manuell nachzuprüfen. Am besten man sammelt die Botersetzungen in einer Wartungskategorie, dann könnenn die Links nachgeprüft werden und nichts wird kaschiert. --Septembermorgen (Diskussion) 19:33, 7. Okt. 2017 (CEST)

Anmerkung: Der Bot ersetzt keine Links (jedenfalls nicht in der de:WP), sondern er ergänzt den Webarchiv-Link. Grüße --Rax post 22:50, 7. Okt. 2017 (CEST)
Nun, ich schätze doch, dass der Broken-Link nicht stehen bleibt, sondern durch den Webarchiv-Link ersetzt wird. Auf jedenfall muss aber gewährleistet sein, dass die Webarchivlinks inhaltlich geprüft werden (können), da ohne so eine Prüfung nicht gewährleistet werden kann, dass die archivierte Version a) den Inhalt belegt und b) nicht hoffnungslos veraltet ist. Also bitte die botbearbeiteten Seiten in einer Wartungskategorie sammeln. --Septembermorgen (Diskussion) 20:09, 11. Okt. 2017 (CEST)
Nein, er wird nicht ersetzt, der Link zum Original bleibt bestehen. Hier ein Beispiel aus dem Probelauf. Das Resultat sieht dann so aus: Michael Richmond: Will a Nearby Supernova Endanger Life on Earth? (TXT) 8. April 2005. Archiviert vom Original am 6. März 2007. Abgerufen am 30. März 2006. Siehe Section 4. Dem Link zum Original wird dabei, obwohl im Quelltext unverändert, durch die Vorlage {{Cite web}} offenbar automatisch derefer.unbubble.eu vorangestellt. Gemäss diesem Diskussionsbeitrag geht es dabei darum, "Special:LinkSearch /Spezial:Weblinksuche von bereits gefixten toten Links zu befreien". Gestumblindi 20:29, 11. Okt. 2017 (CEST)

Reine Symptombehandlung[Quelltext bearbeiten]

Die Idee Verweise auf erloschene Internetseiten durch Verweise auf Kopien dieser Seiten an anderer Stelle zu ersetzen löst nicht das Grundproblem. Das Problem ist doch, dass das Internet an sich ein flüchtiges Medium ist dessen Inhalte jederzeit auftauchen und wieder erlöschen. Dies geschieht offenbar in einer derartigen Kadenz, dass kein Mensch mehr hinterherkommt Verweise auf erloschene Internetseiten zu berichtigen. Das soll dann ein Automat machen. Grundsätzlich halte ich das für eine durchaus praktikabele Lösung, nur: was macht der Automat, wenn auch die Kopien ebenfalls erlöschen? Gibt es Kopien der Kopien? Oder ist das dann auch nicht mehr wichtig?
Man mag die Idee für radikal halten, aber wäre es nicht nachhaltiger zu verlangen, dass Belege für Behauptungen in Artikeln beleghaft in nicht-flüchtiger Form vorliegen müssen? (also gedruckte Zeitung und nicht Webseite der Zeitung)
Alternativ könnte die Wikipedia-Foundation, welcher es ja offenbar nicht an Geldmitteln zu mangeln scheint, ein Lagerhaus in einer abgelegenen Trockenwüste erwerben/errichten und dort Ausdrucke der als Beleg genutzten Internetseiten aufbewahren. Gut, dieser Vorschlag ist wahrscheinlich zu radikal, aber so wäre es am sichersten. Zudem böte er Arbeit für richtig viele Menschen mit einem Hang zur peniblen Ordnung. Warehouse 14 wäre doch ein netter Name für die Einrichtung. ;o) Realwackel (Diskussion) 13:08, 9. Okt. 2017 (CEST)

Die Verweise auf Links des Internet Archive dienen ja gerade der Langzeitarchivierung – wenn nicht sämtliche Daten der vier Rechenzentren und des Spiegelservers ersatzlos vernichtet werden, dann stehen die Chancen gut, dass die dort gespeicherten Website-Schnappschüsse dauerhaft abrufbar sind. Auf digitale Verweise ganz verzichten zu wollen, halte ich nicht für sinnvoll; gerade die schnelle und unkomplizierte Erreichbarkeit von Wissen durch Medienberichte, frei zur Verfügung gestellte Forschung etc. dient der Verbreitung und Überprüfbarkeit freien Wissens, befördert also die Ziele der Wikipedia. Und Menschen mit kleinem Zeit- oder Geldbudget oder eingeschränkter Mobilität erhalten gerade durch digitale Links eine Chance, bei uns mitzuarbeiten, was durch eine Beschränkung auf gedrucktes Material konterkariert würde. --Andropov (Diskussion) 23:21, 9. Okt. 2017 (CEST)
Realwackel spricht durchaus ein reales ;-) Problem an: Wir stützen uns hier ganz stark auf wenige Webarchive; am stärksten auf das Internet Archive - das nun zwar seit über 20 Jahren existiert und auf solidem Fundament zu stehen scheint, aber letztlich eben doch eine private Non-Profit-Organisation ist, die ihre Dienstleistung im Prinzip jederzeit aus irgendwelchen Gründen einstellen könnte. archive.is scheint mir, obwohl auch häufig verwendet, keine echte Alternative zu sein, da die Betreiber anscheinend in der Anonymität bleiben wollen - da fehlt mir das Vertrauen in die Zukunftssicherheit. Und mit WebCite ist das Sortiment allgemeiner Webarchive (die nicht thematisch oder geographisch selektiv archivieren) dann auch schon ziemlich erschöpft. Ja, mir ist bei unseren schon jetzt äusserst zahlreichen Links auf diese drei Archive auch nicht so ganz wohl. Aber als Zusatz zu einem sowieso toten Link sind sie m.E. immer noch weitaus besser als ein nackter toter Link. Gestumblindi 23:39, 9. Okt. 2017 (CEST)
Niemand kann die Welt davor schützen, dass irgendwann ein Unternehmen aufhört zu existieren. Solange es aber jemand gibt, der die Dienste dieses Unternehmens braucht, wird sich jemand anderes finden lassen, der diese Dienste anbietet. Dieses nennt sich Marktwirtschaft. Im Zweifel wird die WMF selber dafür sorgen, dass es diesen jemand gibt. Es gibt allerdings auch keine Garantie, dass in die WMF auch in Zukunft endlos weiterbestehen wird. Somit ist die gesamte Zukunft für uns und alle Daten weltweit nach wie vor ungewiss. Eine der unangenehmen Eigenschaften der Zukunft ist, dass sie meistens irgendwie anders aussieht, als es vorhergesagt wurde. Das ist das beängstigende daran. Die Möglichkeit besteht, dass es morgen oder übermorgen kein Bier mehr zu kaufen gibt. Käme die gesamte Menschheit auf die Idee kein Bier mehr zu trinken und es statt dessen die existierenden Flaschen für die Zukunft aufzusparen, so hätte man der Zunkunft ein Schnippchen geschlagen: Die Brauereien sind pleite, weil keiner mehr Bier trinkt und wir lägen mit der Prognose richtig, dass es gut ist Bier für die Zukunft zu horten, anstatt es zu konsumieren. Lange Rede kurzer Sinn: Die Zukunft des Internetarchivs (oder anderer Archive) und der Archivlinks wird nicht dadurch gesichert, in dem es nicht benutzt wird, sondern indem es intensiv genutzt wird. Je mehr Bier die Menschen heute trinken, um so wahrscheinlicher, dass es auch morgen noch Brauereien gibt, die Bier verkaufen. Das Bier, das heute getrunken wird, sichert die Zukunft, nicht das Bier, das morgen vielleicht oder vielleicht nicht konsumiert und gebraut wird.--Giftzwerg 88 (Diskussion) 00:23, 10. Okt. 2017 (CEST)
Zumindest der existierende (selbst ohne Aktualisierungen recht beeindruckende und informationsreiche) Datenbestand der Wikipedia dürfte uns dank freier Lizenz und einfacher Kopierbarkeit unabhängig von der WMF erhalten bleiben, so lange es das Internet, wie wir es kennen, gibt. Das Internet Archive kann man nicht so einfach kopieren. Der Spiegelserver in Ägypten und die Planung einer Kopie in Kanada sind in Bezug auf archive.org zwar ermutigend, aber der Aufwand dafür wird hoch sein und das hängt doch alles noch an der Organisation des Internet Archive. Insofern wäre es noch ermutigender, wenn es diverse Kopien des ganzen IA-Datenbestandes bei anderen Organisationen weltweit geben würde. Gestumblindi 00:41, 10. Okt. 2017 (CEST)
Nochmal: sobald es Nutzer gibt, die sowas wollen, wird es das geben. Auch das IA kann man kopieren und ich bin mir ziemlich sicher, dass es Kopien davon gibt. Es wird sie auf jeden Fall geben, wenn das IA seine Dienste einstellen sollte.--Giftzwerg 88 (Diskussion) 00:59, 10. Okt. 2017 (CEST)
Ich denke, dass "das IA kopieren", besonders unter Erhalt der Funktionalität, nicht gerade trivial ist. Möglich ist es sicher. Bevorzugt präventiv. Gestumblindi 01:09, 10. Okt. 2017 (CEST)
Das Problem der Internetverweise ist doch, dass sie gerade nicht wirklich überprüfbar sind. Vielleicht stand da was Falsches, ein Irrtum, etwas Widerrechtliches, was schnell (oder langsam) wieder beseitigt wurde. Diese Fluidität ist zugleich das Gute und das Schlechte am Internet. Ich halte gar nichts davon, dies nun quasi dauerhaft festzuschreiben, insbesondere dann nicht, wenn es die Domain gar nicht mehr gibt und (daher) niemand mehr den Bestand pflegt. Dabei will ich gar nicht ausschließen, dass insbesondere Archive oft wirklich interessante Sachen haben, mit denen auch was anzufangen ist. Aber die "Linkverrottung" ist bei einem fluiden Medium in gewisser Weise etwas Natürliches, dem Internet Wesensgemäßes. Bei wissenschaftlichen Texten hilft der DOI (und vergleichbare Indikatoren), den ich gegenüber einem archivierten Hinweis auf ein Preprint immer vorziehen würde, denn das Preprint ist eben in dieser Form noch nicht angenommen, wurde vielleicht nochmal verändert, ist nicht eigentlich das, was unter dauerhaftem Beleg laufen sollte. Bei Zeitungen muss man bedenken, dass die "Verlinkungsschwellen" auch damit zu tun haben, dass es sich um tagesaktuelle Texte handelt. Sie können z.B. wegen sich anschließender juristischer Geschichten vom Netz sein, "alte" Berichte über Straftaten können wegen des Rechts auf Resozialisierung nicht mehr zugänglich sein. Es ist gut, dass man im Notfall trotzdem drankommt, aber eben nicht "schwellenlos", man muss schon das Zeitungsarchiv bemühen, während das Internetarchiv den Text ja veröffentlicht (anders als ein Zeitungsarchiv).
Ein schon früher angesprochenes Problem möchte ich aber doch nochmal anführen: Die Stärke der Wikipedia könnte (und sollte) sein, dass sie mit von ihr unabhängigen Text- und Datenbeständen arbeitet. Das ist beim Internet Archive nicht unbedingt so, denn dieses legt eine Archivversion automatisch dann an, wenn die Wikipedia einen Link nutzt. Es besteht die Gefahr eines sich selbst bestätigenden Kreislaufs. Der könnte nur unterbrochen werden, wenn man tatsächlich unabhängige Bestände nutzt, etwa die der großen Bibliotheken (die ja durchaus ebenfalls online sein können). Dass man mit einer Suchmaschine viele Bestätigungen für eine Behauptung findet, kann einfach daran liegen, dass ein verlinkungsstarkes Medium wie die Wikipedia diese Behauptung aufgestellt hat und alle weiteren Treffer genau darauf zurückgehen. Die empirische Basis kann extrem schmal sein. Ich betrachte die Tendenzen zur "Vernetzung" (hier zunächst von WP und IA) sehr kritisch. Nicht weil ich etwas gegen Vernetzung hätte, sondern weil die Gefahr besteht, dass hier gar nicht mehr verschiedene, voneinander unabhängige Institutionen sich austauschen, sondern ein Einheitsbrei entsteht, der sich gegen Externes abschottet. Es gibt einige Beispiele dafür, dass sich Falschinformationen auf diese Weise rasend schnell fortpflanzen und sich einer Kontrolle auf ihre Quelle weitgehend entziehen.--Mautpreller (Diskussion) 11:20, 10. Okt. 2017 (CEST)
Die Ersetzung von nicht funktionierenden Links durch archivierte ist in meinen Augen kein idealer Endzustand, sondern nur ein Notbehelf. Aber dieser ist insofern bedeutsam, als jeder Leser ja den Artikel mit dem Link vergleichen und seine Schlüsse ziehen kann, ob also beides übereinstimmt und ob das, was im Beleg steht, vernünftig, ordentlich, richtig, sinnvoll, tiefgründig oder alles das nicht ist. Wenn man diese Überprüfungsmöglichkeit weglässt, so erhält der dumme Leser nie und nimmer die Möglichkeit, sich seines eigenen Verstandes zu bedienen, sondern muss uns entweder glauben oder ganz auf andere Informationsmöglichkeiten ausweichen. Dass das Internet wesensgemäß fluide ist, will ich nicht bestreiten, aber dass eine Enzyklopädie wesensgemäß dauerhaft sein sollte, sollte doch auch klar sein. Das Problem von Persönlichkeitsrechten haben wir durch WP:BIO geschützt und brauchen dafür nicht den technischen Behelf des Verschwindens von Links, um das durchzusetzen. Das Zirkelschluss-Argument schließlich leuchtet mir nicht ein, weil die WP ja gerade nicht aus dem Internet Archive zitiert, sondern das IA Links erst dann archiviert, nachdem sie in der WP genannt worden sind (was ja aus Archivarssicht durchaus sinnvoll ist: irgendjemand hat also diesen Link als Informationsquelle für gut befunden, weshalb es interessant ist, ihn aufzubewahren). Das stärkt gewissermaßen die Belege, die wir hier benutzen, stimmt, aber das sorgt ja nicht dafür, dass ein nur noch archiviert vorhandener Weblink mit besonderer Sichtbarkeit oder Würde ausgestattet würde – im Gegenteil, Wayback-Links tauchen in Suchmaschinenergebnissen gar nicht auf. Und wenn wir hier falsche oder schlechte Belege benutzen, ist das mE ein innerwikipedianisches Problem, das durch Pochen auf Qualität gemindert werden kann, nicht aber durch tote Links. --Andropov (Diskussion) 13:38, 10. Okt. 2017 (CEST)
"das sorgt ja nicht dafür, dass ein nur noch archiviert vorhandener Weblink mit besonderer Sichtbarkeit oder Würde ausgestattet würde", doch, genau das. Er ist auf einer der meistfrequentierten Websiten des Netzes zu finden, die selbst den Anspruch neutraler Vermittlung gesicherten Wissens erhebt (was m.E. ziemlich ungewöhnlich, wenn nicht ein Alleinstellungsmerkmal ist).--Mautpreller (Diskussion) 14:35, 10. Okt. 2017 (CEST)
Gut, das sehe ich ein, aber das Problem scheint mir dabei immer die innerwikipedianische Schreibkultur zu sein und nicht die eher technische Frage von Linkhaltbarkeit, diese letztere wäre in meinen Augen eine Verschiebung inhaltlicher Fragen auf ja teilweise zufällige Fragen des Erreichbarbleibens: Mir scheint es beileibe nicht so, dass das Verrotten von Links ein zuverlässiger Indikator ihrer inhaltlichen Mangelhaftigkeit ist. Wenn man nur hochwertige Weblinks benutzt, ist es mE völlig unwesentlich, ob diese nur archiviert oder live abrufbar sind. --Andropov (Diskussion) 11:23, 11. Okt. 2017 (CEST)

Hmm, bitte schlagt mich nicht für derlei dumme Fragen, aber könnte man nicht einfach Bildschirmfotos der verlinkten Webseiten abspeichern? Oder ist das schon Raubkopie? Wenn ja, ist dann die Archivkopie nicht noch viel mehr eine Raubkopie? Realwackel (Diskussion) 13:55, 10. Okt. 2017 (CEST)

Das wäre urheberrechtlich wohl nicht machbar, siehe etwa hier. --Andropov (Diskussion) 11:23, 11. Okt. 2017 (CEST)
Archivlinks sind aber ebenfalls urheberrechtlich oft problematisch, und zwar aus genau dem gleichen Grund.--Mautpreller (Diskussion) 20:44, 11. Okt. 2017 (CEST)

Schrottpedia[Quelltext bearbeiten]

Nachdem dieses MB und sein voraussichtlicher Erfolg ein atomarer überflüssiger Erstschlag gegen die Qualität der Wikipedia ist, warum öffnen wir die Wikipedia nicht gleich noch für den schwedisch-cebuanischen LSJ-Schrot-Bot (keiner liest es, aber wir können mit Artikelzahlen angeben, so wie ich mit meinem Editcount...). Gratulation: Quantität geht hier vielen offensichtlich noch vor Qualität... Und ich sehe das schöne Übel... --Informationswiedergutmachung (Diskussion) 02:55, 10. Okt. 2017 (CEST)

nun war an Fat Man ja nur der Name fett. Die Sprengkraft war eher arg bescheiden. Was nun an der automatisierten Beseitigung von Fehler so verwerflich sei, hast Du leider nicht nachvollziehbar ausgeführt. Realwackel (Diskussion) 13:56, 10. Okt. 2017 (CEST)
Hahaha, danke für diesen Lacher :D ɱ 21:38, 15. Okt. 2017 (CEST)

Opt-In für automatisierte Archivlinks beim Setzen von Einzelnachweisen?[Quelltext bearbeiten]

Grüßt euch, nachdem @Ambross07: die Sache aufgeworfen und @Hans Koberger: heute aufgegriffen hat, noch eine Frage an die Entwickler und Initiatoren: Wäre es möglich und einfach umsetzbar, dass man das, was die französischsprachige WP offenbar schon lange macht – nämlich bei Weblinks automatisiert einen Archivlink dazuzusetzen – jedenfalls als Opt-In für Autoren einsetzt: Wenn ich dem also zustimme, würde jeweils immer, wenn ich in Artikeln einen Weblink in einem Ref setze, eine Archivversion generiert und verlinkt. Das würde tatsächlich den Wartungsaufwand reduzieren und Ressourcen für die inhaltliche Arbeit freisetzen. Die Überprüfung alter Weblinks wäre weiterhin eine wichtige Aufgabe der Qualitätssicherung, für die dann auch mehr Zeit übrig wäre, insbesondere an Stellen, an denen es wirklich darauf ankommt (Umstrittenes, Thesen, Wertungen …). --Andropov (Diskussion) 14:01, 10. Okt. 2017 (CEST)

Diese Option würde ich sehr deutlich unterstützen. Aus meiner Sicht kann so zukünftig sowohl der Wartungsaufwand verringert werden (bei toten Originallinks steht ja immer gleich noch die archivierte Version daneben, ein Bot könnte dann allenfalls das Original als tot markieren und gut) als auch eben die Nachprüfbarkeit der Inhalte gewährleistet. Nichts ist ärgerlicher als ein Link, der als Beleg dienen soll, der auf eine nicht mehr existente oder eine massiv geänderte Seite zeigt und keiner weiß mehr (weil eben nicht archiviert), was da wirklich mal stand und ob die angeblich belegten Daten tatsächlich stimmen. Steht gleich ein Link zur (ohnehin automatisch erstellten) Webarchivseite dabei, kann der Originallink tot oder irreführend sein, wie er mag, die Daten findet man trotzdem noch – und kann gegebenenfalls eingebrachten Unfug auch nach längerer Zeit noch ändern. --Ambross (Disk) 14:10, 10. Okt. 2017 (CEST)
Hallo Andropov, Ambross07, das wäre wohl eine Aufgabe für einen neuen Bot und ein neues MB. Möglich ist das wohl, wenn es in der fr-WP funktioniert, aber da müßtet Ihr euch wohl an CYBERPOWER selbst wenden. Gruß vom Gunslinger Klönschnack 14:38, 10. Okt. 2017 (CEST)
Hallo Andropov, Ambross07, Gunslinger.1970, der IABot kann das rein von der Funktion her tun, die Echzeit-Archivierung im Internet Archive läuft ja unabhängig von dem Bot ohnehin im Hintergrund immer mit. Allerdings steht diese Funktion nicht zur Abstimmung und der Bot wird sie auch nicht einsetzen.
Allerdings könnt ihr die Software des IABot direkt auf einem einzelnen Artikel einsetzen, wenn ihr das Verwaltungsinterface aufruft. Dort kann der Haken bei „Ergänze Archivlinks zu allen nicht-toten Einzelnachweisen.“ gesetzt werden, was den gewünschten Effekt haben sollte. Die Änderung erfolgt unter eurem Benutzernamen, also allein in eurer Verantwortung und wird ohne Vorschau o.ä. sofort vorgenommen, nachbessern muss man dann also in einer zweiten Bearbeitung, so wie es auch wäre, wenn der Bot selbst diese Aufgabe wahrnehmen würde.--Cirdan ± 20:54, 10. Okt. 2017 (CEST)
@Andropov: Der erste Teil deines Wunsches, dass "jeweils immer, wenn ich in Artikeln einen Weblink in einem Ref setze, eine Archivversion generiert und verlinkt" werden soll, ist bereits erfüllt: Wie auf der Vorderseite auch erwähnt wird, generiert das Internet Archive nun schon seit Jahren für jeden Weblink (auch in refs), der in der Wikipedia gesetzt wird, eine Archivversion. Sie steht damit (jedenfalls solange das IA existiert) später zur Verfügung, wenn der Link "versterben" sollte, und wird dann ja auch vom Bot angefügt werden, wenn der Vorschlag hier (wonach es aussieht) angenommen wird. Der einzige Unterschied, den dein Vorschlag machen würde, wäre also, dass der Archivlink bereits gesetzt würde, während der Originallink noch erreichbar ist. Wofür man natürlich auch plädieren kann, im Sinne des umseitigen Kommentars von Micha (da der Inhalt des Originals sich verändern kann, während der Archivlink zeigt, auf welche Fassung genau sich der Wikipedia-Artikelautor gestützt hat). Aber ja, dieser Vorschlag geht über den Rahmen dieses Meinungsbildes hinaus. Gestumblindi 21:04, 10. Okt. 2017 (CEST)
Das geht über das aktuelle Meinungsbild hinaus, richtig. Jedoch steht im Ernstfall einem zweiten MB nach Annahme des jetzigen ja nichts im Weg. Ich würde das auf jeden Fall unterstützen --Ambross (Disk) 08:54, 11. Okt. 2017 (CEST)
Danke für eure Hinweise! Das Häkchen im Interface ist interessant, probiere ich beizeiten mal aus. Und dass man die Community zusätzlich fragen müsste, denke ich auch, ich wollte nur den Schwung dieser Seite nutzen, um auf den Wunsch hinzuweisen. --Andropov (Diskussion) 11:25, 11. Okt. 2017 (CEST)

Wie sind die Vorstellungen zum Umwandeln der vom Bot erstellten Links in finale Archivlinks?[Quelltext bearbeiten]

Das Meinungsbild beschränkt sich (wohl zu recht) auf die Aktivitäten des Bots. Der wird dem Vorschlag nach einiges an Aktivitäten von Benutzern übernehmen, die den Ersatz der funktionsunfähigen Links durch Archivlinks bisher von Hand vornehmen. Teilweise nach Prüfung des Inhalts (insbesondere wenn es der Artikelersteller macht), großenteils anscheinend aber ohne. Nun hinterlässt der Bot dem Vorschlag nach aber einen Zwischenzustand, der geprüft und in einen finalen Link zur Archivseite ersetzt werden kann. Meine Vorstellung hierzu wäre, dass das nicht ohne inhaltliche Prüfung erfolgen sollte, d. h. dass die bisherigen botartigen Ersetzungen in Zukunft unterbleiben. Hat dazu schon eine Meinungsbildung stattgefunden? MBxd1 (Diskussion) 20:49, 12. Okt. 2017 (CEST)

Ich bin nicht sicher, ob ich deine Frage verstehe. Was meinst du mit "die bisherigen botartigen Ersetzungen "? Der Vorschlag sieht ja vor, dass der Bot eine Prüfbitte anbringt, die von einem Menschen nach (inhaltlicher) Prüfung beider Links entfernt werden kann (und sollte).
Wir sind uns wohl alle darin einig, dass es super wäre, wenn dieser Mensch dann auch gleich den mit dem Link belegten Artikelinhalt sowie die Qualität des ursprünglichen Einzelnachweises überprüft. Das ist aber wohl nicht per Meinungsbild erreichbar. --Martina Disk. 04:24, 13. Okt. 2017 (CEST)
Was diese "Prüfbitte" umfasst, ist leider nicht definiert. Bei den bisherigen manuellen Ersetzungen steht das Verfügbarmachen des Archivlinks im Vordergrund, und ich möchte (gerade auch in Anbetracht der Bearbeitungsfrequenz) bezweifeln, dass die verlinkte Archivseite überhaupt auch nur testweise mal geöffnet wird - zumindest bei den einschlägig bekannten Benutzern, die sich dann auch noch mit ihrem Editzähler brüsten. Meine Erwartungshaltung wäre eine Überprüfung, ob da überhaupt eine funktionsfähige Archivseite ist oder vielleicht doch nur ein sämtlicher Einbindungen und Formatierungen beraubter Seitentorso (bei web.archive.org keine Seltenheit, auch wenn man bei Einzelnachweisen sicher tolerant sein kann, da es ja auf den Text ankommen sollte) - und eigentlich auch, ob der Seiteninhalt mit der ursprünglichen Seite übereinstimmt. Das kann ein Massenbearbeiter aber gar nicht wissen, sondern eigentlich nur der Autor aus der Erinnerung bzw. jemand mit Kenntnis der verlinkten Originalseite. Um die Qualität des Einzelnachweises an sich kann es hier nicht gehen, allenfalls noch um technische Pannen bei der Erstverlinkung (übergeordnete Seite statt eigentlicher Inhaltsseite wurde verlinkt o. ä.). Dahinter steht eigentlich auch die Frage, ob es akzeptiert wird, dass die "Prüfbitten" langfristig stehenbleiben oder nicht. MBxd1 (Diskussion) 21:09, 13. Okt. 2017 (CEST)
Der Vorschlag legt fest "Es muss ein Hinweis angebracht werden, dass der Archivlink automatisch gesetzt und noch nicht geprüft wurde (muss nach der Prüfung durch einen Menschen entfernt werden können)." Das sieht in unserem Beispiel so aus: i Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft (bitte prüfe den Link gemäß Anleitung und entferne dann diesen Hinweis)
Was die inhaltiche Prüfung angeht, bin zumindest ich deiner Meinung: Ich hoffe, es findet allermindestens eine Prüfung statt, ob die beiden Links (doch) funktionieren, möglichst aber auch eine qualitative Prüfung. Eine Richtschnur, was die Abarbeitung mindestens und idealerweise beinhalten sollte, ist wohl am besten in der Anleitung festzulegen. --Martina Disk. 03:21, 14. Okt. 2017 (CEST)
Mal ganz blöd gefragt, weil ich es umseitig nicht ausdrücklich finden kann: Der Hinweis kommt doch aber auf die Diskussionsseite, oder? Jedenfalls sieht das für mich schon danach aus, dass da gezielt ein Übergangszustand erzeugt werden soll, was sich aber mit der Absicht beißt, Abhilfe bei der nicht mehr bewältigbaren Masse zu schaffen. MBxd1 (Diskussion) 20:47, 14. Okt. 2017 (CEST)
Der Hinweis wird für den Leser sichtbar direkt im Einzelnachweis angebracht. Das ist umseitig eigentlich sehr klar formuliert: "Ergänzung defekter Weblinks in Einzelnachweisen mit einem zusätzlichen Link zur Archivversion. Es muss ein Hinweis angebracht werden, dass der Archivlink automatisch gesetzt und noch nicht geprüft wurde (muss nach der Prüfung durch einen Menschen entfernt werden können).". Zusätzlich gibt es einen Hinweis auf der Disk. (Opt-Out möglich).
Dies ist m.E. eine wesentliche Arbeitserleichterung insofern, dass 1.) Vorlage und Link vom Bot eingebastelt werden (das finde ich den aufwändigsten Schritt bei der Abarbeitung von Meldungen toter Links) und 2.) falls Änderungen nötig sind, das Wiederfinden im Artikel einfacher ist (weil direkt dort gekennzeichnet). Und 3.) ist dies eine brauchbare Zwischenlösung, bis sich jemand für die Abarbeitung findet; allenfalls besser als die jetzige Masse toter Links in fast 1 Million Artikeln ohne Kennzeichnung oder Archivlink.
Ich empfehle aber, es nach dem MB nicht zu eilig angehen zu lassen. Der IABot hat meinem Verständnis nach inzwischen eine neue Funktion, mit der man anstelle einer Artikelliste eine ausgewählte Kategorie zur Überprüfung eingeben kann. Das würde die Botbearbeitungen zunächst auf eine überschaubare Anzahl an Artikeln beschränken und schrittweise Verbesserungen erlauben, anstatt Änderungen in fast einer Million Artikeln in sehr kurzer Zeit vorzunehmen. --Martina Disk. 22:03, 14. Okt. 2017 (CEST)
Demnach erscheint der ganze Hinweis mit "Info" vornedran also im Artikel? Sorry, aber das ist doch absurd. Ich hatte das ganze bis eben für eine sinnvolle Aktion gehalten, aber jetzt bekomme ich dann doch Zweifel. Wenn wir dem Bot so wenig trauen, dass wir all seinen Taten noch einen riesigen Disclaimer beifügen müssen, darf er eigentlich gar nix machen. MBxd1 (Diskussion) 22:33, 14. Okt. 2017 (CEST)
In den Einzelnachweis-Fußnoten. Das hat meiner Auffassung nach weniger mit Misstrauen zu tun, sondern mit Transparenz und Nachvollziehbarkeit. Du findest das blöde, andere finden es unverzichtbar, dass der maschinell erstellte Archivlink als solcher gekennzeichnet wird, bis ein Mensch das letzte Wort darüber gesprochen hat. Wenn sich, sagen wir, im nächsten halben Jahr oder so herausstellt, dass das ünnötig war, lässt sich das sicherlich schnell und einfach abschaffen. --Martina Disk. 22:44, 14. Okt. 2017 (CEST)
Ja sicher, beim Einzelnachweis. Aber eben immer noch im Artikel, bei dem wir mit Wartungshinweise eigentlich immer noch recht sparsam umgehen (mal abgesehen von Spielkram wie den fetten Bildersucheinträgen, die bedenkenlos auch an den absurdesten Stellen reingeklatscht werden). Die Tatsache, dass da ein Bot tätig war (der letztlich auch nur auf der gleichen Basis arbeitet wie die bereits genannen speziellen Benutzer), sollte eigentlich direkt aus dem Nebeneinander der beiden Links hervorgehen. Wenn wir ernsthaft von der Notwendigkeit eines Warnhinweises für den Leser ausgehen, dürften wir die ganzen Botbearbeitungen gar nicht zulassen. Möglicherweise kann man da aber auch differenzieren. Sofern die Archivierung der verlinkten Seiten automatisch und zeitnah zur Verlinkung erfolgte (was ja schon einige Zeit laufen sollte), beschränkt sich das Risiko auf einen Inhaltsaustausch innerhalb maximal weniger Tage. Das kann man wohl wirklich vernachlässigen. Bei älteren Einzelnachweisen sieht das anders aus.
Das ganze Meinungsbild ist insgesamt sehr solide und gründlich aufgebaut, und es ist leider auch nicht selbstverständlich, dass über so was vorher abgestimmt wird. Der technische Hintergrund ist ausführlich dargestellt, dabei kommt aber die Darstellung, wie die Umsetzung exakt des Vorschlags dann im realen Artikel aussieht, etwas zu kurz. Und leider wird der präzise formulierte Antrag auch zum Nachteil, wenn man später nachbessern will. MBxd1 (Diskussion) 10:22, 15. Okt. 2017 (CEST)
Das stimmt. Wir mussten versuchen einen goldenen Mittelweg zu finden. Präzise genug, dass man nicht die Katze im Sack kauft. Aber offen genug für spätere Anpassungen im Alltagsbetrieb. Notfalls kann man den Prüfhinweis abkürzen zu Bot-Edit bitte prüfen. Ich bin optimistisch, dass die Gemeinschaft sich schnell einig wird, wenn offensichtlicher Änderungsbedarf besteht. --Martina Disk. 17:44, 15. Okt. 2017 (CEST)

Wird die Dauer der durchgehenden Nichtverfügbarkeit eines Links geprüft?[Quelltext bearbeiten]

Vielleicht steht es in vorbereitenden Diskussionen, ich habe es hier aber nicht gefunden. Reagiert der Bot spontan bei Nichterreichbarkeit einer Seite, oder prüft er die Erreichbarkeit in einem definierten Zeitraum mehrmals, bevor er tätig wird? Es kommt ja öfter mal vor, dass eine Seite kurzfristig nicht erreichbar ist, im Prinzip aber schon noch vorhanden ist. Gibt es da eine definierte Frist? Wenn ja, welche? Wenn nein, warum nicht, und welche Optionen zur Bereinigung (außer manuellem Zurücksetzen der Botbearbeitung) gibt es? MBxd1 (Diskussion) 20:54, 12. Okt. 2017 (CEST)

Das steht nicht (nur) hier in der Disk, sondern ist Bestandteil des Vorschlages auf der Vorderseite (wie auch Hinweise & Ideen dazu wie mit Seiten umgegangen wird, die nur für Bots nicht erreichbar sind):"(zwecks Erkennung erfolgen 3 Checks nach jeweils 3 Tagen Wartezeit, bevor ein Link als defekt eingetragen wird". --mirer (Diskussion) 21:21, 12. Okt. 2017 (CEST)
Danke, das hatte ich übersehen. Insgesamt 9 Tage erscheinen mir allerdings arg kurz, das wird der Realität des Internets nicht ganz gerecht. Ich hätte da eher an 3 Monate gedacht. MBxd1 (Diskussion) 21:30, 12. Okt. 2017 (CEST)
Na ja, brauchbare Belege kommen ja i. d. R. nicht von irgendwelchen "Krauterseiten", sondern von reputablen (oft im Nachrichten- oder Wissenschaftsbetrieb verankerten) Websites, die professionell betrieben und überwacht werden. --mirer (Diskussion) 21:34, 12. Okt. 2017 (CEST)
Inhaltliche Tauglichkeit und Vereinbarkeit mit den Anforderungen an Quellen hat eher weniger mit konsequenter Erreichbarkeit zu tun. MBxd1 (Diskussion) 21:36, 12. Okt. 2017 (CEST)
Die Prüfintervalle bei GiftBot waren eine Woche mit vier Prüfungen und selbst das war nicht 100% sicher, also die Prüfintervalle nicht zu kurz ansetzen. --Septembermorgen (Diskussion) 21:39, 12. Okt. 2017 (CEST)
Ich hoffe sehr darauf, dass die mit Weblinks befassten Botbetreiber zusammenarbeiten d.h. unter anderem ihre Prüfergebnisse austauschen und abgleichen werden. --Martina Disk. 04:17, 13. Okt. 2017 (CEST)
Das würde voraussetzen, dass sie ihre Prüfergebnisse zugänglich ablegen. Das ist aber auch nicht der entscheidende Punkt. Ich habe keine Angst vor Zufallsnichtfunden, sondern davor, dass die Nichtverfügbarkeit einer Seite für ein paar Wochen die Bearbeitungen lostritt. MBxd1 (Diskussion) 21:32, 13. Okt. 2017 (CEST)
Hm. Eine Seite die mehrere Wochen nicht verüfgbar ist, scheint mir als Quelle insgesamt eher unbrauchbar. Längere Umbaupausen bedeuten dann häufig nicht nur, dass der Server umgezogen ist, sondern wahrscheinlich auch, dass die ganze Site umgebaut wurde oder wird, die Dokumente also woanders liegen. Der Bot wird das nicht richten, aber die toten Links nützen dazu noch weniger, solange du nicht weißt ob ein Dokument mit einer neuen Adresse wirklich dasselbe aus dem toten Link ist.--Giftzwerg 88 (Diskussion) 00:21, 14. Okt. 2017 (CEST)
Ich würde auch weiterhin nicht die Tauglichkeit einer Internetquelle primär von der durchgängigen Erreichbarkeit abhängig machen, sondern vom Inhalt und von der Zuverlässigkeit des Urhebers. Da müssen auch keineswegs Umbauten dahinterstehen, die Seiten können durchaus unverändert wiederkommen. Und da die Seiten zeitweise tatsächlich weg sind, gehören sie pro forma auch nicht zu den false positives, weswegen man die wunderschönen 99% erreicht (man muss sich halt nur die Kriterien passend zurechtschneiden). Vermutlich muss man das aber einfach als Kollateralschaden hinnehmen, auch wenn ich aus 9 Tagen Nichterreichbarkeit nun wirklich noch keinen Zwang zum Aktionismus ableiten würde. MBxd1 (Diskussion) 20:53, 14. Okt. 2017 (CEST)
Wenn eine Seite dann doch wieder live geht, kann man ja die Inhalte abgleichen. Dies ist einer der Gründe, warum mir daran gelegen ist, dass der Originallink nicht ersetzt, sondern nur ergänzt wird. --Martina Disk. 21:25, 14. Okt. 2017 (CEST)
Ja sicher, es wird nichts wirklich kaputtgemacht. MBxd1 (Diskussion) 21:58, 14. Okt. 2017 (CEST)

Dank[Quelltext bearbeiten]

Als Gegner des im MB gemachten Vorschlags möchte ich mich bei allen Beteiligten an Ausarbeitung und Diskussion des Meinungsbilds bedanken, insbesondere auch bei den Initiatoren. Die Zusammenarbeit verlief verständlicherweise nicht reibungs- und konfliktlos, aber letztlich fair. Das hat zur Folge, dass die Abstimmenden in diesem MB tatsächlich über alles verfügen konnten, was sie für ihre Entscheidung brauchten. Das ist nicht unbedingt der Normalfall in Meinungsbildern.--Mautpreller (Diskussion) 13:34, 15. Okt. 2017 (CEST)

Dankeschön! Der Dank gebührt dir aber ebenfalls. Auch du hast in der Sache hart, aber sachoritentiert (nicht sarkastisch oder persönlich angreifend) diskutiert. Das hat zu vielen notwendigen Ergänzungen, Korrekturen und Präzisierungen geführt. Ich finde, solche ergebnisorientierten Diskussionen waren immer eine Stärke der Wikipedia, und es war eine Freude zu sehen, dass dies doch immer noch möglich ist. --Martina Disk. 17:37, 15. Okt. 2017 (CEST)
Diesem Dank von Martina möchte ich mich anschliessen - ich würde mir immer so sachliche und konstruktive Diskussionen bei Meinungsverschiedenheiten in der Wikipedia, nicht nur in Meinungsbildern, wünschen. Gestumblindi 22:51, 15. Okt. 2017 (CEST)
Auch von meiner Seite ein herzliches Dankeschön für die meist sachbezogene Diskussion. Das schließt den Betreiber des Bots, Cyberpower678, ausdrücklich mit ein. --Succu (Diskussion) 23:22, 15. Okt. 2017 (CEST)
(nach BK) IMHO hat Mautpreller schon Recht - es liegt schon an der sehr guten Vorbereitung: Ihr wart euch darüber im Klaren, dass es ein kontrovers diskutiertes Thema ist, und ihr habt keine Kampfabstimmung durchgezogen, sondern habt von vornherein versucht, möglichst breite Zustimmung zu erreichen (=Konsens), habt dafür auch auf Maximalforderungen verzichtet. Und besonderer Dank gebührt IMHO (neben Martina und Gestumblindi, die die Diskussionen geführt und moderiert haben und Änderungen umgesetzt haben) Cyberpower, der mit gelassener Geduld die immer neuen Anforderungen an die Programmierung des Bots in der Test- und MB-Phase umgesetzt hat. --Rax post 23:27, 15. Okt. 2017 (CEST)
Danke alle. Ich schaffe gerade an v1.6 womit falsch erkannte tote Links automatische gemeldet werden wenn die Bearbeitung wieder rückgängig gemacht wird, sollte IABot wieder auf die Seite auftauchen.—CYBERPOWER (Diskussion) 02:19, 16. Okt. 2017 (CEST)