Wikipedia:Expertengruppe Digitalisierung/2013-05-31

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Protokoll: Expertenpool Digitalisierung, 1. Treffen[Quelltext bearbeiten]

Freitag, den 31. Mai 2013 im Kultur & Kongresshaus, Schlossplatz 9, Aarau

Zur Konstituierung des Wikimedia Expertenpools fanden sich 16 Teilnehmerinnen und Teilnehmer ein. In einer spannenden Vorstellungrunde gaben sie Einblick in ihre Berufserfahrungen, Projekte und zukünftige Vorhaben. Ihr findet hier eine kurze Zusammenfassung der jeweils ca. 10-minütigen Präsentationen. Wir bitten um Entschuldigung für Fehler, Auslasser oder fälschliche Priorisierungen. Dahinter steckt kein Vorsatz, sondern schlicht und einfach begrenztes Auffassungsvermögen. Korrekturen von wesentlichen Fehlern können direkt an uns gesendet werden. Als weiteres Dokument haben wir ein Excelsheet erstellt, in das Ihr bitte selbst Eure Infos und Skills eintragt. Die Expertenliste soll dazu dienen, bei entsprechenden Projekten schnell mögliche, kompetente Partner zu finden. Bitte beachtet dabei, dass diese Liste veröffentlicht wird.

Matina Hämmerli[Quelltext bearbeiten]

Kommunikationsfachfrau bj-institute, Wikimedia CH Vorstandsmitglied, Mitgründerin Picturepark, Präsidentin Kalpas (Verein zur Unterstützung von Hilfsprojekten in Indien).

Das Flaggschiff von Wikimedia ist Wikipedia, welche an sechster Stelle der meistbesuchten Websites weltweit steht. Dabei ist die englische Seite die meistbesuchte, an zweiter Stelle kommt die deutschsprachige. Das Wikimedia-Projekt Expertenpool Digitalisierung beinhaltet eine Reihe eine Reihe von Zielsetzungen, die von der Gruppe modifiziert, ergänzt und priorisiert werden:

  • Liste von Experten erstellen und pflegen
  • Förderung des Austauschs von Knowhow zwischen Wikimedia Aktivisten und weiterer Interessensgruppen
  • Erfahrungen aus Projekten dokumentieren und sammeln
  • Plattform als Container für Expertisen, Dokumentationen, Manuals, Use Cases, Checklisten etc.
  • Medienstandard
  • Partner-Netzwerke aufbauen (Scanner-, Drucker-, Foto-Equipment)
  • Angebot von Workshops für Anfänger und Fachleute
  • Strategische Kooperationen für die technischen und gesetzlichen Voraussetzungen
  • Beratungs- und Schulungsangebot für konkrete Projekte
  • Öffentlichkeitsarbeit

Listen und Protokolle werden veröffentlicht; um Mitglied im Expertenpool zu sein, muss man nicht Wikimedia-Mitglied sein. Einige Orte der Veröffentlichung sind jedoch nur Wikimedia-Mitgliedern zugänglich. Aktuelle Instrumente: Live-Treffen & Protokolle, Mailingliste (moderiert), Projektseite auf Wikimedia Schweiz

Bruno Jehle[Quelltext bearbeiten]

Lithograf & Informationsspezialist, Gründer & Technischer Direktor bj institute (Berufsbildung Swiss VET und Digitales Kulturgut in Indien & der Schweiz), Mitbegründer Digitale Allmend, Konzeption des DAM-Systems Picturepark (www.picturepark.com). Seit über 25 Jahren digitale Bildbearbeitung. Verfasst umfassende Medienstandards (Swatch, Kunstmuseum Basel). Reprostation für einfache, sichere Digitalisierung.

Vorstellungsrunde[Quelltext bearbeiten]

Peter Bubestinger[Quelltext bearbeiten]

Techniker aus Leidenschaft; Video- und Audiodigitalisierung, Erfahrung mit Rundfunkarchiven; Free Software Foundation Europe Mitglied; österreichische Mediathek (Nationalbibliothek für Video und Ton, Schallplatten etc.). Arbeitete für eine Firma, die Massendigitalisierungssysteme herstellte, fand er nicht „leiwand“(=super); danach bei Rundfunkarchiven auf der ganzen Welt. Die Bibliothek hatte Bedarf: Lossless Workflows für Videodigitalisierung mit Archivgedanken im Hintergrund. Im Kulturbereich sind die Budgets anders als bei den Broadcastern.

Emmanuel Engelhardt[Quelltext bearbeiten]

Software Ingenieur, 10 Jahre Wikimedia FR und CH; Ziel ist es durch Softwarelösungen Commons zu generieren und Empowerment zu ermöglichen: Unterschied zu YouTube und Freibier: frei wie Freiheit, Commons Lizenz als radikale Ansicht, noch mehr Zugang durch neue Tools. Wikimedia-Projekt: Wiki without Internet.

Beat Estermann[Quelltext bearbeiten]

Sozialwissenschaftler; seit 2004 an Open Production und Open Source interessiert; seit 2007 an der Berner Fachhochschule, Forschungsgruppe Open Data, vor allem Open Gouvernement Data und Crowdsourcing für Gedächtnisinstitutionen; Gründungsmitglied Digitale Allmend (Förderung Public Domain und Creative Commons); Mitglied Open Data Verein; Verfasser einer GLAM Studie über Schweizer Gedächtnisinstitutionen und deren Interesse an Publikationen digitalen Kulturgutes: 40% haben noch keine strukturierte Digitalisierung (Metadaten etc.). Bei vielen ist Digitalisierung jedoch bereits fester Budgetbestandteil. Keine aktive Implementierungserfahrung bzgl. GLAM Wiki Tool Set.

Nicole Graf[Quelltext bearbeiten]

Leiterin Bildarchiv der ETH-Bibliothek, 2 Mio. Bilder; seit 8 Jahren am digitalisieren; verwendete Bilddatenbank Cumulus; 200’000 Bilder sind bereits auf Google mit CC Lizenz (BY-NCND); Freigabe von JPEGs mit niederer Auflösung; Verkauf von TIFF Bildern gegen geringe Gebühr; Infrastruktur von 10 Scannern für Buchdigitalisierungen und Hasselblad Kamerascanner für fotografisches Material; seit 2009 Kooperation mit Google. Aktuelles Projekt: Swissair Bildarchiv, welche mittels Crowdsourcing in einer geschlossenen Gruppe (Pensionierte der Swissair) aufbereitet werden. Frage: Was können wir für Wikimedia tun, was bekommen wir zurück?

Rudolf Gschwind[Quelltext bearbeiten]

Professor an der Universität Basel / Digital Humanities; seit 1980 Vorlesungen über digitale Bildverarbeitung; Background Chemiewissenschaft; Institut für wissenschaftliche Fotografie; Museumswelt; frühe Formen von digitalen Netzwerken wie FTP etc.; Forschungsthemen: 1 Digitalisierung, 2 Archivierung digitaler Daten, 3 Nutzung digitaler Daten in der geisteswissenschaftlichen Forschung; Ausblick: Objekte digitalisieren, welche bestimmte Oberflächeneigenschaften ausweisen, „Digital Materiality“.

Eveline Eisenhauer[Quelltext bearbeiten]

Gubler Imaging, Generalunternehmung für Archivdigitalisierungen; Ausbau der Kompetenzen in Richtung Verwaltung von digitalen Beständen, Fineart-Scanning und Massenscanning für Dokumente und Mikrofilm, Langzeitarchivierung, Ingest-Prozesse und –handling; Zwei Verfahren bei der Mikroverfilmung zur Langzeitarchivierung: Image on film, Bits on film; mit Farb- und SW-Laser auf Archivfilm. Dienstleistungen für Staatsarchive unter Berücksichtigung der Sicherheitsanforderungen und im Bereich Medizin.

Interessiert, Inputs über Standards und Metadaten beizusteuern.

Tabea Lurk[Quelltext bearbeiten]

Kunsthistorikerin mit privatem Interesse an Medienkunst; Engagierte Forscherin; Studienleiterin Berner Fachhochschule, Hochschule der Künste in Bern; Mitglied der Schweizerische Informatikgesellschaft; Leiterin der Gruppe Digital Heritage (vor zwei Jahren gegründet); Ausbildungslehrgang, Master und CAS: Preservation of Digital Art and Cultural Heritage. Nebst Bibliothekaren, Konservatoren, Archivaren etc. sind auch Informatiker eingeladen; Lehrgang ist als Schmelztiegel verschiedener Erfahrungen und Sichtweisen gedacht. Die Themen: von „wie erhalte ich eine App?“ bis zur „Haltung archäologischer Daten“. Interesse an Vernetzung.

Christoph Müller[Quelltext bearbeiten]

Recordmanagement; Strukturierung, Standards und Formate; Bachelor Informationsspezialist (HTL 2009); Projekterfahrungen mit Open Source Projekten, Gemeindeverwaltungen.

Michel Pfeiffer & Daniel Streiff[Quelltext bearbeiten]

Daniel Streiff, Techniker aus Leidenschaft, gegen Eigenbrötlerei; Suchmaschinentechnologie und Semantic Web; Mitarbeiter an der HTW Chur, Hochschule für Technik und Wissenschaft der Fachhochschule Ostschweiz.

Michel Pfeiffer, Dozent an der HTW, Fotograf aus Leidenschaft, erste Digitalkamera 1.6 Megapixel für 40‘000 Franken; Kulturgüterreproduktion, Bildwissenschaft; „Digitalisierung ist Mittel zum Zweck“, Herzblut für Visual History and Culture (wie wird Wissen generiert?); 10 Dozenten in Chur, 11 wissenschaftl. Mitarbeiter, 24 Lehrbeauftragte, 151 Studierende; Angebot MAS.CAS.BSC.MSC. Inhalte: Bibliothekswissenschaften und Recordmanagement in den Bereichen Produktion, Organisation und Haltung. Konservierungsprozesse, Konversionsprozesse zwischen analoger Gegenwart und digitaler Zukunft. Studienkurs Zulassung rel. offen.; theoretischer Input und Praktikum. Zentrale Forschungsfragen: Audiovisuelle Datenbasis unserer Gesellschaft., Fragestellung auch für Wikimedia! Und was mache ich dann mit all diesen Daten?

Simon Schlauri[Quelltext bearbeiten]

Rechtsanwalt,; machte früher SW-Verträge für Sunrise, heute selbständig; eigene Kanzlei Rozani & Schlauri, spezialisiert auf Medien und Urheberrecht; Bekämpfung der stetigen Urheberrechtsverschärfung, welche immer auch eine Verletzung der Rechte der Allgemeinheit beinhaltet. Mitarbeit im Legal Team der Creative Commons (Commons Anpassung an Schweizer Rechtslage), Mitglied Digitale Allmend; hält Referate über Urheberrecht, Rechtsberatung möglich (Bsp.: eine Dame entwickelt ein Lehrmittel über Menschenrechte, das international vertrieben werden soll, komplexe Urheberrechtsabklärungen für verwendete Bilder); Recordmanagement im Bereich Buchhaltung (10 Jahre Aufbewahrungspflicht) Brücke zwischen IT und Recht.

Manuel Schneider[Quelltext bearbeiten]

Techniker, Informatiker, Internet Provider, selbständig; teilweise ehrenamtlicher und teilweise beruflicher Dienstleister für Wikimedia; Mitorganisator von WikiCon; keine direkten Digitalisierungsprojekte; ein Projekt mit dem Schweizer Fernsehen wurde eingestellt. Firma „Master Systems“, Server Hosting und Management.

Hartwig Thomas[Quelltext bearbeiten]

Mathematiker; 1978 Doktorarbeit auf digitale Bildbearbeitung beim IBM Forschungslabor Rüschlikon/CH; IT Praktiker; Inhaber und Geschäftsführer Enter AG; Vorstand bj institute; vor ca. 20 Jahren Sicherung von Archivbeständen der Basler Mission, auf 35 mm Archivfilm auf Movie-Rollen zur späteren Digitalisierung, ab 2004 Aufträge vom Bundesarchiv Bern; Programmierung von Software zur Archivierung von Datenbanken (SIARD-Konzept) auf normalisierte, standardisierte Formate abstützen. Lösung Problematik der Archivierung für langjährige Sicherungs- und Nutzungsformate. Record-Management: wenn der Bitstrom deutlich ist, kann man in 50 Jahren wieder etwas programmieren, das diesen Strom entschlüsseln kann. Hinweis auf www.plazi.org, welche die DB-Server in die CH bringt wegen dem liberaleren Urheberrecht für wissenschaftliche DB-Inhalte. Hinweise auf die Möglichkeit eingebettete UUID zu verwenden zur eindeutigen Identifikation. Hinweise auf Vor- und Nachteile zur Einbindung von Metadaten. Ab 2009 Konzentration auf rechtliche Fragen. Buch über Urheberrecht in der Schweiz: http://buchundnetz.com/werke/urheberrecht-und-internet/.

Rupert Thurner[Quelltext bearbeiten]

Informatiker, Mitbegründer der WMCH, anfangs Treasurer, heute tätig in 2 Arbeitsgruppen: GLAMour und internationale Arbeitsgruppen (z.B.Wiki loves Monuments in Ghana); seit langem Wikimedia- Autor. Zu den Wikimedia Projekten: Wikipedia, Wiki Commons, Wikisource, Wikibooks, Wikiversity, Wikivoyage etc.; sie werden im Wesentlichen von Leuten gemacht, weil sie Spass haben, etwas mit und für andere zu machen. Die Lizenz ist wichtig „es soll frei sein, du kannst es einfach nehmen“ Das Bsp. Der ETH ist vorbildlich: sie beziehen die Gemeinschaft mit ein. Wie bekommt man die richtige Community zu den Werken?

Frage Bruno: welche Chancen und Risiken siehst Du in dieser Expertengruppe? Antwort: Wenn Du die Chance hast mit Experten zu arbeiten, dann lernst du was. Freiwillige bleiben leichter dabei. Es gibt keinen Druck, keine Zeitpläne. Experten haben Erwartungen, wollen das reinbringen, was sie vom Professionellen her kennen. Das kann zu Enttäuschungen führen. Die Kommunikation ist unterschiedlich: die einen kommunizieren so freundlich, dass man meint man sei zu einer Hochzeit eingeladen. Auf der anderen Seite: keine Hierarchien, keine Formalitäten.

Christoph Zimmermann[Quelltext bearbeiten]

Public Domain Project: collect, protect and make accessible. Hinweis auf Wikipedia Grundsatz, dass es wichtig ist zu editieren, zumindest die Möglichkeit dazu zu haben. 2008 Diskussionen, 2009 erste Fileserver gespendet, 2010 Wikipedia Contest Wissenswert gewonnen, 2011 Spender steuert 30000 Schallplatten bei. 2012 Steuerbefreiung der Stiftung. Unterstützung durch einige grosse Bildagenturen der Schweiz. Heute 600 Records online, gemieteter einfacher Audioraum in ZH ohne Klima und Feuerschutz. 6 aktive Leute, Finanzierung immer prekär. Teilnahme an Wikikonferenz in Hongkong. Publikation von Online Radio und Musikenzyklopädie. Andere Relevanzkriterien als Wikipedia. Aufwändige Urheberrechtsabklärungen. Verlinkung zu einem IMSLE Projekt, welches Musiknoten digitalisiert und zur Verfügung stellt. Hohe Qualitätsansprüche, definierte Prozesse bei der Erfassung, 24 Bit 192 kH Stereo. Archivierung ohne Retusche, Möglichkeit Wettbewerb: wer macht die beste Retusche.

Hinweis: Urheberrechtsabklärungen sind sehr zeitintensiv und es besteht ein Quellenproblem durch fehlende Informationen und Informationen in proprietär publizierten Büchern welche sehr teuer sind. Wikimedia verlangt öffentlich einsehbare Quellen. (Bücher kosten 2000 Franken) Hinweis auf Public Domain Calculator welches die Rechtslage in verschiedenen Ländern anhand des Todesdatums der Kreativen berechnet: http://www.outofcopyright.eu/ Public Domain verwendet ausschliesslich Opensource SW.

Manuel Schneider: Wie funktioniert der Wikimedia-Server?[Quelltext bearbeiten]

  • Siehe auch beiliegende Präsentation von Manuel

Wiki Technologie: nicht hierarchischer Seiten, welche die Editierung der Inhalte ermöglicht; System zur Organisierung nicht hierarischer Seiten

Wikimedia Organisation: Hauptsitz (Foundation) in den USA, Länderorganisationen (Chapters) in 41 Ländern, von Aktivisten gegründet. Möglichkeit Projekte einzubringen, werden geprüft und gegebenenfalls aufgenommen. Verklagen von Wikipedia ist infolge der internationalen Struktur schwierig, kann nicht für die Inhalte verantwortlich gemacht werden.

Basis: MediaWiki-Software. Wikidata-System: Erweiterung, welche von 24 Entwicklern in einem Jahr programmiert wurde.

Wikimedia Commons: System zur Organisation freier Werke.

Wikimania: jährliches Treffen der globalen Bewegung mit über 1000 Teilnehmern, dieses Jahr in Hongkong.

Serverinfrastruktur: Wikimedia verfügt über ca. 300 Server. Alle Server und deren Inhalte in Tampa Florida sowie Ashbury auf Backupservern. Wegen grossem Datenvolumen wurde ein Loadbalancer geschaffen, d.h. es gibt auch eine Server Infrastruktur in Europa (Amsterdam) für Wiki Commons Inhalte. Loadbalancer, welcher die verfügbaren Server adressiert. Für anonyme User werden Artikel gecasht (zwischengespeichert). Angemeldete User werden auf Masterserver geleitet. Jede Sprachversion ist eine eigene Instanz. Bilder werden von Wiki zu Wiki kopiert. Es bestand ein Problem mit Redundanzen. Lösung durch zentrale Dateiablage, welches die Einbindung in die verschiedene Sprachinstanzen möglich macht. Slide „Instant Commons“-Tag für die Einbindung. Client für API (Upload Client), Möglichkeit für Automatisierung beim Upload umfangreicher Daten mittlerer Datenvolumen.

Commonist: Java Client, damit kann ein Ordner und selektierte Daten ausgewählt werden für den Upload auf die Server. Für grösserer Digitalisierungsprojekte werden meist Skripts geschrieben, welche den Upload/Selektion von Dateien und Metadaten ermöglicht. Vorab Testlauf auf kopiertem System zur Kontrolle. Ausführung erfolgt wenn alles ok.

Beispiel: lebendige Traditionen. Dabei enthielt ein csv File das Datenmodell und Metadaten zum Import ins Wiki System. Dies ermöglicht flexible Prozesse. Bei Bedarf können Quellen- und Zielsysteme angepasst werden.

Lizenz: Meist die Creative Commons Lizenz CC-BY-SA). Wikimedia Commons Werke dürfen somit verändert und weitergegeben werden, nur freie Werke dürfen verwendet werden.

Nur freie Werke dürfen verwendet werden.

Datenformate: JPEG, PNG, TIFF, PDF-A, OGG, OGV, WebM und andere.

Mehrseitige Formate PDF oder TIFF.

Hinweis von Rudolf Gschwind: TIFF baseline unkomprimiert RGB wird heute von allen verwendet. Gehört zwar der Firma Adobe, kann aber für freie Werke verwendet werden. Kinowelt verwendet JPEG 2000; wenn man es effizient haben will, kauft man die Software der Firma oder die von Luratech. Unkomprimiert zu speichern kann bei bestimmten Projekten zu teuer werden. Die Diskussion komprimiert/unkomprimiert ist heute nicht mehr relevant.

Metadaten: EXIF-Daten werden automatisch auf Wikimedia Seiten angezeigt. Für die sinnvolle Erfassung werden Templates und Skripts benötigt.

Ausblick: Wikidatea möchte die Eingabe semantisch ablegen, Zeithorizont 5 Jahre.

Weitere Möglichkeit: Text in Wiki Text eingeben ohne Anzeige für spätere Extraktionen.

Wichtig: Rechte müssen vor dem Hochladen geklärt sein: Problem: die Sperrfristen sind nicht in allen Ländern gleich.

Standort USA: Möglichkeit: API nutzen und Standort eines externen Servers beispielsweise in CH nutzen. Bsp.: IMSLP hat zwei Server in Kanada wegen Problemen mit den Urheberrechten in USA. Manuel Schneider findet die Idee einen Server in CH zu betreiben sinnvoll, ist offen für Vorschläge.

Weitere Ressourcen:

Für weitere Infos http://www.wikimedia.org/

Beim anschliessenden Abendessen in der Krone wurde rege diskutiert. Leider ist es uns nicht möglich, davon eine Zusammenfassung zu geben. Es sei hierzu nur so viel gesagt, dass am für Gespräche über Fussball reservierten Tisch nicht über Fussball gesprochen wurde ;-)

Für das Protokoll

Matina Hämmerli

Aarau, 4. Juni 2013