Was ist NOA?
NOA steht für „Nachnutzung von Open-Access-Abbildungen“, ein von der DFG seit 2017 gefördertes Projekt, dessen Antragsdokument ganz im Stil von Open Science bereits vor der Begutachtung hier verfügbar gemacht wurde. Das Open Science Lab der Technischen Informationsbibliothek (TIB) ist neben der Hochschule Hannover Projektpartner, ferner gibt es Wikimedia als Unterstützer des Projektantrags. Eine kurze Einführung zu NOA ist bereits hier erschienen. Wir haben früh damit begonnen, das Projekt und die Zwischenergebnisse mit der Wikimedia-Community zu diskutieren, so z.B. bei der Wikicite 2016 und Wikicite 2018. Letzte Woche haben wir die neuen NOA-Funktionen und die Zusammenarbeit mit der Community auf dem Bibliothekartag vorgestellt.
NOA versucht, Bilder aus wissenschaftlichen Open-Access-Artikeln nachhaltig für die Nachnutzung zu erschließen. Dafür werden in großem Stil Artikel von verschiedenen Verlagen heruntergeladen. Die meisten dieser Artikel sind in englischer Sprache. Alle natürlich mit einer Creative-Commons-Lizenz, und zwar meistens CC-BY. Damit können die Inhalte frei verbreitet und verändert werden, solange der ursprüngliche Urheber genannt wird und Änderungen gekennzeichnet werden. Deshalb ist diese Lizenz auch mit Wikimedia Commons kompatibel. Aus den heruntergeladenen Artikeln werden nun die Links zu den Bildern sowie die Bildunterschriften extrahiert. Zusätzlich werden auch alle relevanten Metadaten der Artikel extrahiert – zum Beispiel Autoren, Titel oder Zeitschriftennnamen.
Später werden die Bilder mit maschinellen Methoden inhaltlich erschlossen. Dazu soll herausgefunden werden, welche Kategorien aus Wikipedia und Wikimedia Commons ein einzelnes Bild beschreiben. Bekannt sind schon die Bildunterschriften und der Kontext, in dem das Bild im Artikel erwähnt wird. Aus diesen Absätzen werden nun die für das Bild wichtigen Terme extrahiert. Dann wird die englische Wikipedia nach diesen Termen durchsucht und es werden die Artikel gefunden, in denen die Terme am häufigsten vorkommen. Dabei werden seltenere Terme höher gewichtet. Wenn in einer Bildunterschrift ein eher häufiges Wort wie „year“ benutzt wird, bedeutet das also nicht automatisch, dass ein Artikel, in dem das Wort oft auftaucht, für das Bild relevant ist. Bei weniger gebräuchlichen Wörtern wie “Glycosaminoglycans” ist es schon wesentlich wahrscheinlicher, dass ein Artikel, in dem dieses Wort vorkommt, das gleiche Thema behandelt wie das Bild. Wenn in einer Wikipediakategorie viele solcher Artikel vorkommen, wird diese Kategorie als Beschreibung für das Bild verwendet. Wer sich für diese Methoden im Detail interessiert, kann das hier nachlesen. Über die Wikidata API kann ermittelt werden, welches Wikidata Item zu dieser Kategorie gehört, sowie welche Kategorie aus Wikimedia Commons dazu passt.
Somit halten wir an jedem Bild Informationen in drei (!) Systematiken vor, und zwar auch deshalb, weil momentan auch bei Wikimedia Commons umgebaut wird: In Zukunft sollen die Kategorien auf Commons durch mehrsprachige strukturierte Beschreibungen ersetzt werden, was im Moment im Projekt Structured Data getestet wird. Um in das neue Datenformat zu passen, müsste sich auch unsere Erschließung anpassen. Da es bei Structured Commons vor allem darum geht, mithilfe von Wikidata zu beschreiben, was auf einem Bild dargestellt wird, könnte unsere automatische Erschließung an ihre Grenzen stoßen. Wissenschaftliche Abbildungen bilden oft Informationen anstatt klar abgegrenzter visueller Entitäten ab, sodass es schon für Menschen schwer zu formulieren ist, welches Konzept abgebildet wird, geschweige denn für Maschinen. Damit auch Abbildungen wie unsere zukünftig effektiv beschrieben werden können, haben wir schon Feedback auf den Diskussionsseiten gegeben. Es sollte ein intensiverer Austausch von Structured Commons und NOA angestrebt werden. Wir stehen dafür bereit!
Die Bilder können über eine Suchmaschine gefunden werden. Generell sind wir keine Fans von Silos, die nicht mit anderen Datenquellen verknüpft sind und Nutzende zwingen, ständig neue Plattformen zu erlernen. Wir haben uns trotzdem dafür entschieden, eine eigene Suchmaschine zu entwickeln, da es ein langer Prozess ist, bis die Bilder auf Wikimedia Commons verfügbar sind und sie schon zuvor für alle zugänglich sein sollten.
Ein Suchergebnis sieht zum Beispiel so aus:

Screenshot aus der Suchmaschine. Bild aus: Roughley, Peter J and Mort, John S „The role of aggrecan in normal and osteoarthritic cartilage“, Journal of Experimental Orthopaedics doi:10.1186/s40634-014-0008-7
Warum werden nicht alle Bilder auf einmal hochgeladen?
Es ist also eine große Menge von Bildern mit beschreibenden Metadaten vorhanden. Ferner gibt es zum Upload großer Mengen an Bildern nach Wikimedia Commons mehrere Tools, zum Beispiel Pattypan und das GLAMwiki Toolset. Technisch ist es also möglich, alle Bilder bereits jetzt hochzuladen. Was hat uns also davon abgehalten, genau das zu tun?
Durch Austausch mit Verantwortlichen vorangegangener Projekte mit ähnlicher Intention wussten wir, dass die Community bei Massenuploads sehr auf die Qualität bedacht ist und diese nicht ohne vorherige Rücksprache gestartet werden sollten. Außerdem ist nur ein Teil der Bilder zur Nachnutzung geeignet:
Ein erste Herausforderung ist das Urheberrecht. Während die meisten Bilder formalisierte Lizenzen wie CC-BY-4.0 haben, gibt es einige, die die Nachnutzungsrechte nur in einem Fließtext beschreiben oder eine Lizenz benutzen, die nicht zum Upload auf Commons geeignet ist. Nachdem solche Bilder aussortiert wurden, bleiben welche mit einem ganz anderen Problem: Manche Autorinnen und Autoren verwenden Bilder, die nicht unter einer freien Lizenz stehen, zum Beispiel von kommerziellen Bilddatenbanken. Andere zitieren Bilder aus Veröffentlichungen von anderen Autoren. Letztere können – aber müssen nicht – unter einer freien Lizenz stehen. Auch dann stimmen aber die Metadaten nicht mehr, da die Quelle des Bildes ein ganz anderer Artikel ist als der, aus dem es extrahiert wurde. Auch diese Problemfälle können mit einem Algorithmus aussortiert werden, aber eine hundertprozentige Sicherheit gibt es hier nicht.
Die zweite Herausforderung ist die Relevanz und Verständlichkeit der Bilder. Viele sind nur im Kontext des Artikels überhaupt zu verstehen und / oder außerhalb des Artikels nicht relevant. Beispiele sind Bilder, die Karten mit untersuchten Orten zeigen, oder Bilder, die einen Graphen zeigen, der mit „Results from the experiment“ ohne weitere Informationen beschrieben wird. Andere haben eine schlechte Auflösung oder zeigen nur Text. Abgesehen von solchen offensichtlichen Problemfällen gibt es auch viele Bilder, bei denen die Relevanz nur schwer eingeschätzt werden kann. Projektmitarbeitende ohne Fachwissen in der entsprechenden Domäne können oft nicht erfassen, was genau auf einem Bild eigentlich gezeigt wird, geschweige denn einschätzen, ob die Inhalte später für andere nützlich sein könnten.
Wie lösen andere die Probleme?
NOA ist nicht das erste Projekt, das sich mit Massenuploads auf Wikimedia Commons beschäftigt. Andere Projekte haben auch schon Medien aus Open-Access-Artikeln hochgeladen:
Im Projekt hatten wir auch eigene Ideen, wie die richtigen Bilder ausgewählt werden könnte. Man könnte versuchen, anhand der Bildbeschreibungen oder vielleicht sogar anhand des Bildinhaltes einen Machine-Learning-Algorithmus zu trainieren, der die relevanten Bilder herausfiltert. Oder wir könnten die Bereiche auf Wikipedia suchen, wo besonders viele Artikel keine Bilder haben. Ein ähnliches Tool gibt es schon für Wikidata Items, die kein zugehöriges Bild haben.
Unsere Lösung
Vielleicht gibt es auch noch ganz andere Kriterien, anhand derer die Relevanz für Wikimedia Commons beurteilt werden kann. Bisher gibt es aber vor allem einen Grund, weshalb Bilder dort landen: Irgendjemand findet, dass ein Bild auf Commons sein sollte und lädt es hoch.
Dieses Kriterium soll auch bei den NOA-Bildern angewendet werden. Nutzende von Wikimedia Commons sollen selbst entscheiden können, welche der Bilder hochgeladen werden. Damit dies möglichst einfach ist, haben wir zwei verschiedene Uploadmöglichkeiten entwickelt. Dabei haben wir uns von zwei anderen Tools inspirieren lassen, die ebenfalls Bilder von einem anderen Dienst zu Wikimedia Commons hochladen. FlickrFree, das frisch hochgeladene, frei lizenzierte Bilder aus Flickr anzeigt und den Upload mit einem Klick ermöglicht, und Flickr2Commons, auf Flickr gefundene Bilder unkompliziert hochgeladen werden können. Unsere zwei Lösungen sind ähnlich, unterscheiden sich aber unter anderem dadurch, dass sie in die Suchmaschine integriert sind.
1. Upload nach einer Suche
Wer in der Suchmaschine nach einem Bild sucht, bekommt unter den einzelnen Ergebnissen einen Button mit Aufschrift „Upload to Wikimedia“ angezeigt. Nach einem Klick hier drauf wird man aufgefordert, sich mit seinem Wikimedia-Account anzumelden und NOA zu erlauben, Bilder hochzuladen. Nachdem das geschehen ist, kann man aus den ermittelten Kategorien die passenden markieren und mit einem Klick auf „Upload“ das Bild mit allen Daten zu Wikimedia Commons hochladen. Das Ergebnis erscheint als Link und man kann es sich direkt ansehen und bei Bedarf editieren.

Suchergebnisse in der NOA-Suchmaschine, Screenshot. Bild aus: Li, Qingwen et al. „Analysis of the Blasting Compaction on Gravel Soil“, Journal of Chemistry doi:10.1155/2015/642810

Uploadfunktion in der NOA-Suchmaschine, Screenshot. Bild aus: Li, Qingwen et al. „Analysis of the Blasting Compaction on Gravel Soil“, Journal of Chemistry doi:10.1155/2015/642810
2. Das Random Upload Tool
Wer kein bestimmtes Thema im Kopf hat, aber dennoch dazu beitragen will, Bilder aus dem Projekt nach Wikimedia Commons zu transferieren, kann das Random Upload Tool benutzen. Dort bekommt man zufällig ausgewählte Bilder angezeigt und kann mit einem Klick bestimmen, ob das Bild hochgeladen wird, oder ob ein neues Bild angezeigt werden soll. Wird ein Bild nicht hochgeladen, wird es zunächst nicht mehr angezeigt. Auch hier ist es möglich, passende Kategorien zu einem Bild auszuwählen. Außerdem kann die Anzeige der Bilder nach Fachgebiet eingeschränkt werden. Medizin ist standardmäßig herausgefiltert, weil es hier eine Menge Bilder gibt, die viele Menschen möglicherweise nicht gerne sehen möchten. Das Fach kann aber beim Fächerfilter ausgewählt werden.

Random Upload Tool, Screenshot. Bild aus: Acikgoz, Hakan et al. „Improved control configuration of PWM rectifiers based on neuro-fuzzy controller“, SpringerPlus doi:10.1186/s40064-016-2781-5
In Zukunft
In Zukunft wollen wir weitere Möglichkeiten entwickeln, die Bilder noch zielgenauer hochzuladen. Eine Idee wäre, Wikipediaartikel ohne Bilder zu finden und automatisch passende Bilder vorzuschlagen. Ein ähnliches Tool gibt es bereits für Wikidata. Es ist auch vorstellbar, Autorinnen und Autoren direkt beim Erstellen der Artikel zu unterstützen und anhand des neu geschriebenen Textes relevante Bilder vorzuschlagen. Vielleicht kann auch ein Algorithmus trainiert werden, der aus den hochgeladenen Bildern lernt und selbstständig entscheidet, welche Bilder geeignet sind. Die können dann entweder automatisch hochgeladen werden, oder Nutzende zum Upload vorgeschlagen werden.
Um die Zahl der relevanten Bilder zu erhöhen, sollen auch neue Quellen erschlossen werden. Bisher ist die Sammlung in NOA sehr einseitig in Richtung der Ingenieur- und Lebenswissenschaften. Geistes- und Sozialwissenschaften sind kaum vertreten. Wenn diese eingeschlossen werden, kann das Projekt einen Mehrwert für ganz neue Nutzergruppen schaffen.
Mitmachen
Je mehr Leute mitmachen, desto mehr Bilder können für alle über Wikimedia Commons zugänglich gemacht werden. Ob jemand nun über die Suche oder über das Random Upload Tool ein schönes Bild findet – das Hochladen ist einfach. Alles, was man dafür tun muss, ist, diese Funktion in seinem Wikimedia Account zu erlauben (das kann natürlich jederzeit rückgängig gemacht werden). Jeder Beitrag ist willkommen.
Was uns auch eine große Hilfe ist, sind Rückmeldungen aller Art: Wie wird das Projekt insgesamt gesehen? Wie ist die Qualität der Bilder? Was fehlt bisher komplett? Welche Funktionen könnte sonst noch eingebaut werden?
Wir freuen uns über eure Meinungen!
[mehr]

Michael Seemann bei Wikimedia-Salon „Vertrauen. Wer rettet die Demokratie – Institutionen oder Communities?“ Foto: Lisa Dittmer (WMDE) [CC BY-SA 4.0]
Ich empfinde es als Vorteil, dass wir in Deutschland die „Digitalisierung“ auch als gesellschaftlichen Prozess diskutieren. Leider läuft man dabei schnell in die Gefahr zu glauben, es reiche, die vorhandenen Strukturen zu nehmen und einfach digital neu zu denken. Die Rede von „Digitaler Gesellschaft“ scheint mir genau in diese Falle zu laufen, denn sie übersieht, dass Gesellschaft – egal ob als abstraktes Gebilde oder konkrete Struktur – immer auch ein Produkt medialer Bedingungen ist. Das hat bereits der Lehrer und Mentor von Marshall McLuhan – Harold Innes – verstanden. In seinem Buch „Empire and Communications“ von 1950 zeigt er, wie schon die Imperien und antiken Hochkulturen von der Erfindung der Schrift ermöglicht und strukturiert wurden[1]. Dass die Gesellschaften der Sprachkultur, der Schriftkultur und der Buchkultur sich fundamental unterscheiden, ist seit Jahren der Ausgangspunkt von Dirk Baeckers Überlegungen zu der „nächsten Gesellschaft“, wie er die „digitale Gesellschaft“ auch nennt[2].
Medien und Gesellschaftsstruktur bedingen einander, was aber auch bedeutet, dass es keine „digitale Gesellschaft“ geben kann, bei der wir schon heute eine Idee davon haben können, was „Gesellschaft“ in diesem Sinne überhaupt heißt. Denn natürlich leben wir trotz stetig voranschreitender Digitalisierung nach wie vor in der Buchdruck-Gesellschaft. Alle unsere Institutionen, Werte, Verhaltensweisen und Strukturen entstammen der Gutenberg-Galaxis. Und bei all unserer digitalen Kompetenz vergessen einige von uns gerne, dass dies unser aller erste Digitalisierung ist. Das Experiment wurde noch nie zuvor versucht und angesichts der Unterschiedlichkeit der digitalen Medien zu all ihren Vorläufern, sollten wir ein wenig mehr Demut in unseren Prognosen mitführen.
Ich halte es eher mit Angela Merkels und betrachte die „digitale Gesellschaft“ erstmal als „Neuland“, dass es erst noch zu entdecken gilt[3]. Und ich bin nach wie vor fasziniert von diesem Neuland. Ich bin nicht mehr ganz so sicher wie vor zehn Jahren, dass es per se das bessere Land ist. Aber es hat mich nie aufgehört zu faszinieren und ich glaube immer noch daran, dass wir hier etwas schönes draus machen können, wenn wir die Chancen nutzen.
Die Utopie der Wikipedia
Vera Linß, Tania Röttger, Alice Wiegand, Michael Seemann bei Wikimedia-Salon am 12.03.2019. Foto: Lisa Dittmer (WMDE) [CC BY-SA 4.0]
In vielerlei Hinsicht ist die Wikipedia ihr ideales, digitales Vorbild. Hier treffen sich unterschiedliche Menschen, um freiwillig an etwas zu arbeiten, das größer ist als sie. Die Wikipedia ist das erste und einzige digitale Weltwunder. In der Theorie unmöglich, in der Praxis so real. Sie ist der Beweis wozu Menschen im positiven Sinn fähig sind, wenn man ihnen einfach nur die mediale Infrastruktur dafür bereitstellt. Sie ist eine schöne Idee des Menschen: Menschen wollen ihr Wissen teilen. Ohne Gegenleistung. Einfach so.
In der ökonomischen Theorie hat man versucht, dem Phänomen unter dem Namen „Commons Based Peer-Production“ Rechnung zu tragen[4], kämpft jedoch mit dem Problem, dass der unbestreitbare Wert, der da geschaffen wird, kaum sinnvoll messbar ist[5]. Aber für viele bleibt eine Gesellschaft, die auf dem freiwilligen und offenen Austausch von Wissen basiert, bis heute die wichtigste digitale Utopie.
Auch außerhalb der Wikipedia – zum Beispiel bei der Freien Software und Open Source Szene – kann man sehen, dass diese Utopie durchaus kein Traum, sondern gelebte Realität ist. Ein Großteil unserer digitalen Infrastruktur läuft auf Open Source Software, ohne dass wir das überhaupt merken. Man sieht aber auch die Limitierungen des Ansatzes. Trotz offensichtlicher Vorteile in Sachen Kosten und Vertrauen konnte sich Open Source als Prinzip nur in manchen Bereichen als Standard durchsetzen. Zudem machen strukturelle Probleme, wie die chronische Unterfinanziertheit der Projekte und die sich daraus ergebende Selbstausbeutung der Szene zu schaffen.
Die Krise der Wikipedia
Auch die Wikipedia hat ihre Probleme. Zuletzt häuften sich die Berichte um die zunehmenden Probleme mit veralteten Artikeln[6]. Diese wiederum sind Ausdruck des sich verschärfenden Nachwuchsproblems und das wiederum ist Ausdruck anderer strukturelle Probleme innerhalb der Wikipedia-Community. Schon 2012 hatten einige Wissenschaftler rund um Aaron Halfaker diese Strukturprobleme untersucht und kamen zu der Erkenntnis, dass es vor allem die Wachstumsphase bis 2007 war, die die aktuellen Probleme heraufbeschwor.
In ihrer Studie „The Rise and Decline of an Open Collaboration System: How Wikipedia’s Reaction to Popularity Is Causing Its Decline“ gehen sie verschiedenen Hypothesen zum mangelnden Nachwuchs nach und zeigen anhand von Daten, dass es vor allem die internen Strukturanpassungen waren, die zu einer zunehmenden Schließung der Community gegenüber Neueinsteigern führten. Als die Wikipedia auf einmal so viel Zulauf bekam und Millionen anfingen, herumzueditieren, mussten strengere Änderungskontrollen, ein strafferes Community-Management und verschärfte Qualitätsstandards eingezogen werden[7]. Die Folge war, dass das Versprechen, das jeder ständig Artikel ändern oder anlegen kann, nur noch in der Theorie existiert. In Wirklichkeit werden Neulinge häufig schroff abgewiesen oder ihre Änderungen werden kommentarlos und ohne Diskussion oder Überprüfung rückgängig gemacht. Die meisten kommen nach dieser frustrierenden Erfahrung nicht mehr wieder.
Diese Probleme scheinen überwindbar. Einige Experten fordern zum Beispiel bezahlte und professionelle Community-Manager einzustellen, die selbst nicht editieren sollen, aber Prozesse moderieren, Neulinge an die Hand nehmen und für ein konstruktives Klima sorgen sollen[8].
Doch mir scheint noch etwas anderes im argen zu liegen. Ungefähr zur selben Zeit – also etwa ab 2007 – bekommen auch soziale Medien vermehrt Zulauf, sogar viel mehr noch als die Wikipedia. Facebook wuchs alleine in diesem Jahr um 317 % und erreichte dieses Wachstum seither nie wieder. Twitter stieg 2006 ein und wuchs ab 2007 kräftig, 2009 kommt Quora hinzu. Dazu boomen Reddit und andere spezialisierte Diskussionsseiten. Warum das wichtig ist? Wenn die Motivation der Wikipedianer ist, ihr Wissen weiterzugeben, dann stehen all diese Dienste gewissermaßen in Konkurrenz zur Wikipedia.
Der wesentliche Unterschied ist allerdings, dass man sein Wissen in Social Networks nicht erst aufwändig gegen eine vorhandene, oft schlecht gelaunte Community rechtfertigen und verteidigen muss. Alles hereingetragene Wissen steht auf Twitter oder Facebook erstmal da und die Communities wachsen dann drumrum. Auf sehr nachvollziehbare Art ist das sehr viel attraktiver als sich mit Wikipedia-Admins rumzuschlagen. Ich jedenfalls habe das immer so empfunden, weswegen ich nie wirklich in die Wikipedia, wohl aber auf Twitter mein digitales Zuhause gefunden habe.
Alternative Gitpedia?
Und weil ich das damals so empfand, schlug ich 2009 vor, die Wikipedia in eine neue Datenstruktur zu transferieren, die dem agilen Konzept, dass ich aus den Social Networks kannte, viel mehr entspricht. Ich schlug vor, die Wikipedia auf Git-Basis zu stellen[9].
Git ist ein Versionskontrollsystem, das in der Open Source Szene sehr populär ist. Das Prinzip funktioniert so, dass sich jeder, der an einem Projekt weiter programmieren will, sich dieses Projekt in Gänze herunterlädt, seine Änderung vornimmt und dann seine Änderung „committet“, also integriert.
Der Vorteil dieser Vorgehensweise ist, dass man die Änderung auch gar nicht kommunizieren braucht. Man kann an der geänderten Variante des Projekts auch einfach weiterarbeiten oder sie gar zu einer neuen Instanz machen. Das nennt man dann einen Fork – eine Gabelung. Auf diese Weise – so war mein Gedanke – könnten die anstrengenden Grabenkämpfe, für die die Wikipedia damals schon bekannt war (auch Editwars genannt), vermieden werden. Die sich belagernden Fraktionen könnten einfach ihren Fork aus der Wikipedia ableiten und ihre Version der Geschichte publizieren. Warum sich noch einigen, wenn man forken kann?
Nun, eine Dekade später gibt es tatsächlich Forks der Wikipedia. Es gibt die Conservapedia, ein Wikipedia-Fork mit unterschiedlichen Ansichten zu Abtreibung, Waffengesetzen und Klimawandel. Oder die Metapedia, die Wikipedia für „White Supremacists“, in der der Holocaust nur ein Ereignis in der politisch korrekten Geschichtsschreibung ist. Und dann gibt es Infogalactic, der Wikipedia-Klon der Alt-Right, ein Ort für ihre „alternativen Fakten“. Unnötig zu sagen, dass ich meine damalige Ungestümheit bereue – ich halte eine “Gitpedia” nicht mehr für eine gute Idee[10].
Dabei bildet die Wikipedia und ihre Klone die Balkanisierung des Medienbetriebs nur oberflächlich ab. All die alternativen Wikis reichen zusammen nicht mal annähernd in den Relevanzbereich des Originals, während aber Fox News, Breitbart – oder in Deutschland die Epoch-Times – durchaus relevante Reichweiten haben und für einen allgemeinen Vertrauensverlust in die Medieninstitutionen stehen.
Die Triablisierung der Wahrheit
Doch die Balkanisierung der Medienlandschaft ist nur ein Vorgeschmack auf die Tribalisierung des Onlinediskurses. Im Jahr 2017 habe ich zusammen mit einem befreundeten Datenjournalisten die Verbreitung von Fake News auf Twitter untersucht. Das Ergebnis war die These des „digitalen Tribalismus“, der einen wesentlichen Faktor für den Erfolg gefälschter Nachrichten bildet[11]. Es sind eng vernetzte Gruppen mit starkem Abgrenzungsbedürfnis zum „Mainstream“, die alles weiterverbreiten, das ihnen hilft, ihre Identitätskonstruktion zu aktualisieren. In unserem Fall waren es AfD-nahe Twitterer, die bereit waren alles zu glauben, was ihr Narrativ von der „Flüchtlingsinvasion“ und der „Merkeldiktatur“ bestätigte.
Die Rede von politischen Stämmen ist vor allem in den USA weit verbreitet, wo die politische Polarisierung sehr viel weiter fortgeschritten ist und die psychologischen Grundlagen politischen und moralischen Tribalismus inzwischen gut erforscht sind[12]. Das Internet scheint jedoch die ideale mediale Struktur für die Bildung von Stämmen zu bieten. Lange wurde diese Beobachtung mit Thesen wie der „Filterblase“ erklärt, also der Idee, dass die algorithmische Sortierung von Posts dafür sorgt, dass wir mit andersartigen Auffassungen der Welt schlicht nicht mehr konfrontiert werden. Dass diese These als Erklärung weder hinreichend noch notwendig ist, haben nicht nur wir gezeigt[13].
Stattdessen sind wir die Algorithmen. Immer dann, wenn wir unsere Meinung in die Welt posaunen, stoßen wir einen Sortiervorgang an. Leute wenden sich ab, Leute wenden sich zu. Die Freiheit der Konnektivität und die große Transparenz, die das Internet bietet, macht es für alle Leicht, den eigenen Stamm zu finden. Und ist der gefunden, werden die kognitiven Algorithmen in Gang gesetzt – uralt verdrahtete „Wir gegen Die“-Schemata, die unser Werturteil und sogar unsere Wahrnehmung bestimmen[14]. Beim digitalen Tribalismus greifen technische, soziale und psychologische Algorithmen ineinander und verstärken sich gegenseitig.
In den USA haben Peter Limberg und Conor Barnes das Phänomen „Memetic Tribes“ genannt und eine umfassende Analyse in Form eines Essays veröffentlicht, bei dem sie auch eine Taxonomie von 24 dieser politischen „Memetic Tribes“ auflisten. Darunter Black Lives Matter, Modern Neo-Marxists, Antifa, Establishment Left und Right, New Atheists und Street Epistemologists, Infowarriors und QAnoners, Alt-Lite, Alt-Right und Modern Neo-Nazis, Neoreactionaries, Incels, etc[15].
Ganz so wild ist es in Deutschland noch nicht, aber auch hier finden sich immer mehr kleinteilige, stammesartige Aufspaltbewegungen. Hier ein kleiner, aus der Hüfte geschossener Überblick: Neben der Afd-nahen Blase, die wir untersucht haben, gibt es zum Beispiel eine deutlich zu erkennende Blase von deutschsprachigen Erdogan-Fans, sowie eine Pro-Putin-Blase. Es gibt die “Identitären” und die “neue Rechte”, die sich sehr nah, aber doch verschieden sind. Es gibt „Sifftwitter“ ein ambivalent bis links-orientiertes Troll-Netzwerk, das es sich zur Aufgabe gemacht hat, alle möglichen Leute zu belästigen. Es gibt den Streit zwischen den linken „PoMos“ (gemeint sind die „Postmodernen“, womit intersektional orientierte Feminist/innen und Antirassist/innen gemeint sind) und den eher klassisch marxistischen Linken (auch Kommi-Bubble genannt), bzw. auch einigen Teilen der Antifa (die von den PoMos gerne “Manntifa” genannt werden). Hinzu kommen die querfrontlerische und verschwörungstheoretische „neue Friedensbewegung“, die sich vor allem mit linken Gruppierungen im Streit befindet, die sie als „Antideutsch“ bezeichnet. Letztere werden ebenfalls von einer Gruppe bekämpft, die sich „Jugendwiderstand“ nennt. Hinzu kommen oberflächlich politisch, aber doch politisch wirksame Gruppen wie die Hardcore Gamer oder die Maskulinisten, Pick up Artists und andere, die ihr (meist rechtes und frauenfeindliches) Ideologie-Süppchen kochen.
Diese Übersicht ist weder gut fundiert noch erhebt sie einen Anspruch auf Vollständigkeit. Und natürlich gibt und gab es an den politischen Rändern immer schon Sektierereien und Spaltungen, aber es ist unschwer zu sehen, wie die sozialen Medien dabei helfen, solche Strukturen zu ermöglichen und stabilisieren, indem sie ihnen Räume nach innen und Kanäle nach außen geben.
Ist dies also das Schicksal der digitalen Gesellschaft? Wird sie zerfallen in einander verfeindete Stämme, die nichts mehr im Sinn haben, als den Erfolg der jeweils anderen Stämme zu bekämpfen? Ist die anfangs erwähnte Krise der Wikipedia also in Wirklichkeit die Krise der ganzen digitalen Gesellschaft? Eine Gesellschaft, die es aufgegeben hat, sich überhaupt einigen zu wollen und sich damit gewissermaßen selbst aufgegeben hat? War „Gesellschaft“ vielleicht immer schon diese rein „Vorgestellte Gemeinschaft“ – eine Fatamorgana – induziert durch die zentralisierte Synchronizität der Massenmedien, wie es Benedict Anderson immer schon für die Nation vermutete?[16] Eine Illusion, die unter den Bedingungen wirklich freier Kommunikation einfach platzt, wie die Finanzblase 2008?
Rechnet man die identifizierten Trends hoch, dann drängt sich dieses Bild auf.
Die Wikipedia als Lösung
Nein. Ich bin aber noch nicht bereit, den Traum aufzugeben. Ich glaube, die „digitale Gesellschaft“ ist immer noch gestaltbar. Aber sie wird sich nicht von alleine einstellen. Wenn wir sie wollen, müssen wir sie aktiver, sogar aggressiver, vorantreiben. Und wir müssen außerdem mehr einstecken lernen, uns mehr einbringen, uns weniger von Widerständen abbringen lassen. Es wird schwerer als gedacht – aber nicht unmöglich.
Dabei spielt die Idee der Commons-Based-Peer-Production weiterhin eine Schlüsselrolle und die Wikipedia ist nach wie vor das große Vorbild. Die Krise der Wikipedia ist klein im Vergleich zu dem Weltwunder, das sie auch heute noch ist. Und das, was sie groß gemacht hat, ist noch da.
Eine neuere Studie unterfüttert meine Hoffnung. In „The wisdom of polarized crowds“ zeigen Feng Shi, Misha Teplitskiy, Eamon Duede und James A. Evans dass Polarisierung sogar zu messbar besseren Ergebnissen führen kann, wenn die Menschen zusammenarbeiten[17]. Die Arbeit in politisch polarisierten Teams an politisch heiklen Wikipedia-Artikeln führt zu längeren und intensiveren Diskussionen und schließlich zu vollständigeren und qualitativ hochwertigeren Artikeln.
Die Wikipedia ist nicht nur Ausdruck einer Krise der digitalen Gesellschaft, sie ist auch die Lösung. Wie genau diese aussehen wird, müssen wir erst herausfinden, aber das Einbinden der Tribes in gemeinsame Projekte, scheint ein Teil davon zu sein.
Wir dürfen aber nicht zu der naiven Euphorie von Anfang der Nullerjahre zurückkehren. Die strukturellen Probleme der Wikipedia, der Open Source Welt und der digitalen Gesellschaft sind systemisch und sie müssen systemisch adressiert werden. Schaffen wir es, die ersten beiden zu reparieren, ist auch die digitale Gesellschaft wieder in Reichweite.
Doch wir müssen auch außerhalb der Wikipedia und den Open Source-Projekten für die digitale Gesellschaft kämpfen. Bisher hat die offene und kollaborative Zusammenarbeit nicht nur eine Konkurrenz in Form der klassisch kapitalistischen Produktionsweise, sondern auch entschiedene Gegner in der Politik. Sie tun alles, ihr Steine in den Weg zu legen, sei es durch sinnlose Regulierung von kleinen, freien Plattformen oder durch Radikalisierung des Urheberrechts, wie in der geplanten Urheberrechtsnovelle der Europäischen Union. Diese Politiker sind in der Gutenberg-Galaxis groß geworden und können sich jenseits der kapitalistischen Produktionsweise nur die Sowjetunion vorstellen. Deswegen hören sie nur auf die Vertreter angestammter Unternehmen, die ihnen einreden, dass nur drakonische Urheberrechtsgesetze samt Uploadfilter und Leistungsschutzrechte für winzige Wortfetzen die Arbeitsplätze in Europa retten können.
Es ist deswegen ein gutes Zeichen, wenn so viele junge Menschen auf die Straße gehen, um zumindest die schlimmsten Auswüchse der Urheberrechtsreform zu verhindern.
Die Politik muss grundsätzlich umdenken, denn wir brauchen sie an unserer Seite. Sie muss sich fragen, was das Gemeinwohl im Digitalen ist. Und sie muss sich wieder in den Dienst dieses Gemeinwohls stellen und die staatlichen Strukturen, die sie befehligt ebenso.
Ein paar konkretere Vorschläge:
Eine Antwort können zum Beispiel „Public-Commons-Partnerships“ sein, wo staatliche Strukturen offene Projekte ergänzen, unterstützen oder flankieren[18]. Ein Umschwenken staatlicher IT hin zu Open Source ist ein Vorschlag, den ich dazu immer wieder stark mache[19]. Das Prinzip „Public Money, Public Good“ sollte in Gesetze gegossen werden, so dass alle öffentlich oder staatlich finanzierten Dokumente unter freier Lizenz für alle verfügbar sind. Open Data Initiativen haben bereits viel erreicht, aber die Politik muss von sich aus darauf kommen, dass der Staat und alle seine Strukturen den Bürgern gehören und sie ihnen so zugänglich wie möglich zu machen. Die Politik muss sich außerdem für freie Lizenzen und eine Öffnung des Urheberrechts einsetzen, um das Arbeiten mit und an Informationen allgemeiner möglich zu machen. Ein “freiwilliges offenes Jahr”, bei dem junge Menschen in Open Source Projekte oder in der Wikipedia eingebunden werden und helfen, den Wissensschatz und die öffentliche Software-Infrastruktur zu verbessern. Demokratische Institutionen, die Communities anrufen können, um Streits zu schlichten, oder Prozesse zu moderieren. Stipendien, Preise und Gütesiegel für besonders herausragende Leistungen für das digitale Gemeingut.Es sind viele Dinge denkbar, die einen grundlegenden, demokratischen und gesellschaftsfördernden Wandel bringen würden. Aber wir müssen endlich die Strukturen der Gutenberg-Galaxis in Richtung digitaler Neuerfindung zwingen, um mit ihrer Kraft die neue, die nächste, die digitale Gesellschaft zu erfinden.
Fußnoten:
[1] Harold Innes: Empire and Communications, Toronto 1950.
[2] Dirk Baecker: Studien zur nächsten Gesellschaft, Frankfurt am Mein 2007.
[3] Angela Merkel auf einer Pressekonferenz mit US-Präsident Barack Obama am 19. Juni 2013, orf.at, https://www.youtube.com/watch?v=2n_-lAf8GB4.
[4] Yochai Benkler: The Wealth of Networks – How Social Production Transforms Markets and Freedom, Yale 2006.
[5] Siehe zum Beispiel: Leonhard Dobusch: Wert der Wikipedia: Zwischen 3,6 und 80 Milliarden Dollar?, in Netzpolitik, https://netzpolitik.org/2013/wert-der-wikipedia-zwischen-36-und-80-milliarden-dollar/, vom 05.10.2013.
[6] Patrick Bernau: Die Wikipedia veraltet, https://www.faz.net/aktuell/wirtschaft/diginomics/die-wikipedia-verliert-an-aktualitaet-autoren-fehlen-16045021.html.
[7] Aaron Halfaker, R. Stuart Geiger, Jonathan T. Morgan, and John Riedl: The Rise and Decline of an Open Collaboration System: How Wikipedia’s Reaction to Popularity Is Causing Its Decline, https://journals.sagepub.com/doi/abs/10.1177/0002764212469365.
[8] So zum Beispiel Leonhard Dobusch, in Netzpolitik, https://netzpolitik.org/2014/kommentar-wie-die-kluft-zwischen-wikipedia-und-wikimedia-zum-autorenschwund-beitraegt/, vom 17.03.2014.
[9] Michael Seemann: Die Multipedia: Schafft ein, zwei, viele Wikipedien! http://mspr0.de/?p=908.
[10] Michael Seemann: Fork! https://www.internet-freiheit.de/fork/.
[11] Michael Seemann, Michael Kreil: Digitaler Tribalismus und Fake News, http://www.ctrl-verlust.net/digitaler-tribalismus-und-fake-news/, vom 29.09.2017.
[12] Siehe vor allem Jonathan Haidt: The Righteous Mind – Why Good People Are Divided by Politics and Religion, 2012.
[13] Siehe Zum Beispiel: Adam Piore: Technologists are trying to fix the “filter bubble” problem that tech helped create – But research shows online polarization isn’t as clear-cut as people think.https://www.technologyreview.com/s/611826/technologists-are-trying-to-fix-the-filter-bubble-problem-that-tech-helped-create/, 22.08.2018.
[14] Vgl. dazu vor allem die Forschungen von Dan M. Kahan: Dan M. Kahan: Misconceptions, Misinformation, and the Logic of Identity-Protective Cognition. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2973067.
[15] Peter Limberg, Conor Barnes: The Memetic Tribes Of Culture War 2.0, https://medium.com/s/world-wide-wtf/memetic-tribes-and-culture-war-2-0-14705c43f6bb, vom 13.09.2018.
[16] Imagined Communities: Reflections on the Origin and Spread of Nationalism, 1983.
[17] Feng Shi, Misha Teplitskiy, Eamon Duede & James A. Evans: The wisdom of polarized crowds, https://www.nature.com/articles/s41562-019-0541-6, vom 04.03.2019.
[18] Vgl. Yochai Benkler: From the imagined community to the practice community, https://www.barcelona.cat/metropolis/en/contents/imagined-community-practice-community, vom 19.01.2019.
[19] Michael Seemann: Vorschlag: Open Source als Plattformpolitik, http://www.ctrl-verlust.net/vorschlag-open-source-als-plattformpolitik/, 07.03.2019.
[mehr]
Während strukturierte Daten über die Summe allen menschlichen Wissens Maschinen und künstlicher Intelligenz helfen können, die Welt zu verstehen, können sprachliche Daten in Wikidata ihnen helfen zu verstehen, wie Menschen ihr Wissen mit Wörtern ausdrücken. Mit all den Sprachkombinationen, die wir in Wikimedia-Projekten haben, eröffnen sich ganz neue Möglichkeiten: Übersetzungen aus dem Estnischen ins Maltesische oder von Tamil nach Zulu — obwohl ein gedrucktes Wörterbuch für diese Kombinationen wahrscheinlich nicht existiert, kann es mit strukturierten Daten über Sprachen generiert werden.
Datenobjekte in Wikidata beschreiben bislang einen Gegenstand, eine Person oder ein Konzept unserer Welt. Was Wikidata bis vor kurzem nicht hatte, war die sprachliche Seite der Dinge: die Wörter, um diese Objekte so zu beschreiben, wie sie in einer Sprache erscheinen, ihre grammatikalischen Formen und Bedeutungen. In den letzten Monaten haben wir Funktionen in Wikidata und der Software Wikibase entwickelt, die es ermöglichen, sprachliche Daten zu beschreiben. Wir nennen dies lexikographische Daten.
Lexikographische Daten wurden im Mai 2018 eingeführt und sind nun seit fast einem Jahr im Einsatz. Zeit, einen genaueren Blick darauf zu werfen.
Lexikographische Daten bedeuten genau das: Daten, die in einem Lexikon vorkommen können. Womit wir es hier zu tun haben, ist die linguistische Seite der Wörter. Da das Wort „Wort“ bereits sehr überladen ist, verwenden wir den sprachwissenschaftlichen Begriff Lexem — ein Lexem ist ein Eintrag in einem Wörterbuch.
Lexeme unterscheiden sich ein wenig von anderen Entitäten in Wikidata und haben daher einen eigenen Namensraum. Ihre Entitätsnummern beginnen nicht mit einem Q — sie beginnen mit einem L. Unter https://www.wikidata.org/wiki/Lexeme:L1 ist das erste Lexem in Wikidata zu finden, das sumerische Wort für „Mutter“. Da das Sumerische eine der ältesten Sprachen ist, die wir kennen, und das Wort für Mutter eines der grundlegendsten Wörter in jeder Sprache ist, ist es gut möglich, dass es sich dabei um eine der frühesten sprachlichen Äußerungen der Menschheitsgeschichte handelt.
Jedes Lexem hat Bedeutungen, die anzeigen, was ein Wort in verschiedenen Sprachen bedeutet. Es gibt auch Formen, die beschreiben, wie sich das Lexem grammatikalisch ändern kann — etwa die 15 Fälle, in denen ein Substantiv in der finnischen Sprache verwendet werden kann.
Jedes Lexem steht für einen Eintrag in nur einer Sprache. Das deutsche Wort “Apfel”, das englische „apple“ und das französische „pomme“ sind verschiedene Lexeme (L819, L3257 und L15282). Da Wikidata eine verknüpfte Datenbank ist, kann es sogar auf ein Element mit einer Q-Id verweisen, die das Konzept dieses Lexems repräsentiert. Weitere Informationen zum Datenmodell für Lexeme finden sich auf der Dokumentationsseite.
In einigen Sprachen können Lexeme viele Formen annehmen. Für die Eingabe gibt es Hilfe: Wikidata Lexeme Forms ist ein Werkzeug, um ein Lexem mit einem Satz von Formen zu erstellen, z. B. die Deklinationen eines Substantivs oder die Konjugationen eines Verbs.
Um Lexemen Bedeutungen hinzuzufügen gibt es auch ein praktisches Werkzeug: Wikidata Senses zeigt neben der Liste der Sprachen und der Anzahl der fehlenden Bedeutungen ein zufälliges Lexem, das eine Bedeutung benötigt. Einfach mal beim Warten an der Bushaltestelle ausprobieren, so schnell kann man zum Freien Wissen beitragen!
Natürlich können lexikographische Daten auch abgefragt werden. Ein interessantes Beispiel für die Vernetzungen, die Lexeme in Wikidata ermöglichen, ist diese Abfrage von Finn Årup Nielsen, die nach Personen mit Nachnamen sucht, die der Vergangenheitsform eines dänischen Verbs entsprechen.
Mit Abfragen können auch tolle Anwendungen erstellt werden. Einer der häufigsten Gründe für Kopfschmerzen bei Deutschlernenden sind die Artikel von Substantiven: der, die, das. Sie folgen allerdings keiner wirklichen Logik, was meist bedeutet, dass Artikel auswendig gelernt werden müssen. Wie Mark Twain in seinem klassischen Aufsatz „The Awful German Language“ bemerkte: “Jedes Hauptwort hat einen Artikel; aber da ist kein System und Sinn in der Anwendung desselben, so dass nichts übrig bleibt, als jeden Artikel zu jedem Wort besonders auswendig zu lernen. So hat z. B. in der deutschen Sprache ein junges Mädchen kein Geschlecht, während eine Steckrübe ein solches hat. Welche maßlose Hochachtung zeigt das einer Rübe gegenüber, welche Geringschätzung von einem Mädchen!”
Zum Glück gibt es ein Spiel, das lexikographische Daten in Wikidata verwendet, um das Auswendiglernen einfacher zu machen: DerDieDas. Wer schafft 10 zufällig ausgewählte deutsche Substantive mit dem richtigen Artikel? Für diejenigen, die bereits Deutsch sprechen, gibt es auch eine französische und eine dänische Version.
Wikidata verfügt derzeit über 43440 Lexeme in 315 verschiedenen Sprachen, Dialekten oder Schriften (14762 Lexeme auf Englisch, 10334 auf Französisch, 3039 auf Schwedisch, 2651 auf Nynorsk, 2095 auf Polnisch und 2027 auf Deutsch — siehe vollständige Liste). Das ist zwar bereits ein guter Anfang, aber es ist eindeutig nur der erste Schritt. Die Erforschung lexikographischer Daten auf Wikidata kann also beginnen — zusammen können wir einen neuen Fundus für Freies Wissen an Sprachdaten aufbauen!
[mehr]
Woran wird Qualität von Forschungsergebnissen gemessen und wie wird diese bewertet? Das ist nicht einfach zu beantworten, weil sich natürlich zunächst die Frage stellt, wie sich Qualität definieren lässt, welche Bezugsgrößen je nach wissenschaftlicher Fachdisziplin relevant sind und wie diese gewichtet werden. Weit verbreitet und ebenso umstritten ist der Journal Impact Factor (JIF) als Messinstrument. Der Journal Impact Factor soll die Qualität von Forschungsergebnissen anhand der Häufigkeit zitierter Artikel in Journalen messen. Qualität wird in diesem Sinne mit Publikationsleistungen gleichgesetzt, die leicht abrufbar und verständlich sein sollen. Ob diese dargestellten Leistungen den wissenschaftlichen Gütekriterien entsprechen, ist äußerst fraglich. So bewertet der JIF nie die eigentliche inhaltliche Qualität der Forschung, sondern lediglich quantitative Größen wie Zitate und Verweise. Es entsteht jedoch beim JIF der Eindruck eines Ausdrucks von Qualität von wissenschaftlicher Forschung. Um diesem systeminternen Trugschluss eines sich selbst erhaltenden Bewertungssystems entgegenzuwirken, ist es notwendig alternative Wege der Messbarkeit von Forschung aufzuzeigen. Wikimedia Deutschland hat deshalb die DORA Declaration unterzeichnet, um deren Empfehlungen und Ansätze zur qualitativen Bewertung von Forschungsergebnissen zu unterstützen.
Im weiteren Prozess ist es wichtig, die dafür erforderlichen Rahmenbedingungen und strukturellen Gegebenheiten auf politischer Ebene weiter voran zu bringen, um Qualität in Forschung und Wissenschaft zukunftsfähig zu gestalten. Deshalb hat vom 13. bis zum 15. März 2019 ein Booksprint an der FH Potsdam stattgefunden, bei dem Expertinnen und Experten aus Zivilgesellschaft, Politik und Wissenschaft unterschiedlichster Institutionen und Einrichtungen umfassende Ideen und Empfehlungen zur Formulierung einer gemeinsamen Strategie zur Offenheit von Wissenschaft, Forschung und Kultur in Brandenburg ausgearbeitet haben. Die Strategie wird zum jetzigen Zeitpunkt in weiteren Prozessschritten spezifiziert und als Strategiepapier aufbereitet. Ein Veröffentlichungstermin wird noch bekannt gegeben werden.
Nicht nur der Austausch zur Förderung von Offenheit in Wissenschaft und Forschung in strategischer Hinsicht ist wegweisend, sondern vor allem der inhaltliche, interdisziplinäre sowie internationale Dialog zwischen Aktiven aus den Open-Communitys weltweit. Am 18. März 2019 hat das Barcamp Open Science, vorab der Open Science Conference, bei Wikimedia Deutschland in Berlin stattgefunden. Es kamen Menschen aus aller Welt zusammen, um über partizipative Forschung, Forschungssoftware, Recht am geistigen Eigentum oder Repositorien zu diskutieren. Insgesamt wird deutlich, dass die Open-Communitys an enthusiastischen Aktiven, die sich für Offenheit und qualitativ hochwertige Forschung einsetzen, stetig wachsen und der Bedarf, sich über Erfahrungen aus der offenen Wissenschaftspraxis auszutauschen und voneinander zu lernen, zunimmt.
Ein Überblick zur Dokumentation aller einzelnen Sessions des Barcamps Open Science ist hier im Metapad zu finden. Die kompakten Interviews (auf Englisch) mit einzelnen Expertinnen und Experten sind hier beim Open Science Radio zu finden.
Welchen Beitrag die Öffnung von Wissenschaft zur Qualität von Forschung leistet, zeigte bereits das im November 2018 stattfindende Panel bei Alex TV, in dem die Podiumsgäste über diesen Zusammenhang diskutierten. Ideale guter wissenschaftlicher Praxis, wie Transparenz, Nachvollziehbarkeit, Falsifizierbarkeit und Reproduzierbarkeit von Forschungshypothesen, wissenschaftlich erhobene Datensätze, Forschungsergebnisse und Wissenschaftstheorien liegen offen arbeitenden Wissenschaftlerinnen und Wissenschaftlern ebenso wie allen anderen seriös forschenden Wissenschaftlerinnen und Wissenschaftlern am Herzen. Diese Kernwerte eines wissenschaftlichen Systems werden umso wichtiger in einer Zeit, in der die Glaubwürdigkeit von Wissenschaft, ihren Erkenntnissen und Ergebnissen versucht wird in Misskredit zu bringen. Entsprechend gilt auch in Bezug auf Wissenschaft die Forderung, dass öffentliches Geld ein öffentliches Gut hervorbringen muss. Wo öffentliche Gelder für Forschung verwendet werden, müssen die Forschungsergebnisse sowie die ihnen zugrunde liegenden Daten und Erkenntnisse öffentlich zugänglich sein. Diese Forderung muss sich auch in der qualitativen Bewertung von Wissenschaft und ihren Ergebnissen wiederfinden.
Beitragsbild: Riesenspatz Infoillustration (http://riesenspatz.de) für Wikimedia Deutschland, Illustration Qualifizierung, CC BY-SA 4.0
[mehr]
Falls nicht noch etwas Unerwartetes passiert, wird die deutschsprachige Version der Wikipedia am 21. März 24 Stunden lang nicht erreichbar sein. Zum allerersten Mal wird die deutschsprachige Community von Autorinnen und Autoren eine Komplettabschaltung durchführen. Mehrere andere Sprachversionen der Wikipedia werden möglicherweise diesem Beispiel folgen oder Banner auf der Hauptseite anzeigen, um gegen bestimmte neue Regeln zu protestieren, die eine neue Urheberrechtsrichtlinie enthält, über die das Europaparlament wahrscheinlich am 26. oder 27. März abstimmen wird.
Wiederum andere Wikipedien in anderen Sprachen werden womöglich gar keine Änderungen vornehmen. Dies liegt daran, dass die Menschen in jeder Wikipedia-Community ihre eigenen Entscheidungen dazu treffen, ob und wie sie sich zum vorgeschlagenen Gesetz äußern wollen.
Jede dieser voneinander unabhängigen Wikipedia-Communitys hat online und öffentlich darüber debattiert, wie sie vorgehen will, und darüber abgestimmt, ob und wie protestiert werden soll. Dies geschah jeweils in Einklang mit den eigenen Meinungsbildungsregeln jeder dieser Communitys. Die Regeln einiger Wikipedien verlangen beispielsweise, dass jemand 25 Einträge gemacht haben muss, um an der Abstimmung teilzunehmen. Andere verlangen dagegen 200 akzeptierte Wikipedia-Änderungen. Einige Communitys halten ihre Abstimmungen auf extra dafür vorgesehen Seiten ab; andere diskutieren darüber auf einem Abschnitt einer allgemeinen Diskussionsseite.
Wer Informationen zu einem beliebten Thema sucht, landet seit fast zwei Jahrzehnten fast unweigerlich bei der Online-Enzyklopädie Wikipedia. Hier teilen ehrenamtliche Autorinnen und Autoren ihr Wissen mit allen Menschen – unabhängig von kommerziellen Interessen, kostenfrei und weltweit verfügbar. Die deutschsprachige Wikipedia wird am 21. März 2019 mit dieser Gewissheit brechen und erstmals zu der schärfsten Waffe greifen, die uns zur Verfügung steht: Der vollständigen Abschaltung des Angebots für einen ganzen Tag.
Die Institutionen der Europäischen Union arbeiten seit mehreren Jahren an einer Reform des Urheberrechts, die in vielerlei Hinsicht mehr als notwendig und sinnvoll ist. In der öffentlichen Debatte sind dabei die beiden Artikel 11 und 13 der geplanten Richtlinie spätestens seit Anfang des Jahres 2018 hoch umstritten:
Artikel 11 führt ein Leistungsschutzrecht für Presseverleger auf dem gesamten Gebiet der Europäischen Union ein. Dieser Versuch wurde bereits in Deutschland und Spanien unternommen und muss in jeglicher Hinsicht als gescheitert betrachtet werden.
Artikel 13 verpflichtet Plattformen dazu, Lizenzen mit den Rechteinhabern von urheberrechtlich geschützten Inhalten abzuschließen. Es wird allerdings nicht definiert, mit welchen Rechteinhabern dies geschehen soll. Plattformen müssten mit praktisch jedem Menschen auf der Welt Lizenzen abschließen. Sollte es keine Lizenzierung geben, haften die Plattformen für jede Urheberrechtsverletzung unmittelbar. Dies gilt nicht, wenn gewisse Bedingungen erfüllt sind wie technische Voraussetzungen, um Urheberrechtsverletzungen zu verhindern (sog. Upload-Filter). Damit die Plattformen nicht in die Gefahr der Haftung kommen, werden sie diese Filter aller Wahrscheinlichkeit nach sehr streng einstellen. Von der Regelung sind Satire und Parodien, Kritik, Rezensionen oder auch das Zitatrecht zwar ausgenommen. Allerdings ist es technisch weder heute noch in naher Zukunft möglich, dies von automatisierten Filterprogrammen erkennen zu lassen.
Nach Einschätzung des Bundesdatenschutzbeauftragen müssten kleine Plattformen entsprechende Filtertechnologien bei den großen amerikanischen IT-Unternehmen einkaufen, welche teils Summen im dreistelligen Millionenbereich investiert haben, um diese zu entwickeln. Ein großer Teil des Datenverkehrs im Internet würde demnach über wenige gigantische Konzerne und deren automatisierte Filtersysteme laufen müssen, mit unabsehbaren Folgen für die Meinungs-, Kunst- und Pressefreiheit.

24 Stunden lang wird Wikipedia nicht wie gewohnt Antworten liefern. Grafik: Pretzels, Wikipedia SOPA Blackout Design W cropped, CC BY-SA 3.0
In der deutschsprachigen Wikipedia wurde eine Ur-Abstimmung (im Wikipedia-Sprachgebrauch „Meinungsbild“) durch mich initiiert. Im Ergebnis schlossen sich mehr als 2/3 der Teilnehmenden der Forderung des Protestes an. Über 4/5 entschieden sich im zweiten Schritt für die komplette Abschaltung unseres Angebots.
Wir möchten, dass Kreativschaffende für ihre Arbeit angemessen entlohnt werden. Wir möchten auch, dass qualitativ hochwertiger Journalismus weiterhin möglich ist. Was wir nicht möchten, ist ein Aufbruch in ein unfreies Internet. Zwar ist zumindest die eigentliche Enzyklopädie Wikipedia von Artikel 13 ausdrücklich ausgenommen und wir könnten uns demnach „entspannt zurücklehnen“. Unser Ziel ist es aber nicht, eine Oase Freien Wissens in einer unfreien Wüste des Internets zu sein. Unsere Solidarität gilt den vielen kleinen und mittelgroßen Foren, sozialen Netzwerken, Wissens- und Informationsplattformen.
Alle beteiligten Stakeholder müssen wieder an den Verhandlungstisch geholt werden, um eine tragfähige Lösung für alle zu finden.
Wir fordern deshalb die Streichung von Artikel 11 und 13 aus dem derzeitigen Entwurf zur Urheberrechtsreform.

Ein Tag ohne Freies Wissen für die Zukunft des freien Internets. Foto: Sandro Halank (WMDE), I edit Wikipedia – but not today. Blackout der deutschsprachigen Wikipedia, CC BY-SA 4.0
[mehr]
„Wie überlebt man eigentlich ohne Wikipedia?”, fragte die Augsburger Allgemeine diese Woche scherzhaft, nachdem bekannt wurde, dass die deutschsprachige Online-Enzyklopädie am kommenden Donnerstag (21.03.) aus Protest gegen drohende Einschränkungen des freien Netzes für 24 Stunden abgeschaltet wird. Wikipedia ist für eine ganze Generation zum Synonym für die freie Verfügbarkeit von Wissen geworden, jederzeit, überall. 30 Millionen Seitenaufrufe täglich, für Referate, Faktenchecks, schnelle Antworten auf Wissenslücken und unfair gewonnene Pubquizze.
Die Idee, das Wissen der Welt als Community von Freiwilligen in einer freien Enzyklopädie zu sammeln, scheint im Rückblick optimistisch, man könnte auch sagen, ein bisschen verrückt; erst recht in einer Zeit, in der Netzdebatten weniger von großen Ideen als von Datenskandalen, Desinformationskampagnen und der Marktmacht der Tech-Riesen dominiert sind. Die damit oft verbundene Nostalgie für eine Zeit, in der das Internet tatsächlich noch „Neuland” war, verkläre jedoch, wie teuer und elitär der Zugang zum Web damals auch war, schrieb Wikimedia Foundation-Geschäftsführerin Katherine Maher kürzlich in einem Gastkommentar in der New York Times. An die Hoffnungen und Ziele der damaligen Netzbewegung in Hinblick auf „Kreativität, Austausch und Zusammenarbeit” sollten wir uns in aktuellen Gesprächen über die Zukunft des Netzes hingegen häufiger erinnern. Die Open-Bewegung beginnt und endet zwar glücklicherweise nicht mit den Wikimedia-Projekten, unter den Top 100 Webseiten des Internets ist Wikipedia als spendenfinanziertes Freiwilligenprojekt dennoch sehr einsam.

Text-fokussiert ist Wikipedia noch immer, 2002 war die Ansicht allerdings wirklich minimalistisch. Quelle: Internet Archive.
Pessimistisch muss man deshalb nicht werden. Wer hinter die Kulissen des gigantischen Gemeinschaftsprojekts schaut, findet zahllose Beispiele uneigennützigen gemeinschaftlichen Engagements. Im letzten Jahr machte die Physikerin Jess Wade mit ihrem Projekt, täglich eine Wikipedia-Biographie einer Wissenschaftlerin anzulegen, international Schlagzeilen. Ihr Aktivismus hat Wissenschaftlerinnen und Wissenschaftler, Studierende und Schüler weit über ihre Heimat Großbritannien hinaus inspiriert, ihr Wissen in die freie Enzyklopädie einzubringen. Im September wurde die Kölner Community von ihrer Heimatstadt für ihr außerordentliches Engagement unter anderem in der Dokumentation lokaler Stadtgeschichte geehrt. Wer sich mit Community-Mitgliedern unterhält oder bei einem Treffen vorbeischaut, erfährt meist ganz nebenbei von vielen dieser Geschichten abseits der Ehrungen und Schlagzeilen.
Fertig ist die Wikipedia auch mit 18 noch lange nicht: Ob Biographien von Wissenschaftlerinnen und Künstlerinnen, Persönlichkeiten und Orte aus dem globalen Süden oder Wissensschätze indigener Gruppen der ganzen Welt, das Wikimedia-Movement (die internationale Bewegung, deren bekanntestes Projekt Wikipedia ist) braucht Zuwachs, an Inhalten und Freiwilligen.
Bei aller Besonder- und Besonnenheit: Wikipedia selbst bleibt von den derzeitigen Herausforderungen des Netzes nicht verschont. Ihre wachsende Bedeutung als Bollwerk des community-getriebenen und quellen-basierten Konsenses, auf das sich nun auch Großplattformen wie YouTube und Facebook im Kampf gegen Falschinformationen und Verschwörungstheorien verlassen, steht und fällt mit der Beteiligung der Vielen.
Wikipedia ist in vielerlei Hinsicht die „erwachsenste“ Plattform des Netzes: Wo andere die Polarisierung fördern, lebt Wikipedia von Austausch, verlässlichen Belegen und Einigung. Das fordert den Freiwilligen, die Wikipedia ermöglichen, aber auch viel Zeit und Mühe ab. Über zwei Millionen Artikel aktuell zu halten, zu pflegen und diesen Bestand stetig zu erweitern ist keine Selbstverständlichkeit. Heute gebührt ihnen dafür unser Dank!
Wer den ehrenamtlich Aktiven direkt in der Wikipedia gratulieren möchte, kann dies auf einer eigens angelegten Geburtstagsseite tun – und von dort aus vielleicht auch gleich selbst erste Schritte gehen?!

JElder (WMF), Wikipedia 15 cake from Wikimedia Foundation event, bearbeitet von Valerie Schandl (WMDE), Wikipedia Geburtstagsgrafik, CC BY-SA 4.0
Worum geht es? (tl;dr)
Mit der laufenden Urheberrechtsreform sollen Regeln für Online-Dienste EU-weit vereinheitlicht werden. Außerdem sollen professionell Kreative und ihre Verlage, Produktionsfirmen, Labels und Verwertungsgesellschaften gegenüber großen Plattformen gestärkt werden. Diese Stärkung ist ein legitimes Anliegen – nur könnten die Instrumente, mit denen sie durchgesetzt werden soll, die Meinungsvielfalt und Informationsfreiheit im Internet massiv einschränken.
Alle Plattformen müssten nach diesem Vorschlag Filtersysteme bei sich einführen, wenn sie nicht umfassend Lizenzen kaufen für alles, was ihre User hochladen (Artikel 13 der Reform). Außerdem sollen zukünftig selbst sehr kleine Textteile aus Presse-Erzeugnissen nur noch mit Erlaubnis der jeweiligen Verleger verwendet werden dürfen (Artikel 11), und die Presse ist einer der wichtigsten Bezugspunkte auch für die Inhalte der Wikipedia. Beide Vorschläge machen der Wikipedia-Community große Sorgen.
Mehreinnahmen möglich, Instrument trotzdem unverhältnismäßig
Die Reform-Befürworter erwarten Mehreinnahmen für Kreative und Verwertungsindustrie. Sie glauben, dass gerade die großen Plattformen lieber Lizenzen kaufen werden als in großem Stil zu filtern. Unklar ist, ob dies praktisch für alle Inhalte möglich ist.
Durch [Filter-es-sei-denn-Lizenz] als neues Grundprinzip des Netzes würden alle Äußerungen, die irgendwie auch nur Teile geschützter Werke enthalten, erst nach positiver Vorprüfung durch die Filter sichtbar werden. Das könnte bedeuten, dass etwa ein Meme oder auch ein Beitrag in den sozialen Medien, der einen kurzen Video-Clip enthält, erst einmal nicht auf der Plattform erscheint, bis die oder der Postende belegen konnte, dass das Posten zulässig war. Die Missbrauchsmöglichkeiten einer solchen Tech-Infrastruktur wären nicht zuletzt für autoritäre Staaten weltweit riesig.
Aber Wikipedia ist doch ausgenommen?
Wikipedia selbst ist von Artikel 13 ausgenommen. Doch das Freie Wissen lebt keineswegs nur in der Wikipedia. Wir setzen uns für ein insgesamt freies Netz ein, damit Wissen möglichst ungehindert geteilt werden kann. Die Umstellung auf eine direkte Haftung für Plattformbetreiber mit ihrer zu erwartenden Breitenwirkung im Netz wird auch vom UN-Sonderberichterstatter für Menschenrechte David Kaye (Meinungsfreiheit!) und dem Bundesdatenschutzbeauftragten Ulrich Kelber (Tracking!) scharf kritisiert. Die Wikipedia-Community und wir sind insoweit in sehr guter Gesellschaft.
Neues Leistungsschutzrecht für Presseverleger
Der zweite umstrittene Vorschlag neben Artikel 13 ist Artikel 11: Presseverleger sollen zusätzlich zum Urheberrecht, noch ein eigenes Schutzrecht bekommen, sogar für ganz kleine Textteile (sogenannte Snippets). Damit würde jede Nutzung von Pressepublikationen genehmigungspflichtig. Wer Inhalte aus einem Artikel übernimmt, ohne im engeren Sinne wissenschaftlich zu zitieren oder rein privat zu handeln, müsste dann um Erlaubnis fragen – und im Zweifelsfall zahlen. Unklarheiten erzeugt das vor allem für die vielen Belege in der Wikipedia, die auch kurze Auszüge von Presse-Artikeln enthalten. Ausführlichere Infos dazu in diesem Blogbeitrag.
Und wo sind die Gegenvorschläge?
Es wurden viele gute Gegenvorschläge zum aktuellen Entwurf zum Beispiel für Artikel 13 unterbreitet: Kooperationsgebot, Berichtspflichten, Einhaltung der Lizenzvereinbarungen statt „prevent availability“, siehe die Stellungnahme zweier Ausschüsse des Europaparlaments aus dem Juni 2017. Auch wurden Schnittstellen (APIs) vorgeschlagen, über die Rechteinhaber einfacher Verstöße melden und sogar Inhalte direkt auf den Plattformen nachträglich entfernen könnten (Änderungsantrag CA 14 on Article 13, Juni 2018).
Was ist das Ziel des Wikipedia-Protests?
Schon die Bannerschaltung im September ließ viele Europaabgeordnete vor allem in Italien, Polen und Deutschland aufhorchen. Jetzt bringt die deutschsprachige Wikipedia-Community zum ersten Mal in ihrer Geschichte einen Blackout für die europaweiten Proteste am 23. März ein. Sie fordert die Besuchenden der Wikipedia dazu auf, sich selbst in die Debatte einzubringen, Abgeordnete zu kontaktieren, mit zu demonstrieren und Petitionen zu unterzeichnen.
[mehr]
Am kommenden Donnerstag protestiert die deutschsprachige Wikipedia-Community mit einem 24-stündigen Blackout von Wikipedia gegen die Paragraphen 11 und 13 der europäischen Urheberrechtsreform. Weil damit auch die Wikimedia:Woche nicht wie gewohnt veröffentlicht werden kann und wir die Protestaktion unterstützen, wird es in der kommenden Woche keine Ausgabe geben.
[mehr]

Einsteig in Michael Hanfelds Kommentar inkl. Symbolbild [ungefiltert genutzt als Zitat im umgangssprachlichen Sinne]
Wikimedia Deutschland hat sich von Beginn an mit Vorschlägen zugunsten des Freien Wissens am Reformprozess beteiligt. Manches davon wurde aufgegriffen, vieles nicht und der Gesetzestext, der nun Ende März zur endgültigen Abstimmung kommen soll, ist in zentralen Punkten weiterhin problematisch fürs freie Netz und fürs Freie Wissen – trotz einer gut gemeinten Ausnahmeregelung für die Wikipedia.
Angesichts des inzwischen angelaufenen Wahlkampfs zur Europawahl hält sich Wikimedia Deutschland bewusst aus Aufrufen und Wahlempfehlungen heraus. Die Überparteilichkeit des Vereins gebietet das, denn so ziemlich jede Forderung zur Reform wird inzwischen parteipolitisch vereinnahmt. Wir haben stattdessen mit 13 anderen Organisationen einen offenen Brief an die Fraktionsvorsitzenden des Europaparlaments verfasst, der vor einem Durchdrücken der Reform im gegenwärtigen Klima warnt.
Die Community der deutschsprachigen Wikipedia dagegen hat ihre eigenen, streng basisdemokratischen Entscheidungswege, und sie geht auf Sendung: In einem sogenannten Meinungsbild hat sie vergangene Woche entschieden, aus Protest gegen die EU-Urheberrechtsreform die deutschsprachige Wikipedia am 21.3. für einen Tag ganz abzuschalten. Statt der Enzyklopädie wird dann eine Informationsseite angezeigt werden, auf der mögliche Folgen der beiden umstrittenen Artikel 11 und 13 der Urheberrechtsreform erklärt und die Besuchenden dazu angehalten werden, sich in die Debatte einzumischen. Ein solcher Blackout der wichtigsten Wissensquelle des deutschsprachigen Internets ist das schärfste Protestmittel, das die Community zur Verfügung hat, mit der bei weitem größten Reichweite auf allen Arten von Endgeräten. Es wird äußerst selten angewandt. Dass die deutschsprachige Wikipedia-Community es nun erstmals in ihrer über 15-jährigen Geschichte anwendet, spiegelt unter anderem eines wider, was sich derzeit im Netz und auf der Straße beobachten lässt: Vielen ist erst jetzt klar geworden, wie grundlegend die in Brüssel derzeit vorbereiteten Entscheidungen sein können fürs Netz.
Aus alldem baut Michael Hanfeld in seinem Beitrag „In der Filterblase – Wikimedias Widerstand“ bei FAZ.net ein destruktives Narrativ, demzufolge Wikimedia Deutschland anmaßend agiere, Falschinformationen verbreite und nie konstruktiv an der Urheberrechtsreform mitgewirkt habe. Das kann nicht unwidersprochen bleiben. Es folgt daher hier nun eine umfassende Replik.
Hanfeld schreibt:
Wie groß ist die „Zivilgesellschaft“ in Deutschland? 82,79 Millionen Menschen umfasst sie, letzten Erhebungen zufolge. Dem Verein Wikimedia nach muss sie allerdings sehr viel kleiner sein: rund siebzigtausend Köpfe – auf so viele Mitglieder kommt der als gemeinnützig anerkannte Verein, der hinter der Online-Enzyklopädie „Wikipedia“ steht. Sie stehen, folgt man der jüngsten Pressemitteilung des Vereins für „die“ Zivilgesellschaft insgesamt und für „einen breiten gesellschaftlichen Widerstand gegen gesetzlich vorgeschriebene Uploadfilter, die zugleich als Infrastruktur für Zensur missbraucht werden könnten“. Das ist anmaßend und falsch, doch verfehlt es nicht seine Wirkung, die in der Mitteilung dann auch noch beklagt wird.
Es wäre in der Tat anmaßend, wenn Wikimedia Deutschland (WMDE) für „die Zivilgesellschaft“ sprechen wollte, auch wenn WMDE in Deutschland mit weitem Abstand der größte Publikumsverein mit Netzthemen im Vereinszweck ist. Es würde immerhin etwas weniger anmaßend, wenn man die in der von Michael Hanfeld gemeinten Pressemitteilung aufgeführten 13 weiteren Organisationen von ihren Mitglieder- bzw. Vertretendenzahlen her dazurechnet. Sie haben schließlich gemeinsam einen offenen Brief an die Brüsseler (Fraktions-) Spitzen verfasst, nicht WMDE allein. Und allein im Verbraucherzentrale Bundesverband vzbv sind 50 deutsche Verbraucherschutzorganisationen, 16 Verbraucherzentralen und 25 weitere Verbände organisiert, um die Interessen der deutschen Verbraucherinnen und Verbraucher gegenüber Politik, Wirtschaft und Gesellschaft vertreten zu sehen.
Wie groß nun ist die Gruppe der Verbraucherinnen und Verbraucher in Deutschland? Paragraf 13 des Bürgerlichen Gesetzbuchs definiert glücklicherweise den Begriff des Verbrauchers sehr simpel: „Verbraucher ist jede natürliche Person, die ein Rechtsgeschäft zu Zwecken abschließt, die überwiegend weder ihrer gewerblichen noch ihrer selbständigen beruflichen Tätigkeit zugerechnet werden können.“ Man müsste also zumindest die Nicht- oder beschränkt Geschäftsfähigen allesamt beiseite lassen. Nimmt man Hanfelds Zahl und zieht großzügig die gesamten 18,3 % der Bevölkerung ab, die im Jahre 2015 den unter 20 Jahre alten Teil der Bevölkerung ausmachten (Quelle: Wikipedia), täte man zwar diversen jungen Menschen Unrecht, die zwar unter 20 aber dennoch schon damals volljährig waren. Aber im Sinne des Hanfeld-Narrativs können hier ein paar Augen zugedrückt werden, denn: Zu den Unterzeichnenden des von ihm attackierten offenen Briefs nach Brüssel gehört unter anderem auch der Deutsche Bundesjugendring, also die Arbeitsgemeinschaft der 16 Landesjugendringe und weiterer über 30 Jugendverbände. Also können die etwa 15,15 Millionen gerade zuvor Abgezogenen auch einfach wieder mitgezählt werden.
Nimmt man dann noch die Open Knowledge Foundation Deutschland und die Digitale Gesellschaft mit in den Blick, ist hier auch der größte Teil der unabhängigen zivilgesellschaftlichen Netzvereine versammelt, dazu kommen noch zwei parteinahe Netzvereine (D64 und LOAD e.V.). Die zwei ebenfalls unterzeichnenden publizistisch ausgerichteten Verbände sowie fünf Bundesverbände der Wirtschaft sind dagegen klar unter Wirtschaft zu fassen. Aber auch Wikimedia, Verbraucher- und Jugendverbände sowie Netzvereine zusammen sind natürlich nicht „die Zivilgesellschaft“. Das behauptet aber auch weder die Pressemitteilung noch der offene Brief. Beide sagen vielmehr ganz genau, was auch passiert: Hier äußert sich Zivilgesellschaft, nicht „die Zivilgesellschaft“.
Nun gut, wo gehobelt wird, fallen bekanntlich Späne, also weiter im Feuilleton-Text. Hanfeld fährt fort über das angeblich Anmaßende und Falsche an WMDE:
Es sorgt für eine „aufgeheizte Stimmung“, in der viele nicht darauf schauen, was die hier gemeinte Urheberrechtsrichtlinie der Europäischen Union, welcher das Europäische Parlament nach einem mit den Mitgliedsländern erzielten Kompromiss zustimmen muss, beschreibt und erreichen will.
Zumindest die Beschreibung dessen, was viele in der momentan aufgeheizten Stimmung leider nicht tun, ist korrekt. Die Pro- und Kontra-Lager zur Urheberrechtsrichtlinie gehen quer durch ansonsten eher homogen agierende politische Gruppen, und in beiden Lagern gibt es sehr viele, die sich längst aller Nuanciertheit entledigt haben.
Während manche Gegner des derzeitigen Reformtexts in dessen vorgeschlagenem Artikel 11 (neues Verleger-Recht) noch immer eine skandalöse „Link-Steuer“ anprangern, obwohl Hyperlinks inzwischen glasklar aus der Regelung ausgenommen sind, behaupten manche Befürworter der jetzigen Reformfassung noch immer allen Ernstes, das alles habe doch gar nichts mit Meinungsfreiheit und ähnlichem zu tun. Es gehe hier doch ausschließlich um Urheberrecht – so als könnte irgendeine Inhalte-Regulierung im Netz nichts mit Meinungs- und Meinungsäußerungsfreiheit zu tun haben. In der Folge wurden dann protestierende Menschen als „Mob“ diffamiert, ausgerechnet auf einem offiziellen Kanal der EU-Kommission. Und auf der anderen Seite wird dann das angeblich bevorstehende Sterben des Internets verkündet, woraufhin wiederum bekannte Politik-Größen wie Paul McCartney aus der Motten- bzw. Plattenkiste gekramt werden, die eine Verschwörung des Silicon Valley gegen die Hochkultur der Alten Welt behaupten.
Hat Wikimedia Deutschland das alles angeheizt, wie Michael Hanfeld meint? Nein, im Gegenteil. Wir haben von Anfang an auf Versachlichung gesetzt, genauso vor wie hinter den Kulissen. Wir haben den Dialog mit allen Lagern gesucht, unzählige Gespräche geführt, sowohl im Gegner- wie Befürworterlager stets freundlich gemahnt, wenn mal wieder eher grob geholzt wurde argumentativ. Allerdings haben wir dabei nie den Kern unserer Kritik aus den Augen verloren, der im allgemeinen Flurschaden für das freie Netz besteht, falls Filterung (über Artikel 13) das zentrale Mittel gegen Plattformhaftung im Netz werden sollte.
Die Hardliner unter den Befürwortern des momentanen Reformansatzes haben auf diese nach wie vor bestehenden Bedenken zwei Antworten, eine halb-richtige und eine völlig unsinnige.
Die halb-richtige lautet, dass es zum einen in der Praxis bereits jetzt technische Filtersysteme gibt, und dass es zum anderen im Recht bereits jetzt wirksame Verpflichtungen gibt, einmal nach Hinweis gelöschte Uploads präventiv von der jeweiligen Plattform fernzuhalten. Diese Verpflichtungen haben Gerichte in einigen Leitentscheidungen schon aus der bestehenden Rechtslage heraus, oder besser gesagt, in sie hineingelesen. Vieles spricht rechtsdogmatisch dafür, dass sich allen voran der Europäische Gerichtshof bei so etwas außerhalb seines Zuständigkeitsbereichs bewegt. Auch ist allgemein bekannt, warum er das tut, nämlich weil es der europäische Gesetzgeber lange Zeit unterlassen hat, sich um die Weiterentwicklung des Urheberrechts zu kümmern. So gesehen stimmt es, dass Filter schon existieren und gesetzlich etwas getan werden sollte, um die Haftungsfragen nicht nur den Gerichten zu überlassen. Nur halb-richtig ist diese Antwort, weil man es für sinnvoll halten könnte, statt die Linie der Gerichte gesetzlich festzuschreiben, dieser vielmehr gesetzgeberisch Grenzen aufzuzeigen. Doch dazu bräuchte es eine ganz andere Reform.
Wie dem auch sei, Hanfeld entscheidet sich ohnehin für die andere Antwort, die völlig unsinnige:
Von „Uploadfiltern“ ist dort in dem umkämpften Artikel 13 nicht die Rede, sondern von Vorkehrungen, die Betreiber von Internetplattformen treffen müssen, damit bei ihnen nicht Inhalte erscheinen, die Urheberrechte verletzen. Das könnte über Programme, könnte aber auch über entsprechend geschultes Personal laufen, oder im Zusammenspiel von beidem.
Das ist ungefähr so, als würde man behaupten, das Straßenbauamt brauche zum Schutz vor Wild-Unfällen gar nicht unbedingt Zäune entlang der Straßen zu ziehen, sondern könne ja auch alle dreißig Meter eine Person postieren, die aufpasst. Dabei wissen die Befürworter des aktuellen Artikels 13 ganz genau (zu hören ab Minute 3:18), dass gerade größere Plattformen nur durch Einsatz technischer Filter realistisch der Haftung würden entgehen können, die Artikel 13 vorsieht. Oder eben dadurch, dass sie Lizenzen kaufen für alles, was ihre Nutzenden hochladen. Und genau darum geht es. Der zukünftig nur noch mittels Filtern zu bekommende Schutz vor Haftung soll ausreichenden Druck erzeugen, damit endlich Lizenzen gekauft werden. Darauf kommt Hanfeld dann auch im nächsten Abschnitt:
Von „Zensur“ kann keine Rede sein
Für einen Giganten wie die Google-Tochter Youtube, die schon über ein Erkennungssystem namens „Content ID“ verfügt, dürfte das technisch kein Problem sein, es kostet nur Geld. Zugleich werden Plattformanbieter angehalten, Lizenzverträge mit Rechteinhabern und ihren Vertretern, also Verwertungsgesellschaften, abzuschließen.
Diese Logik ist nicht von der Hand zu weisen, übersieht nur ein Detail: Wenn man die Haftungsregeln im Urheberrecht ändert, trifft das eben nicht nur YouTube. Im Gegenteil, das Druckmittel Filter betrifft in erster Linie alle anderen im Netz, die irgendwelche Interaktionsmöglichkeiten mit Uploads ermöglichen. YouTube dagegen, wie Hanfeld selbst schreibt, verkraftet das, kann entweder die eigenen Filter noch etwas schärfer fahren oder eben zahlen. Und zahlen sollen sie gefälligst, endlich, nach all den Jahren und Marktanteilen, die man an sie verloren hat. Dass alle anderen Plattformen die notwendigen technischen Infrastrukturen ebenfalls aufbauen müssen? Nebensache. Dass zur Behebung der Marktdominanz von Unternehmen eigentlich das Kartell- und Wettbewerbsrecht da ist und nicht das Urheberrecht? Nebelkerze, denn …
Auch das kostet Geld, doch das ist der faire Preis für die Aufrechterhaltung des Grundrechts auf geistiges Eigentum, das der Geschäftspraxis der Datenkonzerne freilich im Wege steht.
Aha, es geht um Grundrechte! Genauer gesagt um Artikel 14 des Grundgesetzes, die sogenannte Eigentumsgarantie, die auch für das „geistige Eigentum“ gilt. Sie muss demnach fast so etwas wie ein „Super-Grundrecht“ sein, diese Eigentumsgarantie, denn dass bei flächendeckender Durchleuchtung, Prüfung und Filterung nicht nur die Frage relevant ist, ob die Plattform denn auch eine urheberrechtliche Lizenz erworben hat, sondern sehr sehr oft auch die Meinungsfreiheit betroffen ist? Ach, maßlose Übertreibung. Von Zensur könne keine Rede sein, oder wie Michael Hanfeld es in seiner Zwischenüberschrift fasst, von „Zensur“.
Dass Erkennungssysteme und Uploadfilter den rechtlichen Umstand nicht bewerten können, ob der Upload irgendeines geschützten Werkes im konkreten Fall als Meinungsäußerung im Sinne des Grundgesetzes geschützt ist oder nicht, ist allen klar, muss jedenfalls auch Michael Hanfeld klar sein. Hinter der FAZ steckt ja bekanntlich immer ein kluger Kopf. Aber dass es für die Sichtbarkeit solcher Meinungsäußerungen dann zukünftig darauf ankommen soll, ob der Plattformbetreiber brav seine Lizenzen gezahlt hat, oder stattdessen darauf, ob sich die von Filterung betroffenen Nutzenden durch einen Beschwerdemechanismus geackert haben, das scheint ihm dann irgendwie unerheblich zu sein in Sachen Grundrechte. Der Lizenzkauf durch die Plattform ist also nach Herrn Hanfeld zugleich auch der „faire Preis“ dafür, dass Menschen unter Verwendung geschützter Werke ihre Meinung frei äußern können im Netz.
Der Urheberrechtsrichtlinie geht es aber genau darum – dass sich das ändert, dass Kreative und Urheber einen Lohn für die Verwertung ihrer Werke bekommen. Wikimedia, die Wikipedia als Non-Profit-Unternehmen, ist von der EU-Regelung gar nicht betroffen.
Das ist falsch. Nur die Wikipedia selbst und nur in ihrem Textbestand ist einigermaßen sicher ausgenommen von Artikel 13 der Reform. Dies gilt schon für das Medienarchiv der Wikipedia, genannt Wikimedia Commons, nicht mehr so sicher. Und das größte Problem ist und bleibt, dass Freies Wissen nicht nur in der Wikipedia lebt. Es entsteht in einem netzweiten Ökosystem, das Austausch und Aushandlung ermöglicht. In dieses komplexe Gebilde würde Artikel 13 in seiner jetzigen Form sehr viel rechtlichen Sand streuen. Darum sind die Wikimedia-Organisationen, deren Zweck die Förderung Freien Wissens generell ist, nicht nur innerhalb der Grenzen der Wikipedia, zu Recht auf dem Plan. Wir, die Communitys und Organisationen des „Wikiversums“ sind von diesen Reformvorschlägen betroffen, ob es Herrn Hanfeld gefällt oder nicht.
Die im Netz beliebten Kurzvideos, „Gifs“ und „Memes“, sind ausgenommen,
… durch eine Regelung, von der niemand erklären kann, wie sie greifen soll.
Zitate, Satire sind erlaubt und möglich,
… aber im Zweifel eben nur nach Durchlaufen einer Beschwerdeprozedur. Ob das zumutbar, ob der Eingriff verhältnismäßig ist? Das hat offenbar nicht zu interessieren.
jüngere Start-ups müssen den Anforderungen der Richtlinie zunächst nicht genügen.
Aber nach spätestens drei Jahren im Markt ist jede Plattform erfasst, egal wie groß oder klein, egal ob sie ein wirkliches Problem für Verwertungsinteressen darstellt oder nicht.
Von „Zensur“ kann keine Rede sein.
Davon ist bei uns auch nicht die Rede, sondern von Zensur-Infrastrukturen. Wir warnen vor dem, was mit allgegenwärtigen Filtersystemen, wenn sie erstmal gesetzlich erzwungen worden sind, alles an Missbrauch getrieben werden kann. Niemand unterstellt Kreativen, sie selbst wollten Zensur im eigentlichen Sinne betreiben. Dass aber das Urheberrecht schon heute oft dazu missbraucht wird, unliebsame Inhalte aus dem Netz entfernt zu bekommen, ist eine Binsenweisheit.
Wer so falsch redet, sich zuvor in den seit 2016 währenden Prozess der Entscheidungsfindung der EU-Institutionen nicht mit konstruktiven Argumenten eingeschaltet hat, und nun glaubt, er repräsentiere mit seiner Filterblase den Willen der „Zivilgesellschaft“, die in der gesamten EU mehr als fünfhundert Millionen Menschen ausmacht, beschädigt die Demokratie.
Der Verfasser dieser Replik hofft, gezeigt zu haben, wer hier falsch redet. Im Übrigen haben wir uns sogar mit vollständigen Alternativregelungen in die Entscheidungsprozesse eingebracht. Nur wurden wir dann meist entweder ignoriert oder zu Bütteln irgendwelcher Netzkonzerne erklärt. Einige Europaabgeordnete haben einige unserer Vorschläge immerhin in Ausschüssen eingebracht, wo sie dann gleichwohl dennoch recht schnell abgelehnt wurden.
Es war vor allem der abschließende Vorwurf einer Beschädigung der Demokratie, der die vorliegende Replik letztlich notwendig macht, ihn zu hören aus dem Lager derjenigen, die auf Doppelseiten großer deutscher Tageszeitungen schamlos Diffamierungen über den Protest gegen Artikel 13 ausgekippt haben. Wenn dieser Protest dann irgendwann immer lauter wird und bis auf die Straße schwappt, dann zeigt sich, dass die Demokratie lebendig ist. Beschädigt wird sie erst, wenn die Politik mittels Augen zu und durch all diejenigen vor den Kopf stößt, die erst spät verstanden haben, welchen Flurschaden Artikel 13 im Netz anrichten wird, wenn er nicht noch einmal nachverhandelt wird. Zeit dazu gibt es, Vorschläge auch.
[mehr]
„People are saying they do activism for Wikipedia. I don’t do it for that, I do it for women on the internet. I’m a librarian and I think strongly about women and representation, and that’s not on the internet or on print resources. So if any small way we can add content each year, we are chipping away at the patriarchy.“
Wikimedia Community-Aktivistin, Gender Equity Report 2018
Gladys Wests Arbeit als Mathematikerin im US-amerikanischen Militär hat maßgeblich zur Entwicklung des heutigen GPS beigetragen. Bis vor gut einem Jahr war sie dennoch weitgehend unbekannt. Anfang 2018 legte die junge Physikerin und Wikipedianerin Dr. Jess Wade einen Artikel in der freien Online-Enzyklopädie über West an, im Mai 2018 stand West auf der BBC 100 Women Liste, im Dezember wurde sie in die Space and Missiles Pioneers Hall of Fame aufgenommen. Ob der Wikipedia-Artikel die späte Anerkennung brachte, kann man nur mutmaßen. Ganz unwahrscheinlich scheint es nicht.
Dr. Wade hat mit ihrem Projekt, täglich einen Wikipedia-Artikel über eine Wissenschaftlerin zu schreiben, Schlagzeilen gemacht. Ihr Enthusiasmus steckt an: Um die 60 Wissenschaftlerinnen sind zum “Diversithon”, organisiert vom Berlin Institute of Health, der Charité, dem Max Delbrück Center, dem Leibniz FMP und der Wikipedia-Freiwilligen-Gruppe WomenEdit, gekommen, um Wades Vortrag zu hören und selbst erste Schritte in der Wikipedia zu machen.
Die größte freie Wissenssammlung des Internets hat noch immer große Lücken: Weniger als ein Fünftel der Biographien beschreiben Frauen. Das Gefälle lässt sich nicht allein mit historischen Barrieren und einem Mangel an Quellen zu weiblichen Errungenschaften erklären. Wikipedia reflektiert damit allerdings ein gesamtgesellschaftliches Problem: Nur 19% der von der Time’s Liste der besten Kinderbücher genannten Geschichten haben Protagonistinnen, nur ein Fünftel aller britischen Statuen und Banknoten stellen Frauen dar und rund 20% ist der Anteil der Professorinnen hierzulande. Das Internet spiegelt (und verstärkt teils) die Ungleichgewichte der analogen Welt. Zugang, Gehör, Repräsentation unterliegen allesamt starken “Gender gaps”.

Edit-a-thon der UNESCO in Zusammenarbeit mit der Wikimedia-Community in Paris 2018. Wikinade, Wiki4women – International Women’s Day in 2018 at UNESCO (Paris, France) – 11, CC BY-SA 4.0
Das internationale Wikimedia Movement, dem Wikimedia Deutschland angehört, beschäftigt sich in seiner Zukunftsstrategie Wikimedia 2030 intensiv mit der Frage, wie Freies Wissen und die Wikimedia-Projekte der Vision des gesammelten Wissens der Menschheit näher kommen können. Und es tut sich einiges: Projekte und Initiativen rund um die Welt animieren vor allem Frauen, ihr Wissen zu teilen und die Leistungen von Frauen sichtbarer zu machen. Wikipedia ist dafür die reichweitenstärkste und einzige freie Plattform dieser Art.
Warum Jess Wade Frauen animiert aktiv zu werden? “Was wir [in Wikipedia] bearbeiten, ist geleitet von dem, was wir kennen – nicht bloß in Bezug auf wissenschaftliche Expertise, sondern auch auf unsere gelebten Erfahrungen. Für Frauen und Menschen aus in der Wissenschaft unterrepräsentierten Gruppen heißt das auch ein genaues Verständnis der Arten und Weisen wie unsere Leistungen heruntergespielt oder schlicht aus der Wissenschaftsgeschichte gelöscht werden. Die Wikipedia-Community sollte die Menschen widerspiegeln, die die Enzyklopädie nutzen – in Hautfarbe, Herkunft, Gender und sexueller Orientierung”, wie sie 2018 in Nature schrieb.

Jess Wade, Jess Wade – 2017, CC BY-SA 4.0
Für viele der Naturwissenschaftlerinnen beim Diversithon ist das in der Unterzahl sein die Normalität. Prominente Vorfälle von Diskriminierung in der Wissenschaft sind ihnen Ansporn, Wissenschaftlerinnen und ihre Leistungen sichtbarer zu machen, auch in der Hoffnung, weiblichen Nachwuchs nicht mit (teils fragwürdigen) Kampagnen, sondern der alltäglichen Sichtbarkeit weiblicher Vorbilder für eine Karriere in der Wissenschaft zu begeistern.
Was du tun kannst? Leg selbst los!
Wikipedias ständige Präsenz in unserem Alltag vermittelt vielen den Eindruck, es gäbe nichts mehr zu tun oder aber sie lassen sich von den scheinbar hohen Anforderungen an Mitschreibende abschrecken. Ihr Erfolg wird so auch zur Hürde: Wikipedia braucht engagierte Freiwillige, die Artikel ändern und aktuell halten, Fotos spenden, neue Artikel anlegen. Unser Tutorial führt dazu leicht verständlich durch die ersten Schritte.
Lücken muss man nicht unbedingt selbst suchen: Das Projekt Frauen in Rot gibt einen Überblick über noch fehlende Biographien, oft mit einem Verweis auf bestehende Artikel in anderen Sprachen oder zumindest einem Eintrag in Wikipedias Schwesterprojekt, der freien Datenbank Wikidata. Auch zum Diversithon wurden Vorschläge zusammengestellt, die Liste findest du hier.
In vielen Großstädten gibt es darüber hinaus feste Treffen von Wikipedia-Aktiven, die gerne vor Ort beim Einstieg helfen. In Berlin treffen sich Wikipedianerinnen unter dem Titel WomenEdit regelmäßig zur gemeinsamen Arbeit an Artikeln.
Gleich loslegen? Zum Weltfrauentag rufen Wikimedia-Freiwillige und die UNESCO mit #Wiki4Women zum Mitmachen auf! Wie genau? Das erfährst du unter https://meta.wikimedia.org/wiki/Wiki4Women.
Wikimedia Deutschland unterstützt Gruppen wie WomenEdit sowie Projekte und Veranstaltungen von Freiwilligen. Wenn du selbst eine Idee für ein Projekt rund um Freies Wissen hast, wende dich gerne an uns. Mehr dazu hier.
Happy International Women’s Day!
[mehr]