Nederland heeft de wind er flink onder. Het kabinet heeft open access tot een van de speerpunten van het EU-voorzitterschap gebombardeerd. Met ingang van dit jaar ligt er een deal over een geleidelijke overgang naar het ‘open’ publiceren van wetenschappelijk werk in de tijdschriften van uitgever Elsevier. ‘Dutch lead European push to flip journals to open access,’ kopte Nature begin januari. Bij in open access gepubliceerde boeken spreekt OAPEN internationaal een woordje mee. En ook kwaliteitsbewakers SciRev en QOAM zijn Nederlands.
Natuurlijk zijn er kanttekeningen bij deze push naar open access te maken. Sommigen zouden de middle men, de grote uitgevers, het liefst helemaal uit de publicatieketen slopen. Hun argument: de wetenschap zelf moet het intellectuele eigendom beheren. Door een deel van de auteursrechten over te doen aan uitgevers hebben die de toegang tot de wetenschappelijke productie in beheer. Minder kapitaalkrachtige universiteiten kunnen hun studenten en personeel daardoor geen toegang bieden tot onderzoeksliteratuur, terwijl grote uitgevers de hoofdprijs kunnen vragen aan onderzoeksinstellingen in rijkere regio’s. Een platform als Scientific Electronic Library Online (SciELO) in de Latijns-Amerikaanse landen laat zien dat onderzoeksinstellingen heel goed zelf artikelen in open access kunnen publiceren. Tegen een fractie van de kosten die uitgevers in rekening brengen.
Voor je het weet sta je als uitgever op een zwarte lijst zonder dat je weet waarom.
Een heel ander bezwaar is dat open access het publicatiesysteem juist ondergraaft. Iedereen die genoeg geld meebrengt kan, ongeacht de wetenschappelijke kwaliteit, iets gepubliceerd krijgen, aldus de critici. Een prominente vertegenwoordiger van dit standpunt is Jeffrey Beall, universiteitsbibliothecaris te Denver. Op zijn blog scholarlyoa.com houdt hij een lijst bij van wat hij ‘roofuitgevers’ noemt. Inderdaad heeft de open accessbeweging malafide types aangetrokken die proberen een slaatje te slaan uit het nieuwe uitgeefmodel. Ondanks ronkende beloftes van peer review en digitale duurzaamheid doen ze niet veel meer dan je artikel online zetten en daar honderden euro’s voor incasseren.
Uit de open access-hoek krijgt Beall’s list niettemin de wind van voren. Belangrijkste bezwaar tegen zijn werkwijze is het gebrek aan transparantie. Voor je het weet sta je als uitgever op een zwarte lijst zonder dat je weet waarom. Het overkwam het Zwitserse Frontiers, een relatief grote speler. Opgericht in 2007 door neurowetenschappers, publiceert deze uitgever inmiddels meer dan vijftig open access-titels. Naar aanleiding van een aantal berichten van verontruste wetenschappers besloot Beall de Zwitsers op zijn zwarte lijst te plaatsen. Opmerkelijk, omdat Frontiers lid is van COPE, SPARC Europe en OASPA, clubs die een kwaliteitsstandaard nastreven in open access uitgeven.
Het aan de kaak stellen van malafide uitgeefpraktijken is uitstekend. Dat één bibliothecaris dit doet op ontransparante wijze is dat niet. Universiteitsbibliothecarissen dienen binnen zowel de wetenschappelijke als de bibliothecaire ethiek te opereren. Als de bibliotheekgemeenschap wil blijven blacklisten, zijn heldere criteria, openheid over de beslissingsgronden en een mogelijkheid tot verweer nodig. Bealls mist doet het imago van de beroepsgroep geen goed. Frontiers staat nog altijd op de zwarte lijst en maar één bibliothecaris weet waarom.
Deze column verscheen in Vakblad IP, jaargang 20 nummer 1, 28 januari 2016.
Postscriptum, 3 februari:Walt Crawford heeft op 30 januari in een blogpost met de veelzeggende titel ‘Trust me’ uiteengezet dat bij zeven van elke acht titels op Bealls lijst geen rechtvaardiging wordt gegeven waarom ze op de lijst staan. Kijk je nog iets kritischer, dan blijven er van de 1834 titels 156 over. En zoals Jan Velterop op 2 februari betoogt, kun je ‘roofuitgevers’ zien als een teken van een zich ontwikkelende markt voor wetenschappelijk publiceren die er tot voor kort niet was.
Postscriptum, 11 februari: Op 8 februari publiceerde groepsblog The Scholarly Kitchen een interview met Jeffrey Beall over zijn werkwijze. Dit gesprek genereerde aardig wat commentaar, onder meer van Walt Crawford die zijn tellingen (zie postscriptum hierboven) verdedigt.
Datafabricatie. Wel eens van gehoord? Of p-hacking? Beide zijn vormen van wetenschappelijke zwendel. In het eerste geval tik je à la Diederik Stapel je data zelf in. Je doet dat net zo lang tot de analyse van die data laat zien wat je hoopte aan te tonen. Bij p-hacking gebruik je wel echte data. Je analyseert een eind weg, verwijdert ‘cases die niet zo goed in het algemene beeld passen’, net zo lang tot je iets interessants tegenkomt. Wetenschappelijke tijdschriften, zeker de meest prestigieuze, zijn namelijk dol op ‘nieuwe inzichten’. Ze publiceren niet snel onderzoek dat, in jargon, de nulhypothese ondersteunt, oftewel geen statistisch significant effect laat zien.
Gelukkig heeft de wetenschap een immuunsysteem om ziektes als deze te lijf te gaan. Om de haverklap verschijnen er thans studies die met statistische methoden op zoek gaan naar datafabricatie en p-hacking. Zulk onderzoek wordt eenvoudiger doordat grote aantallen wetenschappelijke papers digitaal beschikbaar zijn. Althans: zouden moeten zijn. Het is helaas nog niet algemeen bekend dat open access meer is dan gratis toegang alleen. Je moet ook een lokale kopie kunnen maken van grote hoeveelheden artikelen om er de relevante data uit te kunnen halen. En dat moet auteursrechtelijk zijn toegestaan.
Het is helaas nog niet algemeen bekend dat open access meer is dan gratis toegang alleen.
Publicatieplatforms als PeerJ en PLOS doen niet moeilijk. Alles verschijnt daar onder een Creative Commons-licentie (cc-by) die content mining (ook wel text and data mining, TDM) mogelijk maakt. Bovendien zetten ze op aanvraag een dump van de benodigde artikelen voor je klaar. Maar mik je op een goede afspiegeling van een wetenschappelijke discipline, dan ben je óók aangewezen op grote uitgevers die ‘hun’ copyrighted content niet zo makkelijk vrijgeven. Via een API kun je soms wel bij dat materiaal. Daarvoor moet je dan wel licentieovereenkomsten aangaan die een combinatie van data uit verschillende bronnen weer onmogelijk maken. De universiteitsbibliotheken zijn hier kritisch over en de Europese Commissie lijkt een oplossing te gaan aandragen. Brussel creëert echter nieuwe mist door dit alleen toe te staan voor onderzoeksorganisaties die ‘in het publieke belang’ werken. Wat dat zijn? Daar mogen advocaten, rechters en het Europese Hof weer jaren over gaan stoeien.
Open access heeft de wind mee. Zo is er per 1 juli een artikel in de auteurswet terecht gekomen dat het mogelijk maakt je werk binnen redelijke termijn online te zetten. Vanaf december moeten ontvangers van NWO-subsidies ervoor zorgen dat hun publicaties per direct voor iedereen beschikbaar zijn. Jammer genoeg lijkt open access tegelijkertijd te verwateren tot toegang alleen en wordt hergebruik niet genoemd. Zo schrijft de NWO-richtlijn geen licenties voor die ook content mining mogelijk maken. Navraag leert dat dit uiteindelijk wel onderdeel van het NWO-beleid zal worden.
Content mining heeft grote potentie voor de wetenschap. Om fraude op te sporen en om nieuwe vragen te beantwoorden. Maar dan moet het wel mogen.
Deze column verscheen in Vakblad IP, jaargang 19 nummer 9, 17 december 2015.
Commercialisering en digitalisering raken niet alleen bibliotheken en archieven, maar ook de lokale en regionale informatievoorziening. In een essay schets ik hoe deze informatievoorziening zich de afgelopen decennia heeft ontwikkeld. Aan het slot breng ik journalistiek, bibliotheken en archieven samen: één beleid op lokaal en regionaal niveau zou wel eens heel verfrissend kunnen zijn.
Redactie regionaal dagblad (bron: www.gahetna.nl)
Het is nooit aangenaam vertoeven in een kerk in de maand januari. Maar de hemel was wolkeloos, het centrum van Maarssen bleek een openluchtmuseum en de zon scheen warm door het glas in lood. De vader van een goede vriend, net gepensioneerd, was plotseling overleden. In de houten bank achter ons zaten oud-collega’s van het Utrechts Nieuwsblad. Eigenlijk het AD Utrechts Nieuwsblad, maar vloeken mag niet in de kerk. Ze waren allemaal halverwege de vijftig of ouder. Hun omfloerste commentaar op de toespraken verried kameraadschap en nostalgie. Mannen, vooral mannen, die een groot deel van hun werkzame leven met elkaar waren opgetrokken, deadlines hadden getrotseerd en hun stress afgebouwd met potjes voetbal, anekdotes, bier en tabak.
Nostalgie, want de professie van lokale en regionale journalisten is op de terugtocht. In 1980 hadden de Nederlandse dagbladen gezamenlijk een betaalde oplage van ruim 4,5 miljoen exemplaren. Zo’n 60 procent daarvan betrof regionale kranten. Tot 2000 bleef die oplage ongeveer gelijk en werd het aandeel landelijk op het totaal al wat groter. Daarna zette een stevige oplagedaling in, waarbij vooral de regionale kranten het zwaarder te verduren kregen.
De in het openbaar vervoer verspreide gratis kranten hebben daar ongetwijfeld aan bijgedragen. En de laatste jaren zijn het vooral de regiokranten die de klappen krijgen. Eind 2014 bedroeg de gezamenlijke betaalde oplage van de Nederlandse dagbladen nog maar zo’n 2,5 miljoen op papier, aangevuld met een dikke 250.000 digitale abonnementen. En het aandeel regiokranten? Dat is teruggelopen tot minder dan de helft.
Illustratief is ook de dekkingsgraad. In 1980 werden per 100 huishoudens 87 betaalde kranten verspreid. Nu zijn het er minder dan de helft daarvan. En dan is er nog het aantal daadwerkelijke lezers – want een verspreide krant is nog geen gelezen krant. Ook hier zit de klad in: het percentage mensen dat zegt (bijna) dagelijks een krant te lezen neemt al geruime tijd af. De trouwe lezers van weleer hoor je klagen dat hun regiokrant door reorganisaties en schaalvergroting inmiddels te ver van hun woonplaats afstaat en dat de kwaliteit van de berichtgeving achteruit is gegaan. En journalisten geven aan dat er minder ruimte is dan voorheen voor gedegen onderzoek.
Zijn we niet meer geïnteresseerd in wat er in de meest directe omgeving gebeurt? En is er nog wel een onafhankelijk, wakend oog op wat er politiek en bestuurlijk in de regio gebeurt?
Hoe komt dit? Zijn we niet meer geïnteresseerd in wat er in de meest directe omgeving gebeurt? En is er nog wel een onafhankelijk, wakend oog op wat er politiek en bestuurlijk in de regio gebeurt? In grove penseelstreken probeer ik te schetsen hoe de lokale en regionale informatievoorziening zich de afgelopen decennia heeft ontwikkeld met de komst van commercialisering en digitalisering. Tot slot betoog ik dat het wel eens verfrissend kan zijn na te denken over een beleid voor journalistiek, bibliotheken en archieven op lokaal en regionaal niveau.
Privacy & Cookies: This site uses cookies. By continuing to use this website, you agree to their use.
To find out more, including how to control cookies, see here:
Cookiebeleid