Joop

Laat Big Data spreken in het publieke belang

  •  
18-02-2017
  •  
leestijd 4 minuten
  •  
11396380473_26f323b1e4_z

© cc-beeld: KamiPhuc

Wil de journalistiek in het digitale tijdperk haar functie als waakhond kunnen waarborgen, dan wordt het tijd dat de journalistiek inziet hoe belangrijk technologie geworden is
De huidige samenleving wordt gedomineerd door ‘Big Data’, enorme datasets van informatie over onze voorkeuren en handelingen. Bedrijven als Google en Facebook traceren dagelijks ons zoek- en klikgedrag om op die manier zoveel mogelijk informatie over ons in te winnen. Deze informatie wordt verkocht aan de hoogste bieder, die ons vervolgens bombardeert met advertenties. Ook de overheid is zich bewust van de mogelijkheden en past Big Data-analyses toe bij onder meer ‘digitale profilering’ voor veiligheidsdoeleinden. De journalistiek echter blijft hierbij achter. Dit creëert een machtsverhouding waarin de waakhondfunctie van de journalistiek wordt ondermijnt door de machten die zij juist behoort te controleren.
Grootschalig onderzoek zoals de Panama Papers laat zien dat Big Data een enorm potentieel met zich meedraagt om onthullingen te doen. Wil de journalistiek in het digitale tijdperk haar functie als waakhond kunnen waarborgen, dan “wordt het tijd dat de journalistiek inziet hoe belangrijk technologie geworden is”, aldus Mar Cabra, één van de kernfiguren in het Panama Papers onderzoek, tijdens de VVOJ Conferentie Onderzoeksjournalistiek afgelopen november in Leuven. Op de vraag uit de zaal of de journalistiek aan het winnen of verliezen is, antwoordde ze: “Ik denk dat we aan het verliezen zijn”. De vraag die resteert: hoe kan de journalistiek zorgen dat ze de race niet definitief gaat verliezen? Hoe breng je immers toekomstige misstanden aan het licht als grote bedrijven en overheden vaardiger zijn met Big Data dan de journalist?
Die vraag valt nog niet zo makkelijk te beantwoorden. In het nieuwe digitale tijdperk bevindt de journalistiek zich in een benarde positie. De groei van gratis nieuwsvergaring via tal van online nieuwsmedia en een 24/7 nieuwscyclus heeft geleid tot een daling van abonnees van grote dagbladen, met als gevolg minder personeel dat meer werk moet verzetten. Een gevaarlijke situatie, want daardoor is er minder tijd en capaciteit beschikbaar voor onderzoeksjournalistiek die zich kan richten op het interpreteren van Big Data. Sterker nog, met sociale media als belangrijke bron voor een steeds groter deel van het publiek is de weg vrij voor ‘clickbaits’, nepnieuws en ‘alternative facts’. Politici hebben zich inmiddels eigen gemaakt met deze ontwikkelingen en spelen hier vernuftig op in. Op deze manier heeft Trump menig (sociale) mediaplatformen weten te vullen en ook in de campagne voor de Tweede Kamerverkiezingen zien we deze trends terugkomen, getuige de laatste rel rond een Tweet van Wilders waarop Pechtold werd gephotoshopt tussen jihadisten. Deze berichten verspreiden zich niet alleen als een lopend vuurtje op sociale media, ook de traditionele media voelen zich genoodzaakt hierover te berichten. Het geeft des te meer aan hoe belangrijk het is dat journalisten zich niet alleen rekenschap geven van echte feiten, maar deze ook kunnen traceren uit een veelheid van gegevens.
Om de traditionele rol van waakhond te kunnen blijven vervullen in het digitale tijdperk is het noodzakelijk om meer geld, personeel en tijd beschikbaar te maken, zodat er een inhaalslag kan worden gemaakt op grote bedrijven en overheden. Zo’n transformatie gebeurt niet van de één op de andere dag. Zeker niet met de beperkte capaciteiten waar traditionele nieuwsmedia mee te maken hebben.
De consument lijkt niet meer bereid te betalen voor dergelijke journalistiek. Ook het idee dat de overheid wellicht deze taak op zich moet nemen is lastig, gezien de tegenstrijdige belangen die zij en de journalistiek dienen. Toch is er wel één oplossing voorhanden: samenwerking. Kranten zijn in 2017 immers niet meer elkaars voornaamste concurrent: alle betaalde media concurreren in eerste instantie met gratis nieuws en online media.
Door samenwerking tussen journalisten vormen tijdsdruk en een capaciteitstekort een minder groot obstakel voor Big Data-onderzoek. Daarmee kunnen media zich wapenen tegen grote bedrijven, misstanden bij overheden en de groeiende stroom van valse informatie. Zo heeft bij de Panama Papers de samenwerking van 400 onderzoeksjournalisten, die bij elkaar 11.5 miljoen documenten analyseerden, de corrupte contouren blootgelegd van invloedrijke politieke figuren en (voormalig) staatshoofden. Ook analyseerden de journalisten van het internationale consortium van onderzoeksjournalisten gezamenlijk de 1,3 miljoen gelekte documenten van de Kamer van Koophandel op de Bahama’s en openbaarden het bestaan van zo’n 175.000 vennootschappen in dit belastingparadijs. Ex-eurocommissaris Neelie Kroes bleek jarenlang bestuurder te zijn geweest van een van deze bedrijven.
Deze voorbeelden laten zien hoe belangrijk samenwerking tussen journalisten is. Samenwerking zorgt allereerst voor het delen van kennis; data kunnen uitgewisseld worden en er kunnen gezamenlijke archieven worden aangemaakt die het mogelijk maken om de reikwijdte van onderzoek te vergroten. Daarnaast kunnen onderzoeksjournalisten expertise uitwisselen, wat bijdraagt aan meer datavaardigheden onder journalisten. Bovendien levert samenwerking meer capaciteit en tijd op doordat er meerdere journalisten aan hetzelfde project werken. Dit is nodig om het belangrijkste idee waar het journalistieke instituut altijd voor heeft gestaan te waarborgen: het dienen van het publieke belang.
Nel Ruigrok (directeur LJS Nieuwsmonitor en docent aan de Master Media en Journalistiek van de Erasmus Universiteit Rotterdam) Dirck de Kleer (Student aan de Master Media en Journalistiek van de Erasmus Universiteit Rotterdam) Matthijs van Hunnik (Student aan de Master Media en Journalistiek van de Erasmus Universiteit Rotterdam)

Praat mee

Heb je een vraag, suggestie of wil je gewoon iets kwijt? Dat kan hier. Lees onze spelregels.

avatar

Reacties (11)

adriek
adriek20 feb. 2017 - 7:26

In 2009, toen de gevolgen van de crisis net duidelijk begonnen te worden, had Wired een vooruitziende blik. Big data bestond nog niet, maar duidelijk was wel dat de manier waarop (financiële) gegevens verborgen zaten in tienduizenden ontoegankelijke documenten analyse vrijwel onmogelijk maakte. Nu, nu de pers uitgeknepen wordt (excusez le mot) is de publieke toegankelijkheid van betrouwbare gegevens belangrijker dan ooit. Het zal helaas nog vele jaren duren voor de wetgever dat ook maar begint te beseffen. https://archive.wired.com/techbiz/it/magazine/17-03/wp_reboot?currentPage=all

Okke2
Okke219 feb. 2017 - 19:17

De huidige samenleving wordt gedomineerd door ‘Big Data’, enorme datasets van informatie over onze voorkeuren en handelingen. Bedrijven als Google en Facebook traceren dagelijks ons zoek- en klikgedrag om op die manier zoveel mogelijk informatie over ons in te winnen. Deze informatie wordt verkocht aan de hoogste bieder, die ons vervolgens bombardeert met advertenties. Dat heeft weinig van doen met big data, het dagelijkse bombardement aan advertenties gaat gewoon aan de hand van ingevoerde zoektermen of websitebezoeken in de afgelopen paar dagen, gecombineerd met wie het meest wil betalen voor de verbindingen. Big data zou juist tussen de regels door lezen zijn, conclusie trekken aan de hand de miljoenen andere interacties waar het systeem van geleerd heeft.

scherm2
scherm219 feb. 2017 - 12:15

Al jaren krijg ik de dagelijkse nieuwsbrief van het zeer kritische duitse Telepolis dat zelfs de financiële crisis van 2007 correct voorspeld had. Dat had niks met big data te maken, maar uit voorhandene informatie de juiste conclusies trekken.. In juli publiceerde het online magazine in een artikel over de Panama papers dat de Rothshilds in Reno, US-staat Nevada een kantoor hebben waar zonder enige registratie ondernemingen, rijke families enz hun geld kunnen bewaren. Voor die informatie is geen big data nodig, hoogstens een betrouwbare informatiebron en mensen die de gegevens natrekken Telepolis is onderdeel van de Duitse uitgeverij Heise, die ook in Nederland het computermagazine c't uitgeeft.

Gluteus Maximus
Gluteus Maximus19 feb. 2017 - 6:58

> Door samenwerking tussen journalisten vormen tijdsdruk en een capaciteitstekort een minder groot obstakel voor Big Data-onderzoek. Ik geloof dat mw. Ruigrok niet helemaal weet wat het concept "Big-Data" inhoudt. Of liever gezegd - helemaal niet. Komt wel meer voor met buzz words. Maar als je denkt dat BigData gewoon "een heleboel gegevens" betekent, dan ben je er niet helemaal. Panama Papers heeft ook niets te maken met het potentieel van BigData in de huidige maatschappij. Het zijn gelekte gegevens - 1 anoniem persoon bij Mossack Fonseca die last kreeg van zijn geweten en een berg emails en documenten dropte bij een Duitse krant. Dat je dan veel "handjes" bij nodig hebt om dat door te spitten, dat begrijp ik ook wel. Maar dat heet geen BigData.

Piet de Geus
Piet de Geus19 feb. 2017 - 4:30

"Op deze manier heeft Trump menig (sociale) mediaplatformen weten te vullen en ook in de campagne voor de Tweede Kamerverkiezingen zien we deze trends terugkomen, getuige de laatste rel rond een Tweet van Wilders" WTF heeft dat met big data te maken? De Panama Papers kregen pas waarde doordat serieuze journalisten daaraan werkten. Hetzelfde geldt voor Wikileaks, voordat Assange de weg kwijt was, iedereen eruit werkte en (overgeleverd aan wat zijn tegenstanders zouden moeten zijn) besloot alles maar blind online te kwakken. En natuurlijk heeft Google meer hooggekwalificeerde mensen in dienst die goedbetaald met big data aan de slag gaan. Maar dat betekent zeker niet dat je dat moet kunnen matchen om daar gaten in te schieten en misstanden aan de kaak te stellen. Twee bekwame journalisten en een deep throath waren voldoende om het Watergateschandaal bloot te leggen, terwijl de tegenstander toch echt over meer troepen beschikten. Bovendien zien we veel hoopvolle ontwikkelingen: waar (in ieder geval Nederlandse) media alleen incidenteel in staat zijn om mensen vrij te maken voor onderzoeksjournalistiek ontstaan allerlei initiatieven die zich daar juist in specialiseren. Deels gefinancierd door crowd funding en gebruik te maken van online verdienmodellen. Er worden dus beslist stappen gezet om tot een nieuw evenwicht te komen. Bij the way: hoeveel weerstand moet je overwinnen om te gaan werken voor iets dat zich 'NLdse Nieuwsmonitor' noemt? Dus Nederlanddse Nieuwsmonitor, met dubbel d?

peter e
peter e19 feb. 2017 - 2:48

[Hoe breng je immers toekomstige misstanden aan het licht als grote bedrijven en overheden vaardiger zijn met Big Data dan de journalist?] Het antwoord: statistiek. Andere oplossingen zie ik voor als nog niet.

Bruggenbouwer2
Bruggenbouwer218 feb. 2017 - 23:11

Big data analyse is het toverwoord van de laatste jaren maar het gebruik ervan in de journalistiek zal er vooral voor zorgen dat journalisten alleen nog maar verhalen schrijven die de meeste lezers trekken. Data mining is veel te moeilijk voor journalisten, daar heb je experts voor nodig, en die experts hebben meestal wel wat beters te doen.

Marc Marc
Marc Marc18 feb. 2017 - 22:39

Eigenlijk is het te triest voor woorden dat er geld wordt gevraagd zodat de journalist wordt geleerd hoe te zoeken in data. Een journalist zonder datavaardigheden is gewoon geen journalist van deze tijd en mag wat mij betreft met vervroegd pensioen. Ik mag toch aannemen dat datavaardigheden tegenwoordig onderdeel is van de opleiding tot journalist ... Mijn ervaring is dat de meerderheid van gepubliceerde krantenberichten fouten bevatten die zeer eenvoudig voorkomen hadden kunnen worden door een paar google zoekopdrachtjes uit te voeren. Maar nee, daar is geen geld voor dus nieuws is tegenwoordig in hoofdzaak het 1 op 1 overnemen van persberichten. Dan kan je er voor 100 miljoen aan datamining cursussen voor journalisten tegenaan gooien maar zolang persberichten kritiekloos geplaatst worden blijft het imago slecht. Daarnaast, dataminen heeft een hoge IT-component en vereist specialismen die je de gemiddelde journalist niet snel aan kan leren. Laat het ontsluiten van de data maar over aan IT'ers en leer de journalisten maar hoe je effectief kan zoeken in de ontsloten data of leer de journalist hoe ze in samenwerking met datamining specialisten specificaties opstellen betreffende op welke wijze relaties in data gepresenteerd moet worden zodat een IT'er leuke interfaces kan maken en de wat minder onderlegde journalist er eenvoudig in kan zoeken. Nog beter, zoek de samenwerking op en bouw het samen voor het geval bestaande cots tooling ontoereikend is. Voor de goede orde, ik ben een groot voorstander van onderzoeksjournalistiek en daar mag best geld voor gereserveerd worden mits de opinie van de journalist zo veel mogelijk achterwege blijft. Daar wil ik zelfs voor betalen. Randvoorwaarde is het ontsluiten van de data op basis waarvan de journalist het onderzoek heeft gedaan zodat ik de weggelaten informatie tot mij kan nemen en zelf een mening kan vormen.

3 Reacties
Piet de Geus
Piet de Geus19 feb. 2017 - 4:42

"Mijn ervaring is dat de meerderheid van gepubliceerde krantenberichten fouten bevatten die zeer eenvoudig voorkomen hadden kunnen worden" Wen er maar aan. "door een paar google zoekopdrachtjes uit te voeren" En hoe moet je vervolgens de waarde inschatten van wat er in die zoekresultaten boven komt drijven? Grote kans dat dat ook aansluit bij jouw bubbel en je dus geen stap verder helpt. "Daarnaast, dataminen heeft een hoge IT-component en vereist specialismen die je de gemiddelde journalist niet snel aan kan leren." Het omgekeerde geldt evenzeer: je kunt een bèta niet zo snel specialismen aanleren waardoor ze ook echt in staat zijn om betekenis aan die data toe te kennen. Dat vereist toch echt een postdoctorale opleiding. "leer de journalisten maar hoe je effectief kan zoeken in de ontsloten data of leer de journalist hoe ze in samenwerking met datamining specialisten specificaties opstellen betreffende op welke wijze relaties in data gepresenteerd moet worden zodat een IT’er leuke interfaces kan maken en de wat minder onderlegde journalist er eenvoudig in kan zoeken" De bekende zelfoverschatting: de IT'er is niet beter onderlegd maar anders. Het vergt inderdaad een journalist om de specificaties op te stellen, want daar heeft die IT'er weer geen kaas van gegeten. Idealiter heb je alle vaardigheden in huis en staat er aan het hoofd van een team iemand die van alles kaas heeft gegeten.

Marc Marc
Marc Marc19 feb. 2017 - 11:26

Nee, de IT'er weet niet alles. Kern van het verhaal is dat je specialisten in moet zetten en het een illusie is dat je zomaar een journalist alles aan kan leren. Daarom zei ik ook dat journalisten en IT'ers samen moeten werken aan specs. Nu ik er verder over nadenk is dat niet genoeg. Ook heb je materiedeskundigen nodig zoals financieel specialisten wanneer het bijvoorbeeld om de Panama-papers gaat. Maar op hoofdlijnen zijn we het volgens mij wel eens.

Piet de Geus
Piet de Geus21 feb. 2017 - 0:14

"Maar op hoofdlijnen zijn we het volgens mij wel eens." Jazeker. Alleen rangschik ik de specialismen nevengeschikt. Met daarboven een generalist met een helikopterview die geen van de specialismen tot in de finesses beheerst maar die wel precies weet wat welk specialisme op kan leveren. Daarom zou ik bijvoorbeeld nooit een IT'er een 'leuke interface' laten bouwen maar alleen de achterkant ervan. Interactiondesign is een apart vakgebied dat meer op een kruispunt staat. Maar bepalend is: wat voor vragen wil je kunnen stellen. Regel je dat niet goed dan krijg je wat je iedere keer weer bij 'de diensten' ziet: achteraf blijken ze over alle benodigde kennis te beschikken maar vooraf was geen van hen in staat om uit de berg big data te halen wat relevant is en wat niet. Daarvoor heb je ook kennis uit de menswetenschappen nodig.