Store mængder råstof til nyheder og andet redaktionelt indhold er tilgængeligt – men bruges næsten ikke Læs om de fem former for data og nye urbane datastrømme, der fremover vil blive stadigt mere værdifulde som led i fødekæden bag indholdsproduktion og et nyt mulighedsrum for nyhedsmedier og samfundskommunikation Af Lars Kabel Lektor, cand.phil. og journalist Først et postulat og en tese: Store mængder råstof med betydelig nyhedsværdi findes nu i form af data og datastrømme, der kun i meget begrænset omfang bliver brugt af nyhedsmedier og i den borgerrettede kommunikation. Nyhedsdækningen og beskrivelsen af samfundet vil i stigende omfang kunne baseres på inddragelse af disse data og datastrømme. Urbane nyhedsstrømme er et nyt element i nyhedsproduktionens fødekæde. Her findes værdifulde nye kilder og kildetyper. Udgangspunktet for tesen er det aktuelle danske mediesystem, der blev opbygget i 2000’erne og 2010’erne, den nuværende digitale medieøkologi og brugernes efterspørgsel på mobilt indhold, hvor de ér, når de er der: ”Stort set alle mennesker i verden skaber dagligt digitale data ved brug af computer, tablet eller telefon. Også et stigende antal genstande skaber digitale data, som vi kender det fra fx droner, ’intelligente biler’ og varmesystemer. Det globale internet sørger for lynhurtig deling af en stor mængde af disse data, hvad enten de skabes af humane eller ikke-humane aktører” (Drotner: 12). Denne udvikling er blandt andet et spejl af, at folk er strømmet ind til de store og mellemstore byer de seneste årtier, og at urbaniseringen kører derudad. Livet leves i stigende omfang i offentlige byrum og i rummene mellem husene. Samtidig er fællesaktiviteter i sport og kultur og mere og mere af hverdagslivet flyttet fra indendørs til udendørs, og byerne indrettes nu derefter, de gøres til rum for livsudfoldelse og er i stigende omfang faciliteret af digital infrastruktur. Dataficeringen foregår overalt. Wi-Fi og stærkt 4G mobiltelefoni sikrer høj båndbredde. Borgere trækker overalt digitale spor via mobile devices og brugen af betalingskort som Dankort, Visa og MasterCard. Det digitale, mobile, sociale og urbane er undervejs med at skabe nye mediekredsløb baseret på sensorer, kameraer, tracking, netværk, data og datastrømme. En ny digital infrastruktur er ved at blive etableret i de store og mellemstore byer. Mediernes og kommunikationsafdelingernes indhold kan nu tilgås overalt såvel inden- som udendørs og undervejs: ”Der har været talt om big data i næsten et årti – som et spøgelse, der pludselig, lige om lidt, ville transformere hele medie- og kommunikationsbranchen. Sandheden er, at transformationen er sket. Og en lang række af de grunddiscipliner, som
2
kommunikationsfagene i årevis har haft som deres hjemmebane, er blevet dataficeret – og vil blive det yderligere i de kommende år” (Kommunikationsfagenes fremtid: 23). Teknologisk er vi kommet langt, knapt så langt er vi kommet med, hvad teknologierne og den megen data kan bruges til. Hvilket nyt værdifuldt indhold kan der skabes? Hvilke nye typer af interaktioner kan etableres?
Foto 1: I 2020 starter opstillingen i Danmark af den teknologi, der skal bruges til stærkt 5G-mobiltelefoni. Sammen med Internet of Things-genstande varsler 5G et teknologisk kvantespring. (Foto. Internettet) Denne artikel vil forsøge at bidrage med en ny systematisering, med identifikation samt karakteristikker af fem former for data og nye urbane datastrømme, der i dag ér og fremover vil blive stadigt mere værdifulde som led i fødekæden bag indholdsproduktionen. Artiklen vil beskrive og anbefale et nyt mulighedsrum for nyhedsmedier og samfundskommunikation. Først et kort nutidshistorisk tilbageblik. I 1990’erne startede digitaliseringen af produktionsapparatet i de danske mediehuse og store kommunikationsafdelinger i kommunale og statslige institutioner, NGO’er og private virksomheder. Her påbegyndtes den granulering af det journalistiske råstof: tekst, billeder, lyd og video til bits og bytes, der kunne mikses og versioneres til mange typer af artikler, indslag og medieformer både til papiraviser, onlineaviser, websites, nyhedsbreve, radio- og tv-nyheder og til vigtig service til borgerne. Stærke computere og nye typer af software blev indkøbt. Kilometervis af kabler blev i mediehuse og store kommunikationsafdelinger trukket og forbundet til transport og behandling af det digitaliserede indhold. Redaktioner og arbejdsgange blev omlagt, nye stillingstyper som for eksempel en mediedirigent til styring af versioneringen til de forskellige offentliggørelsesplatforme opstod. I 1990’erne blev adgang til rå data mere og mere udbredt i Danmark, og ved indgangen til 2000’erne var et nyt redaktionelt produktapparat ved at være på plads. Gennem 2000’erne og 2010’erne blev dette produktionsapparat løbende udviklet og moderniseret som et resultat af, at der opstod nye medier og platforme med meget stor gennemslagskraft for eksempel de sociale medier. Temaet for denne artikel er et felt med enorme mængder af data og andet indhold båret af talrige stærke globale og nationale aktører. Artiklen er ud over identifikationen af de fem dataformer også tænkt som et indblik i og en nutidshistorisk oversigt over, hvad der aktuelt er på spil i mødet mellem den nye medieøkologi, de mobile brugere og de mere og mere digitaliserede offentlige rum og byrum – med et særligt blik på nyheder og nyhedsformidling i sammenhæng med data, datastrømme og ny digital infrastruktur. Artiklen hviler på og refererer ind imellem fra bogen
3
Media Connectivity. Urban teknologi, data, journalistik og reklame i den digitale by (Kabel, 2019), der er også foretaget ny research og fundet nye eksempler på datainddragende journalistik. Artiklen er tænkt som et forstudie til et større analyse- og bogprojekt med arbejdstitlen ”Nye nyheder ó Journalistik som universel metode, 2020’erne”, der gennemføres i 2019 til 2021. Borgerrettet samfundskommunikation vil blive inddraget i kortlægningen. Der er væsensforskel på uafhængig nyhedsjournalistik og strategisk kommunikation med en bagvedliggende hensigt. Men som noget nyt er den oplysning til borgerne om samfundet (OBS), der kommer som borgerrettet samfundskommunikation fra offentlige myndigheder, kommunikationsafdelinger, NGO’er m.m. taget med og søgt belyst sammen med nyheder og andet indhold fra de uafhængige nyhedsmedier. Der kan være tale om nyheder og andre typer af informationer om byplanlægning, klimatilpasning, trafikregulering, kulturtilbud, sundhed, miljø, børnepasning m.m. Det er også de kommunale institutioner og deres medarbejdere, der lægger åbne datasæt med rensede og ofte visualiserede data ind i på Open Data DK til gratis afbenyttelse for alle. Tankegangen bag inklusionen er, at netop denne delmængde af den samlede kommunikationsindsats i samfundet udføres – eller bør udføres – med metoder fra den klassiske universelle journalistik og med den sandhedssøgende afspejlende nyhedsformidling som målsætning. De offentlige kommunikationsmedarbejdere har også – eller bør have – en opgave med at servicere de uafhængige medier med seneste nyt og anden nødvendig information til at kunne dække institutionerne kritisk og afbalanceret. Og ikke aktivt modarbejde relevante afsløringer af alvorlig misforvaltning, som det eksempelvis skete i Aarhus Kommune i sagen om Teknik og Miljøforvaltningen i 2016 og 2017. En kommunal adfærd, som kommunaldirektøren i Aarhus senere har undskyldt offentligt. En anden vigtig tankegang bag inklusionen er, at afsenderne fra kommuner, regioner og staten ikke har særinteresser, der skal forsvares – eller ikke burde have det. Det betyder samtidigt, at andre typer af kommunikationsarbejde med særinteresser som eksempelvis brandopbygning, målrettet påvirkning og lobbyarbejde er udeladt.
De fem former for data og databehandling Et vigtigt redskab til brugen af data er et overblik, en karakteristik af de fem forskellige former for data og databehandling, der udvikles og praktiseres i disse år. Noget af denne indsats er naturligvis kommet før noget andet og har dannet udgangspunkt for det nye. Historisk set er der dog tale om en form for tidslinje gennem de seneste ca. 30 år, men de nye datatyper og databehandlingsformer har ikke afløst de tidligere. De eksisterer side om side og tages i brug til forskellige formål, de konvergerer, og der skabes interaktion imellem dem. Hver af de fem former er et betydeligt undersøgelsesfelt i sig selv, men med det formål at skabe overblik er de her beskrevet i fortættet form: • Open Data: Frit tilgængelige data i databaser, web og offentlige arkiver • Lækket data: Enorme mængder af filer og dokumenter • Brugerdata: Fra virksomheder og offentlige institutioner • Sociale data: Adfærdsdata fra de sociale medier • Urbane data: Ddatastrømme fra mobile devices og Internet of Things
Open Data
4
I 1990’erne tog arbejdet i Danmark med elektronisk at lagre alle former for information fart, det skete i form af datafiler opbevaret i databaser. De offentlige arkiver blev baseret på databaser, bits og bytes. De nye websites, web 1.0, der afløste de tidlige digitale opslagstavler på internettet, Bulletin Board Services, Basere, var også centrale i udviklingen. Meget hurtigt voksede mængden af datafiler, og man begyndte at se de første eksempler på, at journalister og redaktioner skaffede sig adgang til datafilerne og begyndte at producere IT-generede nyheder, analyser og baggrundshistorier baseret på den nye data. De første eksempler på databehandling til journalistiske produkter opstod i USA allerede i 1960’erne og brød igennem i 1980’erne. I Danmark kom de tidligste eksempler i 1990’erne. Det blev potentielt en arbejdsopgave for journalister og redaktioner at finde nyhedsværdi, mønstre og historier i datafilerne, at fortælle og visualisere. Her kom den journalistiske kernefaglighed til sin ret, datalogerne og de andre teknikere havde vanskeligt ved at se nyhederne og de gode historier i de enorme mængder af bits og bytes. I 1989 opstod NICAR (National Institute for Computer-Assisted Reporting) og senere DICAR (Danish International Center for Analytic Reporting) i Danmark, og de to institutter og deres internationale samarbejdspartnere accelererede udviklingen. De mest enkle arbejdsmetoder var at bruge regneark til talanalyser og at visualisere mønstre ved for eksempel lægge to digitale lag oven på hinanden, hvorved der ofte opstod indhold med betydelig nyhedsværdi. Det kunne være fordelingen af sociale ydelser, brug af sprøjtemidler eller lokale skybrud oven på et by- eller landkort. I dag er det fortsat meget udbredte og effektfulde metoder, men det var de ikke for 25 år siden. Den journalistiske praksis, der opstod i tilknytning til den nye datainddragelse, blev kaldt CAR (Computer-Assisted Reporting). Det var kort sagt brugen af computere og software til at undersøge databaser og store mængder af data i dokumenter med. CAR indsamlede og analyserede data til nyhedshistorier. CAR applikerede metoder fra samfundsvidenskaben til journalistik og kommunikation. En central forskel på videnskabens og journalistikkens brug af data var (og er), at videnskaben som oftest bruger anonymiseret data, det gør journalistikken ikke, der skal ofte navne, tid og sted til, hvis noget skal dokumenteres. Gennem 2000’erne blev web 2.0 skabt, og terminologien CAR blev afløst af datadrevet journalistik, datajournalistik, som det kaldes i dag. CAR-journalistikken fik en langsom og vanskelig opstart i Danmark. Der blev skabt historier af folkene omkring DICAR, der demonstrerede potentialerne i arbejdet med kombinationen af journalistik og data, men den nye praksis blev ikke rigtigt indlejret i redaktionerne på de store mediehuse. I dag er brugen af data fra databaser, web, offentlige arkiver, det helt dominerende indsatsområde inden for datainddragelsen. Brugen af Open Data er knapt startet. Med råstof fra disse offentlige kilder skabes nu talrige databaserede journalistiske produktioner, og datajournalisterne bygger videre på den indsats og de metoder, som CAR-journalisterne udviklede og brugte i 1990’erne. Til at finde vej bruger de metadata: ”En stor del af de digitale data, som produceres i dag er struktureret i en eller anden grad ved hjælp af metadata, dvs. ’data om data’. Hvor data er synlige og umiddelbart tilgængelige, er metadata ofte mere skjulte, ikke mindst deres funktioner. Et populært eksempel på metadata er hasttagget (#), som på især Twitter og Instagram benyttes til at kategorisere opslag” (Drotner: 16).
5
Ofte er råstoffet, grundinformationerne ikke nye, det nye opstår gennem den journalistiske bearbejdning. De offentlige datasæt ’forhøres’ systematisk. Hyppigt er datajournalisterne nødsaget til at bruge reglerne om offentlighed i forvaltningen for at skaffe sig adgang til de ønskede informationer. Datajournalister indsamler kvantificerbare data i databaser, offentlige arkiver i DK og EU og laver supplerende onlinesøgninger, de analyserer offentlige data ved hjælp af spreadsheets og statistiske programmer, studerer politiske, sociale og demografiske forandringer ved hjælp af ’geographic information mapping software’ (GIS) til urbane visualiseringer. De udfører sociale og kommercielle netværksanalyser, magtanalyser, ved at sammenkøre navne med professionelle positioner og forskellige typer af relationer for eksempel bestyrelsesposter. Før resultaterne kan offentliggøres skal en vinkel i en datajournalistisk analyse altid afprøves mod virkeligheden ofte ved hjælp af klassiske journalistiske metoder som interview. Nyhederne opstår gennem mønstrene og tilgængeligheden ved hjælp af sammentænkning og visualisering af tusindvis af informationer. Et markant eksempel på succesfuld CAR/datajournalistik var den kortlægning af fordelingen af EU’s landbrugsstøtteordninger, som de danske journalister Nils Mulvad, Brigitte Alfter og den engelske Jack Thurston gennemførte i 2004-2005. I Danmark tog det Nils Mulvad næsten et år at få udleveret informationerne om fordelingen af hvilke typer af landbrug, der fik hvor meget i EUstøtte, hvordan fordelingen var over de forskellige regioner i Danmark. Efter udleveringen af datasættene blev det en stor faglig udfordring af rense dem og gøre indholdet fra PDF-filerne søgbare, så der kunne laves tværgående kørsler. Også denne udfordring løste Nils Mulvad og andre i det internationale partnerskab, der efterhånden blev opbygget omkring den vigtige journalistiske indsats. Gruppen af datajournalister internationaliserede derefter deres projekt. De opbyggede en fælles database, en hjemmeside: farmsubsidy.org og lavede sammenligninger på tværs af grænserne. Brigitte Alfter søgte aktindsigt hos Europa-Kommissionen i data for fordelingen i hele EU, men fik afslag. Derefter kastede hun sig over Tyskland, Jack Thurston gjorde noget tilsvarende i England i samarbejde med The Guardian. Researchen og visualiseringerne viste, at store økonomisk stærke landbrug løb med det meste rundt i de europæiske lande, og det samt de mere detaljerede mønstre, der blev fundet i de store datasæt, resulterede i en række nyheder og baggrundsartikler med betydelig gennemslagskraft i de enkelte lande. I dag er det fortsat nødvendigt at rense de data og datafiler, man får adgang til, så de bliver søgbare og sammenlignelige. Nu findes der dog en række software, som kan bruges til rengøringen, de kan hentes i for eksempel Tools Library. Som noget nyt i Danmark er adgangen til offentlige data i en bearbejdet form nu gjort meget tilgængelig gennem Open Data. Det startede i 2013. Den følgende beskrivelse er gengivet fra Media Connectivity: ”Open Date DK er en forening for danske kommuner og regioner. Portalen opendata.dk har til formål at skabe transparens i den offentlige forvaltning og grobund for datadreven vækst. Og dermed få merværdi ud af de mange data, der i forvejen indsamles… På opendata.dk stiller de bagvedliggende offentlige forvaltninger data gratis til rådighed for alle, der kan gøre brug af dem”.
6
”På Open Data DK kan der findes andre typer af datasæt om kommunerne, regionerne og borgerne end hos Danmarks Statistik. I april 2018 var der på nationalt plan 913 datasæt til rådighed… Det var data om fysiske forhold som løberuter, storbyhaver og antallet af kolonihaver og fiskepladser. Om lysstyrker, el ledninger og udskiftning af LED-pærer. Om luftfugtighed og planer ved skybrud”. ”De fleste datasæt i Open Data DK er statiske, hvilket vil sige, at de enten er afsluttede eller opdateres med jævne mellemrum. Tendensen går nu mod mere dynamiske datasæt i Open Data DK, hvor data fortløbende opsummeres, hvad der muliggør visualiseringer og analyser i realtid”. (Kabel: 48 og 49) Det er flere eksempler på åbne data i Open Data DK, der har potentiale til at kunne blive til nyheder. Et eksempel er datasættene i Viden om dit affald i Aarhus kommune. Her tilbydes både et overordnet billede af de affaldsmængder, som borgerne leverer på genbrugsstationerne, hvor og hvornår samt nogle detaljerede målinger af, hvad borgerne smider i deres skraldespande af madaffald, restaffald og emballage af plast og metal m.m. Alt data er visualiseret, så det er let tilgængeligt. Ved at etablere tværgående sammenhænge imellem de forskellige typer af oplysninger kan der eksempelvis laves hyperlokale nyheder fra et bykvarter om affaldssituationen lokalt. Datasættene er dog ikke dynamiske, det vil sige, at de ikke opdateres løbende men giver et billede i datid af forholdene. Datidsbilledet vil en nyhedsredaktion så kunne supplere med eksempelvis opfølgende interview om den aktuelle status på området. På den måde kan databaserede oplysninger understøtte det løbende arbejde med nyhedsformidling. Data bliver til en del af fødekæden bag nyhedsproduktionen.
Foto 2: Smartphones er det altdominerende apparat til modtagelse og interaktion med mediehuse og kommunikationsafdelinger. Mobiltelefonerne øger efterspørgslen efter indhold, der er individualiseret og direkte målrettet til et sted og et tidspunkt. (Foto Rasmus Steengaard)
Lækket data Domænet wikileaks.org blev registreret 4. oktober 2006 af den australske journalist Julian Assange. Det første dokument, der blev offentliggjort, kom på hjemmesiden i december samme år. WikiLeaks publicerer lækkede, hemmeligt stemplede dokumenter på nettet samtidig med at kilderne, hackerne og whistleblowerne, tilbydes anonymitet.
7
Med WikiLeaks opstod der helt nye muligheder for mediehuse og gravende journalister over hele verden for at få adgang til store mængder af data med potentiel meget stor nyhedsværdi og samfundsbetydning. I 2010’erne har denne form for læk af ofte fortrolige dokumenter og efterfølgende databehandling resulteret i nogle meget bemærkelsesværdige sager. I oktober 2010 offentliggjorde WikiLeaks 400.000 militære rapporter fra Irakkrigen hacket leveret af den amerikanske soldat Chelsea Manning, og måneden efter gennemførte WikiLeaks offentliggørelsen af 252.287 dokumenter udarbejdet af de amerikanske ambassader. Dokumenterne var fyldt med kontroversielle og fortrolige oplysninger, WikiLeaks samarbejdede med mediehuse i mange lande, og de fandt ’breaking news’ med stor betydning i dokumenterne, der dominerede forsiderne og satte dagsorden i mange lande. Panama Papers er det måske til dato mest bemærkelsesværdige eksempel på datajournalistisk og redaktionel behandling af enorme mængder af dokumenter, filer og data. Andre eksempler fra dette årti er OffshoreLeaks og SportsLeaks. I Panama Papers blev Ikke mindre end 2,6 terrabyte data i 2015 overført af en anonym kilde til den tyske avis Süddeutsche Zeitung. Det var ifølge Wikipedia et sæt data bestående af 11,5 mio. hemmelige dokumenter udarbejdet af det panamanske selskab Mossack Fonseca, som rummede informationer om mere end 214.000 offshore selskaber og en masse magthavere i mange lande. I forhold til datajournalistik og håndtering af de store datamængder blev Panama-afsløringerne et mønstereksempel på, hvad internationalt samarbejde mellem mediehuse og journalister i mange lande kan resultere i. I regi af International Consortium of Investigative Journalists (ICIJ) samarbejdede 376 journalister fra 107 nyhedsorganisationer i mere end 80 lande om af finde nyheder og afsløringer i det enorme materiale, men først måtte datasættene renses og katalogiseres systematisk, før der kunne søges og laves sammenligninger. Blandt andet skulle der konstrueres søgemaskiner, der var i stand til at grave sig ind i tusindvis af dokumenter og finde mønstre, udføre navne- og keywords-søgning. Ifølge Wikipedia foregik det ved hjælp af ”et stykke prioritært software fra den australske virksomhed Nuix. Dokumenterne blev kørt gennem kraftige computere, som foretog optisk tegngenkendelse, hvilket gjorde datasættene maskinlæsbare og søgbare. Fortegnelsen over vigtige personer blev derefter krydsrefereret med de efterbehandlede dokumenter. Det næste skridt i analysen bestod i at forbinde personer, pengeflow og de juridiske selskabskonstruktioner”. Og så rullede nyhedsstrømmen jorden rundt. Konsekvenserne af afsløringerne blev mange: Islands statsminister måtte trække sig, i Rusland kom der oplysninger frem om Putin-familiens private økonomi, det kostede hele redaktionsledelser deres job. I Danmark blev der sat kritisk lys på skattely og på bankernes rolle i overførslen af penge. Allerede i 2009 demonstrerede det britiske mediehus The Guardian den store værdi ved åben research og samarbejde med læserne og brugerne om i håndteringen af store mængder informationer ved hjælp af crowdsourcing, crowdresearch. Metoden er senere blevet mere udbredt. I London offentliggjorde Hourse of Commons 18. juni 2009 efter pres 700.000 bilag, dokumenter med de 646 britiske parlamentsmedlemmers brug af de midler, de fik fra parlamentet til dobbelt hushold m.m.
8
Guardian-redaktionen var klar over, at der var store historiepotentialer både nationalt, regionalt og lokalt i de mange bilag, men mængden var en kæmpe udfordring, og det krævede i mange tilfælde lokalkendskab, at kunne finde nyhederne. Så Guardian åbnede deres research og inddrog læserne. For eksempel: Hvad var det for et hus til opdræt af ænder, som et af parlamentsmedlemmerne havde brugt nogle af de offentlige midler til? Det var et eksempel på en de mere kuriøse afsløringerne. The Guardian lagde alle bilagene op i en offentlig app og opfordrede læserne til at bidrage til researchen. Fandt man en væsentlig historie, skulle Guardian-journalisterne nok hjælpe med at få den skrevet og offentliggjort. En lang række af læserne fandt vigtige nyheder og regulære afsløringer i de mange bilag baseret på deres lokale kendskab og viden, historier som Guardianredaktionen aldrig selv kunne have fundet frem. I Danmark har tre graverjournalister fra Berlingske de senere år og bid for bid afdækket en af de største bankskandaler i danmarkshistorien - hvidvask gennem Danske Bank. Siden marts 2017 har sagen været et eksempel på, hvordan avanceret databehandling af lækkede dokumenter kan bidrage til afsløringen af en stor skandale udført af en samfundsbærende institution som Danske Bank. Igen var en whistleblower den første åbning ind til dokumentationen af en praksis, som få havde forestillet sig kunne foregå. Den tidligere chef for Danske Banks baltiske handelsaktiviteter, britiske Howard Wilkinson, begyndte allerede i 2013 og 2014 at advare bankens ledelse om, at der foregik massiv hvidvask i den estiske filial, men bankens ledelse reagerede ikke. Senere blev central skriftlig dokumentation for påstanden lækket til medierne, og sagen rullede. Hvidvasksagen og den journalistiske indsats omkring den udmærker sig dog ved, at det ikke blot var data fra dokumenter men en række af de grundlæggende journalistiske arbejdsmetoder, der undervejs bidrog til afsløringsarbejdet. Dermed er danske Bank-afsløringerne et helt aktuelt eksempel på, hvordan en unik kombination af avanceret databehandling med klassisk journalistik kan føre det et nyhedsflow med megen stor samfundsmæssig betydning.
Brugerdata I det seneste årti er nyhedsmediernes og kommunikationsafdelingernes adgang til store mængder af data om deres læseres, brugeres og interessenters adfærd på internettet øget markant. Dataformen kaldes af mange for ’big data’ og bruges blandt andet til kortlægning af den faktiske kommunikation omkring mediehusets indholdsstrømme. Termonologien er dog ikke forbeholdt dette område, i andre af de fem dataformer er der også store mængder af ’big data’ i spil. Nyhedsmedierne og virksomhederne opbevarer og bearbejder de data, som brugerne efterlader sig, når de bevæger sig rundt på onlineaviser, hjemmesider, nyhedsbreve m.m. Det giver med stor præcision redaktionerne dyb information om, hvem brugerne er, hvor de kommer fra, hvad de læser, hvordan historier bevæger sig rundt mellem medier og platforme og meget, meget mere. Som det på bedste vis er beskrevet i Fagenes fremtid fra 2019 i delrapport 3 om Kommunikationsfagenes fremtid fra Dansk Journalistforbund gør ”dataficeringen kontakten til brugerne målrettet og målbar”: ”Enhver, der for nylig har sat sine ben i sekretariatet på et nyhedsmedie, vil have bemærket skærmene i loftet. Dashboards, der via systemer som Chartbeat, Google Analytics eller Parse.ly viser trafikken på mediernes hjemmeside – i realtid. Antallet af brugere på de enkelte historier, læsetiden på historierne, hvilke websites brugerne
9
er blevet henvist fra osv. Den konstante måling af brugernes adfærd er det mest synlige eksempel på, at online-journalistikken på bare et par år er blevet uløseligt koblet til data”. ”En lignende udvikling vil mange kommunikatører nikke genkendende til: ved hjælp af data om kunder, medlemmer eller borgeres præferencer og internetadfærd er det i dag blevet hverdagspraksis for offentlige og private organisationer at målrette f.eks. deres nyhedsbreve – kaldet microtargeting – med en præcision, som var utænkelig for få år siden. Og konstant teste og måle, hvordan de forskellige budskaber eller indholdstyper slår igennem i forskellige grupper af brugere”. ”Med adgangen til stadigt flere og mere detaljerede data om brugernes aktivitet på nettet har kommunikatører og journalister – og alle andre faggrupper, der beskæftiger sig med kontakten mellem organisationer og mennesker – fået mulighed for at effektivisere og samtidigt måle deres kontakt med omverdenen med en akkuratesse, som overtrumfer alle de analyseredskaber, der hidtil et blevet anvendt i medier og kommunikationsafdelinger: Oplagstal, presseklip, statistiske brugerundersøgelser og lignende”. (Kommunikationsfagenes fremtid: 29) I journalistisk sammenhæng og i forhold til, hvad data kan bruges til, er timing afgørende. Redaktionerne må i høj grad vurdere, hvad der skal til for, at en nyhed eller en anden type af historie slår igennem på et bestemt tidspunkt. I den sammenhæng er brugerdata et relativt nyt og vigtigt redskab. Monitorering af trafikken via internettet og analysen af digitale brugerdata er de senere år blevet gjort til et centralt redigeringsværktøj i det løbende redaktionelle arbejde med prioritering af nyheder og andre typer af journalistisk indhold. Hvad performer godt online og i nyhedsbreve? Hvis det ikke længere er click for enhver pris, hvad bruger læserne så mere tid på end andet? Forlader de sitet eller går de dybere ind? Dashboards med trafiktal i realtid viser hele tiden brugsmønstrene. Baseret på de mønstre og svar, brugerdata tilbyder, prioriterer medarbejdere på onlineaviserne deres nyhedsflow, og det ændres konstant. Dashboards og en løbende monitorering bidrager til, at der metodisk nu er tale om, at der er opstået et relativt nyt redaktionelt begreb i værktøjskassen, man går fra deadline til flydende deadline - flowline. Mediernes og kommunikationsafdelingernes data om brugerne er også et centralt råstof i de igangværende bestræbelser på at lave mere geolokaliseret og individualiseret indhold med ’microtargeting’ helt frem til den enkelte. Både håndholdt og automatiseret. Brugerdata er en forudsætning for at kunne lave denne form for målrettethed i dybden. Hvad præcist efterspørger læseren og brugeren, hvor og på hvilket tidspunkt i døgnet? Det kan en analyse af brugerdata give stadigt mere detaljerede svar på, og det kan danne udgangspunkt for, hvilket personificeret stof den enkelte skal tilbydes blandet sammen med det indholdsflow, der er rettet mod alle. Teknologierne bag og potentialerne i geolokalisering og individualisering har været kendte i længere tid, mange udbydere af indhold personificerer nu baseret på forbrugsmønstre, men få i medie- og kommunikationsbrancherne er kommet rigtigt i gang med at udføre begge dele og i sammenhæng. År tilbage var der en række forudsætninger, der først skulle være på plads eksempelvis skabelse af strukturer i de opbevarede data, som skulle gøres tværgående søgbare, og det er opnået mange
10
steder. I disse år sker der imidlertid nye ting, der kombinerer individualisering med lokalisering. Eksempler på medier i Danmark, der de senere år er kommet i gang personificeret indhold og ’microtargeting’ er Herning Folkeblad og Jysk Fynske Medier. I begge tilfælde er deres udviklingsarbejde støttet af fondsmidler fra Google News Initiative: Herning Folkeblad fik i december 2017 1.5 mio. kr. fra Google til at udvikle en platform til brugertilpasset indhold, der ved hjælp af algoritmer kunne præsentere brugerne af folkebladets websites: aoh.dk og mja.dk med et mere persontilpasset lokalt nyhedsudbud. Har en læser via sit læsemønster vist særlig interesse for sport, vil sport fylde mere på vedkommendes forside. En sådan personalisering af indhold bygger på detaljerede og kombinerede brugerdata. Mediehuset er kommet langt i arbejdet med at realisere projektet og målsætningerne. Ifølge chefredaktør for Herning Folkeblad, Alex Nielsen citeret i Journalisten 4. april 2019, betyder forandringerne, at ingen af læserne eller brugerne nu præsenteres for de samme nyhedssider, de pushede sider afhænger af læserens forudgående adfærd på sitene. Nyhedsaviser har altid prioriteret, hvad der skal med på siderne, og hvad der er det vigtigste til forsiderne, nu forbedrer algoritmerne muligheden for at foretage disse valg versioneret og målrettet den enkelte læser. Ifølge chefredaktør Alex Nielsen begynder bladhuset at kunne skimte de første resultater af indsatsen: ”Vi kan tydeligt se, at folk bliver hos os i længere tid. Det tolker vi sådan, at modtagerne oplever en større relevans, når de får nyheder i et mix mellem, hvad vi publicistisk vælger til dem, og hvad de får fremtrukket fra nyhedsbuffeten på baggrund af deres adfærd og ønsker” (Journalisten: 04.04.2019). Jysk Fynske Medier modtog i marts 2019 2,3 mio. kr. fra Google til udvikling af personlige og hyperlokale nyheder på deres mange digitale platforme. Målet er, at den enkelte bruger præsenteres for et mix af fælleshistorier og hyperlokalt indhold uanset om brugeren besøger hjemmesiden, læser et nyhedsbrev eller får en notifikation i en app. Igen bygger denne målrettethed på brugerdata. Ifølge Claes Holzmann, data- og analyseredaktør i Jysk Fynske Medier er individualisering et velkendt fænomen i mediebranchen: ”Det, som gør vores projekt anderledes, er den lokale dimension. Vi skal ramme folk med noget, som både er lokalt og inden for det, de interesserer sig for” (Journalisten: 21.03.2019). Jysk Fynske medier er også gået i luften med robotjournalistik. Robotterne producerer automatiserede artikler om ejendomshandel, sport og erhverv på et hyperlokalt niveau. Ifølge data- og analyseredaktøren er det meningen, at robotartiklerne skal indlejres i det individualiserede produkt: ”I fremtiden kunne vi have en forside, hvor du har den store historie i toppen, som er publicistisk prioriteret, og så under den have historien om den lokale tømrers regnskab eller historien om, at en villa på din vej lige er solgt for 3,5 mio. kr.”. Brugerdata bruges nu af redaktioner og store kommunikationsafdelinger til at inspirere redigeringen af nyhedsflowet og journalistikken på onlinemedier og i nyhedsbreve m.m. Op- og nedprioriteringer på nyhedssites foregår løbende på basis af brugertal i realtid. Brugerdata bruges
11
ikke – eller kun i meget ringe omfang – som råstof i produktionen af nyheder og andre former for indhold. Brugerdata er hovedsageligt en internt-rettet ressource.
Foto 3 og 4 Offentlige byrum bliver i stigende omfang udrustet med sensorer og skærme af forskellige slags, der monitorerer omgivelserne i realtid. Her fra havnepladsen i Aarhus. Data fra sensorerne er ny en ressource for nyheder i nutid også til sociale medieplatforme. (Foto: Rasmus Steengaard)
Sociale data Mængden af data om brugerens adfærd stiger ekspotentielt ikke alene i form af brugerdata hos nyhedsmedierne og kommunikationsafdelingerne men også i databaserne under de sociale medier. Medieplatforme som Facebook og det tilknyttede Messenger, Twitter, Snapchat, Linkedin og Instagram er i udgangspunktet ikke publicistiske medier, ikke nyhedsmedier, selvom de distribuerer masser af nyheder som tekst, video og fotos, men det er indhold, som andre har skabt. Deres ideale mål er at forbinde mennesker rundt i hele verden, tilbyde kommunikation og skabe demokratisering. Deres forretningsmodel er annoncering og services såsom eksempelvis netværksskabelse baseret på målrettet avanceret datahåndtering samt dataprofiler over den enkelte bruger. De sociale medier er IT-platforme, der er designet til at opbygge relationer, og som stiller publicerings- og interaktionsmuligheder gratis til rådighed for alle og for nærmest alle former for indhold, som det er lovligt at offentliggøre og sprede. Også for nyhedsmedierne. Brugeren betaler med sine data, brugerens data er koncernernes primære produkt. I løbet af 2000’erne udviklede de sociale medier en elementær forretningsmodel: målrettet relevant annoncering rettet mod individet. Kommercielt har platforme som Facebook, Twitter og Instagram efterfølgende påvirket mediesystemerne og medievirksomhederne massivt. De har nu en dominerende rolle på annonceområdet, løber med en større og større del af nyhedsmediernes
12
indtægter fra reklame baseret på en meget offensiv og målrettet brug af brugerdata. Dominansen gælder også for politisk indhold, for standpunkter, hvad der skaber stor trafik. De sociale medier er ikke underlagt medielovgivningen. Imidlertid har medieudviklingen og den helt enorme gennemslagskraft af de sociale medieplatforme jorden rundt medført, at Facebook, Twitter, Instagram og andre i dag ikke blot kan betragtes som IT-platforme heller ikke at ejerne, der ellers oprindeligt mente, at de intet ansvar havde for indholdet, ingen ansvar for redigering af platformene. Ansvaret havde dem, der lagde indholdet op. Men den går ikke længere, hverken indholdsmæssigt eller i den måde, data bruges på og videresælges, det viser en række markante sager og politiske processer i USA og Europa i de seneste år. De sociale medier er indholdsmæssigt blevet en ny form for medier, en ny form for offentlighed, som spiller en helt central rolle i borgernes medieforbrug og den nye digitale medieøkologi. Og Facebook, Twitter og Instagram anerkender da også nu, at de har en form for ansvar for det, de publicerer og distribuerer. De sletter, redigerer og ekskluderer store mængder af aktører og indhold identificeret som hatespeak og disinformation uden dog at ville påtage sig rollen som sandhedsvidne og afgøre, hvad der er sandt og falsk. Ifølge en BBC-rapport har Facebook slettede over tre mia. falske profiler i perioden fra oktober 2018 til marts 2019, de betegner dem som ”andre typer indhold”. Facebook er generelt begyndt at vise tilbageholdenhed i forhold til, hvad brugernes data bruges til. I Danmark er Facebook fortsat det dominerende sociale medie med omkring 3,7 mio. brugere i 2018, ca. 75 procent af befolkningen. Det hyppigt omtalte Twitter blev i 2018 ifølge DR Medieforskning kun brugt af 6 procent af danskerne, hvoraf blot en mindre del var aktive. Og for første gang i 10 år så man i 2018 et mindre fald i brugen af Facebook som nyhedsplatform i Danmark. Det er en kendt sag, at Facebook og andre indsamler, opbevarer, bearbejder og udnytter enorme mængder af data om hver eneste af de milliarder af brugere, de har jorden rundt. Tal er svære at håndtere i relation til Facebook, de er astronomiske. Alle typer af informationer: billeder, netværk og reaktioner registreres, men den opbevarede data er ikke hemmeligholdt, man kan via sin Facebookprofil få information om de data, som Facebook opbevarer om en selv. Facebook har ifølge danske brugere, der har søgt indsigt, ofte mere end en gigabyte almen information og adfærdsdata opbevaret om en person, der har brugt tjenesten på en almindelig måde gennem 10 år. Også på reklameområdet har Facebook på det seneste styrket transparensen ved hjælp af data. Fra foråret 2019 kan man, hvis man søger på et navn, en organisation eller andet relevant, via Annoncebiblioteket få en fuldstændig liste over de reklamer om politik, mærkesager og andre former for påvirkning, der er offentliggjort. Man kan få prisen oplyst og hvem, der har betalt fakturaen for annoncen. Hver enkelt af annoncerne gemmes i biblioteket i syv år. De store datamængder som Facebook og andre sociale medier indsamler, opbevarer og udnytter kommercielt ejes og kontrolles af Tech koncernerne. Og de bruges af algoritmerne, som er ’rating systemer’, der kontrollerer, hvilke typer af indhold, der fremmes eller nedprioriteres. Det er gået ud over nyhedsmediernes indhold de seneste år. Samtidig med denne udvikling dæmper mange nyhedsmediehuse selv deres aktiviteter på Facebook og de andre sociale platforme, fordi de ønsker at råde over deres egne brugerdata. De
13
tilstræber i mindre grad end tidligere at stille gratis indhold til rådighed for de store amerikanske techkoncerner, der ejer de sociale platforme. Alligevel spiller de sociale medier fortsat en vigtig rolle i det nye digitale mediesystem og i datahåndteringen på følgende områder: • De sociale medier har enorme mængder af trafikbeskrivelse/data om hver enkelt bruger, der bruges til målrettet skabelse af indholdsmæssig værdi/relevans, algoritmerne bygger på disse data i deres udvælgelse og prioritering. Ifølge kritikere af de sociale mediers kulturpåvirkning er beskrivelserne så nuancerede, at de har potentiale til reel adfærdsforandring – de er socialt indgribende. • Medierne bruger de sociale medier som offentliggørelsesplatforme, alternative distributionskanaler til spredning af deres indhold. Medierne modtager trafik/læsere fra de sociale medier oftest via dybe links ind på deres onlineaviser/websites. • Talrige kilder bruger nu de sociale platforme Facebook, Instagram og Twitter som første nyhedsplatform. Nyhedsmedierne bypasses. Redaktionerne overvåger denne form for nyheder ved hjælp af robotter, de ’scraper’ løbende de forskellige platforme for særligt relevante personer. • Likes og deling betragtes som et nyhedskriterium. Hvis en Facebook-post får stor opmærksomhed, mange clicks og kommentarer, hvis flere brugere poster det samme, er det ofte blevet tolket som et mønster, et fænomen, der har nyhedsværdi. Selve interaktionen bliver til en nyhed i medierne. Et grotekst eksempel på dette kom under mindekoncerten for Kim Larsen i oktober 2018. Her twettede fire danskere en negativ anmeldelse af koncerten, og det opfattede bt.dk som et mønster. Under rubrikken ”Danskere raser” breakede bt.dk en nyhed midt under koncerten om, at den blev opfattet som dårlig. Hvad masser af anden social medie-trafik ifølge medieanalytikeren Jan Birkemose senere modbeviste. Denne praksis på nyhedsområdet er dog nu på kraftig retur. • Medierne har via Dashboards meget præcise data om deres indholds bevægelser rundt på det enkelte sociale medie og tværgående – informationerne indgår i de løbende nyhedsvurderinger sammen med clicktallene fra hjemmesiderne. De fører til op- og nedprioriteringer – top eller bund? Ifølge en nyligt udgivet forskningsartikel må nyhedsmedierne i en vist grad underlægge sig de sociale mediers logikker og de måder, som de sociale medier med brug af data målretter indhold på. I hvert tilfælde hvis de ønsker at have en markant tilstedeværelse på platformene. I artiklen News criteria on social media. Comparing news media use of Facebook and Twitter af Jakob Linaa Jensen, (Journalistica, nr. 1, 2019) konkluderes det, at der er en historisk udvikling i det spredte på sociale medier, men at det langt hen stadigvæk gælder, at: “News spread through social media might be framed differently than stories in traditional media. Emotions and sensations rather than facts dominate because social media have “different subjects, different narrative, sensibility and different pathways to capture the attention”. “Furthermore, when news selection and reading are increasingly based on popularity, ‘likes’ and ‘shares’ rather than traditional editorial filters, the spectacular, the entertaining the personal or the conflicting might come to dominate the news cycle (Mayer et al, 2010)”, (Jensen: 94).
14
“The analysis has a mixed conclusion. The emotional and sensational both play a large role in the social media but not on the expense of the established criteria of timeliness and relevance” (104). “Social media are no coherent juggernaut when it comes to news dissemination. Differently platforms are used differently, based on their affordances and the audiences. Twitter is used mainly for short reporting or linking to media stories whereas Facebook posts often seeks to engage, invoke emotions or employ personal angles, aiming at user identification” (106).
Urbane data Data og ’big data’ har været på banen i årtier, urbane datastrømme er det nye element i datafødekæden. Urbane data er de data, der opstår via eksempelvis mobil tracking af anonyme deltageres, brugeres og borgeres bevægelsesmønstre rundt i offentlige bygninger, udendørs byrum og rundt ved store events. Ud af analyser og samkøringer af sådanne data kan der hentes nyheder og skabes mønstre, der kan bruges til korte nyheder og forbedret adfærdsregulerende service under et stort event samt meget mere. Urbane data er også de bits og bytes, der opstår som følge af kameraers, sensorers og andre måleapparaters monitorering af omgivelserne. Det kan være optællinger i realtid af trafiktal, ledige parkeringspladser, luftforurening med partikler, temperatur og vandstand, strømforbrug, affaldsmængder. I de urbane datastrømme er der for medierne fakta at hente for dynamisk nyhedsdækning i realtid af en række hverdagsaktiviteter af betydning for borgerne. Også i denne form for data er der mulighed for at finde mønstre med nyhedsværdi, for eksempel præcist hvor og hvornår i døgnet en belastning er størst. Urbane data er desuden de bits og bytes, der i disse år begynder at opstå fra en række gennemdigitaliserede genstande, stationære eller undervejs i byerne. Det kan være data fra biler, reklamestandere, cykler, droner, GPS’ere, løbesko og sundhedsdevices på håndled af løbere, apparaterne registrerer forandringer, monitorerer vigtige ting i omgivelserne og sender efterfølgende målingerne et relevant sted hen. Som kort beskrevet i indledningen til denne artikel og dybere fremlagt i bogen Media Connectivity (Kabel, 2019) er Danmark et af de mest gennemdigitaliserede samfund i verden. Urbaniseringen kører, og stedets betydning som definerende kontekst er stigende – kommercielt og redaktionelt. I en del internationale metropoler og i store og mellemstore byer overalt i verden, også i København og Aarhus, er den første fase af den digitale infrastruktur ved at være på plads. I hvert tilfælde som testopstillinger til fri afbenyttelse for virksomheder, innovatører, offentlige forskningsinstitutioner som universiteter og professionshøjskoler og myndigheder. Den for borgerne helt afgørende teknologi er fortsat smartphonen og håndholdte tablets og lap tops samt 4G-mobilteknologi. ”De på nuværende tidspunkt mest modne byrumsteknologier er Wi-Fi, små og store interaktive skærme i offentlige rum samt forskellige sensorer, kameraer, mikrofoner og målere/trackers. De er nu placeret udendørs og indendørs i betydeligt antal og tilbyder en form for 1. generations-infrastruktur for urban kommunikation”. (Kabel: 139).
15
Som et element i det høje niveau af digitalisering i Danmark er der i de to største byer, Aarhus og København skabt nogle områder, hvor den digitale infrastruktur er udviklet særligt højt. Det samme er sket i en række andre europæiske byer. I København hedder området Copenhagen Street Lab, det er et urbant testområde bestående af Rådhuspladsen, H.C. Andersens Boulevard med 60.000 biler i døgnet, Vester Voldgade, der er trafiksaneret til fordel for cyklister og fodgængere samt Christians Brygge med BLOX. Copenhagen Street Lab er et sted, hvor industripartnere og offentlige institutioner som universiteter kan afprøve nye teknologier. Man ser hvilke data, der frembringes, hvilke værdier og problemer de skaber, og derefter besluttes det, om teknologierne kan/skal rulles ud over byen. ”Ud over kommunikationsteknologierne Wi-Fi og et Narrowband-IoT-netværk, der benytter eksisterende udstyr fra TDC’s mobilnetværk til at modtage og videresende data, har man sat en række bevægelsessensorer op i bylaboratoriet. Sensorerne er en moden smart city-teknologi, og formålet er at måle cyklisters og fodgængeres antal, fart og adfærd (Kabel: 108). I Aarhus hedder test- og udviklingsområdet Aarhus City Lab. Det er et større areal fra Agro Food Park i Skejby til Dokk1 og den nye havneplads i centrum af byen. Området huser institutioner og erhvervsklynger som Aarhus Universitetshospital, Agro Food Park, IT-byen Katrinebjerg og Energi Hub Navitas. Aarhus har valgt en anden Internet of Things-løsning end København, I city lab’et og andre steder i byen er der etableret et: ”LoRaWan-netværk til transport af data fra IoT-enheder. Data i realtid kan via LoRaWan-systemet sendes til netværksservere, og derfra kan data routes videre til, hvor der er brug for den. I Aarhus C er der nu placeret sensorer, der måler lyset i lux, støjen, temperaturen og fugtigheden. I dette byrum monitoreres fysiske forhold via sensorer på fastangivne tidspunkter i en strøm af data, som er frit tilgængelige for alle” (Kabel: 80). Helt aktuelt er der nu rundt i Danmark udrullet fibernet, bredbånd og 4G mobiltelefoni. Stadigt flere steder kører digitale reklameposters, mediafacader og lysprojektioner. Som noget helt nyt har Aarhus Kommune i efteråret 2018 installeret en test-og udviklingsplatform for superpræcis positionering baseret på det europæiske gps-system, Galileo. Systemet leverer lokalisering med en præcision på helt ned til en kvadratcentimeter. Som ovenfor beskrevet er teknologierne i stort omfang på plads, teknologiudviklingen er foran, mens brugen af de nye mulighederne halter efter.
16
Foto 5 Kapsejladsbådene under VM i sejlads i Aarhus i august 2018 blev udrustet med sensorer, sendere og kameraer. De blev gjort til Internet og Things-ting og var udgangspunktet for den ’datadriven storytelling’, der løbende foregik under arrangementet. (Foto: World Sailing)
Hvad data bruges til Denne artikel har forsøgt at give bidrag til vidensudviklingen ved at identificere og beskrive fem for data og urbane datastrømme, som er råstof til nyheder og andre typer af redaktionelt indhold fra nyhedsmedier og borgerrettede kommunikationsafdelinger og virksomheder. De fem former er underbygget med eksempler dér, hvor det har været muligt at finde dem. Artiklen har også tilstræbt at underbygge det indledende postulat om, at der i de nye urbane datastrømme findes nogle uudnyttede ressourcer for medier og samfundsrettet kommunikation, som ligger klar til at blive taget i brug. Som research til bogen Media Connectivity opsøgte og interviewede undertegnede 18 redaktionelle og teknologiske nøglepersoner fra 13 medier, klassiske som nye, fra reklamevirksomheder, eventskabere og smart city-afdelinger i Danmark. Formålet var at belyse, hvad teknologierne og data rent faktisk blev brugt til i 2018. Det viste sig at være meget lidt. Bortset fra brugen af de interne brugerdata til individualisering og microblocking var der i 2018 meget få initiativer realiseret eller undervejs. Men interessen var udtalt, det var et klart resultat af den opsøgende research. En markant undtagelse fra dette mønster var den måde, hvorpå arrangørerne bag VM-stævnet i sejlads i Aarhus i august 2018 brugte connectivity-teknologi og data. Følgende beskrivelse er gengivet fra Media Connectivity: ” VM i de olympiske bådklasser blev formidlet live til tilskuerpladserne og til de byrum, hvor arrangørerne havde opstillet fem storskærme. Sejladserne blev mediedækket på et niveau, der ikke tidligere er set i den internationale sejlsport med talrige kameraer fra vandet og på kajen, med droner og en helikopter, med 2D og 3D grafik om hvad der skete, mens det skete. Med tre eksperter i et live-studie, der begejstrede forklarede hændelserne på vandet. Dækningen af VM i sejlads blev transmitteret til 59 tv-stationer og tv-netværk kloden rundt. Den blev også versioneret til et flow af indhold på YouTube, Facebook og andre sociale medieplatforme, til Virtual Reality og til ’data driven storytelling in real time’ på storskærme og informationsstandere i Aarhus Ø og på Havnepladsen i Aarhus C. Sejlsporten har altid haft det svært som tilskuersport, det har tidligere været umuligt for publikum til de store konkurrencer at følge med i, hvad der foregik, ikke mindst fordi sejladserne jo udspiller
17
sig langt ude på vandet, hvad der vanskeliggør overblikket for den enkelte. Det er der de seneste år rådet bod på, og redskaberne har været data og datastrømme i realtid, sensorer, gps-sendere og live-kameraer på sejlbådene, software til 2D og 3D visualiseringer, interaktive informationsstandere samt storskærme med god lyd”. ”Den for formidlingen så vigtige rådata om sejlbådenes placering og fart blev skabt via livetracking med gps-baserede ’tracking units’ fra firmaet TracTrac. Hver båd blev udstyret med en sensor/tracker, som sendte lokaliseret data i realtid under alle konkurrencerne. SAP Sailing leverede i Aarhus den bearbejdning af de gps-baserede oplysninger, de dataanalyser og datavisualiseringer, de interaktive informationsstandere og den app til mobile enheder, der var en vigtig del af fundamentet under dækningen af konkurrencerne på vandet. Softwaret, der styrende det hele, hedder SAP Sailing Analytics. I en Cloud-baseret løsning samler Sailing Analytics i realtid sensor-baseret data ind fra bådene, og kombinerer det med datastrømme om vind og vejr og med banernes layout, bådenes nationalitet, sejlernes navne. Med et software kaldet SAP HANA foregår der en ”Real-time in-memory data processing”, datastrømmene analyseres og visualiseres og overføres til alle interessenter: Sejlere og deres trænere, til arrangørerne af sejladserne, til publikum via storskærme og til medierne. Softwarets analyser tilbyder aktuelle stillinger og forskydninger, beskrivelser af den valgte sejltaktik i konkurrencerne m.m. Alle interesserede kan få gratis live adgang til fakta og analyser via informationsstandere og en Saling Analytics app. “Et afgørende element for at kunne opnå forståelse og oplevelse var den 2D og 3D grafik, der løbende blev produceret og distribueret til medier og publikum. Grafikken var visualiseringer, der viste bådenes nationaliteter, farten, de indbyrdes placeringer, de aktuelle stillinger, hvorhen bådene skulle sejle undervejs, og hvor mållinjen lå. Disse oplysninger blev automatisk kombineret med den seneste data om vindens styrke og retning. 2D og 3D grafikkerne blev hyppigt redigeret ind i tv-transmissionerne og tilbød sammen med tvekspertkommentarer publikum i Aarhus og globalt det overblik, som de ellers havde svært ved at skaffe sig”. Endnu en komponent i den komplekse digitale produktionskæde stod et andet firma for: ”SailTracks leverede og administrerede de ”on board-cameras”, som de fire førende sejlbåde inden medaljesejladserne blev udstyret med. Teknologien var så simpel som fire iPhone 6 S mobiltelefoner, der blev monteret i beslag på bådene, og de leverede i realtid en strøm af nærbilleder, skumsprøjt og sejlere i dramatiske øjeblikke. Også disse billeder blev hyppigt redigeret ind i tv-transmissioner og i det indholdsflow, der blev vist på storskærmene i Aarhus”. (Kabel: 80-81) ”De århusianske arrangører, Aarhus Events og Sailing Aarhus, indsamlede en anden type af data under det store sportsstævne. I et tæt samarbejde med TDC blev publikums bevægelser tracket via SIM-kortene i mobiltelefonerne. Det blev gjort anonymiseret og for både danske og udenlandske mobiltelefoner. På den måde kunne arrangørerne få detaljerede beskrivelser af, hvordan publikum, deltagere og frivillige bevægede sig rundt på havnen og i sejlsportscentret. Hvor var der trængsel, hvornår? Hvor kom tilskuerne fra? Hvor overnattede de? Eventchef Jørn Sønderkjær Christensen fra Kultur og Borgerservice, Aarhus Kommune, beskrev baggrunden for dataindsamlingen med følgende: ”Kommunen investerer massivt i et sådant arrangement og er naturligvis interesseret i at vide, hvad der kommer ud af det. Også kommercielt. Vi troede, vi kunne få
18
resultaterne i realtid fra TDC, så vi for eksempel kunne planlægge placering af affaldskurve under stævnet, men det var ikke muligt” ”Vi betragter nu den slags data som en guldgruppe. Sådanne data kan hjælpe med til at afdække, hvad et sådant arrangement gør ved byen”. (Kabel: 83) VM-arrangørerne gjorde i Aarhus kapsejladsbådene til en Internet of Things-ting ved at udstyre dem med den nødvendige digitale teknologi. Datastrømmene fra bådene blev via relevant software og visualisering gjort til et overbevisende eksempel på datadrevet historiefortælling.
Teknologisk kvantespring Researchen til denne artikel har illustreret, at der i disse år er et stigende fokus på brugen af brugerdata til øget versionering, individualisering og lokalisering, til stedfæstelse. Fremadrettet udviklingsarbejde er i gang i flere nyhedsmediehuse. Mængden af data i alle de fem beskrevne datatyper stiger nu eksplosivt. Datastrømmene i den digitale infrastruktur i byerne kører og vil blive mangedoblet i de kommende år. Et gps-system til centimeterpræcis lokalisering er etableret som testteknologi i eksempelvis Aarhus. Brugen af data og datastrømme til nyhedsdækning i realtid af vigtige samfundsforhold i byerne vil overvejende sandsynligt stige markant. Vi vil allerede i 2020 se en opstilling af meget kraftig 5G mobilteknologi rundt i landet. Vi vil opleve en markant forøgelse af antallet af Internet of Things-genstande og køretøjer med sendere og modtagere samt en intensiveret brug af kunstig intelligens, maskinlæring og automatisering til mange typer af indhold fra nyhedsmedier og samfundsrettede kommunikationsafdelinger. Et nyt råstof til redaktionel produktion er under udvikling. Forude venter et teknologisk kvantespring. Indledningsvist opstillede denne artikel et postulat og en tese om, at bits og bytes med betydelig nyhedsværdi nu findes i form af data og urbane datastrømme, og at nyhedsdækningen og journalistikken om samfundet i stigende omfang vil kunne baseres på en inddragelse af disse data og datastrømme. Et nyt mulighedsrum er ved at åbne sig for nyhedsmedier og borgerrettet samfundskommunikation. Men researchen til bogen Media Connectivity og denne artikel viste, at aktørerne i Danmark kun i meget begrænset omfang er gået i gang med at udnytte disse muligheder, disse kilder og dette råstof. I Media Connectivity opstillede undertegnede afslutningsvist 12 anbefalinger til handling i forhold til at være mere aktive og værdiskabende i mulighedsrummet (Kabel: 147-148). De følgende anbefalinger er særligt relevante for denne artikels hovedsigte: • ”Gør det selv, både som virksomhed, redaktion og professionel. Dataficeringen derude er nu så gennemgribende, at alle bør styrke sig i den” • ”Sæt dig tidligt ind i det kommende teknologiske kvantespring med 5G-mobiltelefoni, Internet of Things og kunstig intelligens. Opbyg parathed til at være værdifuld i forandringerne”. • ”Flyt indholdet ud i byernes rum og mellemrum, derude, hvor stadigt flere af borgerne lever en stadigt større del af deres liv i arbejde og fest. Lad sted og indhold smelte sammen”. • ”Data er råstof for noget andet. Den gode historie er stadigvæk essentiel. Find først historien i data. Tænk stedets betydning ind, udtænk produkterne, skab dem, og sæt dem i flow”.
19
Litteratur Berlingske (4/1 2019): Overblik: Så vidtrækkende er hvidvaskskandalen i Danske Bank. Artikel Dansk Journalistforbund (2019): Kommunikationsfagenes fremtid. Udfordringer og muligheder for kommunikatører i Danmark. Delrapport 3 Drotner, Kirsten og Sara Mosberg Iversen (red) (2017): Digitale metoder. At skabe, analysere og dele data. Samfundslitteratur Journalisten (21/3 2019): Fire danske projekter deler 7,7 mio. fra Google-fond. Artikel Journalisten (4/4 2019): Google-penge har ført til længere læsetid på Herning Folkeblad. Artikel Jensen, Jakob Linaa (2019): News criteria on social media. Comparing news media use of Facebook and Twitter. Journalistica nr. 1, 2019 Kabel, Lars (2019): Media Connectivity. Urban teknologi, data, journalistik og reklame I den digitale by. Forlaget Ajour Kabel, Lars (red) (2009): Nyheder i nutid. Forlaget Ajour. Léchenet, Alexander (2014): Global Database Investigations: The role of the computer-assisted reporter. Reuters Institute Fellowship Paper, University of Oxford Wikipedia om Panama Papirerne, Wikileaks m.m.