Danske forskere om digital metodebevissthet

Det å forstå overgangen fra analoge til digitale medier må være den mest påtrengende utfordring vi har i dagens medieforskning. Utfordringen rammer oss alle – enten vi arbeider med nye eller gamle medier. For uavhengig av deres alder foreligger mediene i stadig større grad lagret i digitale formater. I Nasjonalbiblioteket har det i mange år foregått et digitaliseringsarbeid med virkelig store dimensjoner: Målet er å digitalisere alt innhold som er produsert i Norge, før og nå − uansett medium. Hver eneste dag arbeider hundrevis av digitaliseringsoperatører for å realisere dette målet. Allerede nå har Nasjonalbiblioteket nådd langt i dette arbeidet; stadig mer pressemateriale blir tilgjengelig i digitalisert form – sammen med foto, film, radio, TV og internett. Samtidig er det de digitale mediene som vokser mest ute i samfunnet.

Så sterk er denne veksten siden 1990-tallet at mange nå bruker ordet «digital» som nøkkelbegrep for å forklare medieutviklingen i vår tid. Alle som arbeider med medieforskning, trenger derfor å reflektere over hva denne brede digitaliseringen egentlig betyr og hvilke utfordringer den reiser. Dette gjelder ikke minst i spørsmål om metode. Vi trenger derfor bøker om digitale forskningsmetoder, og det er nettopp det Kirsten Drotner og Sara Mosberg Iversen nå har gitt oss: en innføringsbok som retter seg til studenter og forskere som for første gang vil ta i bruk digitale metoder.

Digitale metoder er en bok på i alt 234 sider. Den springer ut av et produktivt dansk forskermiljø. Boken inneholder 11 kapitler, fra i alt 14 forskere. Drotner og Iversen har delt boken inn i tre bolker. Den første delen handler om å skape data, den andre om å analysere data og tredje del om formidling. De digitale verktøyene står i sentrum i alle tre deler.

Det digitale feltet som mål eller middel

I innledningen – som er svært lesverdig – presenterer Drotner og Iversen bokens idé. I sin egen undervisning og veiledning har de selv savnet en slik bok. Man merker straks at redaktørene skriver enkelt og presist: Dette er for nykommere. Leseren skal inkluderes, ikke ekskluderes. De innrømmer rett og slett at «De færreste av oss ved, hvordan vi kan bruge digitale teknologier til at få adgang til og undersøge de astronomiske mængder af data, som digitaliseringen medfører» (s. 12). De skriver derfor at hensikten med boken er å redusere gapet mellom våre digitale aktiviteter og innsikten i disse.

Redaktørene begynner med å skille mellom det digitale felt som mål eller middel: Er det det digitale feltet i seg selv man vil analysere, eller er det et middel til å analysere noe annet? Digitale redskaper blir i begge tilfeller et redskap for å forstå digitale eller ikke-digitale fenomener. Hensikten er altså å gi en grunnleggende innføring i noen av de metodespørsmål som da reiser seg. Med henvisning til Niels Brügger deler de digitale data (eller digitalt materiale) inn i tre typer: digitalisert materiale, dvs. tidligere analoge data, som nå er digitalisert, født digitalt materiale, som aldri har eksistert i noen annen form, og gjenfødt digitalt materiale, dvs. fødte digitale data, som er blitt endret ved å bli samlet inn og lagret. Hver form har konsekvenser og legger føringer på hvordan materialet kan analyseres. Når det for eksempel gjelder historiske bilder som er digitalisert, vil mye avhenge av hvordan de er blitt kategorisert av de medfølgende metadata: De er mer enn et nøytralt vedheng. Tvert om; metadata bidrar i seg selv til å kategorisere og strukturere det aktuelle materialet. Derfor er det viktig å forholde seg aktivt til slike meta-data: Hvem har produsert dem, på hvilke måte kategoriserer de stoffet, og med hvilke motiver er det gjort?

Herfra er veien kort til digital humanities. De to redaktørene minner om at digital humanities ikke er noe som plutselig har oppstått i de senere år, men faktisk har en lang faghistorie, helt siden 1960-tallet. Men det digitale skiftet vi nå opplever, innebærer at etablerte metoder blir utfordret. Et eksempel er når klassisk historisk metode blir anvendt på et tidligere analogt medieinnhold som nå er blitt digitalisert. Drotner og Iversen ser feltet som «løbende evolusjon snarere end en plutselig revolution» (s. 19). Det de vil unngå, er det Bruno Latour har kalt «blackboxing», dvs. at metodene – her de digitale – nærmest blir som en svart boks som ingen kjenner innholdet av. En boks med indre mekanismer som ingen egentlig diskuterer, men som kan levere imponerende analyser av et datamateriale. Fortsatt er det digitale feltet nokså ungt når det gjelder sammenhengende forståelse og analyse, skriver redaktørene. Og enten vi taler om en digital vending, en digital tidsalder eller bruker andre betegnelser, er feltet svært komplisert og i stadig forandring. Fremfor å løpe etter de seneste trender og bobler, forsøker redaktørene å samle noen holdbare analytiske redskaper mellom bokens to permer.

Metoder for innsamling av digitale data

Bokens første del – om å skape data − åpner med et kapittel av Ditte Laursen, Niels Brügger og Kjetil Sandvik. De diskuterer ulike metoder man kan ta i bruk for å samle inn internettmateriale og hvilke effekter de har på den etterfølgende analysen. De bruker Facebook som eksempel. De tre forskerne viser, på en veldig tydelig måte, at ulike arkiveringsmåter av Facebook-sider får store konsekvenser for hvilke analyser man siden kan foreta. Facebook-forskning er, skriver de, preget av at objektet ikke finnes tilgjengelig i stabil form, slik det er i annen forskning. I stedet forandrer objektet seg kontinuerlig. Spørsmålet blir derfor hvordan man kan lagre mediets innhold. Dermed kommer selve arkiveringsformen i sentrum. En slik metodediskusjon finner de lite av i dagens Facebook-forskning.

Selv stiller de opp fire forskjellige arkiveringsmetoder: stillbilde (skjermdump), skjermfilming, API-innsamling (basert på nettstedets egen Application Programming Interface) og webhøsting, hvor hele nettstedet lagres i full søkbar form, med alle aktive links osv. Den første metoden er den enkleste, og den siste den mest kompliserte. Forskerne bruker så disse på et konkret eksempel: bruken av Facebook i forbindelse med talentprogrammet Voice i det danske TV 2. Forskerne anvender så hver av de fire arkiveringsmetodene på Facebook i løpet av denne sendingen. Slik får de tydelig frem hvilke forskjeller det er mellom de ulike metodene: En skjermdump er nyttig hvis man vil studere en enkelt nettside, en skjermfilming kan dokumentere en sekvens med levende opptak, mens API-innsamling eller web-høsting fanger inn mange flere data. Hver metode gir både en begrenset og privilegert tilgang til de originale data og har både fordeler og ulemper. Arkiveringsteknikkene kan derfor sees som ulike typer linser. De tre forskerne gir oss en interessant konklusjon: «Alt efter hvilken linse vi anvender, vil det, vi kigger på, tage form efter linsens type» (s. 45). Slik viser de hvordan selve arkiveringsverktøyet ikke er et nøytralt fenomen, men bidrar til å forme hvilke kunnskaper man kan få ut av analysen. Det er derfor lett å forstå at redaktørene har plassert denne artikkelen først, for den illustrerer veldig godt bokens formål: betydningen av å reflektere over de digitale metodenes egenart.

I bokens andre artikkel følger Vitus Vestergaard opp med en mer inngående diskusjon av bruken av API-er som metode for datainnsamling fra sosiale nettverksplattformer (som er bokens betegnelse på sosiale medier). Han peker på at API-baserte studier ofte er preget av blackboxing, dvs at API-en blir som Latours svarte kasse: Man putter inn sin forespørsel i den ene enden og får ut et svar i den andre, mens det er uklart hva som egentlig har foregått inni kassen (s. 60). Vestergaards artikkel oppfordrer derfor leseren til å være bevisst og reflektert hvis de vil bruke et nettsteds API for å samle inn data. Nybegynnere bør prøve seg frem og lære seg API-ens funksjonalitet gjennom pilot-studier før de begynner på selve forskningen. Hvis man velger å skape data via API-innsamling, er det viktig at man forstår hvilke data man får ut når man trykker på knappen, minner han om.

I det tredje kapitlet diskuterer Helle Strandgaard Jensen digitale arkiver som medskapere i ny historieskrivning. Her handler det om historikerens møte med et digitalt lagret materiale. Hun legger til grunn at et digitalt arkivs brukergrensesnitt, oppbygning og innhold har avgjørende betydning for kildeinnsamlingen og derfor må betraktes som aktive medskapere i historieskrivningsprosessen. Jensens hovedanliggende er kildemateriale som i første omgang har inngått i et analogt arkiv, men som siden er blitt gjort digitalt. Hva betyr egentlig en slik digitalisering for måten man skriver historie på, spør hun. Hvilke typer historieskrivning legger det enkelte digitale arkiv opp til, og hvilke blir mindre opplagte?

Hvis vi tenker over den enorme innsatsen som arkiver, biblioteker og museer har gjort de siste tiårene for å gjøre sine samlinger digitalt tilgjengelig for alle, er det lett å se at Helle Strandgaard Jensen her reiser grunnleggende spørsmål som er blitt påtrengende i vår tid. Hun starter med å peke på at det finnes en indre kontinuitet i diskusjonene om arkiver og historieskrivning, slik at mye av det som gjelder for analoge arkiver, også gjelder for de digitale. Men samtidig skaper digitaliseringen også helt nye problemstillinger, som fortsatt er lite diskutert i fagmiljøene. Ett eksempel er at utbredelsen av datamaskiner har utvidet arkivbegrepet, for maskinens hukommelse fungerer i praksis som et arkiv.

Jensen henviser til en omfattende faglitteratur som handler om hvordan arkiver kategoriserer og strukturerer fortiden og dermed legger premisser for hvordan fortiden blir fortolket. Arkivering innebærer alltid sortering og utvelgelse. Det betyr at de som utfører dette arbeidet, har makt til å forme brukernes oppfatning av materialet. Fortsatt mangler vi forskning på historikernes bruk av digitale arkiver, skriver Jensen, og peker på at historikere har vanskelig med å beskrive sitt arbeid med digitale arkiver. Behovet for å diskutere historisk metode anvendt på digitale arkiver, er altså stort. Jensen betrakter med andre ord arkiver som aktive medskapere av historie: De avspeiler hva man mente var av historisk verdi for ettertiden. Prinsippene for bevaring ble ofte ikke skrevet ned. I dette perspektivet blir arkivdanning en maktprosess der arkivskaperne tar makten over forholdet mellom historie og erindring. Dette gjelder for alle typer arkiver.

Hva betyr det så når et analogt arkiv blir digitalisert? Jensen peker på at et digitalt arkiv ofte er ordnet etter andre kriterier enn arkivskaperens. Hun er særlig opptatt av digitale arkiver med materiale som tidligere har vært analogt, men som nå er blitt digitalisert og gjort tilgjengelig online. For å strukturere sin diskusjon skiller Jensen mellom arkivets sender, dets innhold og selve bruken av det, i tråd med den klassiske kommunikasjonsmodellens sondering mellom sender, budskap og mottaker. For hver av dem stiller hun opp en rekke spørsmål: Hvem har opprettet arkivet, og med hvilke motiver? Hva er bevart og hvordan er innholdet klassifisert? Hvilke «historier» legger arkivets innretning og søkemuligheter opp til? Osv.

Som eksempel velger hun blant annet nettstedet Bonanza, som er et programarkiv utlagt på Danmarks Radios offisielle nettside. Så bruker Jensen hele det spørsmålsbatteriet hun nettopp har lansert. Hun spør hvem som har skapt dette nettstedet og hvorfor? Hvordan er egentlig programmene valgt ut? Hun svarer slik: For DR betyr dets rolle som offentlig kringkaster at institusjonen er avhengig av popularitet hos et stort publikum. Derfor er det de mest folkekjære programmene DR har lagt ut, dvs. den mest konsensskapende delen av DR. Slik blir Bonanza en del av DRs image-bygging. Nettarkivet kultiverer en historie som er fordelaktig for DR i dets nåværende posisjon, skriver hun. Slik viser hun at et digitalt arkiv ikke er et nøytralt fenomen, men et system som legger føringer på bruken. Det betyr at alle som har tenkt til å bruke digitale nettarkiver fra institusjoner som DR eller NRK, må utøve digital kildekritikk. Forskerne må forstå med hvilke formål det digitale arkivet er skapt og hvordan sammensetningen av det påvirker de data man kan få ut av det. Når de tar slike arkiver i bruk, må de altså beholde sin kritiske sans og sin evne til refleksjon, skriver Jensen.

I bokens fjerde kapittel diskuterer Anders Koed Madsen forholdet mellom algoritmisk automatisering og fagfolkenes intuisjon. En algoritme kan regne ut hvor mange ganger et søkeord går igjen på en nettside, upåvirket av fagfolkenes viten. Noen mener derfor at vi nå kan droppe teoriene, fordi vi kan bruke automatiske metoder. Madsen advarer mot en slik holdning. Han mener at enhver analyse som trekker inn algoritmer, også vil måtte balansere sin tilnærming til feltets fagkunnskap. Samtidig er det slik at automatiserte fremgangsmåter godt kan konstrueres slik at de kan få frem kunnskaper som overrasker fagfolkene, slik han gir et tydelig eksempel på. Han konkluderer med at enhver som bruker digitale metoder, vil støte på slike balanseutfordringer som en naturlig del av den analytiske prosessen. Så det å foreta slike avveininger bør bli en sentral del av den digitale metodekompetanse i fremtiden, skriver han.

Å analysere digitalt innhold

Bokens andre del inneholder fire kapitler som diskuterer det å analysere digitalt innhold. I kapittel fem diskuterer Jakob Linaa utfordringer og muligheter ved å undersøke og sammenlikne Facebook og Twitter. De kan begge høstes, kopieres og analysers, men er arkitektonisk sett fundamentalt forskjellige, skriver han. Mens Twitter lenge har hatt en åpen API, bruker Facebook en lukket kildekode. Derfor bruker man ofte skjermdump i Facebook-studier, mens det samtidig har blitt en opphopning av Twitter-forskning. Forskningen styres av det som er mulig fremfor det som er mest interessant, mener han. Sammenliknet med de foregående kapitlene er dette kanskje noe mer uforløst. Det er litt uklart hvor Linaa egentlig vil, selv om han oppsummerer sine poenger i en avsluttende tabell.

I kapittel 6 diskuterer Christian Kobbernagel hvordan Google Analytics kan brukes som analyseverktøy i strategisk kommunikasjonsplanlegging. Google Analytics hadde i 2014 en markedsandel på 80 prosent og er altså blitt svært utbredt. Likevel er det viktig, skriver han, å forholde seg kritisk til hvordan Google Analytics definerer data og sine operasjoner, og dermed på hvilke grunnlag dette verktøyet leverer og viser resultater. Kobbernagel bruker web-analyse som metode. Hans mål er å forbedre nettsteder, slik at de understøtter virksomhetens formål. Her legges det en markedsføringstankegang til grunn. Som de andre forfatterne i boken minner Kobbernagel om at man ikke bør gå rett til analyseverktøyet. Man må begynne med å spørre hva en slik måling skal si noe om, hvordan den henger sammen med organisasjonens målsetning, forretningsgrunnlaget osv. Webanalyse er for ham analyse av trafikkmønstrene; hvilke mønstre som oppstår utfra brukernens klikk på linker osv. Han viser at det er relativt enkelt å montere en sporingskode på nettsidene som ønskes målt, og at man derfra kan gå i gang med datainnsamling, organisering og rapportering. Han avslutter med en metodisk verktøykasse med nyttige tips for den som vil bruke Google Analytics for første gang.

I kapittel 7 skriver Sara Mosberg Iversen om computerstøttet kvalitativ koding i forhold til skriftlig empirisk materiale. Kvalitativ koding er omdiskutert, og bruk av software har gitt ytterligere anledning til debatt, skriver hun. Helt på linje med de andre forfatterne i boken peker Iversen på at det ikke er slik at kvalitativ koding automatisk kaster erkjennelser av seg, hvis man bare følger prosedyren korrekt. Det er derfor det trengs metodediskusjon. Selv bruker hun computer assisted qualitative data analysis (CAQDAS), i form av verktøyet NVivo. Først i de aller senere år er dette blitt akseptert, skriver hun. Det er flott å se at Iversen stiller ubehagelig kritiske spørsmål til hele metoden. For eksempel spør hun om kvalitativ koding kan føre til økt fokus på mengde og hyppighet, til manglende forståelse av konteksten og om det fører til ensretting og forflatning av den kvalitative analysen. Hun peker selv på at det er en fare for at denne teknikken kan medføre en innebygd reduksjonisme, det vil si en forenklet tilgang til det kvalitative materialets rikholdighet og kontekstavhengighet. Først etter å ha diskutert dette kommer hun til metodens fordeler. NVivo kan for eksempel skape ordskyer som viser de ord som forekommer hyppigst i et kvalitativt materiale. Hun minner om at man koder for å analysere og få innsikt, ikke fordi koding er et mål i seg selv. Et verktøy som NVivo er ingen snarvei til erkjennelse, skriver hun, og påpeker på at det bør være forskningsproblemet som er styrende for analyseprosessen og ikke de innebygde logikkene som ligger i softwarens design og funksjonalitet.

I kapittel 8 diskuterer Anders Stig Christensen hvordan man kan analysere et brukergenerert innhold av sammensatt karakter. Temaet hans er hvordan man kan analysere brukernes kommunikasjon på sosiale nettverksplattformer, etter hvert som det delte materialet i stadig større grad består av tekst, stillbilder, film, lyd og andre uttrykksmidler. Hans løsning på hvordan man kan analysere hele spekteret av virkemidler – samtidig – er det han kaller «multimodal transkripsjon» ved bruk av verktøyet NVivo.

Formidling og problematisering av digitale metoder

Bokens tredje del handler om formidling og består av tre kapitler. I kapittel 9 diskuterer Anette Grønning etiske dilemmaer og utfordringer ved å forske på et sensitivt medieinnhold i digital form. Og hennes eksempelmateriale er virkelig sensitivt: fosterscanningsbilder delt på Facebook. Dette er kanskje bokens mest tankevekkende artikkel. Hvordan skal en forsker forholde seg til at en gravid kvinne selv legger ut fosterbilder under svangerskapet? Det ekstremt private blir dermed offentlig. Det oppstår en slags gråsone mellom det private og det offentlige – og hvordan skal man forske på det? Hun mener at den enkelte forsker må vurdere dette fra sak til sak. Selv fulgte hun kvinnens fosterscanningsbilder under hele svangerskapet og helt frem til fødselen. Så tok hun kontakt med kvinnen. Hun velger å anonymisere informanten og bruker kun et modellbilde av et foster, som er kjent fra før. Anette Grønning er altså svært tilbakeholdende. Hun spør seg også hva som er i barnets interesse, etter hvert som det vokser opp. Artikkelen tar opp det å få barn i vår digitale tid og er altså svært viktig. Det er prisverdig at hun er så reflektert og praktiserer en slik etisk gjennomtenkt tilbakeholdenhet, etter min mening.

I det tiende kapitlet diskuterer Lisbeth Frølunde forskningsformidling i form av det hun kaller «akademisk video». Videoformatet har hittil vært lite meritterende som publiseringskanal for forskere, skriver hun, selv om tidsskriftet Audiovisual Thinking siden 2010 har forsøkt å skape et fagfellebedømt tidsskrift som er videobasert. Den enkelte forsker har her, ifølge Frølunde, valget mellom tre mulige roller: formidleren, historiefortelleren og dialogpartneren. Så gir hun eksempler på alle tre. Ett av dem er den kjente svenske statistikeren Hans Rosling og hans måte å formidle sin kunnskap på, i en slags akademisk videoform. Hans bidrag på TED Talks blir en performance, en levende dramatisk iscenesettelse der Rosling fremstår som engasjert og ønsker å endre publikums holdninger. Boken avsluttes med et kapittel der Sigurd Trolle Gronemann diskuterer bruken av digitale designprosesser i utviklingen av museumsutstillinger, med to konkrete eksempler fra Danmark.

Vi kan nå tydelig se hva de elleve artiklene har felles: Ingen av dem tar digitale metoder for gitt. Faktisk er det slik at forfatterne problematiserer dem i langt større grad enn man kanskje skulle tro. Her er ingen naiv metode-optimisme blendet av all hypen om «the digital era». Hver artikkel peker på at man ikke bruke digitale metoder. Det er alltid selve problemstillingen som må danne utgangspunktet. Det har ingen verdi å ta i bruk digitale metoder bare for å gjøre det, skriver de fleste bidragsyterne. Det er bare hvis digitale metoder er hensiktsmessige for det man ønsker å undersøke, at de har sin relevans. For å hjelpe nybegynneren videre på denne veien, avsluttes hver artikkel med en huskeliste over bevisstgjørende spørsmål.

Bokens grunnleggende idé er altså at digitale metoder ikke er nøytrale verktøy, men at de har betydning i seg selv. De kan lett komme til å legge føringer på det man vil undersøke. Dermed kan de influere direkte på hvilke data forskerne skaper. Bidragsyterne stiller seg dermed på linje med Bruno Latour i hans kritikk av det han kaller «blackboxing». Hvilken verdi har imponerende og flotte dataskapte oversikter fra f.eks. ulike nettsteders API-er, hvis man ikke kjenner mekanismene inni, slik at man egentlig ikke vet hva slags data man har fått ut av maskinen?

Alt i alt er det prisverdig at Kirsten Drotner og Sara Mosberg Iversen har tatt initiativet til denne boken. Det er grunn til å tro at Digitale metoder vil bli mye lest og brukt – i hele Norden – etter hvert som den blir kjent.