Innledning

Jeg er blitt oppmerksom på Jan Fredrik Hovden og Hallvard Moes artikkel «Automatiserte versus selvrapporterte publikumspraksiser. Metodiske utfordringer ved tv-metere og spørreundersøkelser», i NMT 01/2018. Artikkelen tar opp temaer jeg også har vært opptatt av, i NRK på 1980-tallet da vi foretok en kraftig opptrapping av de intervjubaserte publikumsundersøkelsene; i MMI (nå IPSOS) på 1990-tallet da vi foretok omleggingen til elektronisk måling av fjernsynsseing (Norsk TV-meterpanel). Jeg forlot imidlertid dette fagfeltet ved årtusenskiftet etter å ha satt opp nok et tv-meterpanel, i Berlin. Derfor tok det tid før jeg oppdaget artikkelen.

Hovden og Moe – heretter H&M – hevder det har oppstått behov for «kritisk vurdering» av metodene «for å måle og forklare endringene i publikums bruk», og har som ambisjon å innlede «en metodedebatt som er tiltrengt» blant medieforskere og mediepolitikere. De trengende har neppe uttrykt dette behovet. Det som får H&M til å hevde at de trenger den, later til å være en artikkel av Markus Prior (2009) i Public Opinion Quarterly, «The Immensely Inflated News Audience: Assessing Bias in Self-Reported News Exposure». Prior trakk den konklusjonen etter å ha sammenlignet amerikanske spørreundersøkelser med tv-meterpanelet til Nielsen Media Research. Artikkelen inspirerte H&M til å sammenligne SSBs intervjubaserte mediebruksundersøkelse Norsk mediebarometer med tv-meterpanelet til Kantar TNS. Resultatet er det som rapporteres i NMT 01/2018.

H&M sprer i tittelen, undertittelen og introduksjonen til artikkelen sin behovet for kritisk vurdering ut over tre problemstillinger.

Tittelen varsler at to måter å måle publikumsatferd vil bli sammenlignet: automatisering og selvrapportering. H&M har ikke som ambisjon å finne ut hvilken målemetode som er best, for de besitter ikke «en sikker målestokk». Fasit er innholdsvaliditet, nærhet til sannheten. Med den utilgjengelig er de opptatt av metodenes kriterievaliditet, graden av resultatsamsvar. Dette er deres første problemstilling.

Undertittelen antyder en annen problemstilling: å undersøke metodenes sterke og svake sider. Avgjørende for det er deres innholdsvaliditet. Resultatsamsvar kan bety at de er like fjernt fra sannheten, men antas gjerne å bekrefte at de er like nær den.

Introduksjonen antyder en tredje problemstilling: Er resultatene fra undersøkelsene tillitvekkende og anvendbare for resepsjonsforskning? Det uttalte målet er å generalisere på grunnlag av dem, men p.t. er det i Norge ingen undersøkelser å generalisere til.

H&M sammenligner undersøkelsene med hverandre. Det er et godt metodevalg forutsatt at de måler det samme. H&M tar for gitt at undersøkelsene er to måter å løse resepsjonsforskningens gåte:

Hva er å «se på» tv? Er det nok å være eksponert for innholdet, eller krever seingen også en grad av oppmerksomhet og innlevelse? Hvilken rolle spiller programgenre her? Og hvordan varierer slike vurderinger mellom ulike sosiale grupper og i en mediehverdag i sterk endring?

H&M kan ikke nok om publikumsundersøkelser til å vite at tilsynelatende samme metode kan anvendes forskjellig, med den konsekvens at det som blir undersøkt, heller ikke er det samme. Dette er tilfelle for undersøkelsene de undersøker. Som en konsekvens av det, mangler H&Ms undersøkelse definisjonsvaliditet. De måler ikke det de tror, og trekker feilaktige slutninger. Fatal er deres manglende forståelse av at automatisering og selvrapportering med nødvendighet måler ulike fenomener (der skorter det på tenkningen), og deres manglende kjennskap til at det gjør også Kantars tv-meterundersøkelse og SSBs mediebruksundersøkelse, om enn ikke med samme nødvendighet (der skorter det på lesingen). H&M gjør en verdifull oppdagelse, men oppdager den ikke selv fordi de tror at de måler noe annet. Jeg kaller det en columbiansk misforståelse.

Problemene melder seg allerede i artikkelens hovedtittel. Ingen av undersøkelsene de sammenligner, representerer det de kaller automatiserte publikumspraksiser.

Automatisering vs. selvrapportering

Teksten som etterfølger hovedtittelen, viser at det er tv-meterundersøkelsen som skal representere den automatiserte målingen av publikumsatferd. H&M opplyser korrekt hva som registreres i en tv-meterundersøkelse, men tar ikke inn over seg hva det medfører: at tv-meterundersøkelse ikke er automatisert måling av publikumsatferd. Det som måles automatisk, er om tv-apparatet er av eller på, i så fall på hvilken kanal, hvor lenge. H&M har dekning for at det måles om tv-apparatet «brukes», men ikke for at det måles automatisk hvilken kanal det «ses på». Apparatet kan være slått på uten å bli sett på. Eksempelvis kan det være slått på for å narre tyver til å tro at noen er hjemme og ser tv. Den automatiske målingen gjør ikke annet enn å registrere tilstanden i tv-apparatet.

Publikumsatferd blir i en tv-meterundersøkelse målt ved selvrapportering. Opprinnelig ble det ført dagbøker på papir parallelt med den automatiske apparatregistreringen. Dagboken ble så erstattet med en fjernkontroll som kommuniserer elektronisk med tv-meteret. Fjernkontrollen benyttes av panelmedlemmene til å rapportere sin publikumsatferd ved å registrere og avregistrere seg. Hvert panelmedlem har sin personknapp, og i tillegg er det gjerne mulig for gjester å registrere seg, som proxy for panelmedlemmenes umålte gjesteseing hjemme hos andre. Det som er blitt målt, har dermed vært seing på tradisjonelle tv-apparater i private hjem. Etter hvert er det utviklet elektroniske metoder for måling av seing annetsteds også, samt metoder for måling av seing på andre monitorer enn tradisjonelle tv-apparater, og for integrering av disse målingene i tv-meterundersøkelsen. Automatikk sørger deretter for at resultatene foreligger dagen derpå.

Både Prior og H&M er klar over dette (Jf. Prior, 2009, s. 131). Likevel skriver Prior feilaktig at han undersøker nøyaktigheten av selv-rapportering ved å sammenligne «survey estimates to Nielsen estimates, which do not rely on self-reports» (s. 130). H&M skriver at seingen i et tv-meterpanel «vanligvis» blir målt ved «en form for selvrapportering». Likevel fastholder de at «meterdata baserer seg ikke på selvrapportering, i hvert fall ikke i tradisjonell forstand». Dermed kan de, som Prior, gjøre krav på å sammenligne selvrapportering i spørreundersøkelser med automatisert rapportering i tv-meterpaneler. De følger Prior ukritisk, og går glipp av forskjellen mellom automatisert og selvrapportert måling. Hadde de i stedet stilt seg kritiske til Prior, kunne de korrigert hans feiltakelse.

Metoden for selvrapportering i SSBs Norsk mediebarometer, er uhjulpet erindring (Jf. H&Ms kilde, Holmøy, 2014). Dette skiller mediebarometeret fra intervjubaserte seerundersøkelser, der metoden er hjulpet erindring. SSB laget det for NRK fra 1967 til 1989, først ved besøk, så over telefon, som også var innsamlingsmetoden da MMI overtok og undersøkelsesfrekvensen ble økt, flere enn NRK kom inn som oppdragsgivere, hvorpå intervjumetoden ble erstattet med Norsk TV-meterpanel.

Verken Prior eller H&M sammenligner automatisering med selvrapportering. Begge sammenligner to metoder for selvrapportering, elektronisk mens sendingene pågår og muntlig som svar på spørsmål om seing for 1–3 dager siden (H&M oppgir feilaktig at det i Norsk mediebarometer bare spørres om «i går»). SSB fikk i 1998 en indikasjon om konsekvensene av uhjulpet erindring. Norsk mediebarometer målte da lavere seing enn i andre undersøkelser. Dette og det økte fjernsynstilbudet siden undersøkelsen startet, førte til mistanke om at bare ett spørsmål om fjernsynsbruk 1–3 dager i forveien kunne forårsake underrapportering. Mistanken ble bekreftet av en test der SSB delte døgnet inn i perioder, spurte et testutvalg om seing i hver periode og sammenlignet resultatet med et kontrollutvalg som fikk ett spørsmål om hele døgnet som før (Kleven & Vaage, 2001). Testmetoden ga mye høyere seertall, og ble innført i 1999. Spørsmål om seing i døgnperioder var et lite skritt i retning av hjulpet erindring.

Når SSB ikke måler seingen mer nøyaktig, er det fordi Norsk mediebarometer ikke er en seerundersøkelse, men en multimedieundersøkelse som dertil hvert fjerde år utvides til Norsk kulturbarometer. Dette setter grenser for hva det er relevant å sammenligne og for hvor detaljert det kan spørres om hver type tilbud.

At publikumsatferd måles ved selvrapportering, gjelder tv-meterundersøkelsene som H&M og Prior omtaler, der tv-metere koples til stasjonære tv-apparater i private hjem. Det gjelder ikke tv-meterundersøkelser der bærbare tv-metere, Portable People Meters (PPM), koples til hvert panelmedlem. Med PPM måles publikumsatferden automatisk. I så måte gir PPM grunnlag for å sammenligne automatiserte tv-metermålinger med selvrapporterte spørreundersøkelser. At Kantar har brukt PPM til å måle radiobruk siden 2007 og utomhus tv-bruk siden 2014, og at begge medier måles i Norsk mediebarometer, skulle fordoble mulighetene for å sammenligne.

For at sammenligning skal være meningsfylt, må imidlertid to kriterier være oppfylte: Metodene må måle samme kringkastingstilbud og de samme publikumsegenskaper.

Kantars PPM og Norsk mediebarometer måler ikke samme kringkastingstilbud. PPM måler bare tilbud som sender ut identifikasjonssignaler for PPM til å fange opp. Norsk mediebarometer har ingen slike begrensninger. Radiobruk måles med PPM bare for riksdekkende sendinger. I Norsk mediebarometer måles radiolytting for riks- og lokalradio samlet. Når det gjelder tv, nytter Kantar PPM bare til å måle utomhus bruk. I Norsk mediebarometer måles tv-seing utomhus og innomhus samlet.

Kantars PPM og SSBs Norsk mediebarometer måler heller ikke de samme publikumsegenskaper. PPM måler bare om publikum blir fysisk eksponert for tilbudet. Kantar avgjør hva som er lytting og seing. Norsk mediebarometer måler bare hva publikum kan huske å ha psykisk absorbert av det de har vært eksponert for. Respondenten avgjør hva hun regner for lytting og seing.

Måling av eksponering omfatter alt en har psykisk absorbert – og alt en ikke har absorbert. Det er umulig å vite hvor mye av eksponeringen som også er absorbert. Selvrapportering som i Norsk mediebarometer, omfatter bare det absorberte. Siden all absorbsjon er inkludert i målingen av eksponering, men ikke all eksponering nødvendigvis inkludert i målingen av absorbsjon, vil automatiske målinger kunne omfatte mer enn det som måles ved selvrapportering. At all eksponering alltid skal bli absorbert av alle, er teoretisk mulig, men empirisk usannsynlig.

Automatiske PPM måler eksponering for lyd også når utomhus tv-seing søkes målt. Lydeksponering er for øret til å fange opp. Lyd som blir hørt, behøver ikke bli lyttet til. Lytting foregår i hjernen, ikke i øret. Signalene som identifiserer de deltakende stasjoner og kanaler, er det ikke mulig å høre heller. Likevel kan PPM fange dem opp, og en vil bli registrert som radiolytter og tv-seer uten å ha hørt eller sett noe. Dertil har PPM den svakhet at avlesning av den bærbare måleren krever en atferd som ikke avkreves populasjonen (Jf. Rolland, 1998).

Eliminering av alle svakheter vil imidlertid ikke endre den kjensgjerning at automatiserte PPM og selvrapporterte Norsk mediebarometer måler forskjellige fenomener. Derfor er det meningsløst å sammenligne dem for å finne ut hvem som er nærmest sannheten (innholdsvaliditet), og om de måler samme sannhet likt eller forskjellig (kriterievaliditet). De måler ulike sannheter. Måling av samsvar mellom dem gir bare mening dersom formålet er å finne ut i hvilken grad deres sannheter konvergerer, om det som har vært hørbart, også er blitt lyttet til.

Det følger at Priors prosjekt, å bruke automatisering som fasit for selvrapportering, var meningsløst. Det han mente å bruke som fasit, måler noe annet enn selvrapportering. Prior reddes et stykke på vei av at han uten å vite det, sammenlignet to former for selvrapportering. Det gjorde ikke H&M, som fulgte i hans fotspor. Prior overså imidlertid at selvrapporteringen i spørreundersøkelser gjelder seing hvor som helst, mens den i tv-meterundersøkelsen er avgrenset til private hjem. Han tok for gitt at undersøkelsene burde gi samme resultat, og trodde følgelig feilaktig at mer seing ifølge spørreundersøkelsen måtte skyldes feil ved selvrapportering som metode.

Tv-meterpanel vs. intervjuundersøkelse

H&M sammenligner Norsk mediebarometer med Kantars stasjonære tv-meterpanel. De oppgir tv-metermetodens og dermed Kantars instruks for selvrapportering av seing til å være som følger:

Det tredje nivået i målingene, hvem som ser på, registreres gjennom egne fjernkontroller, med en knapp per medlem i husstanden som skal trykkes på når medlemmet begynner å se tv, og trykkes av når vedkommende slutter eller forlater rommet.

Dette er ikke hva Kantar skriver i sin prosjektmanual, som H&M har lenke til i artikkelen sin. Der oppgis følgende instruks for selvrapportering av seing:

Registrering av TV-seing blant husstandens medlemmer skjer ved hjelp av en egen fjernkontroll. Alle husstandens medlemmer som er to år eller eldre får sin egen knapp på fjernkontrollen og skal registrere seg som seere dersom de er tilstede i et rom hvor visningsenheten er i bruk.

Det H&M beskriver, er instruksen til Norsk TV-meterpanel og til Nielsens amerikanske tv-meterpanel («household members indicate the beginning and end of their viewing by pushing a button»; Prior, 2009, s. 131). Deres seerdefinisjon var og er «declare oneself as viewer» («viewing»). Selvrapporteringen er kognitiv (erkjennelsen av å se). Kantars stasjonære tv-meterpanel anvender seerdefinisjonen «presence in the room with the tv set on» («presence»). Det er Kantar som bestemmer at tilstedeværelse er lik seing.

Ved «viewing» er «presence» nødvendig for å kunne erklære seg som seer. Ved «presence» er «presence» tilstrekkelig til å bli erklært som seer. Det var en svær internasjonal debatt om de to definisjoner da jeg var aktiv i faget, og jeg bidro med to artikler (Rolland, 1997a, c).

At det er «presence» som selvrapportes i Kantars stasjonære tv-meterpanel, innebærer at de stasjonære og portable tv-metrene måler det samme: mulighet for å se tv. De to panelers resultater kan rapporteres under ett.

Når «viewing» er instruksen til panelmedlemmene, måler også tv-meterpaneler og spørreundersøkelser de samme publikumsegenskaper. Det er meningsfylt å sammenligne undersøkelsene ut fra indikatorer for kriterievaliditet og innholdsvaliditet. For at resultatene skal kunne bli like, må imidlertid også spørreundersøkelsene avgrenses til seing i private hjem. Med «presence» som instruks, måler tv-meterpaneler og spørreundersøkelser forskjellige publikumsegenskaper, potensiell eksponering og faktisk absorpsjon. Det er meningsløst å sammenligne dem ut fra indikatorer for kriterievaliditet og innholdsvaliditet. Som er det H&M gjør. Derimot er det meningsfylt å sammenligne tv-meterundersøkelser med «viewing» og «presence» for å finne ut hvor stor forskjell det er mellom resultatene. På Worldwide Audience Research Symposium i Toronto i 1992 ble det diskutert å teste dette i forbindelse med etableringen av Norsk TV-meterpanel, men mangel på tid og finansiering gjorde det umulig å følge opp.

H&M kjenner åpenbart ikke til «presence» og er skeptiske til «viewing», som de heller ikke vet hvordan måles i tv-meterpaneler. Således ser de det som en svakhet ved spørreundersøkelser, som nødvendigvis måler «viewing», at det overlates til respondentene å avgjøre om de «egentlig» ser på tv, og svakheten forstørres i tv-meterpaneler, der de feilaktig tror det er observatører blant panelmedlemmene som avgjør om andre ser på tv. Eksempelvis tror de at ungdom sjeldnere blir registrert som seere fordi de voksne «ikke vurderer ungdommen i samme rom som ‘egentlige’ seere». Med «viewing» avgjør imidlertid alle panelmedlemmer selv om de ser på tv. De kan vurdere det subjektivt forskjellig, og det kan være objektivt forskjellig: de som er gode til å multitaske, vil kunne ha utbytte av seing parallelt med aktiviteter som andre lar seg distrahere av. Med «presence» som instruks vil det være feil av de voksne å ikke-registrere ungdom ut fra den vurdering at de ikke «egentlig» er seere, idet det er tilstrekkelig at de er til stede. Det er også fordelaktig at de registreres av voksne, for er ungdommene til stede for å gjøre annet enn se på tv, krever instruksen at de først undersøker om tv-apparatet står på. Dette er påvist å forårsake «viewing» som ikke gjenfinnes i universet der ingen har slik instruks, med den konsekvens at deres «presence» blir lengre enn den ellers ville blitt. Jeg diskuterer problemet i NMT 1/97.

Ønsker H&M å sammenligne tv-meterpanel og spørreundersøkelse som metoder for å gjennomføre seerundersøkelser, trenger de en spørreundersøkelse som er en seerundersøkelse samt et tv-meterpanel som måler «viewing». Det ønsket lar seg ikke oppfylle i Norge i dag. Men på 1990-tallet lot det seg oppfylle. Heldigvis for H&M ble det også oppfylt. Det skjedde i 1993. Som nevnt, ble Norsk TV-meterpanel etablert som en metodeendring av den pågående intervjubaserte seerundersøkelsen. Alle som var med på skiftet, var nysgjerrige på hva det medførte, og i uke 17/93 ble dette undersøkt ved å gjennomføre den gamle intervjuundersøkelsen parallelt med tv-meterundersøkelsen. For uke 17/93 foreligger det dermed to undersøkelser med så godt som alle forutsetninger for å produsere de samme resultater. Selv det forhold at intervjumetoden også målte utomhus seing, var mindre viktig da. Undersøkelsen ble rapportert i MMIs tidsskrift (Rolland, 1993) og senere presentert for nordiske medieforskere i Nordicom-Information (Rolland, 1997b). I sistnevnte artikkel blir det også kommentert en svensk parallellundersøkelse gjennomført kort etter den norske. Hovedinntrykket fra disse undersøkelser er det samme: at de største forskjellene mellom resultatene forårsakes av at tv-metermetoden registrerer seing som er lite viktig for publikum og derfor lett å glemme i et intervju.

Kantars tv-meterpanel vs. SSBs mediebarometer

De norske og svenske parallellundersøkelsene i 1993 vil interessere de som er opptatt av problemstillingen H&M presenterer i undertittelen på artikkelen sin. Artikkelens introduksjon antyder imidlertid at H&M ikke bare er opptatt av å generalisere, men også av hva som er de undersøkte undersøkelsenes kvaliteter per se. Fordelingen av positiv og negativ omtale gjør det klart at de foretrekker SSBs undersøkelse. Således skriver de at «undersøkelsenes historier og formål» er ulike. «Tv-meter-undersøkelsen er innrettet for å gi et oppdatert bilde av bruken her og nå». Kantar er «grunnleggende pragmatisk» og nøler ikke «med å justere metoden fra ett år til et annet». Norsk mediebarometer derimot, «er statisk og prinsippfast», har prioritert hensynet til «stabilitet og mulighet for komparasjon over tid», noe som medfører at undersøkelsens «verdi ligger særlig i den lange tidsserien». Etter å ha sammenlignet datasettene for perioden 2000-2014, konkluderer H&M «at tv-meterdata kan brukes, med forsiktighet, til å antyde mønster og trender i ulike gruppers tv-bruk, og slik berike, men ikke erstatte den tradisjonelle surveyforskningen i studier av folks faktiske tv-bruk». De konkluderer motsatt av sin ledestjerne Prior, som anså tv-meterdata for surveyforskningens fasit.

Det H&M skriver om undersøkelsenes ulike formål, er ikke troverdig. Begge undersøkelser har til formål å produsere data for praktisk anvendelse av den komparative vitenskapen statistikk. Sammenlignbarhet begrenses i tid av metodeendringer, i rom av metodeforskjeller. Det er ønskelig å unngå begge begrensninger. For tv-meterundersøkelser, hvis brukere ofte er internasjonale aktører, er det viktig at resultatene er sammenlignbare i tid på tvers av landegrenser. Internasjonal harmonisering av målemetodene var derfor et stort tema da jeg var aktiv i faget, og årsak til ønsket om å få undersøkt effekten av å måle «presence» eller «viewing». Et resultat er rapporten EBU mfl. (1993). Men metodisk konservatisme av hensyn til sammenlignbarheten er ikke ønskelig når nye metoder gir bedre resultater, jf. forbedringen av Norsk mediebarometer i 1999, og når nye metoder gjør det mulig å måle hva en tidligere visste at fantes, men ikke fikk målt, som utomhus seing.

Det H&M skriver om undersøkelsenes praksis, er heller ikke riktig. Norsk mediebarometer ble etablert og tv-metermetoden introdusert omtrent samtidig, i 1991 og 1992. Rundt årtusenskiftet gjennomgikk begge store endringer. Først ute var Norsk mediebarometer, som med endringen i 1999 avsannet H&Ms påstand at Norsk mediebarometers «verdi ligger særlig i den lange tidsserien». Ifølge SSB selv hadde endringen den konsekvens «at tidsbrukstallene for disse to mediene fra og med 1999 ikke er sammenlignbare med tidligere år» (Vaage, 2017b, s. 97). Tv-metermetoden er blitt endret flere ganger etter at Kantar overtok. To tidlige endringer var forårsaket av endrede brukerpreferanser. Således ble måling av «viewing» erstattet med måling av «presence» i 2000, og tidsforskjøvet seing inkludert i rapporteringen fra 2008. Brukerne kunne valgt de samme løsninger for Norsk TV-meterpanel. To senere endringer var forårsaket av at det ble teknisk mulig å inkorporere nye måter å se tv i undersøkelsen (utomhus seing i 2014, online seing i 2018). Med inkluderingen av online seing ble Kantar først i verden til å integrere alle skjermer og plattformer alle steder i én og samme undersøkelse, og på det grunnlag gi Total Screen Rating (TSR). I samsvar med det kalles undersøkelsen nå TVOV – TV & Online Video undersøkelsen (Stavn & Futsæter, 2018).

Den endrede definisjonen av en seer i 2000 fikk ikke H&M med seg. Men de fikk med seg at daværende TNS Gallup foretok andre endringer da de overtok tv-meterkontrakten, og fremhever én av dem, at Gallup utvidet undersøkelsen til å omfatte seing på alle tv-apparater i husstanden, ikke bare hovedapparatet, som var alt MMI målte. Den opplysningen har de formodentlig fra Medienorge, som inntil nylig presenterte endringene i 2000 slik. Opplysningen var ny for meg, som var faglig ansvarlig for Norsk TV-meterpanel, da jeg ble oppmerksom på den i november 2017. Medførte den riktighet, var det feil hva jeg skrev i Nordicom-Information i 1997, at MMI koplet tv-metere «til hvert av husstandens tv-apparater og videospillere» (Rolland, 1997b, s. 63). Men det var ikke nødvendigvis feil hva jeg skrev i NMT samme år, at måleteknologien hadde kapasitet til åtte tv-apparater og åtte videospillere per husstand (Rolland, 1997a, s. 158), for det kunne jo være at MMI stakk i lommen det tv-selskapene betalte for å få målt seingen på alle mottakerapparater. Medførte Medienorges opplysninger riktighet, svindlet MMI især sine kommersielle oppdragsgivere, som ikke bare fikk for lite målinger, men også for lite seere å selge til annonsørene.

Men det var Medienorge som tok feil. Da jeg ble oppmerksom på det, tok jeg kontakt og utba meg en forklaring. Nina Bjørnstad måtte ta dette fra hukommelsen, men oppga i e-post til meg 19.1.2018 at kildene sannsynligvis var Gallup og NRK, og at foranledningen var de klart økte seertallene for unge seere i 2001. «Dette ble forklart med at MMI ikke målte seing på biapparater – og dermed ikke på TV-er på tenåringsrommene». Gallup (Kantar) visste neppe hva MMI målte. Det visste derimot NRK. Jeg konkluderer at det var NRK som førte Medienorge bak lyset, og med dem alle brukere av Medienorges tv-statistikk, blant dem H&M. Hvorfor NRK feilinformerte, vites ikke, men en nærliggende forklaring er ønsket om å kamuflere den reelle grunnen til skifte av operatørselskap. Mens den offisielle grunnen var et legitimt behov for å få målt seingen på alle tv-apparater, var den reelle grunnen at NRK ville erstatte «viewing» med «presence» for å få høyere seertall.

En columbiansk misforståelse

Kantar kaller de tilstedeværende for seere, tilstedeværelsen for tv-seing, tallene for offisielle seertall, og omtaler TVOV som «verdens mest komplette seerundersøkelse» (Stavn & Futsæter, 2018). De har støtte for det i en veletablert konvensjon. «Presence» rettferdiggjøres ved at det er bedre å ta med for mange enn for få i seerbegrepet. «Viewing» rettferdiggjøres ved at det er bedre å ta med for få enn for mange. I 1993 fordelte europeiske tv-meterpaneler seg med ni som målte «presence», ni som målte «viewing», og tre som målte «presence» med mulig «viewing» (EBU, 1993; jf. Rolland, 1997a, s. 162).

H&M sammenligner mediebarometerets «viewing» og tv-meterpanelets «presence» på en gjennomsnittsdag hvert av årene 2000–2014. De konstaterer nivåforskjeller, men også at kurvene er nokså like. I den tro at begge undersøkelser måler «viewing», tolker de det som positivt for deres kriterievaliditet. At «presence» og «viewing» følger hverandre, er imidlertid heller ikke overraskende.

På nivå av programkategorier sammenligner H&M hva hevdes å være mediebarometerets og tv-meterpanelets måling av menns og kvinners seing på sport, drama og nyheter. Der gjør de interessante funn. For sport er mediebarometerets og tv-meterundersøkelsens tall for menn nesten identiske. De forskjellene som forekommer, synes forklarlige ut fra forskjellene i omfanget av undersøkte sportssendinger, samtlige av årets sendinger i tv-meterundersøkelsen, et skjønnsmessig utvalg i mediebarometeret. Tallene for menn er så like at en skulle tro det ikke forekom «presence» uten «viewing» i panelet. I panelet er tallene bare litt lavere for kvinner enn for menn. I mediebarometeret derimot, er tallene for kvinner svært mye lavere. For drama er forholdet tilnærmet motsatt. Der er det tallene for kvinner som er nesten identiske i mediebarometeret og tv-meterpanelet. Menn derimot, ser ifølge tv-meterpanelet omtrent like mye drama som det begge undersøkelser måler at kvinnene gjør, men ifølge mediebarometeret klart mindre drama enn det kvinnene gjør. Forskjellen er dog mindre enn for kvinner og sport.

H&M undres hvordan det er mulig, og tror de undersøkte jukser. For mediebarometeret tenker de seg at mennene underrapporterer sin seing på drama fordi de anser den seingen for «noe litt flaut». For tv-meterundersøkelsen tenker de seg at «kanskje menn oftere styrer fjernkontrollen under sportssendinger og kvinnene under dramasendingene, og at de begge tenderer til å registrere sin samboer (og barn) som mer aktive seere enn disse selv føler de er».

H&M er inne på noe, men villedes av at de tror tv-meterpanelet måler «viewing». Det som med stor sannsynlighet blir avdekket, er forskjellen mellom «presence» og «viewing». I mediebarometeret oppgir kvinnene hva de etter egen oppfatning har sett av sport. I tv-meterpanelet registrerer de seg som sportsseere når de er til stede i rommet mens mennene ser sport. De kan ha blitt registrert av mennene også, men det er fordi de har glemt å registrere seg, ikke fordi mennene jukser.

For drama undres H&M om menn misforstår hva som menes, men her kan flere undres, for drama er ikke en kategori i mediebarometerets spørreskjema. Det indikerer at H&M laget den selv. SSB-kategorier som kan tenkes å bli slått sammen til «drama», er (i) fjernsynsteater eller teateroverføringer, (j) ballett, opera, operette, musikal, (k) spillefilm, fjernsynsfilm og (l) tv-serie. Programmene det dreier seg om, har innhold lik det som måles i Norsk kulturbarometer. Det har i alle år vist at kvinner er mest interesserte i kultur (jf. f.eks. Vaage, 2017a). Dette gjelder særlig scenekunst, kategoriene (i) og (j). Kulturbarometeret har også i alle år vist at menn er mest interesserte i sport. Kino derimot, har lik tiltrekningskraft på kjønnene (Vaage, 2017, s. 82, 13). Heller enn at mediebarometerets mannlige respondenter bevisst underrapporterer sin dramaseing, er det grunn til å tro at menn i tv-meterpanelet korrekt registrerer sin «presence» når kvinnene ser drama, men ville ikke gått med på at den ble kalt «viewing» om de var blitt spurt, hvilket er nettopp hva Kantar kaller deres tilstedeværelse. Mindre avstand mellom kjønnene for drama enn for sport, kan tenkes å skyldes kjønnenes felles interesse for film og serier, kategoriene (k) og (l).

Fordi H&M ikke har fått med seg forskjellen mellom «presence» og «viewing», gjør de seg skyldige i en columbiansk misforståelse. Columbus trodde han var kommet til India da han oppdaget Amerika. H&M trodde de påviste forskjeller i treffsikkerheten til SSBs Norsk mediebarometer og Kantars tv-meterundersøkelse da de påviste forskjellen mellom «viewing» og «presence». Det kom mye ut av at Columbus oppdaget Amerika. Det kan komme mye ut av at H&M oppdaget forskjellen mellom «presence» og «viewing» også, men det krever at deres oppdagelse blir forstått.

For den tredje programkategorien H&M sammenligner, nyheter, måler mediebarometeret konsekvent høyere tall enn tv-meterundersøkelsen. Her spiller igjen forskjellen mellom å måle bare innomhus og også utomhus inn. Prior fant at «spørreundersøkelsesdata systematisk overrapporterte bruken av nyheter med en faktor på tre i forhold til meterdatamålingene». H&M tror dette skyldes at det i USA gir sosial gevinst å skryte på seg nyhetsseing. Det vil imidlertid ikke forundre om svarene både i Norge og USA påvirkes av at nyheter er det lett å etablere vaner for. I en intervjuundersøkelse som spør respondentene om de så fjernsyn mellom kl. 19 og 22 for 1–3 dager siden, for senere å spørre om hvilke programkategorier de kan ha sett i løpet av dagen, hvorav mange kan virke ukjente, vil respondentene kunne svare ut fra sine vaner og glemme at dagen det spørres om, var et unntak fra regelen om å se Dagsrevyen.

H&M tror at de sammenligner en tv-meterundersøkelse med en spørreundersøkelse som måler det samme, men gjør det ikke. De sammenligner «viewing» i en spørreundersøkelse med «presence» i en tv-meterundersøkelse. Ved å utvide Priors undersøkelse med drama og sport, og fordele de undersøkte etter kjønn, viser de imidlertid at det kan være mulig å bruke «viewing» i en spørreundersøkelse til å anslå forskjellen mellom «presence» og «viewing» i en tv-meterundersøkelse. Uten å vite det, har de funnet en måte å måle det som var hensikten med testen diskutert i Toronto i 1992, tilstrekkelig presist til å kunne etablere kunnskap om programtyper og publikumsgrupper der «presence» og «viewing» omfatter omtrent det samme, og der «presence» omfatter vesentlig mer. Hadde H&M skjønt hva de fant, kunne de høstet anerkjennelse for metodisk kreativitet. Som det ble, bekreftet de bare at flaks er viktig for suksess (jf. Kahneman, 2012). Det var flaks at H&M utvidet med sport og drama, og delte inn i kvinner og menn. Det ga de som vet hva H&M sammenligner, informasjon som ikke Priors «nyheter» brakte frem.

Avslutning

Ingen tall fra H&Ms sammenligninger vil la seg gjenfinne i rapporteringen fra de to undersøkelsene. Dette fordi H&M benytter seg av uvektede tall, mens begge undersøkelser rapporteres etter vekting av utvalgene. H&M begrunner sitt valg med at det «gjør det enklere å identifisere grunnleggende forskjeller i anslagene». Sammenligningen av «presence» og «viewing» kunne likevel profitert på bruken av tall som eliminerte den feilkilden at uvektet var begge utvalg skjeve i forhold til sine populasjoner.

H&M er skeptiske til vekting, og hevder at det blåser opp skjevheter. Formålet med vekting er naturligvis det motsatte, å eliminere skjevheter. Men H&M har et poeng. Hvis vektingen ikke tar hensyn til faktorer som fører til over/underrepresentasjon av de som ser mye/lite, vil det være utilstrekkelig å sikre riktig fordeling etter kjønn, alder, utdanning, osv., for selv om seingen varierer også slike grupper imellom, vil det systematisk være lettest å rekruttere de som ser mye i forhold til gjennomsnittet for sin gruppe. Når det så generaliseres fra det vektede utvalget til populasjonen, vil utvalget «blåse opp» denne skjevheten. Utvalget ser mer tv enn populasjonen.

H&M vil vite mer om vektingen, og fortjener å få det. Således er det kjent at frafallet i spørreundersøkelser fører til underrepresentasjon av personer som er lite hjemme. Effekten er at undersøkelsene vil overrapportere aktivitet som i all hovedsak foregår i hjemmet, hvilket er tilfelle for tv-seingen selv i plattformfragmenteringens tidsalder. Jeg finner ikke dokumentert hva SSB gjør for å motvirke at det økende frafallet i Norsk mediebarometer fører til økende underrepresentasjon av de som ser lite på tv. Likeså er det kjent at interessen for tv-seing påvirker viljen til å delta i tv-meterpaneler. Jeg finner ikke i Gallup/Kantars prosjektmanual informasjon om at det blir tatt hensyn til dette ved vektingen av deres panel. Slik vekting ble ikke foretatt i det sveitsiske Telecontrol-systemet som MMI benyttet heller, men jeg fikk den innført da jeg satte opp et Telecontrol-panel i Berlin. Trolig fordi dette var nytt der i gården, ble dette særskilt berømmet i evalueringsrapporten som ble utarbeidet ved universitetene i Zürich og Stuttgart-Hohenheim i 1999.

Telecontrol ble opprinnelig utviklet for den sveitsiske allmennkringkasteren SRG SSR på initiativ av deres egen forskningssjef, men ble kjøpt av tyske GfK i 2001, og ble i 2013 droppet selv av SRG SSR til fordel for Kantar med den begrunnelse at systemet hadde sakket akterut i utviklingen av teknologi for å måle plattformfragmenteringen (Moser, 2012). Det var derfor forutseende – eller flaks – å tildele daværende TNS Gallup kontrakten i 1999. Prisen for å kunne innføre måleenheten TSR, er imidlertid at det bare er muligheten for å se tv som lar seg måle. De som er interesserte i tilegnelsen av det mulige, er henvist til de ufullstendige anslagene i Norsk mediebarometer. At det kan være stor avstand mellom mulig og faktisk seing, har H&M sannsynliggjort ved å sammenligne «presence» med «viewing» uten å vite at det var det de gjorde.

Vi har sett H&M presentere resepsjonsforskningens hovedproblem som følger: «Hva er å ‘se på’ tv? Er det nok å være eksponert for innholdet [presence], eller krever seingen også en grad av oppmerksomhet og innlevelse [viewing]?». Problemstillingen er verken empirisk eller teoretisk, men normativ: hva ønsker en å vite. For annonsørene er det avgjort nyttig å få målt den ubevisste eksponeringen for deres reklamebudskap, da den kan være tilstrekkelig til å påvirke forbrukeratferd. Ubevissthet kan til og med være fordelaktig, for bevisst tilegnelse av reklamebudskap kan lede til motforestillinger mot dem. Mer overraskende er at NRK foretrekker å få målt sin evne til å influere de uoppmerksomt forsvarsløse. Forskjellen mellom å betjene demokratiet og betjene markedet (Lund, 1996) skulle ellers tilsi at reklamefrie allmennkringkastere ville insistert på å få målt aktiv «viewing», og at bare kommersielle kringkastere så nytteverdi ved å måle passiv «presence».

H&Ms skepsis til «viewing» indikerer at de foretrekker «presence». Når de likevel anbefaler spørreundersøkelser, er det blant annet fordi de tror at alle tv-meterpaneler måler «viewing» de også, og det enda mindre betryggende, via observatører i panelet. H&M ville trolig anbefalt TNS Kantars tv-meterpanel, dersom de visste at det måler «presence». Men det visste de ikke. Det er bare detaljer H&M ikke vet, men små tuer velter store lass. De gjør artikkelen deres uegnet som utgangspunkt for den tiltrengte metodedebatten.

Referanser

EBU; ACT; EAAA; EGTA; EMRO; GEAR; WFA. (1993). Towards harmonization of television audience meaurement systems. Geneve: European Broadcasting Union.

Hovden, J. F., & Moe, H. (2018). Automatiserte versus selvrapporterte publikumspraksiser? Metodiske utfordringer med tv-metere og spørreundersøkelser. Norsk medietidsskrift, 25(1), 1–30.

Kahneman, D. (2012). Thinking, fast and slow. London: Penguin.

Kleven, Ø., & Vaage, O. F. (2001). Medieundersøkelsen 1999. Dokumentasjonsrapport. Oslo og Kongsvinger: Statistisk sentralbyrå.

Lund, S. (1996). Hva er public service kringkasting og hvordan kan det måles? I O. Hultén, H. Søndergaard, & U. Carlsson (Red.), Nordisk forskning om public service. Radio och TV i allmänhetens tjänst (s. 213–223). Göteborg: Nordicom.

Moser, H. (2012, 27 12). Telecontrol verschwindet. Journal 21.ch. Hentet fra Journal21.ch https://www.journal21.ch/telecontrol-verschwindet

Prior, M. (2009). The Immensely Inflated News Audience: Assessing Bias in Self-Reported News Exposure. Public Opinion Quarterly, 73(1), 130–143. doi: https://doi.org/10.1093/poq/nfp002

Rolland, A. (1993). Fra intervju til tv-meterpanel. Hva skjedde med seertallene? Meninger og markeder, 1(3), 18–23.

Rolland, A. (1997a). Måling av fjernsynsseing. Norsk medietidsskrift, 4(1), 153–172.

Rolland, A. (1997b). Norsk TV-meterpanel. Kontrolltiltak og resultater. Nordicom-Information(2–3), 63–69.

Rolland, A. (1997c). Television viewing and programme appreciation. Marketing and Research Today , 25(2), 63–69.

Rolland, A. (1998). Radio Research: A Close up on the PPM. Admap, 33(2), 47–48.

Stavn, G., & Futsæter, K. A. (2018, 5 4). TVOV: Verdens mest komplette seerundersøkelse. Hentet 4 2, 2019 fra Kantar: https://kantar.no/kantar-tns-innsikt/tvov-verdens-mest-komplette-seerundersokelse/

Vaage, O. F. (2017a). Norsk kulturbarometer 2016. Oslo og Kongsvinger: Statistisk sentralbyrå.

Vaage, O. F. (2017b). Norsk mediebarometer 2016. Oslo og Kongsvinger: Statistisk sentralbyrå.