På kort tid har strømmetjenester som Spotify blitt til en av kulturens ledende musikkdistributører, som i samspill med konkurrerende tjenester og ny teknologi gradvis forandrer hvordan vi interagerer med og presenteres for musikk. I tillegg til tradisjonell, redaksjonell anbefaling (hvor profesjonelle redaksjoner velger ut og løfter fram bestemte artister og låter), drives disse plattformene algoritmisk – hvor matematiske formler, underbygget av store mengder data og statistikk, evner å gjenkjenne og identifisere relevant innhold overfor tjenestens brukere, gjerne synliggjort gjennom ulike typer offentlige og personlige anbefalingslister eller lignende.

Vår kulturs forståelse av hvordan disse systemene egentlig virker, blir imidlertid ofte kritisert for å være noe begrenset (f.eks. Finn 2017; Bogost 2016). Dette diagnostiserer medieforsker Christine T. Wolf (2016) som publikums «mangelfulle refleksjoner» rundt de prosesser som gjør manifestasjonene av våre kulturelle valg mulige: Vi oppleves generelt ubevisste på hvordan algoritmisk manipulering kan påvirke og forme kultur (Wolf 2016). Med utgangspunkt i denne idéen, hvor algoritmiske, kommersielle tjenester også forstås som hemmeligholdte og utilgjengelige svarte bokser, etterspørres nå flere algoritmiske lesninger (Finn 2017) av strømmetjenester: undersøkelser som søker å tolke både hvordan algoritmer i strømmetjenester (og beslektede plattformer) virker, hvordan de manifesterer seg ute i kulturen, og – ikke minst – hvilke intensjoner, verdier og føringer som potensielt kan ligge bak deres fasade (Finn 2017, s. 58).

Med en teknologisk utviklingshastighet som ofte overskrider tradisjonelle forskningsprosesser (som gjerne er langvarige og tilbakeskuende), kan imidlertid de få grundige og dyptgående studiene som gjøres av algoritmiske systemer, fort ende opp med å bli irrelevante eller utdaterte. Fordi statistikk rundt lytterdata og algoritmenes spesifikke funksjoner også (mer eller mindre bevisst) hemmeligholdes (gjerne som beskyttede businesshemmeligheter), svekkes den vitenskapelige innsikten i hvordan systemene kuraterer sitt innhold (Kjus 2016; Snickars 2017; Diakopoulos 2014; Lievrouw 2012; Pasquale 2011; Karpf 2012). Riktignok frigjør tjenester som Spotify tidvis noe utvalgt informasjon (se for eksempel Lamere 2014), men fordi dette utelukkende foregår på deres egne premisser, sliter tjenestene med å opprettholde tillit overfor både musikkbransje, publikum og akademia. Gjennom ymse aktører fra spill- og hackerkulturer, eller fra dataingeniører, programmerere og tech-journalister, presenteres likevel ofte kyndige antakelser, eksperimenter eller undersøkelser av hvordan tjenestens algoritmer kan virke, på diverse blogger, nettsteder og forum (Snickars 2017; Bucher 2018). Uten krav til vitenskapelig dokumentasjon eller metodisk redegjørelse framstår på denne måten flere populærvitenskapelige kilder som de mest «fremoverlente» i feltet – hvor eksperimentering og entusiasme går foran som et eksempel vitenskapen kan ha potensial til å etterfølge: bl.a. gjennom det som metodisk kalles reverse engineering, hvor man først og fremst undersøker og leker med «de svarte boksenes» såkalte in- og output. Denne typen eksperimentell humaniora kommer vi tilbake til.

Med utgangspunkt i disse perspektivene søker denne teksten å drøfte hvordan man vitenskapelig kan nærme seg algoritmiske strømmetjenester. Den vil bl.a. undersøke hva vi kan lære av populærvitenskapelige kilder, hvordan disse kildene kan gi innsikt i hvordan skjulte, algoritmiske metoder fungerer, samt redegjøre for hvilke konsekvenser algoritmiske strømmetjenester potensielt kan påføre musikkulturen. Teksten tar utgangspunkt i spørsmål knyttet til musikkmangfold og spør hvordan algoritmer relaterer til aspekter som sjangervariasjon og kjønnsrepresentasjon. Artikkelen adresserer dermed følgende problemstilling: Hvordan kan vi vitenskapelig forstå og undersøke algoritmiske strømmetjenester?

Svarte bokser som sosial bekymring

Formålet med å studere mangfold i den algoritmiske musikkulturen kan knyttes til det medieviter Taina Bucher (2018) har omtalt som «algoritmer som sosial bekymring»: en økende interesse, spesielt etablert innenfor humanistisk og samfunnsvitenskapelig akademia, som behandler de etiske, politiske og sosiale konsekvenser digitale strukturer kan gi (s. 29). Som kritiske algoritmestudier (Gillespie & Seaver i Bucher 2018) er de slik mer opptatt av hva algoritmene gjør som en del av situerte praksiser, enn hva de er som tekniske objekter (s. 31) – der de undersøker hvilken påvirkning algoritmer kan ha på kulturen og samfunnet vårt. Distribusjonsplattformer som Spotify er således interessante gjennom sin makt til å determinere synlighet i musikkulturen. I en tid preget av informasjonsoverflod (Simon 1971) evner de å filtrere ut og løfte fram «relevant innhold» for sine brukere – og blir praktiske veiledere som befrir oss fra den mye omtalte «byrden ved å velge» (Neumann 1955): en sårt tiltrengt funksjon for de av oss som trenger hjelp til å navigere gjennom det enorme havet av musikk tjenestene tilbyr.

Det rettes imidlertid mye kritikk mot Spotifys (og andre tjenesters) kurateringsprosesser. Bl.a. finner forskere hvordan tjenestens algoritmiske design kumulativt virker til å forsterke spesifikt innholds popularitet (Maasø 2016). Her vises det bl.a. til hvordan et allerede høyt antall avspillinger vil øke en låts synlighet – og dermed ytterligere forsterke dens popularitet. På sikt kan vi slik ende opp med såkalte matteuseffekter hvor «de rike blir rikere og de fattige fattigere» (Salganik, Dodds & Watts 2008). Selv om dette er resultater av tilsynelatende demokratiske prosesser, hvor man enkelt måler hva slags musikk majoriteten av tjenestens brukerskare liker, frykter man at den algoritmiske effekten på musikkulturen kan skape konsentrasjon, ensretting og et mindre levedyktig klima for musikk som ikke er like «strømmevennlig» som annen (for eksempel ser man at musikk som ikke nødvendigvis frir til repetisjon, eller lengre låter som ikke kan spilles av like ofte som kortere låter, «taper» i et slikt system) (Mulligan 2014).

Totalt sett kan dette produsere et behov for flere vitenskapsbaserte undersøkelser av hvordan algoritmiske filtreringssystemer relaterer til aspekter som nettopp mangfold. Drar man inn flere kritiske algoritmestudier, som drøfter hvorvidt disse effektene kan være intenderte, blir spørsmålet rundt det påståtte hemmeligholdet mer interessant. Den svenske strømmeforskeren Pelle Snickars (2017) spekulerer eksempelvis i om mektige plateselskaper betaler for gode plasseringer i tjenestene, og slik sett indirekte påvirker strømmetall. Som flere andre, etterlyser han åpnere tjenester som gjennom å gi tilgang til «innsiden av de svarte boksene», kan stimulere til større vitenskapelig innsikt rundt algoritmiske kurateringsprosesser.

Det er imidlertid verdt å diskutere hvor formålstjenlig det er å fokusere på det hemmeligholdte og utilgjengelige. Fordi vi hver dag konfronteres med skjulte systemer og mekanismer, som ikke nødvendigvis ligger «åpen for inspeksjon», kan nettopp mangelen på transparens og hemmelighold heller sees som naturlige, hverdagslige fenomener: en gjeldende norm i vår verden, snarere enn som et hinder for bevissthet (Bucher 2018, s. 59−60). På denne måten argumenterer Bucher (2018) for at «de svarte boksene» ikke nødvendigvis bør fryktes, men heller sees som noe som kan «korrespondere til ny innsikt» – og at begrepet i seg selv bør nyanseres. Slik etterspør hun en økt konsentrasjon rundt de mulighetene som ligger i de algoritmiske systemene (s. 60). Ved å trosse de epistemologiske begrensningene algoritmiske systemer byr på, kan vi rette mer fokus mot ulike empiriske taktikker og metodologiske tilnærminger som kan gi annen verdifull innsikt i hvordan utilgjengelige systemer virker (Bucher 2018, s. 59). Slik kan for eksempel humanistiske avlesninger av algoritmisk kuratering (f.eks. Allen Anderson 2015; Modell 2015; Morris & Powers 2015) utfylle de tekniske studiene og gi dypere forståelse for hvordan algoritmisk sortering manifesterer seg ute i vår kultur.

Hva vet vi om Spotifys algoritmer?

Selv om mange har understreket hvordan nettopp hemmelighold begrenser vår vitenskapelige forståelse av algoritmer, er det som nevnt mange (antakeligvis) kyndige populærvitenskapelige kilder som kan gi noen indikasjoner på hvordan Spotifys algoritmer virker. Innledningsvis i en forskningsprosess kan det således være verdt å stille seg spørsmålet: Hva vet vi allerede om algoritmisk kuratering i Spotify, og hvordan kan vi teoretisk og metodologisk bruke det i studien vår?

Vi kan grovt skille mellom det vi kaller samlende algoritmiske funksjoner og personaliserende algoritmiske funksjoner. Samlende algoritmiske funksjoner kvantifiserer i all hovedsak objekter gjennom å skape statistiske barometre av popularitet (Gillespie 2012). Algoritmeforsker Tarleton Gillespie (2012) omtaler dette som trendingalgoritmiske prosesser (Gillespie 2012), som gjennom ulike lister og anbefalingsmekanismer gjør identiske anbefalinger overfor alle brukere. Ved å identifisere innhold som nyter såkalte oppmerksomhetsbølger (ibid), hvor alle brukeres interaksjon med objektene vektes og rangeres etter et sett med variabler (avspillingsfrekvens, tid, nyhetsverdi, geografi osv.), kuraterer de det vi i musikkulturen ofte omtaler som topplister eller charts. For eksempel kan man slik skape lister over hva som er den mest populære musikken i Norge innenfor et gitt tidsrom (den siste uken f.eks.).

De personaliserende algoritmiske funksjonene kalkulerer derimot data for å drive relevant og personlige anbefalinger for hver enkelt bruker. Dette ser vi eksempelvis i lister som Discover Weekly i Spotify, hvor man hver uke får innstilt 30 låter som skal passe brukerens personlige smak. Disse algoritmene kan ofte virke mer kompliserte. For eksempel antas de å kunne prosessere såkalte smaksprofiler gjennom enorme kartlegginger av diskursene rundt online musikk og hver enkeltes brukshistorikk (Prey 2017). Her disponeres antakeligvis en type akustisk analyseprogramvare som evner å klassifisere musikk basert på soniske faktorer, som igjen kan sortere musikk etter kulturelt mer abstrakte kategorier (som eksempelvis trening, avslapning eller dansbarhet) (ibid)1. Gjennom semantiske analyser identifiserer algoritmen så nøkkelord og fraser av internettets kommunikasjon om musikk – hvor man med millioner av artikler, blogger, forum, sosiale medie-poster osv. reproduserer diskursene rundt musikk som kvantifiserte data. Til slutt sammenkobles de ulike låtene med de som har sammenfallende datapunkter. Brukernes navigasjon og interaksjon med musikken (skipping, deling, rangering, sortering osv.) fungerer slik som dynamiske notat av brukerens egen musikkidentitet. Ved å pare disse faktorene med såkalt collaborative filtering2 , hvor man låner og indirekte anbefaler musikk til hverandre, ender Discover Weekly opp som en anbefalingshybrid (ibid). Algoritmen saumfarer massive spillelister, identifiserer og anbefaler slik ukjente låter brukeren med sannsynlighet vil like: Havner for eksempel to av dine mest spilte låter ofte i spillelister med en tredje, ukjent låt, vil du med sikkerhet få den anbefalt.

Synlighetsregimer

Begge metodene virker både demokratiske og gode. De evner både å identifisere hva fellesskapet samler seg rundt, og hvilke preferanser hver enkelt bruker har. Kritisk sett fastholder likevel Gillespie (2012) at denne type informasjonspraksiser, som bl.a. hevder å «representere offentlighetens vilje og mening», egentlig bør leses som variable og ufullstendige.3 Sentralt i hans resonnement står idéen om at algoritmer (og maskiner) aldri vil være objektive, og at de til enhver tid vil preges av de holdninger og verdier menneskene som har skapt dem, bærer. Slik peker han på komplikasjonene ved å la ingeniørene som programmerer algoritmene (ofte på bestilling fra kommersielle aktører), være de som identifiserer hvordan trender og brukernes smaksprofiler skal måles (Gillespie (2012): Det kan nemlig finnes en rekke andre (bevisste og ubevisste) føringer i hvordan disse kalkulasjonene utføres. Strømmetjenesters kuratering av synlighet kan slik prege hvordan vi bruker og konsumerer musikk (Finn 2017, s. 115), hvor vi potensielt «dyttes inn i spesifikke rom» for hva der er mulig å lytte til (s. 118). I det Bucher (2012) omtaler som de digitale medienes synlighetsregimer, argumenteres det slik for hvordan kulturelt innhold genereres gjennom en type diktering av hva som virker til å passe de gitte distribusjonsplattformenes rammer (Arola 2010; Wolf 2016). Kritisk sett kan man slik hevde at én type «algoritmisk tenkning» virker til å drive en utvikling, hvor alle idéer som ikke evner å parafrasere seg over i et «algoritmisk forståelig språk», gradvis risikerer å miste sin funksjon. Med andre ord kan synlighet i strømmetjenester – på samme måte som for eksempel tabloid journalistikk setter agenda gjennom kvantifikasjoner av delinger og likes i sosiale medier (Finn 2017, s. 169) – forme og generere avspillinger i tjenester som Spotify, gjennom algoritmiske anbefalinger og spillelister.

Dette gjenspeiles også i den kritikken av de utfall de personaliserende algoritmene gir. For eksempel reises det spørsmål rundt hvordan denne type sortering i et brukerperspektiv kan forsterke brukerens egen smak og mening. Flere algoritmeforskere (Michael A. DeVito 2016; Christian Sandvig 2014; m.fl.) peker nå på hvordan de personaliserende algoritmene potensielt reduserer våre indekser av innholds- og nyhetspresentasjon til først og fremst å ha en personlig betydning for den enkelte brukeren, framfor å være en del av eller til gode for fellesskapet. Selv om disse argumentene kanskje virker sterkere når vi snakker om samfunnets konsum av for eksempel nyheter eller politiske budskap, er det hensiktsmessig å diskutere også hvordan dette relaterer til kulturelt innhold, bl.a. med tanke på aspekter som nettopp mangfold, maktfordeling eller finansiell konsentrasjon. Som en parallell til Eli Parisers (2011) berømte påstand om hvordan resultater av algoritmisk kultur kan forsterke statsmakt gjennom konsepter som filterbobler, falsk personifisering og strukturer av sosial kontroll (Finn 2017, s. 45), kan man derfor også diskutere om strømmetjenester kan bidra til å skape bobler eller monetær konsentrasjon rundt noen få mektige aktører. Slik kan derfor strømmetjenestenes algoritmiske kurateringsprosesser også leses som kommersielle strategier, som først og fremst søker å holde på og rekruttere nye brukere (Primo & Zago 2015; Thurman & Schiffers 2012), snarere enn å presentere musikkmangfold overfor sine brukere.

Sosial homogenitet og filterbobler

Ved å vektlegge menneskers naturlige tilbøyelighet til å favorisere de og det rundt oss som er likt oss selv, kan vi bedre forstå hvordan kulturelt innhold (som musikk) spres (Salganik, Dodds & Watts 2008). Slik har strømmeforskere de senere år benyttet begreper som sosial homogenitet (Salganik, Dodds & Watts 2008) eller information poverty (informasjonsfattigdom) (Simon 1971 i Wolf 2016) til å beskrive hvordan vi vurderer kredibiliteten og nytten av strømmetjenesters innhold, hvor favoriseringen av likhet potensielt skaper snevrere informasjonsunivers (filterbobler). Med andre ord kan vår tendens til å «like det resten av flokken liker» (i psykologien ofte beskrevet som herd behaviour) sentraliseres rundt færre musikkutrykk. Dette illustrerer hvordan individers preferanse for sosial likhet former sosial virkelighet, og hvordan algoritmer kan være prediksjonsmaskiner som konstant skaper og avgrenser teorier om hvem brukeren er og hva den vil gjøre videre. Totalt sett kan disse forme et unikt informasjonsunivers (en boble) for hver og en av oss, som fundamentalt endrer måten vi møter idéer og informasjon på (Pariser 2011). Paradoksalt nok oppstår og overlever disse fenomenene i en tid med «informasjonsoverflod» (Simon 1971; Wolf 2016).

Slik truer algoritmiske kurateringsprosesser potensielt også mangfoldighet. For som algoritmeforsker Christine T. Wolf (2016) rettmessig poengterer, er det ikke likhet og konformitet, men forskjellighet og diversitet som skaper nye idéer og impulser (Wolf 2016). Dette kan også gjenspeiles i et alders- eller kjønnsperspektiv. Paul Lamere (2014), ansatt ved Spotifys algoritmeleverandør Echo Nest, delte i 2014 en artikkel om hva Spotify gjør for å skape et personalisert tilbud når de møter nye brukere. Såkalt «cold start» er her et potensielt problem, hvor algoritmiske anbefalingssystemer besitter for lite informasjon om brukeren til å gi tilstrekkelige, personaliserte anbefalinger. I stedet for å benytte brukerens avspillingshistorikk (som jo ikke finnes for nye brukere), må algoritmene informasjonsfiltrere på bakgrunn av et sett mindre presise referanseegenskaper, som for eksempel alder, kjønn eller bosted (som oppgis i det brukeren opprettes) (Bobadilla et al. 2012; Rashid, Karpys & Riedl 2008). Basert på tall tjenesten allerede innehar, kan de således spå hva for eksempel en mannlig og kvinnelig bruker liker og ikke liker (eksempelvis viser Lamere hvordan 30 % av låtene i et mannlig lyttemønster ikke finnes i et kvinnelig lyttemønster – og vice versa).

Disse metodene er utbredte, men også smått kontroversielle. Sett ifra et mangfoldighetsperspektiv frykter man spesielt at denne type kuratering kan skape standardiseringer og forsterke konvensjonelle kjønnsmønstre. Rent teknisk kan slik ens registrering av eget kjønn potensielt dytte brukeren inn i digitale rom fylt av den type innhold algoritmene identifiserer som enten gutte- eller jentemusikk (Klausen 2017) – og på sett og vis skape det vi kan kalle «kjønnsbobler». Fordi man nå også antar at 2/3 av anbefalingsalgoritmene i Spotify er basert på menns lytting (Maasø i Klausen 2017) og fordi menn i større grad enn kvinner lytter til artister av eget kjønn, har tjenesten potensial til å forme musikkulturen på et høyere nivå – hvor menn gis en større definisjonsmakt av hva som gjøres synlig i musikkulturen. Strømmeforsker Arnt Maasø (i intervju med Klausen 2017) problematiserer dette og viser til sjangereksempler som metal, som allerede har en stor ubalanse mellom kjønnene. Ved å vektlegge de selvforsterkende effekter disse algoritmiske strukturene kan gi, spekulerer han i hvordan jenter kan få kumulativt mindre innflytelse og enda færre rollemodeller, noe som på sikt kan skade rekrutteringen av kvinnelige musikere i sjangeren. Spørsmålet i et forskningsperspektiv blir hvorvidt dette er synlig i det faktiske innholdet Spotifys brukere eksponeres for: Skader virkelig tjenestens algoritmer musikkmangfold?

Reverse engineering: Kybernetiske spor og feedbackmekanismer

Gjennom å ta utgangspunkt i en teoretisk basis, som det her redegjøres for, blir man mer bevisst på hvordan det kan forskes på de prosessene som potensielt skaper disse effektene, uten å ha direkte tilgang til «innsiden av (den svarte) boksen». Dette diskuterer også Taina Bucher (2018). Av mange mulige metodologiske tilnærminger fremmer hun hvordan en metodisk prosess kan «følge kybernetiske spor (Bucher 2018, s. 59) og observere ulike feedbackmekanismer4 mellom systemene og deres omgivelser». Dette omtales som reverse engineering. Ved å være opptatt av å «reversere dataingeniørens konstruksjoner» interesserer den seg nettopp for hva algoritmen gjør, snarere enn hva den er, ved på sett og vis å tilgjengeliggjøre «den svarte boksen» gjennom de ulike «lekkasjer, åpninger og brister» vi evner å observere (s. 60). Gjennom å rette oppmerksomheten mot systemenes funksjoner (framfor deres faktiske innhold) oppfordrer «de kybernetiske spor» slik til å eksperimentere og leke med boksenes såkalte in- og outputs. Eller rettere sagt: Den oppfordrer til å studere hva slags utfall brukerens valg og interaksjoner gir.

Som nevnt har ulike ikke-profesjonelle aktører fra ymse spill- og hackerkulturer, bloggere samt tech- og mediejournalister så langt gått i bresjen for slike typer eksperimentering med algoritmiske systemer (f.eks. Madrigal 2014; Bogost 2011; Honan 2014). Undersøkelsene, som ofte er spennende og lekende (noen ganger spekulative), har (tross sitt populærvitenskapelige preg) utformet en metodisk standard med et potensial til å fungere også i et vitenskapsøyemed (se Bucher 2018; Hamilton et al. 2014; Sandvig et al. 2014 i Bucher 2018). Idéen er å kartlegge, beskrive og observere algoritmenes operasjonelle logikker, hvor samspillet mellom det menneskelige og ikke-menneskelige undersøkes gjennom en tilnærmet etnografisk disiplin. Rent praktisk vil etnografen observere, notere og beskrive hva de ser (eller hva de tror de ser) uten å besitte nødvendige forhåndskunnskaper om data eller programmering (Bucher 2018, s. 61). Målet er ikke nødvendigvis å avdekke algoritmens «skjulte agenda», men snarere å utvikle en kritisk forståelse for dens mekanismer (s. 61), hvor det å kartlegge mennesker og gruppers verdier og atferder brukes til å forstå kulturen rundt oss (Bucher 2018 s. 60−61). Pelle Snickars (2017) allerede nevnte undersøkelse kan slik leses som et eksempel på hvordan man kan forske på anbefalingsmekanismer i Spotify. Gjennom mange forskjellige falske brukerkontoer utforsket han hvordan anbefalinger i tjenesten manifesterer seg ut ifra hvilke valg brukeren tar, og om man kunne identifisere noen mønstre eller sammenhenger mellom brukernes interaksjoner og det eksponerte innholdet som møtte dem. Snickars brukte her over 150 automatiserte boter5 som interagerte ulikt med musikken.

Undersøke gjennom eksperimentell humaniora

De perspektivene som er redegjort for i denne kommentaren (perspektiver knyttet til synlighetsregimer, sosial homogenitet, kjønns- eller filterbobler), viser at det er et behov for mer forskning på algoritmer og strømmetjenester. Ved å undersøke disse fenomenene nøyere kan denne typen, såkalt eksperimentell humaniora, avdekke eller diskutere aspekter som maktforhold, hvilke premisser den algoritmiske musikkulturen setter for mangfold eller hvilke konsekvenser dette kan ha for både artister og publikum. Jeg foreslår å møte slike tema vitenskapelig med metoder som reverse engineering (eller lignende), som kan evne å identifisere hvordan algoritmenes outputs påvirker kulturen, uten nødvendigvis å besitte teknisk kunnskap om hvordan de fungerer. Her finnes det allerede en rekke populærvitenskapelige (og stadig flere vitenskapelige) kilder man kan inspireres av. De spesifikke metodene som vi diskuterer i denne teksten, kan også være overførbare til andre typer algoritmiske medier. Eksempelvis minner tech-journalist Alexis Madrigals (2014) studier, som reverserer Netflix-algoritmenes taggingssystem, mye om måten Spotify utfører algoritmiske, semantiske analyser og sjangeridentifikasjoner på i Spotify (se Madrigal 2014; Seaver 2014). Flere analyser av medier som Google (f.eks. Nobel 2012; Bogost 2016; Woodruff, Fox, Rousso-Schindler & Warshaws 2018 m.fl.) eller Facebook ( f.eks.DeVito 2016; Honan 2014 m.fl.) finnes også: Listen for eksplorative undersøkelser av algoritmiske systemer blir stadig lengre. Om ikke alle bruker reverse engineering, er de eksempler på hvordan man kan forsøke å gå rundt algoritmene, leke og utfordre deres in- og outputs, og generelt nærme seg systemene alternativt. Slik kan vi velge å se algoritmer som nye spillere, samarbeids- eller samtalepartnere i våre kulturelle spill, snarere enn som skjulte og hemmeligholdte svarte bokser.

Gjennom denne typen eksperimentell humaniora – hvor vi beveger oss forbi våre egne roller som brukere – kan slik det kritiske gapet mellom såkalt abstraksjon (hemmelighold og uvitenhet) og virkelighet reduseres. Det er et stort potensiale for nye former for kritisk arbeid som benytter algoritmiske strukturer til å utvide menneskelig kunnskap, og slik ønsker denne artikkelen å fremme visjoner for offentlig humanistisk og samfunnsvitenskapelig forskning som involverer seg direkte med algoritmisk kultur. Ved å bryte ned den illusoriske veggen mellom kritikk og kreativitet, mellom observasjon og handling – kan vi definere nye modeller for vitenskapelig engasjement med algoritmisk kulturliv, hvor vi leser algoritmer og programvare som kulturelle tekster i seg selv (Finn 2017, s. 192−196).

Etiske perspektiver

Til slutt er det verdt å dvele ved de ulike etiske perspektiver slik type forskning berører, og allerede er bruken av for eksempel falske brukerkontoer i kommersielle tjenester (som Spotify) blitt gjenstand for forskningsetisk debatt. Denne typen metodikk strider ofte imot tjenestenes vilkår for bruk, som nettopp (i et konkurranseøyemed) ønsker å beskytte sine metoder fra rivaliserende tjenesters innsyn. Dette kan igjen relateres til diskusjonen knyttet til hemmelighold, tillit og etterrettelighet overfor brukere og bransje.

Et betegnende eksempel på denne kollisjonen, mellom forskning og kommersiell tjeneste, utspilte seg i 2017 da Spotify forsøkte å stoppe et svensk forskningsprosjekt som nettopp tok i bruk falske brukerkontoer for å identifisere hvordan interaksjoner med det eksponerte innholdet påvirket tjenestens kurateringsmekanismer. Ved å interessere seg samtidig for tjenestens historie som distributør av uautoriserte mp3-filer, fra den ulovlige piratkopieringsserveren Pirate Bay (Campanello 2017), kom de i konflikt med Spotify. Forskerne, som understreket at de underveis ønsket et samarbeid med tjenesten, ble møtt med lite gjensidig interesse. Forsker Rasmus Fleischer (i Campanello 2017) uttalte seg i den forbindelse på følgende måte:

Hvis du snakker med Spotify, vet du vanligvis ikke mye mer enn det de skrev i sine pressemeldinger (…) Hvis forskerne skal kunne si noe om hvordan denne typen tjeneste fungerer, må man ta en litt mer aktiv rolle, og for eksempel bruke metoder for å dokumentere hva som møter brukeren, som følge av ulike valg som brukeren gjør.

På lignende vis kan også fjorårets (2018) Tidal-sak være interessant i måten den gir rom til å mistenkeliggjøre intensjonene ved å hemmeligholde den informasjon offentligheten etterspør (Tobiassen & Sæter 2018). Som sak aktualiserer den en debatt om nettopp perspektiver knyttet til det man gjerne kaller algorithmic accountability (algoritmisk etterrettelighet), hvor nettopp mangelen på transparens gjør selskapene selv ansvarlige for de resultatene deres programmerte algoritmer presenterer, så framt de ikke er åpne om formål, struktur og underliggende handlinger algoritmene bruker til å søke etter, behandle og levere informasjon. Selv om idéen om algoritmiske systemer som utilgjengelige «svarte bokser» bør nyanseres, er strømmetjenester nødt til å ta både bransje og brukere på alvor om vi skal ha tillit til at den teknologien og de modellene de benytter, er både oppriktige og rettferdige.

LITTERATUR:

Allen Anderson, P. (2015): Neo-Muzak and the Business of Mood. Critical Inquiry 41(4): 811−840. doi: 10.1086/681787

Arola, K. (2010) The design of Web 2.0: The rise of the template, The fall of design. Computers and Composition, 27(1): 4–14. doi: http://doi.org/10.1016/j.compcom.2009.11.004

Bobadilla J., Ortega F. Hernando A. & Bernal J. (2012). A collaborative filtering approach to mitigate the new user cold start problem. Knowledge-Based Systems (26): 225−238. doi: 10.1016/j.knosys.2011.07.021

Bogost, I. (2015). The Cathedral of Computation. The Atlantic. Hentet fra: https://www.theatlantic.com/ technology/archive/2015/01/the-cathedral-ofcomputation/384300/

Bucher, T. (2012). Want to be on the top? Algorithmic power and the threat of invisibility on Facebook. New Media & Society14(7), 11641180. https://doi.org/10.1177/1461444812440159

Bucher T. (2018). If...then. Algoritmic Power and Politics. New York: Oxford University Press.

DeVito, M. A. (2016). From Editors to Algorithms. A values-based approach to understanding story selection in the Facebook news feed. Digital Journalism Vol 5, 2017, Issue 6. doi: https://doi.org/10.1080/21670811.2016.1178592

Diakopoulos, N. (2015). Algorithmic Accountability: Journalistic Investigation of Computational Power Structures. Digital Journalism 3(3): 398–415. doi: 10.1080/21670811.2014.976411

Finn, E. (2017). What Algorithms Want: Imagination in the Age of Computing. Cambridge MA, The MIT Press.

Gillespie, T. (2012) Can an algorithm be wrong? Limn 2. Hentet fra http://limn.it/can-an-algorithm-be-wrong/

Gillespie, T. (2014a) The Relevance of Algorithms. MIT Press. Hentet fra http://www.tarletongillespie.org/essays/Gillespie%20%20The%20Relevance%20of%20Algorithms.pdf

Gillespie, T. (2014b) Algorithm (Digital Kewywords). MIT Press. Hentet fra http://culturedigitally.org/ 2014/06/algortihm-draft-digitalkeyword/

Hamilton K., Karahalios K, Sandvig C & Eslami M. (2014). A path to understanding the effects of algorithmic awareness. Paper presented at the CHI ’14 Extended abstracts on Human factors in Computing system, 26. april−1. mai, Toronto, Canada.

Honan M. (2014). I liked everything I saw on Facebook for two days. Here’s what it did to me. Wired Magaizine. Hentet fra https://www.wired.com/2014/08/i-liked-everything-i-saw-on-facebook-for-two-days-heres-what-it-did-to-me/

Karpf, D. (2012). Social Science Research Methods in Internet Time. Information, Communication & Society 15(5): 639–661. Hentet fra: http://www.tandfonline.com/doi/abs/10.1080/ 1369118X.2012.665468

Klausen, A. O. (2017, 21. august). Strømmetjenester kan gi kjønnsbobler. Morgenbladet. Hentet fra: https://morgenbladet.no/2017/08/strommetjenester-kan-gikjonnsbobler

Kjus, Y. (2016). Musical Exploration via Streaming Services: The Norwegian Experience. Popular Communication: The International Journal of Media and Culture 14(3): 127–136.

Lamere, P. (2014a). Gender specific listening. Musicmachinery.com. Hentet 6.5.2018 fra: https://musicmachinery.com/2014/02/10/gender-specific-listening/

Lamere, P. (2014b). The Skip. Musicmacinery.com. Hentet 1. 3.2018 fra: https://musicmachinery.com/2014/05/02/the-skip/

Lievrouw, L. A. (2012). The Next Decade in Internet Time: Ways Ahead for New Media Studies. Information, Communication & Society 15(5): 616–638. Hentet fra http://www.tandfonline.com/doi/ abs/10.1080/1369118X.2012.675691

Madrigal, A. (2014). How Netflix Reverse Engineered Hollywood. The Atlantic. Hentet fra https:// www.theatlantic.com/technology/archive/2014/01/how- netflix-reverse-engineered-hollywood/ 282679/

Modell, A. (2015). Mapping the Music Genome: Imaginative Geography in Pandora Internet Radio and the Genographic Project. Media Fields Journal 10: 1−13. Hentet 6.5.2018 fra https://zdoc.site/on- spotify-radio-culture-unbound.html

Morris, J. W. & Powers, D. (2015) Control, curation and musical experience in streaming music services. Creative Industries Journal 2: 106−122.

Mulligan, M. (2014, mars). The Death of the Long Tail: The Superstar economy. Promus.dk. Hentet fra: http://www.promus.dk/files/MIDiA_Consulting_- _The_Death_of_the_Long_Tail.pdf

Maasø, A. (2016, 3. mars). Sky & Scene – et tilbakeblikk. Ballde.no. Hentet fra http://www.ballade.no/ sak/sky-scene-et-tilbakeblikk/

Pariser, E. (2011). The Filter Bubble: What the Internet is Hiding From You. New York: Penguin.

Pasquale, F. (2011) Restoring Transparency to Automated Authority. Journal on Telecommunications and High Technology Law 9: 235–256. Hentet fra https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1762766

Prey, R. (2017). Nothing personal: algorithmic individuation on music streaming platforms. Media, Culture & Society (30. November 2017). doi: https://doi.org/10.1177/0163443717745147

Primo, A. & Zago, G. (2015). Who and What Do Journalism? An Actor-Network Perspective. Digital Journalism 3 (1): 38–52. Hentet fra: http://www.tandfonline.com/doi/abs/10.1080/ 21670811.2014.927987?journalCode=r dij20

Rashid, A., Karpys, G. & Riedl, J. (2008, desember). Learning preferences of new users in recommender systems. ACM SIGKDD Exploration Newsleter 10 (2): 90. doi: 10.1145/1540276.1540302

Salganik, M. J. & Watts, D.J (2008). Leading the Heard Astray: An experimental study of the self- fulfilling prophecies in an artificial cultural market. Social Psychology Quarterly 71.4: 338−55. doi: 10.1177/019027250807100404

Sandvig, C. (2014). Corrupt Personalization. Social Media Collective. Hentet fra https://socialmediacollective.org/2014/06/26/corrupt-personalization/

Sandvig, C., Hamilton, K., Karahalios, K. & Langbort, C. (2014). Auditing algorithms: Research methods for detecting discrimination on internet platforms. Presented at Data and discrimination. 22. mai 2014 i Seattle USA.

Seaver N. (2014) On Reverse Engineering. medium.com. Hentet fra https://medium.com/anthropology- and-algorithms/on-reverse-engineering-d9f5bae87812

Simon, H. (1971). Designing Organizations for an Information Rich World. I M. Greenberger (red.): Computers, Communications and the Public Interest. Baltimore: The Johns Hopkins Press.

Snickars, P. (2017) More of the Same – On Spotify Radio. Culture Unbound. Journal of Current Cultural Research, 9(2): 184−211. doi: https://doi.org/10.3384/cu.2000.1525.1792

Thurman, N. & Schifferes, S. (2012) The Future of Personalization at News Websites: Lessons from a Longitudinal Study. Journalism Studies 13 (5–6): 775–790. Hentet fra http://www.tandfonline.com/ doi/abs/10.1080/1461670X.2012.664341

Wolf, C. (2016). DIY videos on YouTube: Identity and possibility in the age of algorithms. First Monday, 21 (6). doi: http://dx.doi.org/10.5210/fm.v21i6.6787

Woodruff A., Sarah E. Fox, Steven Rousso-Schindler, and Jeffrey Warshaw (2018). A Qualitative Exploration of Perceptions of Algorithmic Fairness. Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems (CHI ’18). ACM, New York, NY, USA, Paper 656, 14 pages. DOI: https://doi.org/10.1145/3173574.317