Inga Strümke gjør oss alle en bjørnetjeneste
Det er et demokratisk problem at Strümke bruker sin svært sterke posisjon og innflytelse i norsk offentlighet til å strupe en debatt om et svært alvorlig samfunnsproblem.

Denne artikkelen ble først publisert hos Altinget. Les mer av Altinget her.
Hvor redde skal vi være for KI? Det spørsmålet stilte Morgenbladet forrige uke i en svært god og grundig reportasje om ulike syn på risiko som følge av kunstig intelligens. Utgangspunktet for saken var at hele Norges «AI-dronning» Inga Strümke gikk knallhardt ut mot tankesmien Langsikt som hun anklager for å bidra til «PR for KI-bransjen».
Konkret mener hun at Langsikts advarsler om kraftigere KI bare er «futurisme» og «skremsel» som tjener tekselskapene, og at debatten i stedet bør handle om dagens KI-problemer.
Langsikt er både min tidligere og kommende arbeidsplass, så jeg anser meg berettiget til å svare.
Gårsdagens futurisme er dagens realitet
Argumentet til Strümke er i bunn og grunn at vi ikke vet hvor kraftige modellene vil bli, og at det derfor blir uvitenskapelig å spekulere i hvordan KI vil utvikle seg. Hun mener alle forsøk på å forutsi «forestående superintelligens er basert på intuisjon, analogier, ekstrapolering eller teknologioptimisme.»
Men om fremtiden er usikker, er det desto større grunn til å forberede seg på en rekke forskjellige utfall. Spesielt fordi KI-utviklingen har vist seg å overraske ekspertene gang på gang.
For hva var regnet som futurisme for tre år siden? Hadde man sagt i oktober 2022 at man innen kort tid ville få språkmodeller som kunne skrive vitenskapelige arbeider, løse uløste matematiske problemer, komponere sanger som når topplistene, skrive nær all kode i de ledende KI-selskapene og brukes til å bombe Iran og Venezuela – ville de fleste sagt at du hadde lest for mye sci-fi og at du burde få deg litt frisk luft.
Det var svært, svært få forskere eller andre som så språkmodellene komme og hvilke konsekvenser det ville få for samfunnet som vi ser i dag. De få teknologene som forutså språkmodellenes og skaleringslovenes fremvekst – slik som Ilya Sutskever, Daniel Kokotajlo, Demis Hassabis og flere – gjorde det nettopp fordi de vågte å tenke framover, ekstrapolere trender og følge intuisjon.
Dette var ikke tilfeldig. Som matematikeren Olle Häggström poengterer i dette grundige svaret til Strümke, er nemlig intuisjon, analogier og ekstrapolering en essensiell del av vitenskapelig metode.
Nå advarer mange av de samme teknologene om at vi er på vei mot enda kraftigere KI-systemer. Det bør vi ta på alvor, ikke avfeies som «futurisme».
Dårlig PR
Strümke hevder også at advarsler mot eksistensielle trusler er en form for PR for tekselskapene. Jeg forstår poenget: en teknologi som kan bli farlig, er også en teknologi som kan tjene grassat med penger.
Det er gode grunner til å mistro KI-selskapenes ledere. Det er f.eks. illustrerende at Open AI-sjef Sam Altman ikke lenger snakker om disse truslene fra KI. Skyldes det at han har lært mer, eller at han ikke lenger anser det som gunstig for selskapets vekst?
Jeg vil imidlertid ikke utelukke at Anthropics Dario Amodei, som fortsatt snakker om de største risikoene ved KI, gjør det fordi han har en reell frykt for hva de er i ferd med å skape.
Selskapene er nemlig fanget i en konkurransesituasjon, som gjør det umulig for ett selskap å favorisere trygghet over hastighet. Amodeis advarsler kan derfor anses som et rop om hjelp om en kollektiv kraftanstrengelse for å sette på bremsene før selskapene kappes om å kjøre utenfor stupet.
Selv om dette skulle være tilfelle, er det ikke slik at jeg eller andre i Langsikt tar Amodei eller andre KI-lederes ord for god fisk. Vi legger mye mer vekt på uttalelser fra nobelprisvinner Geoffrey Hinton, som sluttet i en godt betalt jobb i Google for å advare mot KI-utviklingen. Eller Yoshua Bengio, en annen tungvekter på KI-feltet, som bruker tiden sin på å opplyse beslutningstakere om de katastrofale konsekvensene KI kan medføre.
Kjøpt og betalt av Silicon Valley. Javel?
Det mest frustrerende med Strümkes kritikk er at hun forsøker å diskreditere Langsikt ved å så tvil om hvem vi egentlig tjener. Hun sier til Morgenbladet: «Når andre tankesmier, for eksempel Civita eller Agenda, kommer med et budskap, vet politikerne hva de har med å gjøre (...) Med Langsikt er jeg mer usikker» og legger til at det «høres ut som de har fått flere talepunkter fra amerikanske teknologiselskaper.»
Med dette viser hun til at Langsikt mottar finansiering via organisasjoner som Coefficient Giving og Founders Pledge, finansiert av blant andre Dustin Moskovitz og Jaan Tallinn. Dette er noe Langsikt alltid har vært åpen og som du kan lese mer om på vår nettside og i Langsikts svar i Morgenbladet.
Det kan høres skummelt ut med finansiering fra folk som har tjent penger på teknologi. Men formålet til disse filantropiske organisasjonene er blant annet å jobbe for en tryggere fremtid med KI. Å tro at alle som jobber aktivt for en tryggere KI-fremtid egentlig jobber for å fremme KI-selskapenes interesser, er en konspiratorisk påstand.
Hvis Langsikt og disse organisasjonene var i lomma på tekgigantene, skulle en forvente at en jobbet for samme politikk. Men der tekgigantene ønsker fravær av reguleringer, jobber aktivt Langsikt for mer regulering av ledende KI-selskaper.
Et demokratisk problem
I motsetning til hva Strümke tror, er det plass til diskusjoner om både nåtidens og fremtidens utfordringer. Siden vi ikke kjenner fremtiden, er det også helt nødvendig å ha en levende debatt om realiteten i påstander fra ledende KI-eksperter om at vi snart kan få svært kapable og farlige KI-systemer.
Dersom det er en sjanse for at vi står overfor ekstremt intelligent KI i løpet av det neste tiåret er vi nødt til å tenke på spørsmål som borgerlønn, masseovervåkning og hvordan vi skal kontrollere KI-systemene allerede i dag.
Det er derfor et demokratisk problem at Strümke bruker sin svært sterke posisjon og innflytelse i norsk offentlighet til å strupe en debatt om et svært alvorlig samfunnsproblem.
Hvis vi kan diskutere både kortsiktige og langsiktige utfordringer, kan vi også finne felles grunn om politiske virkemidler. For eksempel er både Strümke og Langsikt er helt enige om at Norge og Europa må sikre sin digitale suverenitet, at tekgigantene har for mye makt og at man trenger mer KI-forskning.
At en autoritet som Strümke avskriver farene ved kraftig KI-teknologi som «futurisme» kan virke beroligende. Men det er snarere å gjøre oss alle en bjørnetjeneste.

Denne artikkelen ble først publisert hos Altinget. Les mer av Altinget her.


