For å kunne ta stilling til hvordan vi bør ta i bruk kunstig intelligens (AI) som ChatGPT, må vi forstå hva denne formen for teknologi er og gjør.

Da ChatGPT ble tilgjengelig for hvermansen i november i fjor, tok det bare noen uker før lærere sendte bekymringsmelding til Stortinget om hvordan roboten kunne føre til juks på eksamener. Andre ytret bekymring for hvordan denne type teknologi vil kunne føre til at mennesket utsletter seg selv.

For å begynne med det siste først. Det er særdeles liten grunn til å frykte at AI-teknologi fører til at mennesket utsletter seg selv. Derimot er det stor grunn til å erkjenne at AI-teknologi vil føre til at ikke bare eksamensformer, men også hele samfunnsstrukturer som vi lever i og kjenner i dag, vil kunne endres raskt.

Teknologi har til alle tider endret både samfunnsstrukturer og menneskelige forhold. Enten den har kommet i form av steinøks, boktrykkerkunst, dampmaskin, bil eller mobiltelefon, har den alltid bragt med seg endring. Teknologi er effektiviserende verktøy fremstilt både av og for mennesker for at vi skal kunne oppnå våre mål, ja: mer effektivt. Enten det er å forflytte oss over store geografiske avstander raskere og mer effektivt, produsere mat mer effektivt, jobbe mer effektivt eller for å få leve livene mer effektivt.

Ofte er det først når teknologien har fått rotfeste hos massene og når flertallet har tatt den i bruk, at farene ved den åpenbarer seg.

Når vi i dag snakker om AI-teknologi, snakker vi om ulike teknikker innenfor maskinlæring som beregner noe på en mer effektiv måte for oss. Teknologi er aldri nøytral. Det høres kanskje underlig ut, for man kunne jo anta at det er bruken av en teknologi som skulle avgjøre om den eksempelvis fører til noe bra eller noe mindre bra.

Pistoler dreper ikke mennesker, det er mennesker som dreper, lyder en kjent påstand. For en pistol er jo ikke i stand til å gjøre noe som helst på egenhånd.

Et viktig motargument er imidlertid at når pistolen allerede finnes i verden, så er den ladet med muligheten for å kunne bli brukt som et mordvåpen. Ja: det er mennesket som utfører handlingen, men fordi pistolen har den iboende muligheten at den kan bli brukt som et mordvåpen, er pistolen i seg selv ikke nøytral.

All teknologi - en bil, en minibank, en barbermaskin og en mobiltelefon - er ladet på førende måter som har som konsekvens at vi som mennesker både handler og oppfører oss på konkrete måter. Slike verktøy effektiviserer noe for oss og endrer våre handlingsmønstre. Kunstig intelligens, AI-teknologi, er heller ikke annet enn dette: effektiviserende verktøy fremstilt av og for oss mennesker for at vi skal kunne oppnå våre mål enklere og raskere. AI som fagfelt lider derfor under navnet sitt.

Til og med herrene som sommeren 1956 etablerte navnet «kunstig intelligens» (mest for å skille fagfeltet fra kybernetikk) angret i etterkant. Det har senere vært antydet at begrep som «beregningsrasjonalitet» kunne bidratt til å gjøre det lettere å beskrive hva fagfeltet holder på med – i stedet for en tåkeleggende science fiction-preget metafor som «kunstig intelligens».

Da atombomben ble utviklet, var faren ved den åpenbar og lett å forstå. Faren ved nyere AI-teknologi er ikke like åpenbar å forstå eller å få øye på.

En viktig forskjell mellom «tradisjonell» teknologi og AI-teknologi er at vi ikke alltid kan se eller vet om vi blir utsatt for den. Det vil si at vi kan bli utsatt for en AI-teknologi som har makt til å effektivt endre våre handlingsmønstre og måter å forholde oss til verden på - uten at vi er klar over det.

Ofte er det først når teknologien har fått rotfeste hos massene og når flertallet har tatt den i bruk, at farene ved den åpenbarer seg. Og da er teknologien svært vanskelig å trekke tilbake.

Utfordringen vår blir snarere å finne ut hvordan vi kan tilpasse oss og leve så godt som mulig sammen med den.

Algoritmer er en matematisk prosess som bruker data etter en nøyaktig fremgangsmåte. Algoritmer bruker altså data. Data er en registrering eller telling av noe som har vært. På samme måte som med pistolen, skulle man tro at data er nøytral. Men det er den ikke.

Det er alltid noen som har bestemt hva som skal registreres, hvor mye som skal registreres samt hvor det skal registreres og telles – det vil si at noen har bestemt hva som er verdifullt nok til å bli tellet med i et datagrunnlag.

All data er derfor preget av noen. ChatGPT er eksempelvis basert på enorme mengder med data som de som står bak Chat GPT har bestemt at den skal ha som sitt datagrunnlag.

Det vil si at de som står bak ChatGPT har definisjonsmakt og er i posisjon for å definere hva som er innenfor og hva som er utenfor. Det som ikke er tellet med i datagrunnlaget til ChatGPT, vil selvsagt ikke finnes. AI-verktøy som ChatGPT er derfor i posisjon for å definere hva verden skal sette opp og ramme inn som sannheter med store S'er. På denne måten har ChatGPT makt til å forme verden.

Hvordan hadde vi forholdt oss til ChatGPT dersom eksempelvis en person som Hitler stod bak?

Dersom vi som kollektivt samfunn, i vår felles iver etter å effektivisere både det ene og det andre, lar verktøyet få dominere våre måter å produsere og generere informasjon på, vil vi miste vår egen posisjon til å kontrollere informasjon og eie historiefortellingen. Vi gir fra oss muligheten til å sette premisser og definere hva som er verdifullt, hva som er innenfor eller utenfor. Vi vil miste vår egen definisjonsmakt.

Vi, som et ansvarlig demokratisk samfunn, må sikre oss en dyp forståelse av de grunnleggende problemstillingene AI-teknologi som ChatGPT fører med seg – og vi må agere på disse.

Elisabeth Austad Asser, doktorgradsstiendiat og bærekraftansvarlig Foto: Mona Hauglid Foto hei@monahaugli