For å lese pluss-artikler må du være abonnent
Et abonnement gir tilgang til alt innhold og vi har følgende tilbud
IDEER
I et nylig intervju med Y Combinator sier Sam Altman, direktør i Open AI, at vi vil få generell kunstig intelligens allerede i 2025. Når Altman snakker bør vi lytte. For han er en av dem som sitter tettest på utviklingen. Og den beste måten å forutse fremtiden på er som kjent å skape den.
Riktignok er han noe mer beskjeden når det gjelder den såkalte superintelligensen. Den er, i følge Altman i det samme intervjuet, noen tusen dager unna. Så det vil altså ta minst fem, kanskje ti eller femten år før maskinene underlegger seg menneskene for godt.
Imidlertid er det noe i begrepsbruken som skurrer. En generell intelligens må nødvendigvis være noe mer enn en høyt oppdrevet instrumentell maskinrasjonalitet som håndterer flere datatyper og språkmodeller. En funksjonell tilnærming, der vekten ligger på problemløsning, fanger dessuten bare opp deler av en intelligens som vil være generell. En utvidet definisjon vil rimeligvis også omfatte former for emosjonell og sosial intelligens som rent praktisk må være tilstede for at et menneske skal kunne fungere i eget liv og sammen med andre.
Det er for øvrig et åpent spørsmål hvorvidt det overhodet gir mening å snakke om at maskiner kan være intelligente. Allerede i 1980 viste den amerikanske filosofen John Searle, gjennom det velkjente tankeeksperimentet om det kinesiske rommet, at en maskin, ved utelukkende å forholde seg til symboler, ikke kan forstå noe på den samme måten som et menneske, og dermed ikke være intelligent i noen meningsfull betydning av ordet. For selv om det bare er gradsforskjell mellom en enkel kalkulator og avanserte språkmodeller, så er det vesensforskjell mellom maskineri og mennesker.
I motsetning til hos maskinen, er menneskelig forståelse umulig uten en fysisk virkelighet som strekker seg forbi språket. Når mennesker tolker informasjon, trekker vi inn erfaringer, relasjoner og følelser i tillegg til en rekke kulturelle og sosiale referansepunkter som gir oss et mangfold av tolkningsmuligheter som en maskin ikke har tilgang til. Språkmodellene, på sin side, er begrenset av den informasjonen de har blitt trent på. Ord og setninger tolkes i lys av språket uten knytning til levd liv. Simulert forståelse kan riktignok oppleves svært overbevisende, men er aldri forankret i en levende bevissthet eller noen form for mening.
Hvorvidt vi har å gjøre med en bevisst tolkning eller bare en simulert form, er ikke først og fremst en teoretisk spørsmål. Faktisk er det helt avgjørende for hvordan vi forholder oss til kunstig intelligens i praksis, både den vi bruker selv og den andre utsetter oss for.
Samtidig er det ingen grunn til å undervurdere kraften i den nye teknologien. For det er vel ikke lenger tvil om at ChatGPT og tilsvarende språkmodeller, for ikke å snakke om deres multimodale etterkommere, som Sam Altman og hans kollegaer allerede nå reklamerer for, representerer en kapabilitet som stiller helt nye krav til hvordan det moderne kunnskapssamfunnet skal organiseres, hvilke institusjoner vi trenger og hva som skal til for at maskineri og mennesker skal fungere sammen.