Skip to content

Fornuft og følelser

March 2, 2015

Illustrasjon: Alejandro Zorrilal Cruz (PD)

Robotene kommer! Og sammen med robotene kommer frykten. Robotfobien. AI-angsten. Frykten for at maskinene skal ta jobben din. Kjæresten din. Livet ditt.

Stephen Hawking har sagt at full kunstig intelligens (AI¹) kan bety slutten for menneskeheten. Elon Musk har kalt kunstig intelligens den største eksistensielle trusselen mot menneskeheten. Har de rett? Er kunstig intelligens virkelig farligere enn både atomvåpen, antibiotikaresistens og klimaendringer? Eller er AI-angsten overdrevet?

Det er ikke bare i junaiten folk frykter maskinene. Også her på berget brer frykten seg. Hawkings dystre utsagn gjentas i ingressen til et essay i Morgenbladet 13. februar. I essayet skriver statsviterne Aksel Braanen Sterri og Tore Wig at flere og flere mener at kunstig intelligens kan utgjøre den største eksistensielle trusselen menneskeheten har stått overfor noensinne.

Det går ikke klart fram av essayet hvorvidt Braanen Sterri og Wig selv anser kunstig intelligens som den største trusselen mot menneskeheten, men det er tydelig at de frykter konsekvensene av overmenneskelig generell kunstig intelligens. I essayet skisserer de to ei utvikling der kunstig intelligente systemer begynner å utvikle seg selv og konstruere stadig mer intelligente systemer – en såkalt intelligenseksplosjon som ifølge de to forfatterne sannsynligvis vil føre til kunstig overmenneskelig superintelligens.

En ikke-triviell mulighet

I essayet viser Braanen Sterri og Wig til boka Superintelligence: Paths, Dangers, Strategies, skrevet av Nick Bostrom, filosofiprofessor ved Oxford University og vitenskapelig rådgiver for både The Machine Intelligence Research Institute, Future of Life Institute og the Cambridge Existential Risks Project.

Jeg har dessverre ikke lest Bostroms bok, så den kan jeg ikke kommentere. Derimot har jeg lest både essayet til Braanen Sterri og Wig, samt intervjuer med Musk og Hawking, og jeg kan ikke si at jeg er fryktelig skremt. Så langt.

Jeg er en engstelig type. Jeg engster meg for alt fra klimaendringer og antibiotikaresistens til den dumme kommentaren jeg kom med på gårsdagens fest og den rare lyden bilen lagde da jeg kjørte ned fra fjellet på humpete vinterveier. Likevel blir jeg ikke liggende våken og bekymre meg for at superintelligente og aggressive datamaskiner skal utrydde menneskeheten med det første. Ikke fordi bekymringene til Musk, Hawking & Co er fullstendig grunnløse. Det er de dessverre ikke.

Det er nemlig det forskerne kaller en ikke-triviell sannsynlighet for at vi klarer å utvikle kunstig intelligens som kan måle seg med oss mennesker i løpet av de neste femti åra. Det er heller ikke fullstendig utenkelig at vi klarer å utvikle kunstig intelligens som overgår vår egen. Dermed er det også en liten, men reell sjanse for at skrekkscenarioet skal bli virkelighet. Jeg mener bare ikke at det er særlig sannsynlig, i hvert fall ikke på kort sikt.

Hvem vet?

For at kunstig intelligens virkelig skal kunne true menneskeheten, holder det ikke med smarte maskiner. De må være smartere enn oss mennesker. Ikke bare på ett smalt felt, men på de aller fleste tenkelige områder. I dag er vi så vidt jeg veit milevis unna slik generell kunstig intelligens som kan måle seg med for eksempel en orangutang eller en sjimpanse – eller ei geit, for den saks skyld.

I essayet sitt bruker Braanen Sterri og Wig Moores lov og eksponentiell vekst som argumenter for at kunstig superintelligens både er nærmest uunngåelig, og antakelig ganske nært forestående. De antyder at vi sannsynligvis vil få store problemer med overmenneskelig kunstig intelligens i løpet av det 21. århundre. I mine øyne er denne argumentasjonen ikke nødvendigvis videre overbevisende.

Moores lov sier at datakraften i en integrert krets dobles hvert annet år – altså en eksponentiell økning av regnekraft per kvadratcentimeter.

«Optimistene antar at veksten fortsetter, til den når terskelen for kunstig generell intelligens,» heter det i Morgenbladet-essayet.

Det må i så fall være noen virkelig overbeviste optimister. For det første har utviklinga de siste årene så vidt jeg veit gått en god del langsommere enn Moores lov skulle tilsi. EDIT: Her er det på sin plass med ei korrigering. Selv om utviklinga har gått litt i rykk og napp, og mange har spådd slutten for Moores lov, lever selve loven fortsatt i beste velgående, litt avhengig av nøyaktig hvordan man definerer den. Antallet transistorer per mikrochip – og dermed den teoretiske regnekrafta – har blitt fordobla igjen og igjen, minst like raskt som Moores lov postulerer. Likevel har ikke hastigheten per mikrochip økt på langt nær like fort de siste årene.

For det andre er det Det er ingenting som tyder på at bare vi får raske og kraftige nok datamaskiner, vil kunstig intelligens oppstå nærmest av seg selv. Snarere tvert i mot. Fortsatt er det meg bekjent ingen forskere som veit nøyaktig hvilke oppfinnelser som skal til for å skape ekte, menneskelignende kunstig intelligens. Det eneste de fleste er nokså enige om, er at det ikke er nok å bygge raskere, kraftigere datamaskiner. Det må noe fundamentalt nytt til.

I og med at vi ikke veit akkurat hvilke(n) oppfinnelse(r) som vil gjøre det mulig å skape menneskelignende kunstig intelligens, veit vi heller ikke om eller når det vil skje. Det kan være i morra, eller om hundre år. Eller aldri. Optimistene trur vi vil få det til om rundt 20 år. Det har optimistene trudd i omtrent 50 år…

Intelligens og etikk

«Selv om vi gjorde et forsøk på å programmere et menneskelig verdisystem eller målsett inn i den kunstige intelligensen, er det lite sannsynlig at dette vil lykkes. En tungtveiende grunn er at det er vanskelig å spesifisere moralsk adferd,» heter det i Morgenbladet-essayet.

For meg er det litt rart at forfatterne, som virker ganske skråsikre på at vi vil klare å lage supersmart, menneskelignende kunstig intelligens innen relativt kort tid, ser ut til å være minst like sikre på at det er klin umulig å utruste denne typen intelligente skapninger med noen form for menneskelignende etikk og moral.

Selvfølgelig har Braanen Sterri og Wig helt rett i at det er vanskelig å spesifisere moralsk atferd. De har naturligvis også rett i at det vil være vanskelig å programmere et verdisystem inn i den kunstige intelligensen. Det er i det hele tatt innmari vanskelig å lage menneskelignende kunstig intelligens.

Per i dag er det ingen som er i nærheten av å skape noe overbevisende system for menneskelignende «kunstig etikk». Det er heller ingen som er i nærheten av å lage kunstig intelligens som kan måle seg med oss mennesker. Det er fortsatt usikkert om det er mulig å gjøre noen av delene. Jeg ser imidlertid ingen tungtveiende grunn til at det første skal være nærmest uunngåelig, mens det andre skal være fullstendig umulig.

Den onde vilje

I essayet sitt skriver Braanen Sterri og Wig at det er lite sannsynlig at intelligente maskiner vil dele menneskelige mål og verdier. Jeg mener derimot at det er svært sannsynlig at intelligente maskiner vil dele våre mål og verdier, i hvert fall i den grad vi klarer å formulere dem godt nok og programmere dem inn på en hensiktsmessig måte.

For at datamaskiner eller programmer skal kunne sette seg andre mål og ønsker enn dem vi mennesker har utstyrt dem med, er det ikke nok med intelligens. De fleste trur det må en eller annen form for bevissthet til. Nå er det selvfølgelig mulig at intelligens på et visst nivå uvegerlig vil føre til bevissthet, men det er ikke gitt. Så vidt jeg veit er dette noe både AI-forskere og psykologer stadig diskuterer.

Både Braanen Sterri/Wig og andre ser ut til å finne det sannsynlig at en overmenneskelig kunstig intelligens enten vil se på oss mennesker som ressurser som kan brukes (opp) for å nå et eller annet mål, som hindringer som må elimineres for å nå dette målet eller som ressurssløsende og lite hensiktsmessige verktøy som bør byttes ut med andre, bedre egna hjelpemidler.

Det er naturligvis mulig at en kunstig intelligens vil finne det hensiktsmessig å utrydde menneskeheten, men jeg kan ikke se at det er overveiende sannsynlig. Jeg deler som sagt ikke essayistenes skepsis når det gjelder muligheten for kunstig etikk og moral, og trur det er fullt mulig å bygge inn regler og lover, overordna mål og sub-programmer som vil gjøre det langt mindre sannsynlig at robotene vil vende seg mot sine skapere.

I all kunstig intelligens som har potensial til å bli ordentlig farlig, bør det bygges inn ei lang rekke sikkerhetsmekanismer. Av-knapper, for eksempel. Illustrasjon: Nemo (CC0/PD)

Hvis vi noen gang klarer å skape kunstig intelligens på et slikt nivå at det har potensial til å bli ordentlig farlig, håper og trur jeg vi er smarte nok til å legge inn ei hel rekke sikkerhetsmekanismer. Regler som hindrer maskinene i å skade mennesker. Script som krever godkjenning fra ett eller flere mennesker før systemet kan iverksette drastiske handlinger. Sikkerhetsforanstaltninger som hindrer programmet i å klone eller forbedre seg sjøl. Av-knapper. Fjernkontroller. Om alt annet slår feil, kan vi alltids slå av strømmen.

For at en kunstig intelligens skal bli virkelig farlig, må den også kunne gripe inn i den fysiske verden. Antakelig ikke bare på ett felt, men på mange. En kunstig intelligens som for eksempel har kontroll over alle kraftverk i USA, samt vannforsyning og helsetjenester, samtidig som den kontrollerer alle landets atomvåpen og dirigerer droneflåten er unektelig et ganske skummelt scenario. Men jeg håper og trur virkelig at vi mennesker ikke er dumme nok til å tillate noe sånt.

Forholdsregler for framtida

Jeg trur altså ikke faren for at en kunstig superintelligens skal gå til krig mot menneskeheten og utrydde hele gjengen er spesielt overhengende. Dessverre betyr ikke det nødvendigvis at framtida er fullstendig rosenrød, eller at kunstig intelligens ikke vil skape problemer for oss de neste hundre, femti eller til og med tjue åra. Tvert i mot.

Som nevnt trur jeg sjansen for at vi klarer å utvikle overmenneskelig kunstig intelligens – superintelligens – i løpet av de neste hundre åra er ganske liten. På den annen side trur jeg det er en ganske stor sjanse for at vi vil klare å utvikle kunstig intelligens som er nesten like smart som oss mennesker – på enkelte områder kanskje smartere. Og jeg er så å si helt sikker på vi kommer til å få en masse kunstige intelligenser som ikke er særlig smarte på en generell, menneskelignende måte, men som likevel er ganske intelligente på hvert sitt område.

I all hovedsak trur jeg dette er bra. Brukt på riktig måte, kan kunstig intelligens gjøre livene til millioner av mennesker bedre og enklere. Likevel er det ikke til å skyve under ei badematte at AI også vil føre med seg enkelte problemer og utfordringer vi er nødt til å løse. Derfor er vi helt nødt til å ta i bruk vår naturlige, gammeldagse menneskelige intelligens for å holde den framvoksende kunstige intelligensen på rett spor. Vi må altså ta forholdsregler for framtida. Nå.

Dum og farlig

På dette punktet har Braanen Sterri og Wig et par viktige poeng. For det første har de rett i at det kan se ut som om vi nærmer oss et punkt hvor teknologien for første gang fjerner flere arbeidsplasser enn den skaper. Enkelte forskere mener at vi allerede er der. Det er på ingen måte sikkert, og det skjer i så fall ikke overalt ( for eksempel kan det se ut til at det kanskje har begynt i USA, men ingenting tyder på at det skjer i Stor-Britannia enda), men det kan helt klart skje, og det kan skje ganske snart. Det vil i så fall sannsynligvis føre til økende sosiale ulikheter, som igjen vil skape en masse andre problemer vi er nødt til å gjøre noe med.

For det andre har de rett i at vi bør ta utfordringene knytta til kunstig intelligens på alvor allerede nå. Kunstig intelligens trenger nemlig ikke være spesielt smart for å kunne være farlig. Mark Bishop, professor i cognitive computing ved University of London var tidlig ute med å erklære at Hawking tok feil når det gjaldt mulighetene for overmenneskelig kunstig intelligens. Likevel er han enig med Hawking i at utviklinga av kunstig intelligens fort kan by på alvorlige problemer for menneskeheten.

– Det er lett å være enig i at AI kan utgjøre en virkelig «eksistensiell trussel» mot menneskeheten uten å forestille seg at det noensinne vil nå et nivå av overmenneskelig intelligens, sa han i et intervju med The Independent.

Bishop mener vi bør bekymre oss for kunstig intelligens av helt andre grunner enn det Hawking frykter. Det er ikke den perfekte overmenneskelige intelligensen vi bør frykte, men den ytterst feilbarlige og absolutt undermenneskelige varianten, mener Bishop. Det er ikke vanskelig å være enig med ham i det. Militære roboter er for eksempel stokk dumme, men nettopp derfor er de bokstavelig talt livsfarlige.

En MQ-9 Reaper-drone på vingene.Stokk dum. Og dødelig.  Photo: Lt. Col. Leslie Pratt, US Air Force

En MQ-9 Reaper-drone på vingene. Stokk dum. Og dødelig.
Photo: Lt. Col. Leslie Pratt, US Air Force

Naturlig idioti

Om Hawking og Musk mot alle odds får rett, og kunstig superintelligens faktisk tar kverken på oss alle en gang i ikke altfor fjern framtid, vil det uansett ikke utelukkende skyldes den kunstige intelligensens uslåelige kapasitet. Nei. For at dette digitale dommedagsscenarioet skal slå til, må våre kunstige overmenn (eller overmaskiner) få hjelp av god, gammeldags naturlig idioti.

I alt det jeg har skrevet over har jeg forutsatt at vi mennesker bruker vår naturlige intelligens til å ta nødvendige forholdsregler. Braanen Sterri og Wig avslutter essayet sitt med følgende visdomsord:

“De etiske utfordringene er likevel så store at det ville være risikabelt ikke å ta konsekvensene av kunstig intelligens på alvor. “

Akkurat det har de naturligvis helt rett i. Ikke å ta disse konsekvensene på på alvor, ville ikke bare være risikabelt. Det ville være komplett idioti. Av det potensielt suicidale slaget. Men mens kunstig intelligens foreløpig er relativt begrensa, kjenner den menneskelige idiotien som kjent ingen grenser.

I en faktaboks i Morgenbladet-essayet, kan vi lese at ei rekke forskere og andre (deriblant Hawking og Musk) har signert et åpent brev der de tar til orde for mer forskning på sikkerhet, kontroll og andre felter som kan sikre at AI-systemer faktisk gjør det vi vil at de skal gjøre, og at kunstig intelligens vil tjene til samfunnets og menneskehetens beste – både nå og i framtida.

Det er ikke bare toppforskere og næringslivsledere som har signert det åpne brevet. Jeg har gjort det sjøl. Selv om jeg ikke deler Hawking og Musks framtidsfrykt, støtter jeg absolutt ønsket om å ta fornuftige forholdsregler og ta tak i potensielle problemer allerede nå, før de oppstår. I og med at ingen kan si med sikkerhet hvor langt utviklinga er kommet om 100, 50 eller 10 år, er det eneste fornuftige å være føre var.

Forskningsprioriteringene det vises til i brevet virker både intelligente, fornuftige og framsynte. Så gjenstår det bare å håpe at menneskehetens toppledere er intelligente nok til å gjenkjenne intelligens når de ser resultatene av den – enten den er menneskelig eller kunstig.

¹Jeg har valgt å bruke den engelske forkortelsen AI for Artificial Intelligence framfor den norske, men mindre utbredte KI for Kunstig Intelligens.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

%d bloggers like this: