KUNSTIG INTELLIGENS

Dette er nestorens tre enkle regler for å beskytte menneskeheten mot farlig kunstig intelligens

Stuart Russell mener man må programmere inn usikkerhet i kunstig intelligens.
Stuart Russell mener man må programmere inn usikkerhet i kunstig intelligens. Mathias Klingenberg
1. mars 2018 - 05:30

TRONDHEIM: - Vi kjenner et ubehag ved kunstig intelligens, fordi vi er i ferd med å lage noe som er bedre enn oss. Vi må gå ut ifra at kunstig intelligens vil være i stand til å ta bedre avgjørelser enn oss i fremtiden, sier Stuart Russell til publikum på Technoport-konferansen i Trondheim.

UC Berkeley-professoren er en nestor innen kunstig intelligens. Sammen med Googles forskningsdirektør Peter Norvig skrev Russell læreboka «Artificial Intelligence: A Modern Approach», som ifølge UC Berkeley er pensum på over 1300 universiteter. Han har vært medforfatter på over 200 forskningsartikler om emnet.

I 2015 var han med på å utforme et åpent brev som ba utviklere, forskere og ingeniører om å ikke bare utvikle kraftigere kunstig intelligens, men å sørge for at den faktisk også gjør det vi vil. Brevet har så langt over 8000 underskrifter, deriblant Elon Musk og Stephen Hawking.

- Maskiner er i dag intelligente i den grad at de kan oppnå sine mål gjennom sine handlinger. Vi vil ikke ha maskiner som er intelligente på denne måten. Vi ønsker maskiner som kan oppnå våre mål, sier Russell.

Huskatten til middag?

Han illustrerer dette ved at roboten har fått i oppgave å lage middag til familien. Roboten mangler kjøtt, men får øye på familiens huskatt. Dersom roboten måler suksess ved kun å utføre oppgaven, vil familien få stekt katt til middag. Derfor må man få roboten til å veie opp den sentimentale verdien av katten mot dens næringsverdi, forteller han.

Russell la onsdag frem tre enkle prinsipper for å sikre at kunstig intelligens opptrer slik mennesket ønsker:

  1. Robotens eneste mål er å maksimere realiseringen av menneskets preferanse
  2. Roboten er i utgangspunktet usikker på hva slags preferanser dette er
  3. Kilden til informasjon om menneskets preferanser er menneskets oppførsel

Roboten vil gjøre det mennesket vil, men er usikker på hva det er. Derfor leser den seg opp på menneskets preferanser og observerer og lærer fra menneskets handlinger. Lesestoffet kan potensielt være all litteratur mennesket har produsert frem til i dag. Roboten vurderer utfallet av ulike handlinger, og handler etter hvordan den tror mennesket ville handlet.

- Vi har alltid gått ut ifra at målet ("the objective") er gitt. Jeg mener det er feil, sier Russell.

Han mener vi ikke skal gi roboten et mål, men heller få den til å lære av oss, og på den måten vite hva vi vil.

Kong Midas

Han viser til kong Midas i gresk mytologi, som ønsket at alt han tok i ble til gull. Kongen begynte raskt å angre på sitt ønske da sulten meldte seg.

- Når robotene bare har et mål å gå etter, kan de potensielt utsette mennesket for fare for å nå målet, sier han.

Russell har tidligere illustrert dette overfor The Guardian ved at en selvkjørende bil programmert med en regel om aldri å kjøre på rødt lys, kan hacke seg inn i trafikklyssystemet slik at alle lysene endres til grønt.

Dersom roboten har tilstrekkelig kunnskap om menneskets preferanser og verdier, vil den ikke hacke seg inn i trafikklyssystemet. 

En annen mulig løsning i det nevnte tilfellet er å programmere inn en regel som for eksempel forbyr roboten å hacke seg inn i trafikklyssystemet. Russell forklarer hvorfor han mener dette er en dårlig løsning i slutten av artikkelen.

Artikkelen fortsetter etter annonsen
annonse
Innovasjon Norge
Trer frem med omstilling som innstilling
Trer frem med omstilling som innstilling

Bort med av- og på-knappen?

I og med at roboten ikke vet hva den skal gjøre, kan den også velge å vente på hjelp fra mennesket. Mennesket kan da for eksempel velge å slå roboten av. Dette tillater roboten, ettersom den ikke har noen annen måte å utføre menneskets ønsker på.  

Stuart Russel holdt foredrag på Technoport i Trondheim. <i>Bilde:  Mathias Klingenberg</i>
Stuart Russel holdt foredrag på Technoport i Trondheim. Bilde:  Mathias Klingenberg

Det har tradisjonelt også vært en beroligende tanke - vi kan alltid slå maskinen av dersom noe går galt. Russell mener vi ikke nødvendigvis skal være i stand til å slå av fremtidens kunstig intelligens-maskiner.

- Dersom den selvkjørende bilen din frakter fem-åringen din til skolen, vil du ikke at hun skal kunne slå av bilen. Det samme kan vi si om en maskin som utfører intensiv behandling. Maskinen må vurdere rasjonaliteten til personen, sier Russell.

I sitt forsøk på å lære av mennesket, vil roboten møte på store utfordringer.

- Men det er ikke lett, for mennesket er irrasjonelt, gjør feil og kan til og med være ekle mot hverandre. Vi vil ikke at roboten skal være det, sier han.

Programmere inn usikkerhet

Kjente usikkerheter programmeres inn som variabler hvor verdien er ukjent.

- Hvordan programmeres ukjente usikkerheter inn?

- Man kan programmere inn usikkerhet som noe universelt, hvor alt er mulig. Tenk på datagrafikk, hvor man simulerer en stor verden. Her kan man også fordele sannsynlighet over disse områene, og bruke komplekse formler for ukjent usikkerhet. Men det er mer krevende å regne på, sier han.

Han uroer seg for den regelbaserte tilnærmingen de store aktørene innen selvkjørende biler har.

- Det blir for mange regler, og du vil alltid finne situasjoner hvor det ikke finnes regler, sier han.

- Dagens selvkjørende biler vet ikke at mennesket foretrekker å være i live. De stopper for mennesker fordi det er en regel. Men de vet ikke hvorfor de stopper. De stopper også for plastikkposer og rødt lys. Derfor er det viktig at datamaskinen er i stand til å vurdere verdier opp mot hverandre, sier han.

Per i dag er imidlertid mennesket i stand til å tenke mye lengre enn robotene, forteller Russell.

- Jeg vil ikke komme med anslag på når robotene vil tenke lengre enn oss. Men det vil skje, sier han.

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.