FORSKNING

Den grønne streken illustrerer hvordan kunstig intelligens kan ta feil

Kan vi være trygge på at en selvlært kunstig intelligens faktisk «ser» det vi vil at den skal se?

Ved hjelp av disse bildene skal du lære ordet «sykkel» på et fremmed språk. Men hva om du tror ordet betyr «grønn strek»?
Ved hjelp av disse bildene skal du lære ordet «sykkel» på et fremmed språk. Men hva om du tror ordet betyr «grønn strek»? Foto: Eivind Torgersen/UiO
Eivind Torgersen, titan.uio.no
25. juni 2019 - 17:25

Hvert 20. minutt kjører nå en førerløs liten buss langs havnepromenaden i Oslo. Med en toppfart på 25 kilometer i timen frakter den passasjerer fra Vippetangen til Kontraskjæret.

Førerløse biler er kanskje det mest nærliggende å tenke på når det er snakk om kunstig intelligens (KI). Både når vi snakker om hva som er bra med det – og når vi snakker om hva som kan gå galt uten mennesker bak rattet eller spakene.

Bilene er selvfølgelig lært opp til å klare seg i trafikken, men det mest revolusjonerende er at de skal lære mens de kjører og dermed bli enda bedre sjåfører etter hvert.

Kunstig intelligens på sykehus og legekontor

Vis mer

Langt fra alle kunstige intelligenser er like synlige som en bil du kan risikere å støte på i trafikken. Og de er ikke bare i stand til å erstatte mennesker.

En kunstig og selvlærende intelligens kan også erstatte tradisjonelle data-algoritmer i for eksempel MRI-skannere som lager bilder av hjernen din.

Og i fjor godkjente det amerikanske Food and Drug administration (FDA) bruk av kunstig intelligens til å avsløre lidelsen diabetisk retinopati. Dette er en sykdom på netthinnen som rammer diabetikere.

– Dette er revolusjonerende, sier matematiker Anders Hansen.

Han er professor ved Universitetet i Oslo, men tilbringer mesteparten av tiden sin ved University of Cambridge, der han leder sin egen forskningsgruppe på kunstig intelligens.

– Det betyr at man nå kan benytte dette i kommersiell sammenheng, sier Hansen.

Diabetespasientene kan da komme til klinikken og ta et bilde av øyeeplet. Men det er ikke en lege eller optiker som analyserer bildet. Det er en kunstig intelligens-algoritme som spytter ut et svar basert på hva den selv har lært seg å se etter.

Enten er netthinnen frisk eller så er den rammet av diabetisk retinopati.

– Den er bedre enn meg, og jeg er en veldig erfaren netthinne-spesialist, sier oppfinneren Michael Abramhoff til nettavisen NPR.

– Vi trenger mer kraft, men noen av de vekstprognosene for hva kunstig intelligens vil kreve av kraft, sprenger alle grenser for hva som er realistisk, sier statsminister Jonas Gahr Støre.
Les også

Støre: KI sprenger alle grenser for strømforbruk

Vet ikke hva den kunstige intelligensen gjør

Den kunstige intelligensen som vurderer bildene av diabetikernes øyne, er altså treffsikker nok til at FDA synes det er greit. Det vil si at den gjør det minst like bra som en menneskelig vurdering.

Men kunstige intelligenser kan også oppføre seg på måter som et menneske aldri ville gjort.

– Vi vet faktisk ikke helt hva den kunstige intelligensen gjør, sier Anders Hansen.

Hans forskning går ut på å vise hva de faktisk gjør.

Anders Hansen er professor II ved Matematisk institutt ved Universitetet i Oslo og har sin egen forskergruppe ved University of Cambridge. <i>Foto:  Eivind Torgersen/UiO</i>
Anders Hansen er professor II ved Matematisk institutt ved Universitetet i Oslo og har sin egen forskergruppe ved University of Cambridge. Foto:  Eivind Torgersen/UiO

– Og det kan se ut som de fanger opp helt andre ting enn det mennesket fanger opp.

Dyp læring

Det er fordi den kunstige intelligensen skiller seg fra en tradisjonell data-algoritme.

Sistnevnte er enkelt sagt en oppskrift som spytter ut et svar når den får informasjon inn. Et svar som er helt forutbestemt og avhengig av hva du har fortalt at den skal gjøre.

En kunstig intelligens er også en algoritme, men mye mer avansert.

– Det som er annerledes med en kunstig intelligens-algoritme, er den skal lære av tidligere erfaring. Basert på denne læringen skal den ta en input og gjøre noe annet, sier Hansen.

Først går den gjennom en intensiv treningsleir. Der skal den forhåpentligvis lære seg det du ønsker at den skal kunne.

– Når læringen er gjort, har man en ferdig algoritme. Denne algoritmen kan lære mer og mer etter hvert, men det er den første læringen som er den viktigste. Det er den store forskjellen, sier Hansen.

Siden 2012 er det det som kalles dyp læring som har vært den dominerende metoden for å lære opp de kunstige intelligensene. Og der, i dette dypet, er det ikke så lett å vite hva som foregår.

– Vi vet ikke helt hvordan læringsmekanismen foregår i den kunstige intelligensen, og det er det vi forsøker å finne ut av, sier Hansen.

Det er ikke nødvendigvis så lett.

Per Overgaard (t.h.) i Lenovo synes ikke alle bedrifter er like flinke til å snakke med mulige kunder og se an deres behov før de lager noe, forteller han til Jan Moberg, som er programleder for TUs podkast Teknisk sett.
Les også

Han mener KI lager spillefilm fra tekst om to år

Føflekk til besvær

Hansen og kollegaene hans setter kunstige intelligenser på relativt enkle prøver for å se hvor lærenemme kan være. Noen ganger kommer de med helt merkelige svar, for eksempel når de skal gjenkjenne forskjellige dyr eller når de får servert svart-hvite bilder med horisontale og vertikale striper.

En litt mer komplisert variant er en kunstig intelligens som er trent opp til, som altså har lært seg, å avgjøre om en føflekk er ufarlig eller om den kan være ondartet. Bare ved å analysere et bilde.

Det finnes nå en kunstig intelligens som kan vurdere hvor farlig en føflekk er. Men noen ganger tar den også feil. <i>Foto:  Rufar, Colourbox.com</i>
Det finnes nå en kunstig intelligens som kan vurdere hvor farlig en føflekk er. Men noen ganger tar den også feil. Foto:  Rufar, Colourbox.com

Da er det veldig viktig at den faktisk leser bildet riktig. Akkurat det samme er helt nødvendig i et annet felt av kunstig intelligens-utviklingen, talegjenkjenning. Hvis du skal få et fornuftig svar fra Siri eller Alexa på mobilen din, må hun først oppfatte hva du faktisk ber henne om.

Tester viser at den kunstige føflekk-intelligensen stort sett vurderer helt riktig. Det rare er at den er veldig sikker også når den tar feil. Og at det virker helt vilkårlig akkurat hvorfor og når den tar feil.

Når forskerne vippet bare bitte litt på bildet, kunne den kunstige intelligensen endre oppfatning. Fra å være veldig sikker på at føflekken var harmløs, til å bli veldig sikker på det motsatte.

– Vi forstår ikke helt hva den har klart å gjenkjenne, for bildet er akkurat det samme, forteller Hansen.

– Det som er vår tese, er at det finnes en falsk struktur i bildet. Noe som ligger i bildet og som mennesket ikke klarer å oppfatte, men som maskinen oppfatter og finner, sier han.

Vulkanutbrudd, som dette på Island i mars i år, er naturens egen «geoengineering» fordi utbrudd senker temperaturen på hele jordkloden. Forskere tror vi må vurdere å ta i bruk teknologier som gjør det samme. Men dilemmaene er mange.
Les også

Geoengineering: Varmerekorder kan kreve kontroversiell løsning

Hvordan vet vi hva den lærer?

En slik falsk struktur vil ikke oppdages av et menneskelig øye.

– For maskinen er ikke bildet annet enn tall som kommer inn, forklarer Hansen.

Så det er ikke lett å oppdage de mulige feilene for oss som leser bilder på en helt annen måte.

Men for å vise hva som er problemet med falske strukturer, må vi likevel bruke et eksempel som vi også kan se.

Sett at du skal lære deg et fremmed språk og får se en samling med bilder som alle akkompagneres av dette språkets ord for «sykkel». Alle bildene viser sykler i ulike varianter, men de er også alle utstyrt med en grønn strek.

Etter denne treningsprosessen slippes du, eller den kunstige intelligensen, løs på lignende bilder og svarer hver gang «sykkel».

Ser den kunstige intelligensen «sykkel» eller «grønn strek» i dette bildet? Det er det faktisk ikke godt å si. <i>Foto:  Eivind Torgersen/UiO. Lisens</i>
Ser den kunstige intelligensen «sykkel» eller «grønn strek» i dette bildet? Det er det faktisk ikke godt å si. Foto:  Eivind Torgersen/UiO. Lisens

Men kan du være sikker på at det er sykkelen som blir kjent igjen? Hva om den kunstige intelligensen kobler ordet til «horisontal grønn strek». Eller bare «grønn strek». Eller bare «strek». Eller noe helt annet, til og med.

Den grønne streken er et eksempel på en falsk struktur. Det kan også være andre slike i sykkelbildene, ting som ikke er synlige for oss, men som en kunstig intelligens biter seg merke til.

Det er noe slikt Hansen og kollegaene hans tror skjuler seg i føflekkbildene. Noe som får den kunstige intelligensen til å endre oppfatning.

Dette er bare ett av mange eksempler Hansen trekker frem der en kunstig intelligens gjør tilsynelatende enkle feil. Feil vi mennesker aldri ville gjort.

– Det er helt opplagt at den kunstige intelligensen «tenker» helt annerledes enn den menneskelige hjernen, sier Hansen.

Da NASA arrangerte en åpen konkurranse med blindtesting, vant den norske sensorteknologien så det suste. Nå svever den her.
Les også

Kunstig norsk «nese» beskytter astronauter

Splittelse i KI-miljøet

Siden den kunstige intelligensen er så annerledes, kan den ikke-menneskelige oppførselen også gi andre uheldige konsekvenser. For eksempel ved at den kan lures.

Dette kan potensielt utnyttes av svindlere for eksempel i helsevesenet eller i forsikringssaker.

Slike usikkerheter har, ifølge Hansen, ført til en stor splittelse i forskermiljøet som sysler med kunstig intelligens. Noen har hevdet at maskinlæring for øyeblikket kan sammenlignes med middelalderens alkymi. Noe som har gjort andre dødelig fornærmet.

Anders Hansen er blant dem som maner til litt forsiktighet.

– Nå må vi tenke litt på dette før vi introduserer det i stor skala, sier han. – Hvis vi kan påvise feil i veldig enkle bilder, hvordan vil det da være i mer komplekse bilder?

Det betyr ikke at han vil stoppe eller bremse forskningen på kunstig intelligens. Det tror han ikke er mulig.

Diabetes-avgjørelsen til FDA viser for eksempel at kunstig intelligens er på full fart inn i helsetjenestene.

– FDA er jo seriøse. Når de godkjenner bruk av kunstig intelligens, er det basert på en ordentlig vitenskapelig undersøkelse. På samme måte som et medikament som skal ut på markedet, sier Hansen.

Den nevnte føflekktesten kan også bli sett på som samfunnsnyttig fordi den er minst like treffsikker som et menneske. Selv om den også tar feil noen ganger. Og selv om man ikke skjønner helt hvorfor den tar feil.

– Da har man funnet en enkel gjenkjennelsesalgoritme som fungerer bra nok for praktiske formål, selv om den ikke er i nærheten av hva et menneske kan gjøre.

EM-ballen er utviklet av Adidas og kalles Fotballkjærlighet. Den har bevegelsessensor og radiokommunikasjon.
Les også

Fotball-EM er proppfull av ny teknologi  – her er den viktigste

Kan skje i morgen eller om 500 år

Veien videre avgjøres ikke bare av matematikere og programmerere. Det handler like mye om politikk, personvern og kommersielle interesser.

– Det amerikanske militæret bruker enorme summer på dette nå.

– Kunstig intelligens er definitivt kommet for å bli, sier Hansen.

Men han tør ikke spå hvor fort eller i hvilken retning veien vil gå.

– Vi vet ikke om det kommer et stort gjennombrudd i morgen eller om vi må vente 500 år på neste skritt.

Effektivisering og optimalisering er ofte motivasjonen bak bedrifters innkjøp av KI-verktøy. Men det gir også muligheter for å styrke selskapenes bærekraftsarbeid, skriver innleggsforfatterne.
Les også

Syv råd for å komme i gang med KI i norsk industri

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.