IT

Chatboten «Tay» ble rasist av å lese kommentarfelt: Hvem har ansvaret når kunstig intelligens ikke fungerer?

Det er forbausende hvor lite fokus både kunde og leverandør har på risikofordelingen ved et produkt som tilsynelatende tenker selv, skriver kronikkforfatterne.

Robotvenner: Advokat og partner i Brækhus, Christian Bendiksen(t.h.) og CEO i Itch, Eirik Norman Hansen, har sammen skrevet en kronikk om eierskap og ansvar for kunstig intelligens – her med roboten Pepper.
Robotvenner: Advokat og partner i Brækhus, Christian Bendiksen(t.h.) og CEO i Itch, Eirik Norman Hansen, har sammen skrevet en kronikk om eierskap og ansvar for kunstig intelligens – her med roboten Pepper. Foto: Sturlason
Christian Bendiksen, advokat i Brækhus og Eirik Norman Hansen, CEO i Itch
6. juli 2018 - 19:00

Det virker som om alle snakker om kunstig intelligens for tiden. I Frankrike har en senatsrapport anbefalt å snu opp ned på alt fra offentlige anskaffelser til forsvarsindustrien og store datastrømmer for å fremme en etisk utvikling av industriell kunstig intelligens.

I Storbritannia har the House of Lords sluppet en bindsterk rapport om kunstig intelligens påvirkning på samfunnet – både den som allerede er skjedd og den som kommer. I EU har 25 land – inklusive Norge – signert en erklæring om massiv økning av samarbeid innen kunstig intelligens. 

Hva er kunstig intelligens?

Men hva er kunstig intelligens, hvordan selge kunstig intelligens og hva skjer hvis den leverte softwaren ikke gjør det den skal – eller kanskje noe helt annet enn det den skal?

«Kunstig intelligens» brukes om alt fra ekspertsystemer som virker intelligente, men ikke inneholder noen selvlærende funksjonalitet overhodet, til nevrale nettverk, hvor det er umulig å finne tilbake til hvilke prosesser som har skapt det resultatet som fremkommer når softwaren anvender en gitt datamengde for å løse et definert problem. 

Generelt ser det ut til at man bruker «kunstig intelligens» når man beskriver teknologi som har evnen til å utføre oppgaver som ellers ville krevet menneskelig intelligens, men noen klar definisjon finnes ikke.

Les også: Kunstig intelligens utvikler luktesans

Det har konsekvenser for den som markedsfører systemer basert på ”kunstig intelligens”. Når begrepet ikke er definert, må funksjonaliteten som selges beskrives. Både for at kunden vet hva de får, og for at leverandøren kan varsle om at installasjonen er fullført – og pengene bør inn på konto.

Problemet oppstår når kunden ønsker en funksjonsbeskrivelse som definerer systemets output. I et rent ekspertsystem er det mulig, men er systemet selvlærende, vil den funksjonaliteten systemet leverer være helt avhengig av de data som brukes til å trene systemet.

Har leverandøren trent systemet opp til et visst nivå, basert på egne data eller tidligere leveranser, kan man funksjonsteste det systemet som skal leveres, før man kundetilpasser systemet basert på kundens data.

Eksempelvis vil en chatbot markedsført for finansbransjen gi langt mer treffsikre råd til sluttbruker dersom den allerede har lært seg en bred variasjon av spørsmålene en bruker stiller ved en lånesøknad. I så fall, vil den siste tilpasningen være å lære opp bot’en i hvordan akkurat denne banken ønsker å besvare slike spørsmål.

Les også: Kampen hardner om talentene som trengs for å lage selvkjørende biler

«Bias»

Men hvem har ansvaret for at datasettene er dårlige, og hva om AI’en selv supplerer datasettet? Skal kjøper da kreve at leverandøren setter begrensninger i hvilke data AI’en skal kunne bruke, eller hvordan AI’en skal kunne bruke dem? Og hvis AI’en skal tilpasses kundens data og operasjonsmønster – hva om et relativt nøytralt datasett i AI’ens tidligere livsløp kan dras over i sterk «bias» ved å legge kundens datasett over dette? Hvem har da ansvaret for resultatet? Dette må i dag løses i kontrakten – den måtte definere hvem som har ansvaret for kvaliteten av de ulike datasettene.

Men en kontrakt som definerer ansvar for bestemte data og tester et system basert på akkurat disse datasettene kan ikke definere hvem som har ansvaret dersom et nevralt nettverk lærer på nettsøk – etter ferdig testet leveranse. 

Dette kan skape flere former for reklamasjon fra en misfornøyd kunde, enten løser AI’en ikke oppgavene kunden forventer skulle bli løst. Eller så løser den oppgavene kunden forventet, men på måter kunden overhodet ikke forventet. Det kan ikke utelukkes at AI’en faktisk blir kriminell i slike situasjoner. 

Eksempelvis hvis den dekompilerer datastrømmer for å utnytte personopplysninger i forsikringsoppgjør, eller hvis prisroboter skaper så gjennomsiktige markeder at det blir umulig å konkurrere på pris, noe som vil kunne være i strid med konkurranseloven.

– Karrieremulighetene innenfor kunstig intelligens er store. Vi vil rekruttere i mangfold

Chatboten Tay ble rasist 

AI’en vil ikke i seg selv være i stand til å forstå at visse former for problemløsning er ulovlig. Et godt eksempel er Microsofts chatbot Tay som ble rasist etter noen timers samhandling med trollene på internett. Hadde jeg kjøpt Tay til bruk i kundeservice, ville jeg nok ikke blitt fornøyd over at Tay ikke hadde sperrer mot slike svar, og ville nok ha ansett det som et minimumskrav at en solgt software ikke er i stand til å levere resultater som bryter norsk lov. Men et enkelt krav gir en tilnærmet umulig programmeringsjobb – for loven er stort sett basert på menneskelig skjønn som vanskelig lar seg gjenskape i kode.

I andre land pågår det en aktiv diskusjon om produktansvar for AI-baserte systemer, noe som i de fleste tilfeller ser ut til å kreve lovendring. I Norge vil man nok måtte falle tilbake på de ulovfestede reglene om objektivt ansvar for skadevoldende gjenstand, den som innfører et nytt produkt med potensielle skadevoldende egenskaper, har risikoen for at produktet gjør feil.

Med andre ord, vil leverandøren mest sannsynlig ha ansvaret for selvlærende systemer, herunder ulovlige handlinger, med mindre man er svært nøye med avtalen.

Den må forme kundens forventning til resultatet av AI’ens bearbeidelse av datasettene, herunder sannsynlige feilkilder. Og hvis det ubehagelige resultatet er innenfor retningen av hva kunden kunne forvente, må dette være kundens risiko.

Og i den grad det er mulig, må man også definere et testregime som gjør at man kan teste sluttproduktet etter kundetilpasningen. Og risikopunktene som skal definere når leverandøren påtar seg risikoen for resultatet, blir ganske vanskelige å komme frem til.

Forbausende lite fokus på risikofordeling

Og avslutningsvis, på en mer optimistisk vinkling; man må også vurdere hvem som har retten til positive resultater: hvem eier innholdet i den opplærte AI’en? Skal leverandøren kunne bruke erfaringene som AI’en gjør seg på dine data til å selge en forbedret AI til dine konkurrenter? Hvis ikke – hvordan regulerer man hva som er innenfor av utbedringer?

Det er ikke gitt at det blir noen særregulering av AI, herunder lisensiering av datastrømmer og produktansvar for resultatet av AI-styrte prosesser. I mellomtiden, er det avtalen som styrer partenes risiko. Og i situasjoner hvor kunden bruker leverandørens AI overfor egne kunder, er det forbausende hvor lite fokus både kunde og leverandør har på risikofordelingen ved et produkt som tilsynelatende tenker selv.

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.