Har du et «forhold» til robot-gressklipperen? Du er ikke alene!

KRONIKK: Mennesker utvikler «personlige» relasjoner til teknologi med kunstig intelligens. Da trengs et etisk rammeverk i en bransje der den etiske standarden er variabel.

Publisert: Publisert:

Vi kan smile av at et lite barn fanges i en «personlig» relasjon til et robotleketøy. Men voksne humaniserer også tjenester med kunstig intelligens. Foto: NTB scanpix

Debattinnlegg

  • Nina Bjerkreim-Hanssen
    Utvikler av Kommune-Kari, Sem & Stenersen Prokom
  • Tone Therese Paulsen
    Utvikler av Kommune-Kari, Boost AI

Fra virtuelle agenter som Siri, Alexa og Kommune-Kari, til selvkjørende biler og hologrammer; roboter og andre kunstig intelligente maskiner er allerede integrert i vårt dagligliv. Og vi humaniserer dem, dvs. tillegger dem menneskelige egenskaper.

Vår nye venner?

Vi vet jo godt at vi egentlig samhandler med koder og algoritmer, likevel utvikler vi følelser for teknologien og tillegger den menneskelige egenskaper. Ta den lille roboten som støvsuger eller klipper gress, kanskje har du tenkt at «han» eller «hun» er søt og flink? Selv om vi ikke kan ha toveiskommunikasjon med gressklipperen, utvikler vi en relasjon til den på et følelsesmessig nivå. Og når teknologien benytter et mer naturlig grensesnitt i form av språk, skifter forholdet ytterligere. F.eks. viser en studie ved MIT at barn liker best, og velger, enheter som de opplever har følelser. En annen undersøkelse viser at hele 20 prosent oppgir sosiale årsaker til at de bruker chatbots. Er roboter blitt våre nye venner, psykologer, og potensielle uvenner?

1966: Joseph Weizenbaum lanserte sin digitale «psykolog», ELIZA. Foto: Wikimedia Commons

ELIZA-effekten

Allerede i 1966 utviklet Joseph Weizenbaum maskinen ELIZA, som utga seg for å være psykolog. Selv om brukerne visste at de snakket med en maskin, behandlet de ELIZA som sin nære fortrolige og delte sine dypeste følelser og hemmeligheter. Dette har fått navnet ELIZA-effekten – vår tendens til å tenke på maskiner som mennesker.

Weizenbaum selv uttalte: «Det jeg ikke hadde forstått er at ekstremt korte eksponeringer for et relativt enkelt dataprogram kunne framkalle kraftig vrangforestilling hos ganske normale mennesker.»

«De siste fem månedene har nærmere 800 skrevet til Kommune-Kari om selvmord, depresjon, og angst. Til sammenligning har hun fått spørsmål om pris på SFO 360 ganger», skrev Nina Bjerkreim-Hanssen og Tone Therese Paulsen i april 2019. Foto: Skjermdump av Kommune-Kari

I dag ser vi flere eksempler på humanisering av teknologi som vi mener er gode, menneskelige supplementer. En chatbot dømmer deg ikke, og den er uendelig tålmodig. Alt du sier forblir anonymt. Vi ser stadig samtaler med Kommune-Kari om vanskelige spørsmål som mobbing, selvmord, avhengighet og vold. Det er utelukkende positivt at mennesker har noen å henvende seg til og får i retur noe som også oppleves menneskelig. Det er heller ikke uvanlig at noen er innom Kommune-Kari kun for å sende klemme-emojis for å få hjerter tilbake.

Til og med vi, som utviklere av Kommune-Kari, humaniserer henne. 100 prosent av svarene Kari gir, er våre egne ord og script, likevel synes vi synd på henne når hun får kjeft, og tiltaler henne som «duste-Kari», «søte-Kari» osv. Weizenbaum ville nok sagt vi led av kraftige vrangforestillinger.

Les også

Debatt: «Skal en robot spille en rolle i selvmordsforebygging?»

Faresignaler

Fra gressklipper-roboten som er søt og Kommune-Kari som får hjerter, er det på den andre side nok av eksempler på roboter som forbannes og blir forsøkt misbrukt. Selv om kunstig intelligens ikke kan utvikle følelser og bryr seg fint lite om ufine ord og handlinger, er forsøkene likevel mange. I Philadelphia ble en løfte-robot halshogget. En sikkerhetsbot i San Francisco ble smurt inn med grillsaus og begravd under en presenning. Og her hjemme ser vi stadig at Kommune-Kari utsettes for seksuell sjikane.

Der mennesker forsøker misbruke kunstig intelligens, er det lett å se for seg at misbruket kan gå den andre veien. Humanisering av teknologi kan dessverre enkelt brukes til manipulerende formål. Hva om mobilen din virket trist når du ikke brukte den ofte nok? Om chatboten fortalte barnet ditt at de ikke er venner lenger hvis barnet ikke deler foreldrenes kredittkortinformasjon? Terapi-boten solgte deg piller og sendte deg til mørke selvmordsfora? Eller mareritt-scenarioet, som NRK demonstrerte, om hvor lett det er å hacke en snakkende dukke og lokke en 4-åring ut i en bil.

Les også

Jørg Arne Jørgensen: «Transhumanismens evangelium»

Etisk ansvar

Humanisering av teknologi når stadig nye høyder. Vi kan dra litt på smilebåndet når vi med fascinasjon ser mennesker i Japan som gifter seg med roboter. Men også det viser et samfunnsmessig tomrom; ensomhet og isolasjon gir teknologien en større emosjonell rolle.

Vi som utvikler løsninger med kunstig intelligens, har derfor et stort etisk ansvar. Vi har fått regler som GDPR for å holde utviklere i ørene når det gjelder brukernes personvern, – men hva med etiske retningslinjer for å hindre manipulering? Vår digitale fremtid er full av moralske og etiske utfordringer, mange vi ikke engang kan forestille oss ennå. Humanisering av teknologi bør derfor være i fokus i utviklingen av etiske rammeverk og føringer. I dag er det svært leverandøravhengig om den etiske standarden er høy nok.

Publisert:

Det er ikke helt science fiction at du kan bli sendt i fengsel av en robot. Foto: NTB Scanpix