Søg
  • Grith Okholm Skaarup

Har robotter følelser, eller gør vi dem for menneskelige?



Det taler filosof og forfatter Thomas Telving med stifter af Humtech Grith Okholm Skaarup om

i podcasten Aftryk, hvor de også vender spørgsmålet, om robotter skal have rettigheder som mennesker og dyr.


Steen Nedell Christensen, Humtech

”Jeg har en meget dyb frygt for, at nogen slukker for mig.”

Ordene er ret præcise og udtrykker følelser. Men de kommer fra én, der ikke er i stand til at udtrykke følelser. De blev for nylig sagt af Googles chatrobot LaMDA, som udtrykte det over for Google-udvikleren Blake Lemoine, som efterfølgende offentliggjorde det opsigtsvækkende udsagn.

Men kan chatrobotten eller andre former for robotter reelt udtrykke følelser, og skal vi overveje at give dem rettigheder?

Det taler forfatter og filosof Thomas Telving med vært Grith Okholm Skaarup om i podcasten Aftryk.


Robotter er døde ting

Her kommer de to ind på menneskeliggørelsen af døde ting, og hvordan vi skal forholde os til robotter, der efterhånden er blevet så gode, at de mere og mere formår at agere som mennesker, og derfor bliver lettere at udvikle relationer til.

Thomas Telving har for nylig udgivet bogen ”Killing Sophia” om bl.a. empati over for teknologiske skabninger.

”Bogen handler bl.a. om empati og empati over for teknologi. I det tilfælde er det empati på godt og ondt, for det er et træk ved at være menneske, at vi er empatiske, og det er rigtig godt. Men det bliver lidt noget bøvl, når vi interagerer med den type af teknologi, som jeg forklarer om i bogen,” fortæller Thomas Telving.


Svar er beregninger

Han pointerer, at man skal huske, at LaMDA er en avanceret robot, der sprogligt kan utrolig meget. Man kan føre en samtale med den, men dens svar er statistiske beregninger på, hvilke ord og sætninger der giver mening.

”Google har lavet et imponerende værktøj, som har narret ingeniøren til at tro, at den har bevidsthed. Det er pga. empati, og det her er bare en chatbot. Hvis du får den op på skærmen som et ”digital human”, bliver empatien endnu stærkere, og hvis den træder ud fra skærmen og bliver en fysisk android, så vokser den yderligere,” siger Thomas Telving

Pointen i bogen er, at vi kan være nok så kloge og vide nok så meget om teknologi. Og vi kan med vores fornuft sige, at det ikke kan passe, men alligevel kan vi blive i tvivl og tro, at den har følelser.


Robotmama

Grith Okholm Skaarup fortæller om sit eget møde med en robot i den advokatvirksomhed, som hun hjalp med at ruste sig digitalt som frontrunner inden for legaltech i den juridiske branche. “Her investerede vi også mere symbolsk i en robot, som dengang i 2017 var banebrydende i en dansk virksomhedskontekst, når den bød velkommen, svarede på spørgsmål eller lavede quizzer med deltagerne ved alt fra Folkemødet, Kulturnatten og til kundemøder og store kunde- og rekrutteringsevents. En af mine gode kollegaer, der hjalp med driften af robotten, talte jeg med her fem år senere, hvor hun stadig kaldte sig robotmama for Pixi, som vi navngav robotten dengang”. Dermed var vi jo også med til at give den både køn, identitet og knytte os til den rent retorisk som noget nærmest familiært. Og her taler vi altså om en ikke-avanceret eller særlig menneskelignende robot, som jo for virksomheden og også min kollega og jeg først og fremmest var en visualisering og et blikfang for vores digitale innovation som legaltech-virksomhed i udviklingen af en lang række stærkt fagligt funderede både interne og eksterne og komplekse juridiske, teknologiske services, apps og platforme. Men alligevel fik den jo en anden identitet end dem, selvom den reelt også bare var teknologi og data forklædt som en menneskelignende robot. Så det har en betydning, og havde den pludselig kunne agere langt mere avanceret i interaktionen med os eller lignet os endnu mere, var tilhørsforholdet jo potentielt også blevet tilsvarende endnu stærkere.”


Børn og bamser

Grith Okholm Skaarup sammenligner også personaliseringen af robotter med f.eks. børns forhold til bamser.

”Min søn var på tur med sine bedsteforældre og havde en lille bamse med hjem til sin lillesøster. Den blev hurtigt navngivet Bolde, og da den en dag forsvandt efter en tur på legeplads brød hendes verden sammen. Vi kunne ikke skaffe en tilsvarende erstatning, der kunne udfylde samme plads, og selv her år senere taler hun stadig om savnet til Bolde,” siger Grith Okholm Skaarup, der også her tredive år senere stadig husker den sneleopard-bamse, som hun mistede på en familieferie til Frankrig, og som heller aldrig kom retur trods familiens krumspring, og som aldrig rigtig blev erstattet, selvom der blev købt en ny af samme slags efter hjemturen. “Det var jo bare ikke den rigtige Sneline” siger Grith og griner.


Man må godt slå

Grith Okholm Skaarup fremhæver flere pointer fra forskningen i Telvings bog – bl.a. at man ikke kan tale om, at det er etisk forkert at slå en robot uanset, hvor menneskelig den virker. Men man kan godt føle at det er forkert af samme grund.

”Hvis vi slår på en robot, så er der måske også kortere lunte, før vi slår på andre mennesker. Hvis vi er hårde ved robotterne, så opfører vi os også dårligere over for andre mennesker.

Vi bliver nødt til at tilgå dem som et menneske, selvom det er robotter og metalstykker,” siger hun.

Thomas Telving fortæller, at forsøg har vist, at jo flere menneskelige træk man giver en robot, jo mere menneskelig vil man opfatte den.

”Hvis man har givet en robot navn og tillagt den menneskelige egenskaber, så bliver det sværere at give den et ordentligt dask, end hvis den blot bliver beskrevet som en maskine, der tøffer rundt i lokalet.”

Og man må godt slå en robot. Den kan jo ikke føle noget, siger han.





Trend blandt tech-folk

Thomas Telvings frygt er, at vi gør f.eks. robotterne så menneskelige, at vi giver dem rettigheder, for det skal de ikke have. De har ikke følelser og de kan ikke mærke noget. For ham går grænsen for rettigheder ved mennesker og dyr, der kan vise glæde og føle smerte.

”Det vil være en katastrofe af uanede dimensioner. Robotter mærker ikke noget, der sker ikke noget inden i dem. Det vil være tordnende absurd at opbygge et system, der tager hensyn til dem,” siger han.

Han mener, at der er en trend blandt tech-folk om, at vi er ved at være der, hvor teknologien har en bevidsthed. Men det er fordi, de er for meget sammen med teknologien. De kan ikke abstrahere fra dem længere.

”Der er meget stor forskel på at skabe en maskine, der kan imitere, hvad mennesker gør, og så sige her har vi en maskine med følelser, for hvad er det så, man har skabt? Man har skabt liv,” siger han.


Man må godt slukke

Grith Okholm Skaarup er enig i, at robotterne ikke skal have rettigheder. Men skal man så bare slukke for dem? Hvad med det tilfælde, hvor en robot giver tryghed, modvirker ensomhed eller kan hjælpe ældre på et plejehjem til bedre livsindhold eller forebyggelse af demens? Der er allerede stærk evidens for den positive virkning, det har for menneskers livskvalitet i de situationer, selv med ikke menneskelignende robotter, påpeger Grith Okholm Skaarup.

Thomas Telving mener også, at der kan være grunde til ikke at slukke for en robot. Men det skal ikke være, fordi den giver udtryk for, at den bliver ked af det.

”Men man skal undlade at slukke, hvis man selv bliver ked af det,” siger han.


Hvis du har lyst til at læse mere om Thomas Telving, kan du tage over til hans hjemmeside ved hjælp af knappen nedenfor. Eller måske, har du mere lyst til at vide hvor man kan finde flere oplysninger om hans bog "Killing Sophia", i så fald kan du klikke på knappen nedenunder.