Dödsbotar utan etik och juridik

Svenska folket säger nej till att återskapas efter sin död. Etiken och juridiken kring ”dödsbotarna” är en öppen fråga.

Det finns redan idag realistiska, mänskliga robotar och konceptuellt är det inom räckhåll att producera fullt verklighetstrogna avatarer av avlidna. Det säger Alexander Gustafsson, forskningsingenjör på Linnéuniversitetet.

Katerina Linden är postdoktor vid Institutionen för datavetenskap på Linköpings universitet. Hon arbetar på en artikel om AI-drivna dödsbotar som återskapar den avlidnas röst så att anhöriga kan samtala med dem postmortem. Hon anser att tjänster som lovar att skapa en digital avatar – en kopia, en digital tvilling eller kort sagt att återskapa en människa – är missvisande.

– Det är marknadsföring, säger hon. I dagsläget är tekniken definitivt inte kapabel att återskapa den mänskliga hjärnan, känslor eller sinnen.

Däremot är det fullt möjligt att generera video eller ljud som efterliknar en persons utseende och röst. En dödsbots ord och rörelser baseras på de data som AI-systemet har matats med. Text, tidigare inspelad röst, filmer, foton, epostmeddelanden, chattloggar – nätet skrapas på data som sedan används för att efterlikna den avlidne.

– Det är högst troligt att AI-avatarer i framtiden kommer att se ut, röra sig och tala precis som sina fysiska original. Men vi är långt ifrån den verkligheten, säger Katerina Linden.

 I undersökningar säger tre av fyra svenskar nej till att bli återskapade som avatarer efter sin död.

Jan-Olof Aggedal, ledamot i begravningsbranschens etiska råd, ser svåra framtidsfrågor som kommer att behöva diskuteras betydligt mer.

– Etiskt och själavårdsmässigt finns synpunkter. Avatarer av avlidna, som får tal och ljud genom chatGTP och som vi kan samtala med väcker frågor som: Vad är en levande människa och vad är en död?

I alla tider har vi människor velat minnas dem som dött – vi går till en grav, sitter vid ett foto och vi sparar minnessaker. Jan-Olof Aggedal berättar om en änka som brukade gå till sin makes grav med kaffe och kaka och prata en stund efter att hon stängt butiken på lördagseftermiddagarna, precis som de brukade göra medan han levde.

– Men om en chatrobot då svarar oss, vad gör det med vårt sorgearbete? Det blir ett psykologiskt spel, som det ännu inte finns några vetenskapliga undersökningar kring, säger Jan-Olof Aggedal.

Etisk och juridisk reglering är viktigt, men idag finns inga tydliga lösningar, säger också Katerina Linden. Det finns en Integritetsskyddsmyndighet men de flesta av oss är nog ganska okunniga om vad vi säger ja till varje gång vi godkänner kakor på olika hemsidor.

– Ur ett etiskt perspektiv måste det finnas fullt samtycke och förståelse från alla inblandade parter – både den person vars avatar skapas och de anhöriga och vänner som kommer att interagera med den. Användare måste ha full insyn i hur deras data används och hur AI-modeller genererar svar, säger Katerina Linden.

Ur ett psykologiskt perspektiv kan tjänsterna vara både terapeutiska och djupt smärtsamma för sörjande, menar hon.

– Psykologisk forskning bör vägleda begränsningar för AI-deadbots, särskilt när det gäller sårbara individer som minderåriga eller personer med trauma. Etiska riktlinjer måste förhindra exploatering av sörjande och säkerställa att dessa tjänster inte manipulerar människors känslor för ekonomisk vinning.

Det måste vara tydligt definierat vem som äger data efter en persons död och vem som har kontroll

över deadboten. Lagar måste klargöra om digitala efterlivsavatarer betraktas som personuppgifter, immateriell egendom eller något annat.

– För närvarande saknas en rättslig ram för att hantera skador eller trauman som orsakas av en deadbot, men det är troligt att sådana fall kommer att uppstå i framtiden om användningen av dessa tjänster ökar, säger Katerina Linden.

Regleringar bör även fastställa hur länge data får lagras och om den kan överföras, säljas eller användas för andra ändamål.

AI-forskaren Fredrik Heintz som arbetar med tillförlitlig AI verkar mindre oroad. Han tycker snarast att utvecklingen går för långsamt.

– Det som händer är att vi blir beroende av de amerikanska och kinesiska systemen medan vi fastnar i vad vi får och inte får göra. Det här påverkar också värderingarna som systemen uppvisar., säger han.

Han ser framför sig att vi kanske kommer att behöva skriva in i våra testamenten: ”Det här tillåter jag och det här tillåter jag inte”. Han gissar att vår syn på hur vi bevarar minnen av släktingar och vänner kommer att förändras med tiden.

Om vi idag använder fotoalbum och filmer så kommer vi i framtiden att kunna få mer omfattande och heltäckande minnen av personer genom AI. Den etiska risk han ser rör mindre den som redan är död än de efterlevande som kan ha olika viljor – ett syskon kanske vill skapa en avatar av deras döda mamma medan ett annat tycker att det är en förskräcklig ídé. Då finns idag inga klara svar på vad som är tillåtet.

– Jag tror inte att vi som samhälle har bildat oss en tydlig uppfattning ännu utan det kommer att ta ett tag innan vi når konsensus, säger Fredrik Heintz.

Elin Engström