Kom att tala med en av ungarna om ett intrikat moraliskt dilemma i ett datorspel. Jag fick frågan hur jag skulle ha gjort i en situation där det gällde att rädda liv. Eller snarast vem man räddar i en situation där alla val kan ses vara fel, eftersom man kan rädda bara en av två personer. Spontant tänkte jag att inget vad någon gjort förut får spela någon roll, utan man måste alltid förhindra ett mord om man kan. Men sen insåg jag att "det enda sättet att hindra honom är att döda honom". Jag märkte dessutom att sonen resonerade framåt i spelet, han frågade sig vilket utgjorde en mindre risk för "byns invånare" i framtiden. Dels tänkte han tydligt konsekvensetiskt, dels hade han en bättre förståelse för situationen.
Det slog mig att det skulle vara intressant att veta hur majoriteten av människor valt i dylika lägen i spelet. Och att man kunde fundera över hur representativt det är för människors etiska syn. Spelar folk bara strategiskt eller kunde man lägga upp spel så att man kunde dra några direkta slutsatser om vad som anses vara rätt? Om man har spelare i miljoner, borde data ju berätta en hel del. Jag tänker närmast på om man med hjälp av artificiell intelligens kunde testa på att få fram förslag på hur autonoma fordon borde fungera i fall där människor inte hinner eller kan ingripa. Det skulle kanske också vara värdefullt om man kunde hitta en universell logik. Samtidigt finns det etiska val i att utvärdera och bedöma implementering av olika modeller. Etiken kan aldrig bli helt empirisk eller moraliskt ansvar upplösas genom passivitet.
Spel är bara spel och inte riktiga livet. Men ändå vore det intressant att veta hur och om människors spelstrategier korrelerar med deras val i andra typer av test eller kanske riktiga livet. I synnerhet eftersom människors val är mycket mer beroende av känslor och kontext än man vill tro. Det skulle vara värdefullt att undersöka spelsituationer, som på sätt och vis är mer lika verkliga livet är korta referat av hypotetiska situationer. Varav följer en annan intressant fråga: ska den autonoma bilen agera som en människa i en överraskande situation eller som majoriteten av människorna efter att ha begrundat alternativen i lugn och ro? Eller kanske som en etisk expertis och auktoritet bestämmer?
Det finns väl en hel del forskning om dilemman och min lekmannauppfattning är att människor i allmänhet till exempel belönar altruism och bestraffar egoism. Att det lönar sig att tänka på andras väl och ve och att lita på andra. Den som är uppenbart orättvis bestraffas socialt. Men vid supersnabb sökning hittade jag inte någon forskning som gjorts med maskininlärning i stora speldata.
På något sätt tycker jag det finns eller borde finnas en korrelation mellan allmänt vedertagen moral och till exempel lagstiftning i ett samhälle. Samtidigt är det kusligt sant att majoriteten kan ha fruktansvärt fel. Det handlar om en ständig förhandling i komplexa situationer. Även om det där svartvita ter sig lätt och lockande är det inte ett alternativ. Vi måste diskutera hela tiden eftersom världen förändras. Det som var okej för femtio år sedan är det nödvändigtvis inte i dag. Det är ganska ångestingivande och man kan förstå frestelsen att gräva ner sig i hundra år gamla värderingar. Men man får inte ge efter utan måste fortsätta diskussionen om vad som är acceptabelt. Hela tiden. Till exempel av och med en statsminister.
Papin erikoinen kihlaus
21 timmar sedan
Detta dilemma har gestaltats i filmen Sofies val av Pakula. För mig en gestaltning av hur ondskan ständigt strävar att korrumpera oss... Ingen vet hur han/hon handlar i en sådan situation. Spontant: "hellre döden"... undrar varthän man vill komma med sådana "spel"... skall vi vänja oss? Ett sluttande plan..
SvaraRadera