♦ ♦ ♦ Sonen som är dataexpert följer det senaste inom artificiell intelligens (AI) och försöken att åstadkomma allt mänskligare robotar. Han håller för troligt att vi med tiden kommer att få robotar som inte bara tänker utan också har ett medvetande, kan ta egna initiativ och skapa andra robotar. Detta framgick i ett samtal vi hade på vår dagliga bilresa från Bergen till Dale en försommarmorgon i Norge.
Hans far var inte lika säker och ställde en rad frågor. Är det möjligt att en robot kan komma att uppleva sig själv? Kan det vara möjligt att rent tekniskt skapa ett självmedvetande och en jagupplevelse? Kan man få en robot att ha känslor? Är detta inte just det som definierar människan? Kan man få robotar att känna empati och solidaritet? Eller blir de egoister?
Dessa frågeställningar lades ut på Vetenskap och folkbildnings facebooksida där de fick en ögonblicklig respons. Problematiken verkade vara mitt i prick för det inkom 541 kommentarer på 8 dagar, ett rekord för undertecknad. I diskussionen, som vi här återger en del av, antyds en tematik som på ytan kan verka handla om tekniska spörsmål men egentligen är en diskussion om vad det specifikt mänskliga egentligen är. Texterna är direktcitat förutom en del sammanbindande kommentarer.
Vad är mänskligt medvetande?
Inledningsvis konstaterades att det inte finns några bra svar på vad medvetande eller intelligens är hos människor. En menade till och med att man inte kan veta att andra människor verkligen känner saker, eller ifall det bara är jag som verkligen känner. Eller som en annan uttryckte det – varför anta att människor har medvetande? De kanske bara är byggda så att de tror de har ett sådant.
Hur kan man veta att AI har mänskligt medvetande?
Någon ifrågasatte om man över huvud taget skulle kunna avgöra om en AI är medveten. Detta kan anses besvarat av turingtestet som säger att ”om en människa konverserar med en maskin och inte kan avgöra om det är en maskin eller människa, uppfylls kriteriet för mänsklig intelligens”.
AI bara en teknisk fråga eftersom människan är en biologisk maskin
Sen var det många som liksom min son var övertygade att det bara var en teknisk fråga att skapa ett människoliknande medvetande hos en robot, ”medvetandet är endast ett tillräckligt komplext system som kör”. The human brain projekt har nyligen fått ett antal miljarder för att i slutändan simulera en mänsklig hjärna inom 10 år.
Men hallå, säger en sann reduktionist, artificiell intelligens är visst möjligt att uppnå av den enkla anledning att det redan skett. Vi är ingenting annat än biologiska maskiner och vårt medvetande är ett resultat av tillräcklig komplexitet och förmågan att representera sig själv i den omvärldsmodell som den bygger upp med hjälp av sina sensorer. Hänvisningar till en unik ”själ” ser jag som antingen ett sätt att förminska vad vi faktiskt är kapabla till eller ett sätt att kraftigt förenkla vad man själv inte kan förklara bättre.
Det sker inget magiskt i människor. Vårt tänkande är en massa beräkningar utifrån tillgänglig information, något som vi blir allt bättre på att skapa ”maskiner” för att utföra. Vad är det som faktiskt sker i människan som skulle vara tekniskt omöjligt att skapa en motsvarighet till? Vi är mer banala än de flesta tror. Om vi inte kan förklara vad som skiljer det specifikt mänskliga från vad som kommer att gå att skapa i ”maskiner” rent tekniskt är vi principiellt inte närmre att beskriva verkligheten än de som förklarar allt med att det skulle vara guds vilja eller verk. Kan vi inte skapa AI jämförbar med människan befinner vi oss i en värld lik den en religion beskriver, med övernaturliga krafter.
En kommentar: Uttalandet att vi är ”mer banala än de flesta tror” är en genial sammanfattning av den reduktionistiska synen på människan. Men att se människan som bara en maskin – är inte det en förhastad slutsats? För i dag framstår hon ju för de flesta som oändligt mycket mer, oavsett om man anser att hon har en själ eller inte. Att idag reducera människan till en banalitet känns bara okunnigt. Denna uppfattning bryter inte bara mot den vanliga uppfattningen att människan är något mycket större än vi tror, uttalandet att om människan inte själv kan skapa en ”människomaskin” befinner vi oss i en övernaturlig värld, känns både paradoxalt och motsägelsefullt.
Men, invänder en – ett problem med artificiella intelligenta medvetanden är att de inte uppkommit genom evolution under förutsättningar liknande våra, så de skulle kunna ta sig väldigt annorlunda former än oss och andra flocklevande däggdjur. Flockdjur verkar ha många likheter, typ empati, kommunikation och sånt. Det kan man inte utan vidare förvänta sig av en artificiell varelse. Intelligens är nog inget man kodar fram utan något man bygger ett frö till. Det svåra är att komma på hur intelligensen ska växa fram i datorn, menar en annan. Man måste skapa strukturer som fungerar på samma sätt som nervceller, och som lär sig på samma sätt som djur (och människor) gör.
Datorer skiljer på minne och processor och har massiva minnessystem men bara några tiotal processorer, medan biologiska system inte förefaller skilja på processor och minne, och utgör massivt parallella system, med enorma mängder mycket primitiva kombinerade process- och minnesenheter. Den maskinen måste ha en radikalt annorlunda uppbyggnad än vad de robotar har som idag byggs, så annorlunda att det rimligen blir nåt annat, så annorlunda att vi skulle tveka att se dagens maskiner som annat än forskning om detaljer.
Men om man inte kan skriva ett program som blir självmedvetet, hur kan roboten då bli självmedveten? En källkod måste gå att förstå. Det är det som är poängen. En källkod som inte går att förstå är knappast någon källkod.
– Behöver man förstå källkoden till hjärncellerna för att förstå hur hjärnan fungerar? Räcker det inte att se till hjärncellernas funktion?
– Du tycks förutsätta något som såvitt jag vet ingen som försöker utveckla ”sann” AI utgår ifrån, nämligen att medvetandet per se är inprogrammerat i koden. Jag, som tror att det är möjligt att utveckla en ”sann” AI, utgår från att koden kodar för den underläggande strukturen, men att medvetandet ligger i strukturen. Det är hjärnans funktion som ska återskapas och därefter måste AI:n sättas i en inlärningsfas, precis som vi djur behöver interagera med omgivningen för att utveckla sinnet. Att skriva en AI-kod med de språk vi har i dagsläget är omöjligt då det skulle kräva miljoner om inte miljarder rader med kod. Vilket leder oss till slutsatsen att det vi behöver är en maskin som kan lära sig själv saker och utvecklas.
Måste man programmera AI med en moralkod?
Killen som skapat elbilen Tesla ska nu ge sig in i AI för att förhindra det som kan bli dåligt. Vilket jag tolkar som att möjligheterna att skapa medvetna maskiner inte nödvändigtvis gör dem ”goda” om man inte sätter in åtgärder för det.
En AI med självmedvetande måste kunna konstruera om sin egen källkod så att dess självbild stämmer överens med dess styrkod. Haken blir att det någonstans behövs en grundläggande moral så att inte systemet råkar i självsvängning eller kaos. Allt levande har någon typ av moralkod muterad och nedärvd. Känslor är signaler som visar på differensen mellan upplevd situation och moraliskt ideal. Utan styrning och mål fungerar inget system. Självmedvetande är en kontrollfunktion i ett system som även det behöver någon form av styrning, alternativt att
AIn själv konstruerar en egen agenda. Jag antar att det är just det som kan vara det skrämmande för folk när vi talar om AI med egen intelligens. Att kunna vinna i schack är en sak men om AIn skapar sig en egen agenda, en egen moralkod, vars värderingar om vad som är bra och dåligt, gott eller ont, skiljer sig från våra mänskliga värderingar, det är då det är viktigt att veta vart avstängningsknappen sitter.
Kan AI ha känslor?
Ja, robotar kommer i framtiden ha ett självmedvetande och känslor. Precis som vi kan se det hos andra människor och djur. Det är också det som är det kluriga. Självmedvetande och känslor är mest intressanta i just interaktion med andra människor, ja kanske är en förutsättning för det.
Man kan programmera datorer till att imitera mänskligt beteende, i framtiden sannolikt så att det är extremt svårt att skilja den från en verklig människa. Inklusive imiterade känsloresponser. Men betyder det att den därmed blir mänsklig, att den faktiskt KÄNNER smärta eller kärlek, eller handlar det fortfarande bara om en komplex programmering?
– Jag tror att de är fullt möjligt att få datorer att känna känslor på samma sätt som vi gör. Fattar inte varför det skulle vara ett problem ens.
Skulle en dator kunna vara empatisk i förhållande till en människa? Förutsätter inte empati i grunden biologisk likhet? Empati är ju i grund och botten förmåga att sätta sig in i en annan varelses plats, och bygger nånstans på att man kan föreställa sig en annan persons känslor. En maskin med en helt annan typ av kropp, kan den känna hur det känns att slå sig på tummen?
Kan AI skapa bättre maskiner ur eget initiativ?
Teknologisk singularitet beskrivs normalt som det tillfälle då maskiner kan skapa bättre maskiner själva än vad de kan om vi hjälper till. Från det ögonblicket kan vi inte längre med lätthet förutsäga framtiden över någon längre period (å andra sidan, kan vi det nu?). Vi bör troligen vara försiktigare ju närmare denna punkt vi kommer.
Det är heller inte trivialt att förhålla sig till ”kroppen” som kan vara en robotliknande tingest, eller bara en samling kameror och kontroller i ett hus kopplade till ett lokalt AI eller helt kroppslöst. Vilken typ av varelse som skapas kommer troligen att vara helt beroende av detta.
Vad behöver vi AI för?
Problemlösning är i grund och botten en massa beräkningar utifrån tillgänglig information, något som datorer än så länge huvudsakligen är bättre på än oss när det gäller saker som är enkla att beskriva matematiskt. När datorerna/robotarna blir snabbare och får fler och bättre sensorer, blir bättre på att sortera och behandla information kommer de att bli bättre än oss på all problemlösning.
Jag tror visst att man kan använda robotar inom t ex äldrevården (finns redan försök i Japan) men dom kommer aldrig att kunna vara fullständiga ersättare för människor så länge dom inte tänker och känner som vi gör, och jag tror faktiskt inte att vi skulle nöja oss med robotar som sällskap heller. Jag tror att maskiner kommer att kunna tänka och vara medvetna, troligen mer än vad vi är. Kommer de att vara människor? Nej. Vi kommer inte att skapa våra likar, utan något annorlunda.
Tänk om man designar artificiella varelser som njuter av att vara slavar? Jag tycker det skulle kännas lite suspekt, men det är inte uppenbart omoraliskt utifrån någon vettig moralteori. Med gällande rättigheter och slaveri och sånt så är det ju inte helt enkelt.
Fri vilja är en illusion – bara ett annat ord för slump
Fri vilja är väl typ logiskt omöjligt. Finns inget experiment som som skulle kunna särskilja den från slump. Fri vilja är en illusion. Jag har väldigt svårt att få något sådant som fri vilja att passa in i någon slags verklighet alls. Fast svaret är förutbestämt av ens egenskaper och tidigare erfarenheter samt möjligen en inneboende slumpmässighet i naturen. Det är inte styrt av nån mystisk utomvärldslig kraft kallad fri vilja. Man kan göra vad man vill men man kan inte vilja vad man vill. Äkta AI kan göra allt vi kan – även uppleva och filosofera om fri vilja om den skulle vilja det. Huruvida fri vilja faktiskt existerar eller ej är ett olöst filosofiskt problem.
– Olöst? Det finns ingenstans en fri vilja skulle kunna komma ifrån. Vilket skulle argumentet för en fri vilja vara? Enda sättet att få in något sådant i världen är att inte tänka efter. Var skulle en sådan fri vilja komma ifrån? Hur skulle den fungera? Känner du till alla parametrar så vet du resultatet. Det är så enkelt. Om parametrarna är skärvor av gud eller atomer eller vad fan som helst, så får du samma resultat oavsett. Finns det en inneboende slumpmässighet i världen däremot. Då är det slump. Inte fri vilja.
Fri vilja behövs inte alls för att lösa problem. Tvärt om. Om det finns en optimal lösning och kravet är att välja den, då finns det inget behov av fri vilja. Om flera lösningar är likvärdiga så gör slumpen samma jobb som den fria viljan. Eventuell fri vilja är inget krav för att vara funktionell. Faktiskt har jag svårt att se att vi skulle ha fri vilja som det är. Varifrån skulle den komma? Hur skulle den fungera?
Psykologi tycks motsäga att det mänskliga psyket är fritt. En studie för inte så länge sedan visade t ex att vi tänker en tanke innan vi blir medvetna om den. Om viljan skulle vara fri är den alltså fristående från medvetandet. Om vi antar att viljan är fri, skulle det vara ett hinder för att skapa samma sak med kiselbaserat liv?
Och så fortsatte det ett bra tag till. Men den uppenbara konsekvensen av att vi inte har en fri vilja togs aldrig upp. För om vi inte har en fri vilja måste våra liv vara styrda av determinism och vi kan därför inte vara ansvariga för våra handlingar. Men som en sa: ”En etisk problematik kommer att uppstå som ingen har behov av. Vi har nog med etiska problem redan.”
Men visst var det en intressant diskussion?
Johannes Ljungquist
