Kan man skapa en robot med både självmedvetande och jagupplevelse?

♦ ♦ ♦ Sonen som är dataexpert följer det senaste inom artificiell intelligens (AI) och försöken att åstadkomma allt mänskligare robotar. Han håller för troligt att vi med tiden kommer att få robotar som inte bara tänker utan också har ett medvetande, kan ta egna initiativ och skapa andra robotar. Detta framgick i ett samtal vi hade på vår dagliga bilresa från Bergen till Dale en försommarmorgon i Norge.

Hans far var inte lika säker och ställde en rad frågor. Är det möjligt att en robot kan komma att uppleva sig själv? Kan det vara möjligt att rent tekniskt skapa ett självmedvetande och en jagupplevelse? Kan man få en robot att ha känslor? Är detta inte just det som definierar människan? Kan man få robotar att känna empati och solidaritet? Eller blir de egoister?

Dessa frågeställningar lades ut på Vetenskap och folkbildnings facebooksida där de fick en ögonblicklig respons. Problematiken verkade vara mitt i prick för det inkom 541 kommentarer på 8 dagar, ett rekord för undertecknad. I diskussionen, som vi här återger en del av, antyds en tematik som på ytan kan verka handla om tekniska spörsmål men egentligen är en diskussion om vad det specifikt mänskliga egentligen är. Texterna är direktcitat förutom en del sammanbindande kommentarer.

Vad är mänskligt medvetande? 

Inledningsvis konstaterades att det inte finns några bra svar på vad medvetande eller intelligens är hos människor. En menade till och med att man inte kan veta att andra människor verkligen känner saker, eller ifall det bara är jag som verkligen känner. Eller som en annan uttryckte det – varför anta att människor har medvetande? De kanske bara är byggda så att de tror de har ett sådant.

Hur kan man veta att AI har mänskligt medvetande? 

Någon ifrågasatte om man över huvud taget skulle kunna avgöra om en AI är medveten. Detta kan anses besvarat av turingtestet som säger att ”om en människa konverserar med en maskin och inte kan avgöra om det är en maskin eller människa, uppfylls kriteriet för mänsklig intelligens”.

AI bara en teknisk fråga eftersom människan är en biologisk maskin

Sen var det många som liksom min son var övertygade att det bara var en teknisk fråga att skapa ett människoliknande medvetande hos en robot, ”medvetandet är endast ett tillräckligt komplext system som kör”. The human brain projekt har nyligen fått ett antal miljarder för att i slutändan simulera en mänsklig hjärna inom 10 år.

Artificial intelligence 2Men hallå, säger en sann reduktionist, artificiell intelligens är visst möjligt att uppnå av den enkla anledning att det redan skett. Vi är ingenting annat än biologiska maskiner och vårt medvetande är ett resultat av tillräcklig komplexitet och förmågan att representera sig själv i den omvärldsmodell som den bygger upp med hjälp av sina sensorer. Hänvisningar till en unik ”själ” ser jag som antingen ett sätt att förminska vad vi faktiskt är kapabla till eller ett sätt att kraftigt förenkla vad man själv inte kan förklara bättre.

Det sker inget magiskt i människor. Vårt tänkande är en massa beräkningar utifrån tillgänglig information, något som vi blir allt bättre på att skapa ”maskiner” för att utföra. Vad är det som faktiskt sker i människan som skulle vara tekniskt omöjligt att skapa en motsvarighet till? Vi är mer banala än de flesta tror. Om vi inte kan förklara vad som skiljer det specifikt mänskliga från vad som kommer att gå att skapa i ”maskiner” rent tekniskt är vi principiellt inte närmre att beskriva verkligheten än de som förklarar allt med att det skulle vara guds vilja eller verk. Kan vi inte skapa AI jämförbar med människan befinner vi oss i en värld lik den en religion beskriver, med övernaturliga krafter.

En kommentar: Uttalandet att vi är ”mer banala än de flesta tror” är en genial sammanfattning av den reduktionistiska synen på människan. Men att se människan som bara en maskin – är inte det en förhastad slutsats? För i dag framstår hon ju för de flesta som oändligt mycket mer, oavsett om man anser att hon har en själ eller inte. Att idag reducera människan till en banalitet känns bara okunnigt. Denna uppfattning bryter inte bara mot den vanliga uppfattningen att människan är något mycket större än vi tror, uttalandet att om människan inte själv kan skapa en ”människomaskin” befinner vi oss i en övernaturlig värld, känns både paradoxalt och motsägelsefullt.

Men, invänder en – ett problem med artificiella intelligenta medvetanden är att de inte uppkommit genom evolution under förutsättningar liknande våra, så de skulle kunna ta sig väldigt annorlunda former än oss och andra flocklevande däggdjur. Flockdjur verkar ha många likheter, typ empati, kommunikation och sånt. Det kan man inte utan vidare förvänta sig av en artificiell varelse. Intelligens är nog inget man kodar fram utan något man bygger ett frö till. Det svåra är att komma på hur intelligensen ska växa fram i datorn, menar en annan. Man måste skapa strukturer som fungerar på samma sätt som nervceller, och som lär sig på samma sätt som djur (och människor) gör.

artificial_intelligence (1)Datorer skiljer på minne och processor och har massiva minnessystem men bara några tiotal processorer, medan biologiska system inte förefaller skilja på processor och minne, och utgör massivt parallella system, med enorma mängder mycket primitiva kombinerade process- och minnesenheter. Den maskinen måste ha en radikalt annorlunda uppbyggnad än vad de robotar har som idag byggs, så annorlunda att det rimligen blir nåt annat, så annorlunda att vi skulle tveka att se dagens maskiner som annat än forskning om detaljer.

Men om man inte kan skriva ett program som blir självmedvetet, hur kan roboten då bli självmedveten? En källkod måste gå att förstå. Det är det som är poängen. En källkod som inte går att förstå är knappast någon källkod.

– Behöver man förstå källkoden till hjärncellerna för att förstå hur hjärnan fungerar? Räcker det inte att se till hjärncellernas funktion?

– Du tycks förutsätta något som såvitt jag vet ingen som försöker utveckla ”sann” AI utgår ifrån, nämligen att medvetandet per se är inprogrammerat i koden. Jag, som tror att det är möjligt att utveckla en ”sann” AI, utgår från att koden kodar för den underläggande strukturen, men att medvetandet ligger i strukturen. Det är hjärnans funktion som ska återskapas och därefter måste AI:n sättas i en inlärningsfas, precis som vi djur behöver interagera med omgivningen för att utveckla sinnet. Att skriva en AI-kod med de språk vi har i dagsläget är omöjligt då det skulle kräva miljoner om inte miljarder rader med kod. Vilket leder oss till slutsatsen att det vi behöver är en maskin som kan lära sig själv saker och utvecklas.

Måste man programmera AI med en moralkod?

Killen som skapat elbilen Tesla ska nu ge sig in i AI för att förhindra det som kan bli dåligt. Vilket jag tolkar som att möjligheterna att skapa medvetna maskiner inte nödvändigtvis gör dem ”goda” om man inte sätter in åtgärder för det.

En AI med självmedvetande måste kunna konstruera om sin egen källkod så att dess självbild stämmer överens med dess styrkod. Haken blir att det någonstans behövs en grundläggande moral så att inte systemet råkar i självsvängning eller kaos. Allt levande har någon typ av moralkod muterad och nedärvd. Känslor är signaler som visar på differensen mellan upplevd situation och moraliskt ideal. Utan styrning och mål fungerar inget system. Självmedvetande är en kontrollfunktion i ett system som även det behöver någon form av styrning, alternativt att

AIn själv konstruerar en egen agenda. Jag antar att det är just det som kan vara det skrämmande för folk när vi talar om AI med egen intelligens. Att kunna vinna i schack är en sak men om AIn skapar sig en egen agenda, en egen moralkod, vars värderingar om vad som är bra och dåligt, gott eller ont, skiljer sig från våra mänskliga värderingar, det är då det är viktigt att veta vart avstängningsknappen sitter.

Kan AI ha känslor?

Ja, robotar kommer i framtiden ha ett självmedvetande och känslor. Precis som vi kan se det hos andra människor och djur. Det är också det som är det kluriga. Självmedvetande och känslor är mest intressanta i just interaktion med andra människor, ja kanske är en förutsättning för det.

AIMan kan programmera datorer till att imitera mänskligt beteende, i framtiden sannolikt så att det är extremt svårt att skilja den från en verklig människa. Inklusive imiterade känsloresponser. Men betyder det att den därmed blir mänsklig, att den faktiskt KÄNNER smärta eller kärlek, eller handlar det fortfarande bara om en komplex programmering?

– Jag tror att de är fullt möjligt att få datorer att känna känslor på samma sätt som vi gör. Fattar inte varför det skulle vara ett problem ens.

Skulle en dator kunna vara empatisk i förhållande till en människa? Förutsätter inte empati i grunden biologisk likhet? Empati är ju i grund och botten förmåga att sätta sig in i en annan varelses plats, och bygger nånstans på att man kan föreställa sig en annan persons känslor. En maskin med en helt annan typ av kropp, kan den känna hur det känns att slå sig på tummen?

Kan AI skapa bättre maskiner ur eget initiativ?

Teknologisk singularitet beskrivs normalt som det tillfälle då maskiner kan skapa bättre maskiner själva än vad de kan om vi hjälper till. Från det ögonblicket kan vi inte längre med lätthet förutsäga framtiden över någon längre period (å andra sidan, kan vi det nu?). Vi bör troligen vara försiktigare ju närmare denna punkt vi kommer.

Det är heller inte trivialt att förhålla sig till ”kroppen” som kan vara en robotliknande tingest, eller bara en samling kameror och kontroller i ett hus kopplade till ett lokalt AI eller helt kroppslöst. Vilken typ av varelse som skapas kommer troligen att vara helt beroende av detta. 

Vad behöver vi AI för?

Problemlösning är i grund och botten en massa beräkningar utifrån tillgänglig information, något som datorer än så länge huvudsakligen är bättre på än oss när det gäller saker som är enkla att beskriva matematiskt. När datorerna/robotarna blir snabbare och får fler och bättre sensorer, blir bättre på att sortera och behandla information kommer de att bli bättre än oss på all problemlösning.

Jag tror visst att man kan använda robotar inom t ex äldrevården (finns redan försök i Japan) men dom kommer aldrig att kunna vara fullständiga ersättare för människor så länge dom inte tänker och känner som vi gör, och jag tror faktiskt inte att vi skulle nöja oss med robotar som sällskap heller. Jag tror att maskiner kommer att kunna tänka och vara medvetna, troligen mer än vad vi är. Kommer de att vara människor? Nej. Vi kommer inte att skapa våra likar, utan något annorlunda.

Tänk om man designar artificiella varelser som njuter av att vara slavar? Jag tycker det skulle kännas lite suspekt, men det är inte uppenbart omoraliskt utifrån någon vettig moralteori. Med gällande rättigheter och slaveri och sånt så är det ju inte helt enkelt.

Fri vilja är en illusion – bara ett annat ord för slump

Fri vilja är väl typ logiskt omöjligt. Finns inget experiment som som skulle kunna särskilja den från slump. Fri vilja är en illusion. Jag har väldigt svårt att få något sådant som fri vilja att passa in i någon slags verklighet alls. Fast svaret är förutbestämt av ens egenskaper och tidigare erfarenheter samt möjligen en inneboende slumpmässighet i naturen. Det är inte styrt av nån mystisk utomvärldslig kraft kallad fri vilja. Man kan göra vad man vill men man kan inte vilja vad man vill. Äkta AI kan göra allt vi kan – även uppleva och filosofera om fri vilja om den skulle vilja det. Huruvida fri vilja faktiskt existerar eller ej är ett olöst filosofiskt problem.

– Olöst? Det finns ingenstans en fri vilja skulle kunna komma ifrån. Vilket skulle argumentet för en fri vilja vara? Enda sättet att få in något sådant i världen är att inte tänka efter. Var skulle en sådan fri vilja komma ifrån? Hur skulle den fungera? Känner du till alla parametrar så vet du resultatet. Det är så enkelt. Om parametrarna är skärvor av gud eller atomer eller vad fan som helst, så får du samma resultat oavsett. Finns det en inneboende slumpmässighet i världen däremot. Då är det slump. Inte fri vilja. 

Fri vilja behövs inte alls för att lösa problem. Tvärt om. Om det finns en optimal lösning och kravet är att välja den, då finns det inget behov av fri vilja. Om flera lösningar är likvärdiga så gör slumpen samma jobb som den fria viljan. Eventuell fri vilja är inget krav för att vara funktionell. Faktiskt har jag svårt att se att vi skulle ha fri vilja som det är. Varifrån skulle den komma? Hur skulle den fungera?

Psykologi tycks motsäga att det mänskliga psyket är fritt. En studie för inte så länge sedan visade t ex att vi tänker en tanke innan vi blir medvetna om den. Om viljan skulle vara fri är den alltså fristående från medvetandet. Om vi antar att viljan är fri, skulle det vara ett hinder för att skapa samma sak med kiselbaserat liv?

Och så fortsatte det ett bra tag till. Men den uppenbara konsekvensen av att vi inte har en fri vilja togs aldrig upp. För om vi inte har en fri vilja måste våra liv vara styrda av determinism och vi kan därför inte vara ansvariga för våra handlingar. Men som en sa: ”En etisk problematik kommer att uppstå som ingen har behov av. Vi har nog med etiska problem redan.”

Men visst var det en intressant diskussion?

                                                                                                             Johannes Ljungquist

Twingly BlogRank

Share                        
VN:F [1.9.22_1171]
Rating: 1.5/10 (2 votes cast)
VN:F [1.9.22_1171]
Rating: -2 (from 2 votes)
Kan man skapa en robot med både självmedvetande och jagupplevelse?, 1.5 out of 10 based on 2 ratings
    • Sören Gunge
    • augusti 18th, 2014

    Sören Gunge: jo då intressant,men jag är besviken på att vi inte tydligt kunna visa att det inte finns stöd för att skapa liv i död materia,känslor utan blod och hjärta ,vilja utan ämnesomsättning och lemmar och tanke.Självmedvetenhet utan själv eller jagorganisation ,hoppas att du åtminstone kunna övertyga din son att det finns många olösta och oklara tanker i denna sammanhang.

    VA:F [1.9.22_1171]
    Rating: 0.0/5 (0 votes cast)
    VA:F [1.9.22_1171]
    Rating: 0 (from 0 votes)
  1. @Sören Gunge

    Sören, jag tror vår oförmåga hänger samman med tidsandan. Skulle vi ha de där svaren och kunna framföra dem på ett trovärdigt sätt – skulle det vara en annan tidsanda där en beredskap för ”vårt” synsätt skulle vara självklar. Så ser det inte ut nu. Vad som till sist förändrar den nuvarande tidsandan vet jag inte, men den upptäcktsfärd vetenskapen beskriver är ju viktig. Man upptäcker världen genom materien – och helt avskurna från föreställningar om den andliga dimensionen av tillvaron. Det ligger en uppgift i det. Men vår tid kommer.

    Min son Eyvind är en klok karl som ser mina poänger – och respekterar dem. Men han är ett barn av sin tid och därför skeptisk till allt som inte framträder på ett självklart sätt. Det finns så mycket humbug och hur kan vi garantera att inte antroposofin är det? Var och en blir salig på sin fason.

    VN:F [1.9.22_1171]
    Rating: 0.0/5 (0 votes cast)
    VN:F [1.9.22_1171]
    Rating: 0 (from 0 votes)
    • Sören Gunge
    • augusti 19th, 2014

    ser din poäng—men ser inte mycket realitet i de flesta av de ”fria” luciferiska spekulationer som framkom i debatten på VoF. Eländig tänkning till stor del.

    VA:F [1.9.22_1171]
    Rating: 0.0/5 (0 votes cast)
    VA:F [1.9.22_1171]
    Rating: 0 (from 0 votes)
  2. @Sören Gunge

    Nu är du orättvis. Jag tycker mycket var intressanta tankegångar och det var just min tanke – att jag skulle tvinga ut dem ur busken genom att få dem att granska sin bild av vad medvetande är. Och vad en människa är. Visst är deras uppfattningar ofta torftiga, men i detta område blir de intressanta. De avslöjar sig själva. Tycker du inte?

    VN:F [1.9.22_1171]
    Rating: 0.0/5 (0 votes cast)
    VN:F [1.9.22_1171]
    Rating: 0 (from 0 votes)
    • Fredrik Bendz
    • augusti 19th, 2014

    Fri vilja är alls inte nödvändigt för etiken. Jag tror inte på fri vilja, men jag har ett fullständigt fungerande etiskt system för det. Ja, på sätt och vis tar det bort ”ansvar”, eller snarare ”synd”. Om man begår brott så har man inte valt att vara en person med sociala och/eller biologiska orsaker till att man begår brott. Det medför en mer förlåtande attityd. Brottslingar är inte onda syndare, utan människor som hamnat i en tråkig situation. Det innebär också att man bör satsa på åtgärder för att hindra folk att bli brottslingar istället för att spärra in dem som hämnd. Vård och rehabilitering är humanare än straff.

    Människor kan fortfarande behöva spärras in för sin egen eller omgivningens skull, men inte på bröd och vatten, utan med målet att rehabiliteras och bli ”frisk”. En humanare och mer preventiv brottsbekämpning helt enkelt.

    MVH från en av de citerade. 🙂

    VA:F [1.9.22_1171]
    Rating: 0.0/5 (0 votes cast)
    VA:F [1.9.22_1171]
    Rating: 0 (from 0 votes)
    • Fredrik Bendz
    • augusti 19th, 2014

    Jag kan tillägga att dagens brottsbekämpning bevisligen inte fungerar. Fängelse är snarare en grogrund för att knyta kontakter och hamna djupare i den brottsliga banan – en icke fungerande form av brottsbekämpning. Dessutom är fängelsestraff dyrt för samhället. Detta menar jag *beror* på syndatänkandet, som har sin grund i idén om den fria viljan. Att skapa ett samhälle där folk begår brott för att sedan straffa dem ser jag som en av de tråkiga resterna av kristen etik.

    VA:F [1.9.22_1171]
    Rating: 0.0/5 (0 votes cast)
    VA:F [1.9.22_1171]
    Rating: 0 (from 0 votes)
    • Fredrik Bendz
    • augusti 19th, 2014

    Angående empati: Skulle vi ha empati för en AI? Om så är fallet, varför skulle inte AI:n kunna ha empati för oss? Det viktiga är väl att förstå att den andre är en tänkande och kännande varelse?

    För övrigt har jag lärt mig av en autist att man måste skilja mellan empati och sympati. Han saknar empati, men inte sympati. Jag tyckte först det var konstigt att man kunde bry sig om svaga och utsatta om man saknar empati, men han förklarade att han kan känna *sympati* utan att känna empati. Skulle vi känna sympati för en AI? Om ja, varför skulle inte AI:n känna sympati för oss?

    Vad man består av är inte relevant, utan förmågan att känna med andra personer, dvs andra medvetna varelser.

    VA:F [1.9.22_1171]
    Rating: 0.0/5 (0 votes cast)
    VA:F [1.9.22_1171]
    Rating: 0 (from 0 votes)
  3. @Fredrik Bendz

    Fredrik, kul att du hittade hit, jag fick ju inte lägga ut denna krönika på V&F:s fb-sida. Jag trodde nämligen det kunde vara intressant för de inblandade med detta försök till sammanfattning.

    Fri vilja är komplicerad materia. Vad är det som är ”fritt” i våra val och intentioner i livet? Man kan ju förenklat säga att de egentligen är ett uttryck för något givet – nämligen vårt DNA. Alltså borde vi mäta människors handlingar utifrån en strikt utilitaristisk måttstock. Men hur ska vi då se på osjälviska handlingar? Varför finns de människor som offrar sig? De gör det ju inte utifrån en slump som någon i vår diskussion trodde. De gör det utifrån ett fritt beslut.

    Frånvaron av fri vilja innebär att vi inte kan betraktas som ansvariga för våra handlingar, vilket när det gäller brottslingar fråntar dem skulden för brottet. Men det gäller ju inte bara dem. Hur är det med muslimerna i IS? Är deras vidriga brott att betrakta som DNA-relaterade där de saknar ansvar? Skulle Hitler inte ha någon skuld till judeutrotningen?

    Jag tror inte det. Det är orimligt. Människor måste hållas ansvariga för sina handlingar oavsett vad de gör. Att många begår brott beroende på en taskig uppväxt spelar naturligtvis en stor roll. Men de som begår brotten har medvetet gjort ett val.

    Den fria viljan är en realitet – annars skulle människan vara en slav under arv och miljö.

    VN:F [1.9.22_1171]
    Rating: 0.0/5 (0 votes cast)
    VN:F [1.9.22_1171]
    Rating: 0 (from 0 votes)
  4. Kan robotar ha medvetande med Martin Ingvar Karolinska Institutet och Danica Kragic Jensfelt kth. Mycket hög ambitionsnivå.

    https://sverigesradio.se/sida/avsnitt/514570?programid=793

    VA:F [1.9.22_1171]
    Rating: 0.0/5 (0 votes cast)
    VA:F [1.9.22_1171]
    Rating: 0 (from 0 votes)
    • Inger
    • juni 13th, 2018

    ”…varför anta att människor har medvetande? De kanske bara är byggda så att de tror de har ett sådant.”

    Byggda? Av vem då?

    VA:F [1.9.22_1171]
    Rating: 0.0/5 (0 votes cast)
    VA:F [1.9.22_1171]
    Rating: 0 (from 0 votes)
  5. @Inger

    Precis, det är den givna följdfrågan. Och det lika givna svaret från slumpteoretikerna är – slumpen, för om vi svarar Gud eller en högre makt blir frågan vem/vilka har skapat Gud? Ett evighetsresonemang som inte leder till ett slutgiltigt svar.

    VN:F [1.9.22_1171]
    Rating: 0.0/5 (0 votes cast)
    VN:F [1.9.22_1171]
    Rating: 0 (from 0 votes)
  1. No trackbacks yet.