Collibri

CollibriCollibriCollibri
  • Collibri
  • SYKE
    • OM SYKE
    • INFORMATION
    • PROJEKT
    • MEDLEMSKAP OCH KONTAKT
  • ICRA
    • ICRA
    • ICRA-PROJEKT
    • COLLIBRI TEXT
  • HASSE SPRÅKAR
    • HASSE SPRÅKAR
    • BETRAKTELSER I
    • BETRAKTELSER II
  • AKTUELLT
  • ARKIV
    • UTBILDNING PRIVATPERSONER
    • TJÄNSTER OS
    • TJÄNSTER PRIVATPERSONER
    • UTBILDNINGAR OS
    • AKTIVITETER ARKIVERAT
    • PROJEKT ARKIVERAT
    • TEMA 2018
    • DUCK-RABBIT PRODUCTIONS
  • KONTAKT
  • Mer
    • Collibri
    • SYKE
      • OM SYKE
      • INFORMATION
      • PROJEKT
      • MEDLEMSKAP OCH KONTAKT
    • ICRA
      • ICRA
      • ICRA-PROJEKT
      • COLLIBRI TEXT
    • HASSE SPRÅKAR
      • HASSE SPRÅKAR
      • BETRAKTELSER I
      • BETRAKTELSER II
    • AKTUELLT
    • ARKIV
      • UTBILDNING PRIVATPERSONER
      • TJÄNSTER OS
      • TJÄNSTER PRIVATPERSONER
      • UTBILDNINGAR OS
      • AKTIVITETER ARKIVERAT
      • PROJEKT ARKIVERAT
      • TEMA 2018
      • DUCK-RABBIT PRODUCTIONS
    • KONTAKT

Collibri

CollibriCollibriCollibri
  • Collibri
  • SYKE
    • OM SYKE
    • INFORMATION
    • PROJEKT
    • MEDLEMSKAP OCH KONTAKT
  • ICRA
    • ICRA
    • ICRA-PROJEKT
    • COLLIBRI TEXT
  • HASSE SPRÅKAR
    • HASSE SPRÅKAR
    • BETRAKTELSER I
    • BETRAKTELSER II
  • AKTUELLT
  • ARKIV
    • UTBILDNING PRIVATPERSONER
    • TJÄNSTER OS
    • TJÄNSTER PRIVATPERSONER
    • UTBILDNINGAR OS
    • AKTIVITETER ARKIVERAT
    • PROJEKT ARKIVERAT
    • TEMA 2018
    • DUCK-RABBIT PRODUCTIONS
  • KONTAKT

Välkommen till ICRA

Intelligent & Creative Robotic Agent

Kunskap och Evigt liv

"Se, människan har blivit som en av oss med kunskap om gott och ont. Hon får nu inte räcka ut handen och även ta av livets träd och så äta och leva för evigt." 

Genesis 3:22


Som en säkerhetsåtgärd för att de inte också skulle bli odödliga, blev Adam och Eva alltså fördrivna ur lustgården. Man kan tycka att Gud borde ha tänkt på det innan han skapade en varelse som inte kan skilja mellan gott och ont men kan välja mellan att lyda och inte lyda. Om man inte ska dra slutsatsen att Gud inte är allvetande, så måste slutsaten bli att Gud visste att det skulle hända och därmed också ville att det skulle hända.


Nu är inte vi allvetande så liknelsen slutar där. Men det går att på ett ungefär förutsäga sannolikheten för att något ska hända - givet förutsättningarna.  Man behöver inte ens vara allvetande för att räkna ut att två träd med lockande men förbjuden frukt + en orm som spär på lockelsen + två varelser som inte kan skillnad mellan gott och ont, kommer med ganska stor sannolikhet att resultera i någon form av haveri - och sannolikheten för det ökar exponentiellt med tiden. 


En intelligent och kreativ robot som dessutom har förmåga att agera självständigt verkar vara idealet för många AI-producenter idag. Jag säger "verkar" för att det är vad utvecklare och säljare av AI-produkter basunerar ut - de säger sig komma närmare och närmare det målet. En del hävdar att vi är där, och många tror på dem. Den senaste tidens hysteri i media om t ex AI som "lurar" människor till att göra saker åt dem tillsammans med de inflytelserika AI-producenternas och AI-filosofernas varningar och vädjanden om att "utvecklingen av AI måste pausas" (annars förlorar vi kontrollen), har fått en hel del anhängare. Det är nästan svårt att hävda motsatsen utan att bli utskrattad. En liten överblick över tongångarna i dagsläget, när vi har en AI-kommission tillsatt av regeringen och där direktiven före sjösättning inbegrep formuleringar som ”identifiera prioriterade internationella insatser och lämna förslag till hur Sverige kan agera proaktivt och samordnat vid framtagande och utveckling av internationella policyer och regelverk för AI”, hittar du här. Vår första prioritet är säkerhet och de projekt som vi åtar oss att genomföra syftar till att säkra kontrollen av AI som den ser ut idag - människostyrd men ej ordentligt reglerad avseende de produkter som AI genererar. En realistisk grundsyn på AI ökar möjligheterna till realistiska och välbehövliga säkerhetsåtgärder. 


Innan vi kommer in på de säkerhetsfrågor vi har att förhålla oss till gällande utvecklingen av förgrundsmodellen AI, behövs några klargöranden kring vad som åsyftas när AI som förgrundsmodell för ICRA kommer på tal. Om det nu kan vara en förgrundsmodell, en förgrundsidé kanske. Det kanske är så att AI aldrig kommer att bli ICRA, en position som man kan inta på flera sätt, utan att för den skull mena att ICRA aldrig kommer att finnas. De som hör till anhängarna av AI:s utveckling till ICRA (här läger A) kan mena något av följande:


  • (A1) AI kommer att genomgå en evolution liknande människans och bli till ICRA. Med detta kan man mena både att vi människor ser till att AI utvecklas till ICRA genom att skapa bättre teknologi (hårdvara) och programmeringstekniker (mjukvara) och att grunden redan finns men tiden får göra sitt. AI:n kan, allteftersom den "lär" sig, mogna till en vuxen AI. 


  • (A2)  AI kommer att göra något slags kvalitativt språng, antingen med vår hjälp eller utan, och plötsligt en dag så är ICRA ett faktum. En del menar att förutsättningarna för detta finns redan genom neurala nätverk - noder som är kopplade till varandra och kan utbyta information med varandra, som en stor hjärna där neuroner via transmittorsubstanser skickar data till varandra i ett komplext mönster. Om mönstret blir tillräckligt komplext och neuronerna tillräckligt många så kommer nätverket förr eller senare att hamna i en sådan position av kopplingar att det kvalitativa språnget till något som liknar det vi kallar medvetande blir ett faktum. Det blir sedan inte svårt för detta medvetande att bygga (minst) en intelligent robot som är både kreativ och har möjlighet till självständig agens. 


  • (A3) En variant är att vi lyckas göra digitala kopior av oss själva genom att kartlägga vår identitet såsom neurovetenskapen och kognitionsvetenskapen beskriver oss och låter AI vara "värdar" för dessa identiteter. Personifierade ICRA:n alltså. Tanken är så lockande att det är svårt att stå emot den, men de filosofisk-etiska implikationerna  är så överväldigande att få mäktar stå stadigt inför dem. Detta alternativ skulle kunna lösa en del problem vi har med t ex funktionsvariationer som på olika sätt bidrar till utanförskap hos individer, eller med "lyxproblem" som t ex att jag kan inte både vara på mötet som är så viktigt samtidigt som jag tar hand om min sjuka mamma. Att använda programmeringstekniker och  teknologi som kan förbättra hjälpmedel är i denna värld möjligt och vi har en skyldighet att utveckla dessa.  


Utan att göra anspråk på att ha uttömt alternativen under läger A, går jag vidare till läger B och försöker bena ut vad man kan mena med att AI aldrig kommer att bli ICRA:


  • (B1) Vi behöver göra något annat för att skapa ICRA, grunden kan inte vara AI. Anhängarna av denna position kan mena att vi behöver teknologi vi just nu saknar - antingen det är kvantdatorer (ICQRA) eller ett sätt att koppla ett nervsystem hos en bioorganism till digitala informationsmottagare (det här öppnar också, likt A3, möjligheter för utvecklingen av medicin och hjälpmedel). Eller så kan de mena att programmeringstekniken behöver göra ett kvalitativt språng och detta tillsammans med att teknologin på biomekanikens område utvecklas kan generera det vi syftar till när vi säger att en "maskin tänker".  Men den ICRA:n skulle inte bygga på AI, inte som AI ser ut idag. denna entitet skulle kanske bli mer lik en android, ett slags kombination mellan biologisk och maskinell intelligens. Vad kvantdatorn kan generera vågar man inte spekulera i så mycket, det är mycket vi inte vet om kvantdatorer. 


  • (B2) AI kan inte bli ICRA, men ICRA kan (och kanske kommer att) finnas parallellt med AI. Här kan man både mena att det inte är vi som utvecklat eller skapat ICRA:n (den kan ha funnits där hela tiden eller kommit från yttre rymden), och att vi har haft med dess tillblivelse att göra (kanske på sätt som överlappar med position B1). Men det är skillnad på kaka och pannkaka ändå, man behöver inte skrota AI för att man har en ICRA (om man nu kan "ha" en ICRA), de är väsensskilda och har inte med varandra att göra. AI kommer att fortsätta räkna statistiska sannolikheter på det primitiva sätt som den gör, medan ICRA:n kommer att vara oss mer lika än AI, så till den grad att vi måste överväga vilka rättigheter och skyldigheter den har. 


Så till alternativ C, de som helt förnekar ICRA:


  • (C) Inga av ovan nämnda alternativ eller någon variant därav är eller kommer att någonsin vara möjlig. Denna position är svårast att hålla, då det varken finns teoretiska argument eller empiriska metoder för att helt utesluta möjligheterna. Men det betyder inte att de inte har rätt. Det går att dela denna grupp i två, de som menar att det aldrig kommer att vara möjligt (och som får svårast att inta positionen) och de som lämnar ett litet öppet fönster och säger att sannolikheten är väldigt liten - men inte lika med noll.


Till detta spektrum av varierande föreställningar behövs ett litet tillägg om begränsningar som utgörs av hur vi talar om dessa ting. Svenskan och engelskan har ett terminologiskt underskott när det gäller "kunskap". Vi har visdom och slughet samt smarthet och listighet. Dessa blir i sin tur svåra att översätta till andra språk på ett sätt som speglar deras fulla betydelse. Hur vi ser på "kunskap" påverkar hur vi ser på "tänkande" och "vetande". Vi kan skildra detta genom en jämförelse med grekiskans olika termer för kunskap. Vi har "episteme" som översätts till "kunskap" och "vetenskap" och som hos Platon betydde "sann, berättigad tro", och vi har "logos" som översätts till "lära" men vars grundbetydelse är "ord" eller "att tala", sen har vi "phronesis" som översätts till "insikt" och "förstånd" i bibelsammanhang men som hos Aristoteles var en typ av "visdom" kopplad till "praktisk kunskap" - att veta vad man ska göra - och vars rot "phroneo" betyder "tänka" medan "techne" också kopplat till det praktiska vetandet betyder "skicklighet", så har vi "nous"  som översätts till både "förnuft" och "ande" medan t ex "epinoia" som har "nous" som rot översätts till "tanke", vi har "gnosis" som översätts till både "tanke" och "insikt" och som har roten "ginosko" som översätts till "känna" och "förstå" och kan också beteckna "sinne", och så "doxa" i sin tur som översätts till "tro" och beskrivs som den "allmänna uppfattningen", medan det i bibliska sammanhang översätts till bl a "ära" och "heder" och betyder ordagrant "det som framkallar en god åsikt" medan betydelsen av "paradox" (som har sin rot i "doxa" kan belysa termens nyanser med sin översättning till "underligt" och NE:s förklaring att det som strider mot den allmänna uppfattningen ("doxa") men "kan innehålla en djupare sanning", och slutligen en annan typ av vishet "sofos", som i bibliska sammanhang översätts till "vis" och "klok" medan NE tar upp "sophisma" som översätts till en "klok och listig tanke".  


Man kan säkert lägga till några termer till listan som syftar på kunskapsrelaterade begrepp, men svårigheten med att få rätt nyans i översättningen är uppenbar då vi knappt skiljer mellan teoretisk och praktisk kunskap i vardagstal. Och som ni märker ovan är det samma svenska termer i rullning för de flesta av de grekiska. Att detta terminolgiska underskott har inflytande över både hur vi utvecklar AI och hur vi ser på dess förmåga att "tänka", "lära", och använda språket för att förmedla information. Vi kanske just därför behöver utveckla språket om AI, för att känna ingen dess form av kunskap och närmare precisera vilka former vi eftersträvar att AI ska uppnå. 


För att återgå till säkerhetsfrågorna, om man intar position C betyder det alltså inte att man förnekar att AI finns och är potentiellt farlig. Synen på vad som är farligt varierar dock. De flesta experter som har uttalat sig offentligt har målat upp en riskbild där AI utvecklas till någon form av ICRA som i sin tur hotar hela mänsklighetens existens. De problemen vi har med AI idag låter triviala i jämförelse. För att skifta fokus och ta även de mer realistiska scenariona på allvar behöver man inse att mänsklighetens utplåning kan ske på fler än ett sätt, risken för att maskinerna utplånar oss för att de blir mer intelligenta än oss (som många framstående auktoriteter på området har varnat oss för), ser vi som mindre sannolik än att vi utplånar oss själva genom att hantera verktygen på fel sätt. Här listas några av de säkerhetsåtgärder som vi på ICRA har identifierat som akuta:


  • Dels bör mjukvaroutvecklare ansvara för att produkterna är säkra, men här finns det så många faktorer att ta hänsyn till att det är omöjligt för varje enskild programmerare att göra detta. Ofta är hela arbetslag involverade i att utveckla en enda produkt (varje programmerare arbetar endast med en liten del av programmet och vet oftast inte vad slutprodukten ska bli). Mjukvaruutveckling står stora multinationella företag för, därför bör internationella organisationer formulera hur reglering (lagstadgad) och kontroll av denna industri ska garantera säkra produkter. 


  • Försäljning och distribution av mjukvara behöver regleras på internationell nivå. Den säkerhetsbrist vi identifierar här är att vinstdrivna företag gärna överdriver fördelarna med just sin produkt och döljer skavankerna. Därför bör statliga institutioner (myndigheter) som lyder under särskilda lagar som i sin tur syftar till att skydda medborgare från alla sorters faror, kontrollera distribution och försäljning. I Sverige har försäljning och distribution av läkemedel och alkohol säkrats enligt en modell som mycket väl kan användas som förgrund till att utforma statlig kontroll av mjukvara. 


  • Information till allmänheten om olika mjukvarors begränsningar och hur man använder sig av mjukvarorna på ett säkert sätt behöver vara korrekt. Återigen kan vi använda modeller som tillämpas på läkemedel och alkohol för att stärka användarnas (och här handlar det inte enbart om privatpersoner - statliga, regionala och kommunala myndigheter har också behov av korrekt information) kunskaper om hur dessa verktyg för behandling och lagring av data ska hanteras för att vara säkra. Här måste man tillägga att myndigheter ofta har misslyckats när det gäller informationskampanjer i diverse satsningar, vi förespråkar att alternativa kommunikationsmodeller tillämpas för en mer framgångsrik kommunikation med allmänheten.


Om en distributör som säljer till en myndighet inte informerar myndigheten om exakt vilka begränsningar varan har och vilka användningsområden den är mer eller mindre lämpad för, leder detta ofta till diskriminering, bristande rättssäkerhet och sociala orättvisor. Det finns många exempel på allvarliga konsekvenser för individer som blivit drabbade av myndigheters och andra samhällsaktörers användning av AI. Rekryteringsprocesser som numera sköts nästan helt digitalt är ett sådant exempel, ett annat är användning av ansiktsigenkänning för att peka ut misstänka för brott. Den typen av användning är osäker utan att användarna vet om det, informationen vid upphandling av dessa produkter har inte kommit från kontrollmyndigheter utan från de mjukvaruutvecklare som inte är förpliktigade till att avslöja bristerna hos produkten. Detta, anser vi, bör AI-kommissionen och liknande organ (nationella och internationella) ta i beaktande när de planerar sitt arbete. Försäljningen av AI-produkter som anspelar på den allmänna tron att AI är ICRA (eller någon variant) skulle desarmeras av kontroller över hela produktionskedjan men framförallt av att korrekt information sprids. Det som är "farligast", enligt oss, är just bristande kunskaper hos användarna - som dock inte är användarnas fel, de har helt enkelt fått partisk information. 


Under huvudrubriken ICRA presenterar vi således AI-relaterade projekt och texter - främst kring temat säkerhet, men även andra AI-relaterade frågor. Det är trots allt ett enormt område som är omöjligt för en person eller en liten grupp att överblicka, än mindre att säkerställa att skador på samhället och individen minimeras. Vi strävar, i stället för efter överblick, mer efter att fördjupa kunskaperna i enskilda frågor. Eftersom vi också strävar efter ett visst mått av realism när vi diskuterar frågorna, försöker vi undvika användningen av termer som antyder att vi pratar om en ICRA och inte en AI. Exempel på sådana termer är "tänker", "lär sig", "vill", "menar", "kommunicerar" och "besitter kunskap". 


Under rubriken Collibri Text hittar du texter som är relevanta för AI-kontroll och AI-säkerhet. Under rubriken ICRA-projekt hittar du de projekt och beskrivningar av projekt som vi i dagsläget arbetar med. Här nedan hittar du både hänvisningar till relevanta texter och beskrivningar av aktuella projekt. Har du frågor kan du skriva till oss på icra@collibri.se eller klicka på pratbubblan längst ner till höger. 


Välkommen till ICRA!

navigering ICRA

Genvägar

Nedan hittar du genvägar till sidorna på ICRA samt lite munsbitar från 2018 på temat kommunikation. 

översikt

¨Genvägar till de olika avsnitten i ICRA
The imitation gameIntroduktion till Collibri Text @ ICRAIntroduktion till Monicas kommunikationsmodell

Nerladdningsbart

Här kommer du till Monicas artklar om kommunikation
The structure of communication modelsA realist model of communication

Copyright © 2025 Collibri - Med ensamrätt.

  • SEKRETESSPOLICY

Drivs av