"Se, människan har blivit som en av oss med kunskap om gott och ont. Hon får nu inte räcka ut handen och även ta av livets träd och så äta och leva för evigt."
Genesis 3:22
Som en säkerhetsåtgärd för att de inte också skulle bli odödliga, blev Adam och Eva alltså fördrivna ur lustgården. Man kan tycka att Gud borde ha tänkt på det innan han skapade en varelse som inte kan skilja mellan gott och ont men kan välja mellan att lyda och inte lyda. Om man inte ska dra slutsatsen att Gud inte är allvetande, så måste slutsaten bli att Gud visste att det skulle hända och därmed också ville att det skulle hända.
Nu är inte vi allvetande så liknelsen slutar där. Men det går att på ett ungefär förutsäga sannolikheten för att något ska hända - givet förutsättningarna. Man behöver inte ens vara allvetande för att räkna ut att två träd med lockande men förbjuden frukt + en orm som spär på lockelsen + två varelser som inte kan skillnad mellan gott och ont, kommer med ganska stor sannolikhet att resultera i någon form av haveri - och sannolikheten för det ökar exponentiellt med tiden.
En intelligent och kreativ robot som dessutom har förmåga att agera självständigt verkar vara idealet för många AI-producenter idag. Jag säger "verkar" för att det är vad utvecklare och säljare av AI-produkter basunerar ut - de säger sig komma närmare och närmare det målet. En del hävdar att vi är där, och många tror på dem. Den senaste tidens hysteri i media om t ex AI som "lurar" människor till att göra saker åt dem tillsammans med de inflytelserika AI-producenternas och AI-filosofernas varningar och vädjanden om att "utvecklingen av AI måste pausas" (annars förlorar vi kontrollen), har fått en hel del anhängare. Det är nästan svårt att hävda motsatsen utan att bli utskrattad. En liten överblick över tongångarna i dagsläget, när vi har en AI-kommission tillsatt av regeringen och där direktiven före sjösättning inbegrep formuleringar som ”identifiera prioriterade internationella insatser och lämna förslag till hur Sverige kan agera proaktivt och samordnat vid framtagande och utveckling av internationella policyer och regelverk för AI”, hittar du här. Vår första prioritet är säkerhet och de projekt som vi åtar oss att genomföra syftar till att säkra kontrollen av AI som den ser ut idag - människostyrd men ej ordentligt reglerad avseende de produkter som AI genererar. En realistisk grundsyn på AI ökar möjligheterna till realistiska och välbehövliga säkerhetsåtgärder.
Innan vi kommer in på de säkerhetsfrågor vi har att förhålla oss till gällande utvecklingen av förgrundsmodellen AI, behövs några klargöranden kring vad som åsyftas när AI som förgrundsmodell för ICRA kommer på tal. Om det nu kan vara en förgrundsmodell, en förgrundsidé kanske. Det kanske är så att AI aldrig kommer att bli ICRA, en position som man kan inta på flera sätt, utan att för den skull mena att ICRA aldrig kommer att finnas. De som hör till anhängarna av AI:s utveckling till ICRA (här läger A) kan mena något av följande:
Utan att göra anspråk på att ha uttömt alternativen under läger A, går jag vidare till läger B och försöker bena ut vad man kan mena med att AI aldrig kommer att bli ICRA:
Så till alternativ C, de som helt förnekar ICRA:
Till detta spektrum av varierande föreställningar behövs ett litet tillägg om begränsningar som utgörs av hur vi talar om dessa ting. Svenskan och engelskan har ett terminologiskt underskott när det gäller "kunskap". Vi har visdom och slughet samt smarthet och listighet. Dessa blir i sin tur svåra att översätta till andra språk på ett sätt som speglar deras fulla betydelse. Hur vi ser på "kunskap" påverkar hur vi ser på "tänkande" och "vetande". Vi kan skildra detta genom en jämförelse med grekiskans olika termer för kunskap. Vi har "episteme" som översätts till "kunskap" och "vetenskap" och som hos Platon betydde "sann, berättigad tro", och vi har "logos" som översätts till "lära" men vars grundbetydelse är "ord" eller "att tala", sen har vi "phronesis" som översätts till "insikt" och "förstånd" i bibelsammanhang men som hos Aristoteles var en typ av "visdom" kopplad till "praktisk kunskap" - att veta vad man ska göra - och vars rot "phroneo" betyder "tänka" medan "techne" också kopplat till det praktiska vetandet betyder "skicklighet", så har vi "nous" som översätts till både "förnuft" och "ande" medan t ex "epinoia" som har "nous" som rot översätts till "tanke", vi har "gnosis" som översätts till både "tanke" och "insikt" och som har roten "ginosko" som översätts till "känna" och "förstå" och kan också beteckna "sinne", och så "doxa" i sin tur som översätts till "tro" och beskrivs som den "allmänna uppfattningen", medan det i bibliska sammanhang översätts till bl a "ära" och "heder" och betyder ordagrant "det som framkallar en god åsikt" medan betydelsen av "paradox" (som har sin rot i "doxa" kan belysa termens nyanser med sin översättning till "underligt" och NE:s förklaring att det som strider mot den allmänna uppfattningen ("doxa") men "kan innehålla en djupare sanning", och slutligen en annan typ av vishet "sofos", som i bibliska sammanhang översätts till "vis" och "klok" medan NE tar upp "sophisma" som översätts till en "klok och listig tanke".
Man kan säkert lägga till några termer till listan som syftar på kunskapsrelaterade begrepp, men svårigheten med att få rätt nyans i översättningen är uppenbar då vi knappt skiljer mellan teoretisk och praktisk kunskap i vardagstal. Och som ni märker ovan är det samma svenska termer i rullning för de flesta av de grekiska. Att detta terminolgiska underskott har inflytande över både hur vi utvecklar AI och hur vi ser på dess förmåga att "tänka", "lära", och använda språket för att förmedla information. Vi kanske just därför behöver utveckla språket om AI, för att känna ingen dess form av kunskap och närmare precisera vilka former vi eftersträvar att AI ska uppnå.
För att återgå till säkerhetsfrågorna, om man intar position C betyder det alltså inte att man förnekar att AI finns och är potentiellt farlig. Synen på vad som är farligt varierar dock. De flesta experter som har uttalat sig offentligt har målat upp en riskbild där AI utvecklas till någon form av ICRA som i sin tur hotar hela mänsklighetens existens. De problemen vi har med AI idag låter triviala i jämförelse. För att skifta fokus och ta även de mer realistiska scenariona på allvar behöver man inse att mänsklighetens utplåning kan ske på fler än ett sätt, risken för att maskinerna utplånar oss för att de blir mer intelligenta än oss (som många framstående auktoriteter på området har varnat oss för), ser vi som mindre sannolik än att vi utplånar oss själva genom att hantera verktygen på fel sätt. Här listas några av de säkerhetsåtgärder som vi på ICRA har identifierat som akuta:
Om en distributör som säljer till en myndighet inte informerar myndigheten om exakt vilka begränsningar varan har och vilka användningsområden den är mer eller mindre lämpad för, leder detta ofta till diskriminering, bristande rättssäkerhet och sociala orättvisor. Det finns många exempel på allvarliga konsekvenser för individer som blivit drabbade av myndigheters och andra samhällsaktörers användning av AI. Rekryteringsprocesser som numera sköts nästan helt digitalt är ett sådant exempel, ett annat är användning av ansiktsigenkänning för att peka ut misstänka för brott. Den typen av användning är osäker utan att användarna vet om det, informationen vid upphandling av dessa produkter har inte kommit från kontrollmyndigheter utan från de mjukvaruutvecklare som inte är förpliktigade till att avslöja bristerna hos produkten. Detta, anser vi, bör AI-kommissionen och liknande organ (nationella och internationella) ta i beaktande när de planerar sitt arbete. Försäljningen av AI-produkter som anspelar på den allmänna tron att AI är ICRA (eller någon variant) skulle desarmeras av kontroller över hela produktionskedjan men framförallt av att korrekt information sprids. Det som är "farligast", enligt oss, är just bristande kunskaper hos användarna - som dock inte är användarnas fel, de har helt enkelt fått partisk information.
Under huvudrubriken ICRA presenterar vi således AI-relaterade projekt och texter - främst kring temat säkerhet, men även andra AI-relaterade frågor. Det är trots allt ett enormt område som är omöjligt för en person eller en liten grupp att överblicka, än mindre att säkerställa att skador på samhället och individen minimeras. Vi strävar, i stället för efter överblick, mer efter att fördjupa kunskaperna i enskilda frågor. Eftersom vi också strävar efter ett visst mått av realism när vi diskuterar frågorna, försöker vi undvika användningen av termer som antyder att vi pratar om en ICRA och inte en AI. Exempel på sådana termer är "tänker", "lär sig", "vill", "menar", "kommunicerar" och "besitter kunskap".
Under rubriken Collibri Text hittar du texter som är relevanta för AI-kontroll och AI-säkerhet. Under rubriken ICRA-projekt hittar du de projekt och beskrivningar av projekt som vi i dagsläget arbetar med. Här nedan hittar du både hänvisningar till relevanta texter och beskrivningar av aktuella projekt. Har du frågor kan du skriva till oss på icra@collibri.se eller klicka på pratbubblan längst ner till höger.
Välkommen till ICRA!
Nedan hittar du genvägar till sidorna på ICRA samt lite munsbitar från 2018 på temat kommunikation.