I en artikel publicerad 1950 resonerar Alan Turing (1912-1954) kring möjligheten för maskiner att tänka. ("Computing machinery and intelligence", i tidskriften Mind.) Turings inflytande över modern datavetenskap, AI-forskning och AI-utveckling, har gett honom statusen av "a founding father of artificial intelligence". Den bedrift han blev mest känd för under sin livstid - och det var också därför han utvecklade ett av de första "programmen" - var att hans program lyckades knäcka tyska Enigma som användes för att skicka kodade meddelanden under andra världskriget. En dramatisering av händelserna som utspelade sig kring detta kan ses i filmen "The imitation game", vars titel är direkt hämtad från Turings egen terminologi som ett namn för det test för "maskinell intelligens" vi idag kallar Turing-test.
Turing börjar dock med att understryka att man behöver definiera vad "maskin" och "tänka" är innan man svarar på frågan om huruvida maskiner kan tänka (annars är den meningslös), men - och detta är en av huvudpoängerna - hans test går inte ut på att besvara frågan om maskiner faktiskt kan tänka eller besitter någon form av människoliknande intelligens (det trodde han inte själv), testet syftar till att ta reda på om maskinen ifråga kan imitera en människa till den grad att man inte kan avgöra om det är en människa eller maskin. Här kanske det passar med en jämförelse för att göra saken mer begriplig. Matematikern och författaren Ada Lovelace (1815-1852), som var först med att publicera en algoritm och även var så lyckligt lottad att hon fick tillfälle att applicera denna på en beräkningsmaskin (Charles Babbages "Difference Engine"), svarade på frågan om möjligheten till tänkande maskiner (frågan är urgammal) att "de kan göra det vi kan programmera dem till", med innebörden att de inte kan vara "kreativa" eller "tänka" själva. Det omvända skulle innebära ett Lovelace-test; om en dator kan göra något som ingen programmerat den till så kan man säga att den "skapar" eller "tänker". Lovelace trodde dock inte att det var möjligt att utveckla en sådan maskin, och hon får kritik för denna insikt av Turing i hans ovannämnda artikel. Än idag får hon äta upp sina ord, många hävdar att moderna program kan och har "betett" sig på sätt som aldrig kan förutsägas av programmerare. Men de exempel som dessa förespråkare presenterat på kreativ och lärande AI har heller inte förblivit oemotsagda.
Turings optimism när det gäller teknisk utveckling speglas i hans förutsägelse om att det i början på 2000-talet skulle det finnas program som är så bra på härma-leken att en normalbegåvad medspelare inte skulle ha mer än 70% chans att identifiera maskinen efter fem minuters spelande. En annan förutsägelse Turing gjorde, som dock inte handlade om teknologi, var att det vid samma tidpunkt (början på 2000-talet) skulle vara socialt accepterat att prata om "tänkande maskiner", d v s att man med stor sannolikhet inte skulle bli motsagd när man talade om maskiner i termer av "intelligens".
Även om det tog lite längre tid än Turing hade tänkt - han kunde inte förutsäga svårigheten med att programmerare också skulle ha tillräckliga kunskaper om hur mänsklig kognition fungerar för att förverkliga detta - så fick han delvis rätt. Termen "artificiell intelligens" är inte särskilt kontroversiell, kanske för att det är få som förstår hur vilseledande det är när man använder det om maskiner eller program. Vad gäller hans förutsägelse om teknologins utveckling (eller snarare programmeringskonstens), så gjorde AI21 Labs ett online-experiment där över två miljoner individuella spelare deltog och dessa spelade sammanlagt över tio miljoner gånger. Resultatet visade att 32% av spelarna inte kunde skilja mellan människa och maskin - även om de spelade flera gånger. Detta är inte exakt vad Turing säger i sin förutsägelse, men om man är lite generös och översätter en spelares chans att genomskåda maskinen till andelen spelare som lyckats, så kom Turing väldigt nära.
Det finns såklart inte ett problem med att man inte kan skilja mellan människa och maskin, det är framförallt säkerhetsrisker som på samtliga samhällsnivåer kan inkräkta på alltifrån rikets säkerhet till privatpersoners integritet. Det som utspelar sig i filmen Dr. Strangelove (1964, regi Stanley Kubrick och Peter Sellers har tre roller, mycket sevärd svart komedi) har en motsvarighet i verkligheten; den ryske löjtnanten Stanislav Petrov bokstavligen avstyr ett massutplånande när han den 26 september 1983 får ett varningslarm från det automatiska skyddssystemet OKO om att amerikanska missiler är på väg mot Ryssland. Han väljer att inte lyda order och följa protokoll (en AI hade inte kunnat göra det valet) genom att svara med motsvarande missilattacker.
Ett ganska obetydligt problem i jämförelse är att jag personligen skulle jag önska att alla smarta mobiltelefoner var utrustade med ett inbyggt CAPTCHA-test för att jag ska slippa bli störd, ibland flera gånger om dagen, av bedrägeriförsök och försäljare. Att ha hemligt nummer eller ett nummer som inte kan spåras till ens person, eller att blockera nummer, hjälper föga. De flesta uppringningar görs av en automatisk uppringare som ringer alla möjliga nummer (onekligen är AI bättre än människor på att snabbt repetera samma procedur hur många gånger som helst under hur lång tid som helst), registrerar sedan om ett telefonnummer har en mottagare (om det går fram någon ringsignal), sedan registrerar den om någon svarar på det numret, varpå automatan antingen "lägger på" eller ger en ett meddelande om att man ska ringa upp eller knappa in något på sin telefon. Det finns lite olika varianter av det här, men alla har samma funktion. Och om man råkar vara någon som inte vet hur sådana automata fungerar, eller ens känner till deras existens, så kan vederbörande råka rätt illa ut.
En särskilt besvärande fråga av annan karaktär har varit äganderätter till produktioner. Om en AI kan imitera ABBA så bra att man inte hör skillnad mellan en låt som är producerat av gruppen ABBA (och således är juridiskt bundet till gruppen) eller i en AI... ja, det är ett reellt problem redan vem som blir juridiskt ansvarig och hur man (på internationell nivå) ska reglera juridiska rättigheter och skyldigheter. Det faller ju inte under plagiat. Och då har vi inte ens börjat diskutera på vilka sätt konsumenterna blir lidande eller hur svårt det blir för producenterna av konst, litteratur, musik, mm, att konkurrera på den fria marknaden. För att inte tala om konsekvenserna av att sådana produktioner (alltså imitationer av det som människor producerat) skulle hamna i databaser och informationskanaler - under respektive producents namn.
Alltså, säg att någon matar AI:n med alla texter av Edmund Husserl och ger den sedan instruktionen att producera en text som om den var skriven av Husserl. Denna produkt skulle sedan vara omöjlig (för de flesta läsare) att skilja från en text som Husserl själv producerat (om det inte på något sätt framgår att det är en AI-produktion). Om någon forskare eller student sedan använder sig av texten som källa till information, t ex att Husserl skulle ha skrivit att medvetandet inte är intentionalt i vissa situationer, skulle det bli väldigt svårt för kommande forskare som använder sekundärkällor att skilja agnarna från vetet, d v s information från desinformation. Det går i princip att förorena hela den samlade mänskliga kunskapsbanken genom att sprida desinformation på det här sättet (en AI har ingen aning om vad "verklighet" är eller förmåga att avgöra vad som är "sant" och "falskt", den kan bara avgöra statistisk sannolikhet). En ganska trivial problematik kan man tycka, men en problematik som utan reglering kan uppnå kosmiska proportioner. Ett läkemedelsföretag som ger ett AI-program i uppdrag att producera forskningsresultat på excellensen av deras produkt (av påhittade forskare och en påhittad undersökning eller forskningsansats), är inte heller att ta med en nypa salt om man beaktar konsekvenserna. Jag blir paranoid av bara tanken. Det är som att se ett barn leka med en handgranat medans föräldrarna grälar om huruvida det är handgranaten som vill förgöra barnet eller om det är barnet som inte vet vad det leker med.
Det går att räkna upp hur många exempel som helst, stora och små, på situationer där världen skulle behöva ett turing-test för produkter. Kanske något i stil med CAPTHCA, fast mer sofistikerat så att det kan appliceras på en färdig produkt, inte enbart i direktkontakt med källan. (För övrigt så används CAPTCHA fortfarande, fastän vi inte stöter på det så ofta numera, men det är dolt inne i systemen för att underlätta tillgången för brukare av digitala tjänster.)
De senaste åren har universiteten ställts inför ett problem som, i linje med det ovan sagda, kan haverera hela utbildningssystemet. Internationellt. Examinatorerna kan, enligt dem själva, inte avgöra om ett inlämnat arbete (hemtentamina eller uppsats) är skrivet av studenten själv eller om studenten har bett den senaste och mest avancerade chat-boten att göra uppgiften. Nu är inte detta ensamt anledning till att efterlysa ett turing-test för produkter, men vi behöver ett konkret och reellt problem att fokusera på när vi söker kriterier för gränsdragning mellan människoprodukt och AI-produkt.
För det är just kriterier vi behöver för hur denna gräns ska dras, ungefär så som lärare behöver kriterier för betygen godkänt eller icke-godkänt eller läkare behöver kriterier för sjuk eller frisk eller för differentialdiagnostik. Frågan är hur sådana kriterier ska vaskas fram. Min tanke är att det borde vara möjligt med hjälp av en rad verktyg och teorier från å ena sidan forskare och analytiker som inriktat sig på att kartlägga mänskligt tänkande, å andra sidan från de gränser för vad en maskin kan förmå i termer av "tänkande" (i den slarviga bemärkelsen).
Om man ska förstå sig på hur AI fungerar i grunden, alltså på vilket sätt den genererar (för jag vill nog reservera termen "skapar" till enbart mänskliga aktiviteter) t ex texter, får man gå till AI-skapelsens början som jag vill datera till 1948 och tillskriva Claude Shannon äran. All modern informationsteknologi bygger på Shannons kommunikationsmodell och den matematik som ligger till grund för denna. Att den teknologiska utvecklingen av hårdvara är en förutsättning för att prestationsförmågan ska öka är givet, men all utveckling av "smart" mjukvara bygger än idag på samma principer och matematik som Shannon redovisar i "A mathematical theory of communication" 1948. Tillsammans med Warren Weaver publicerar Shannon ett år senare en fördjupad version där de demonstrerar för hur denna kommunikationsmodell kan användas till att generera artificiellt språk. Du kan ladda ner båda artiklarna här (längst ner på sidan) och likaså Turings artikel "Computing machinery and intelligence".
Medan Turing arbetade med kryptoanalys och utveckling av diverse tidiga kalkyleringsmaskiner som var nödvändiga under andra världskriget, samt formaliserade begreppen "algorithm" och "computation" som ligger till grund för alla dataprogram (den första digitala datorn, Colossus, byggdes mellan 1943-1945), var Shannon bekymrad för störningar i kommunikationen som berodde på teknologiska variabler. Han utvecklade därför en matematisk modell för att optimera sändning av signaler mellan sändare och mottagare. Den bygger på logaritmer (mycket vackra matematiska objekt) med hjälp av vilka man kan göra sannolikhetskalkyler. Detta ska (mycket förenklat här) lösa problemet med "brus" i kommunikationen - och än idag används matematiken för att upptäcka och eliminera "brus" i t ex digitala bilder eller ljud. Men ur detta följde också att när man kunde programmera algoritmer för att göra sannolikhetskalkyler och på så sätt få datorn att generera bilder och ord och satser. I "The mathematical theory och communication" (1949) visar Shannon och Weaver ett exempel på hur man kan få en dator att generera hela satser genom att mata in ett antal tidningsartiklar varpå den sedan med hjälp av sannolikhetskalkyler kan först räkna ut vilka bokstäver som är vanligast, sen vilka bokstäver är sannolikast att komma efter en annan bokstav och i grupper bilda ord, sen vilka ord som är sannolikast att komma efter varandra, och så vidare tills den bildat hela satser. På detta sätt fungerar AI generellt. Allt ifrån ansiktsigenkänning till självkörande bilar till produktion av musik som låter som ABBA.
Problemet med detta är dock att Shannon och Weaver var övertygade om att själva meningen med satserna var inbyggd i språkets alla delar. Detta har varit grunden för den kritik som riktats mot modellen när den användes för att förklara kommunikation mellan mänskliga agenter. Det är enligt duon språket som bär budskap från en person till en annan, att behärska ett språk är förutsättningen för kommunikation och intelligens. Modellen har förutom att få genomslagskraft i humanvetenskapliga kontexter som pedagogik, psykologi, kognitionsvetenskap, mm, även övertygat många om att när AI uppvisar förmåga att generera språk (i vilken form som helst) så uppvisar den intelligens och tänkande. (En födjupning kring detta hittar du i artiklarna "A realist model of communication" och "The structure of communication models" som finns att ladda ner under rubriken Collibri Text. I dessa artiklar presenteras även en alternativ modell som är bättre lämpad för att beskriva, planera och analysera mänsklig kommunikation.) Poängen är att det som ger illusionen av intelligens i grunden inte är mer än statistiska sannolikhetskalkyler.
I normala situationer, eller snarare i ett automata-läge, beräknar människor också statistiska sannolikheter för t ex hur säkert der är att gå över gatan utan att bli överkörd, eller hur sannolikt det är att en viss anställd ska stjäla från jobbet, eller att man ska stöta på någon man känner om man tar en viss väg till skolan. Dessa kalkyler är också baserade på (men ej jämförbara med) input, d v s tidigare erfarenheter. Vissa är bättre på det andra sämre, men alla normalbegåvade människor - skulle jag vilja hävda - är bättre och snabbare på det än någon AI. Men vad är det då för skillnad? Till minne av Ada Lovelace och Stanislav Petrov; vi kan frångå protokollet.
Det är väldigt bra att vi har förmågan att snabbt fatta beslut, ibland svåra och med många variabler, men det som gör oss förmögna till kreativitet är just att vi kan av-automatisera oss och se saker ur ett annat perspektiv. Detta är lika svårt att se som att se bakterier i en Petri-skål utan mikroskop. För vi har onekligen brister som AI kan avhjälpa. Vi presterar inte alltid på topp, så en trafikolycka kan bli resultatet av att vi somnar bakom ratten eller av att vår uppmärksamhet riktas åt ett annat håll. En AI blir inte trött eller avledd, gör den ett misstag så är det för att den inte är programmerad rätt eller för att teknologin inte riktigt återspeglar de funktioner som den mänskliga perceptionen har. Statistiskt sätt är det säkrare om det sitter en människa bakom ratten, andelen olyckor per miljon engelska mil är för självkörande bilar 9,1 medan andelen för bilar som kräver en mänsklig förare är 4,1 (siffrorna är baserade på statistik mellan 2018 och 2024).
Om vi ska titta lite närmare på varför en maskin som inte blir trött och inte kan avledas kan orsaka en olycka, kan vi ta ett exempel som är relativt lätt att förstå. En självkörande bil av känt märke kör på motorvägen och medan andra bilar väjer för den omkullvälta lastbilen som spärrar av ena sidan av körbanan så kör den självkörande bilen rätt in i den. (För att se hur detta går till klicka här för en video på You Tube.) Angående AI som gör saker som programmerare inte förstår så är det här ett av dem, men det finns många teorier om varför den här olyckan skedde. De mest sofistikerade förklaringarna är enkla: man har helt enkelt inte matat in bilder på lastbilar underifrån så den "såg" helt enkelt inte lastbilen. Programmerarna förutsåg helt enkelt inte förekomsten av omkullvälta lastbilar på vägen och såg därför ingen anledning att mata AI:n med bilder på lastbilar underifrån.
Här finns också likheter med mänsklig perception, har vi inte erfarenhet av ett fenomen "ser" vi det inte trots att det händer framför våra ögon. Vi tolkar det bara som något annat. Om vi nu ska fortsätta analogin om den kullvälta lastbilen, så skulle ju en människa se att det finns ett stort föremål som hindrar framkomlighet - även om den människan inte vet vad en lastbil är, än mindre hur de ser ut underifrån. Att se ett "föremål" är ingenting man kan programmera en AI till. Det är för abstrakt. Ett "objekt" måste ha en specifik form, storlek och andra identifikationsindikatorer för att en AI ska känna igen det som ett "objekt". Man måste tala om för den exakt varje "objekt" som kan förekomma och exakt hur den ska agera i det fallet (för att återkoppla till Lovelace). Här slutar liknelserna mellan människa och programmerad maskin. Människans perceptionsapparat är kopplat till ett centralt nervsystem som tolkar alla sinnesintryck på den abstraktionsnivå som vi bedömer är lämpligast i sammanhanget (kontexten). Så även om en AI kan producera text som ser ut att vara skrivet av Husserl, så förstår den inte vad den skriver. Det betyder också att den inte kan dra några slutsatser (inte mer än statistiska sådana) från ett resonemang, den saknar innehållet eller betydelsen av orden. Det är därför kritiken mot Shannon (som t ex I. A. Richards kritik eller M. Kimmels kritik) är så avgörande för både vad man kan förvänta sig av AI-utvecklare och vad man kan förvänta sig av kognitionsvetenskapliga teorier om mänskligt tänkande. Eftersom många kognitionsvetare också har utgått från positionen att mening finns inbäddad i orden, går det inte att komma vidare i sökandet efter skiljekriterier mellan en mänsklig produkt och en AI-produkt - från ett kognitionsvetenskapligt perspektiv. Inte heller kan vi använda oss av neurovetenskap; hur mening eller innehåll blir till har man inte haft så mycket intresse för. D.A.R Haglund brukade alltid göra en poäng av detta genom att säga "ja, så står det, men vad betyder det?" (läs gärna här).
Hur människan gör för att förstå vad hon ser eller hör eller känner saker kan vi få en orientering i om vi tittar på delar av Edmund Husserls (matematiker och logiker) perceptionsteori. I artikeln "A realist theory of communication" använder jag mig även av Gotlob Freges (också matematiker och logiker) teori om mening, men den är begränsad till språklig mening och vi behöver Husserls perceptionsteori för att komma vidare med urkundsproblematiken. Någonstans måste ändå de som ansvarar för utveckling av mjukvara vara medvetna om begränsningarna som AI har, annars hade de inte utvecklat CAPTCHA-test. Men för att kunna tillämpa ett sådant på produkter i stället för direkt på källan, behöver de finslipas och kriterierna måste vara angivna i mätbara (graderingsbara) enheter. Jag har redan nämnt ett antal skiljelinjer mellan människa och maskin; abstraktionsförmåga, kreativitet, förståelse, tolkning. Dessa (och andra som kommer att belysas i huvudanalysen) behöver dock formaliseras och definieras tydligt för att kunna omvandlas till kriterier a la CAPTHCA. Det bör sedan gå att utveckla ett program som med hjälp av dessa kriterier sorterar texterna (kan också tillämpas på musik, konst, mm) till kategorierna "mänsklig urkund" och "AI-urkund" - med relativt hög träffsäkerhet.
Vänligen respektera textens urkund vid återgivning.