
Konversationsrobotars prestationer bygger på att de kan sortera lagrade textmassor och skapa påståenden representativa för urvalet. Frågan om de har intelligens uttrycker en berättigad oro för att vi ska skapa verkligt intelligenta maskiner som kan agera på egen hand och ställa till stor skada, skriver Ulf Ulfvarson.
När vi ringer till stora företag svarar ofta en bot istället för en mänsklig växeltelefonist. Tyvärr är det frustrerande om man inte råkar veta exakt vart man vill komma. Men utvecklingen går framåt med stormsteg. Flera företag jobbar med konverserande datorprogram. Ett aktuellt exempel är det i San Fransisco verksamma företaget Open AI Inc, som startades 2015 av bland andra Elon Musk och samarbetar med Microsoft och andra stora techföretag. En av företagets produkter är GPT (Generative Pre-training Transformer), en språkmodell som har förtränats. Den kan inte surfa på internet men har tillgång till en enorm mängd information som kan användas för att ge svar på frågor. Boten själv föreslår: 1) Kundtjänst; 2) Sekreterartjänster; 3) Utbildning; 4) Översättning, direkt eller som tolk mellan användare som talar olika språk; 5) Underhållning – den uppger sig exempelvis spela schack; 6) Sammanfattning av inmatade texter; 7) Söka igenom stora mängder inmatad litteratur för att hitta relevant information och 8) komma med idéer och förutsägelser baserade på inmatade forskningsdata.
För att testa tillförlitligheten frågade jag först några allmänna kemifrågor: ”Hur bildas grundämnen?” och ”Vilka grundämnen finns det?” Det resulterade i några välformulerade texter i läroboksformat. Det gick sämre när det gäller specialkunskaper. Boten kunde inte hitta svaret på frågan ”Vad är stendammlunga?”. När jag gick över till engelska och frågade ”What is silicosis?” blev svaret (efter botens översättning till svenska) att ”silikos orsakas av små partiklar av kiseldioxid i lungorna”. Svaret missar alltså att lungsjukdomen silikos orsakas av fina partiklar av kristallin kiseldioxid, främst kvarts.
Svaren är välstrukturerade och grammatiskt oklanderliga. För att undvika att botar tar sig in i webbplatser och där ställer till problem har många siter CAPTCHA (ackronym för Completely Automated Public Turing test to tell Computers and Humans Apart). Den utgår från det ursprungliga turingtestet (Alan Turing, Mind, Volume LIX, Issue 236, October 1950). Turingtestet har sin upprinnelse i diskussioner mellan tidiga datorvetenskapliga forskare under 1940- och 1950-talen om huruvida datorer kunde tänka. Alan Turin (1912 – 1954) formulerade istället frågan om en dator har kapacitet att simulera mänsklig intelligens på ett tillfredsställande sätt. I turingtest av skriftlig konversation får försökspersoner försöka avgöra vilken av två dolda deltagare som är maskin och vilken som är människa i skriftliga konversationer. Om de två är oskiljaktiga har maskinen klarat testet. Redan i mitten på 1960-talet skapade Joseph Weizenbaum vid MIT Artificial Intelligence Laboratory datorprogrammet ELIZA, som flera bedömare ansåg klara Turintestet, trots programmets papegojartade turnerande svar enligt ett manus.
GPT klarar otvivelaktigt det ursprungliga turingtestet med glans. Visar GPT därmed intelligens jämförbar med en människas? Botens eget svar på den frågan är: ”Jag har inte en egen personlighet eller förmåga att tänka och agera på ett självständigt sätt.” I ovannämnda artikel citerar Alan Turing kollegan Geoffrey Jefferson, som menade ”att en maskin kan kallas intelligent först när den kan skriva en sonett eller komponera en konsert och göra det på grund av tankar och känslor den känt… och vet att den har gjort det”. (“The Mind of Mechanical Man”. Lister Oration for 1949. British Medical Journal, vol. i (1949), 1105–1121). Jag uppdrog åt GPT att skriva en sonett om kärlek på engelska. Det blev en fin sonett enligt konstens regler. Men resultatet bygger alltså på ”att systemet lärt sig den underliggande fördelningen av träningsdata och använder denna kunskap för att generera nya exempel som är representativa för träningsmängden” (citerat från GPT:s svar på fråga om hur det arbetar).
Intelligens definieras i några till svenska översatta meningar från Meriam Webster Dictionary som ”Förmågan att lära eller förstå eller att hantera nya eller svåra situationer; den skickliga användningen av skäl; förmågan att tillämpa kunskap för att manipulera sin miljö eller att tänka abstrakt. Detta motsvarar också den svenska betydelsen av begreppet. Vi bör dock beakta att ”intelligence” på engelska dessutom har en vidare betydelse: ”information” eller ”the ability to perform computer functions” (Meriam Webster). Det är förvisso ett betydelsefullt framsteg att AI-botar klarar Turingtestet, men det är ändå mycket långt till vad vi menar med intelligens – om det alls är möjligt att uppnå. Och varför skulle någon vilja bygga en maskin med mänsklig intelligens? En maskin är konstruerad för ett ändamål, inte för att ha en egen agenda. Hittills bygger konversationsbotars prestationer på sortering av lagrade textmassor och skapande av påståenden representativa för urvalet, vilket är vad de är utformade för. Inom ramen för maskinens ändamål ligger att GPT kan spela exempelvis schack, trots att maskinen för att göra detta måste självständigt bestämma om sina schackdrag. Liksom hos det första schackmotorn Deep Blue från IBM på 1990-talet bygger GPT:s schackkunnande på regler och variabler definierade och finjusterade av schackmästare och programmerare. Det utvecklas inte vidare genom intern träning. I motsats till detta använder senare schackmotorer som Leela Chess Zero, Deep Mind och Alpha Zero maskinlärande system som tränar neurala nätverk att spela och utveckla sin egen interna logik. Det har resulterat i att de blivit så lyckosamma att de oftast vinner mot mästerspelare. Men det är fortfarande ändamålsenligt, det vill säga att vinna ett parti schack. Däremot skulle vi till exempel inte vilja ha en självkörande bil som inte kör oss bästa vägen till vårt resmål utan efter eget gottfinnande tar oss på oönskade utflykter.
Frågan om maskiner har intelligens uttrycker en berättigad oro för att verkligt intelligenta maskiner skulle kunna agera utom mänsklig kontroll och skada människor eller till och med utplåna mänskligheten. Vi vet av plågsam erfarenhet att om något är möjligt att göra, så kommer någon att göra det. Se på atombomben. Man diskuterar letala, autonoma vapensystem. Sådana kan bli farliga också för den egna sidan om autonomin är okontrollerbar. Hur som helst pågår en teknisk revolution med oanat stora konsekvenser för våra liv och sättet att leva.
Ulf Ulfvarson, Tekn.dr. i kemisk teknologi och professor em. vid KTH.