Snälla gud i himlen kan folk fatta att chatGPT är en SPRÅKMODELL. Den söker inte upp information, den har inget koncept om fakta, den bara ger det svar som är statiskt mest sannolikt att vara ~språkligt~ korrekt baserat på träningsdatan.
— Bossakungen Astor Qvarts (@denvitadrogen) April 17, 2023
Häromdagen skrev jag en tweet, eftersom jag var less på att drivor av folk diskuterar maskininlärning som stort och chatGPT specifikt utan att ha någon grundläggande förståelse för hur teknologin fungerar. Det är ju på ett sätt väldigt förståeligt, det är en komplicerad teknologi som väldigt få människor verkligen förstår på djupet*. Men vissa saker är grundläggande nog att de borde vara möjliga att förstå även för människor utan djupare teknologisk kunskap. Som till exempel att chatGPT är baserad på en språkmodell och har som syfte att så korrekt som möjligt modellera språk – och inget annat. Den söker inte upp information, exempelvis, och den har inga tankar eller åsikter. Den producerar språk, så korrekt som möjligt, punkt slut.
Det tog inte lång tid efter att tweeten publicerades innan Snubbarna började dyka upp. Nej du, lilla vän, nu tror jag inte att du vet vad du pratar om. ChatGPT är faktiskt väldigt kraftfull, och kan göra väldigt många saker.
Det var en något förvirrande respons, eftersom allt jag sa i min tweet är 100% korrekt. Det är inga åsikter, och ingen kontroversiell ståndpunkt. Utvecklarna själva säger precis samma sak som jag gör. ChatGPT är en språkmodell. Det är bokstavligt talat vad den är (eller rent tekniskt en chattbot baserad på en språkmodell, men låt oss inte klyva hår). Det är en bot skapad för att ”förstå” och producera skrivet språk, vilket den gör genom att utgå ifrån vad den “lärt” sig genom att matas med en massiv mängd exempel.
Vad det här innebär i praktiken kan vara lite rörigt, och det främsta frågetecknet folk verkar ha är gällande hur chatGPT hanterar fakta. Det korta svaret på den frågan är att chatGPT inte hanterar fakta alls. Den har inget koncept om sant eller falskt. För att citera OpenAIs överblick av tjänsten:
ChatGPT sometimes writes plausible-sounding but incorrect or nonsensical answers. Fixing this issue is challenging, as: (1) during RL training, there’s currently no source of truth;
Vad som gör det här lite förvirrande är att chatGPT ofta ger korrekta svar på frågor som ställs, vilket ju kan kännas som det motsäger ovanstående. ChatGPT är på det stora hela ganska bra på att ge fakta. Men det är inte ett resultat av att den söker upp och värderar information, utan att träningsdatan innehåller väldigt mycket information. När chatGPT då analyserar det mest språkligt korrekta svaret på en fråga, kommer det ofta, men långt ifrån alltid, vara det korrekta svaret, så länge den informationen fanns med i träningsdatat. Om informationen saknades i träningsdatat, eller om träningsdatat innehöll inkorrekt information så kommer chatGPT inte kunna svara, eller svara felaktigt.
Genomgående för svaren jag fick på min tweet var att folk verkade tro att jag på något vis försökte “förringa” chatGPT. Att jag försökte underminera tjänsten, av oklar anledning. Men ingenstans skrev jag att chatGPT inte är en kraftfull teknologi, eller att den inte fyller en funktion. Allt jag pekade ut var att det är en tjänst som är byggd för att göra vissa saker, och inte andra. Man tycker ju inte att det borde vara ett kontroversiellt uttalande. Att förstå en teknologis begränsningar är essentiellt för att inte över- eller underskatta den. Det spelar ingen roll hur avancerad en tvättmaskin är, om du försöker använda den för att diska tallrikar kommer du antagligen inte tycka att den gör ett bra jobb.
Och det här är vad som händer när folk försöker använda chatGPT som en sökmotor och blir besvikna när den ger svar som är inkorrekta. Trots att chatGPT inte är tänkt att fungera som en sökmotor (vilket också gör det så jävla pinsamt att flera företag försökte lansera det som en).
ChatGPT är en väldigt avancerad teknologi som kommer ha massiv påverkan på vårt samhälle, men för att det ska vara sant behöver vi inte låtsas att den är något annat än vad den är. Vad den faktiskt är, räcker gott och väl.
Vad det är som gör att folk reagerar som de gör på chatGPT tror jag beror på två saker.
Det första är att chatGPT använder just språk. Folk verkar betydligt mindre benägna att övertolka funktionaliteten i instanser av maskininlärning som kan generera eller redigera bilder och video. Det är betydligt mindre spekulation kring huruvida till exempel Midjourney kan “tänka”, än vad det är för chatGPT, trots att det i grunden är samma typ av teknologi som används, bara applicerat på olika saker. Midjourney använder i breda drag samma teknik för att generera bilder, som chatGPT använder för att generera text.
Och det andra är att vi valt att använda termen “AI”. Vilket jag tror att vi borde sluta med, eftersom det gör snubbarna alldeles för förvirrade.
Att slå fast att maskininlärning inte är artificiell intelligens är lite knepigt. Det här är definitivt något man kan ha olika åsikter om, eftersom det inte finns någon stenhård definition av vad AI är. Maskininlärning inkluderar definitivt saker som vi skulle klassificera som en typ av intelligens, exempelvis förmågan att använda språk, och förmågan att “lära sig”. Baserat på det är det absolut inte fel att kalla chatGPT för AI. Men på samma premisser finns det också betydligt mer rudimentär teknologi som går att kalla för artificiell intelligens, teknologi som vi idag generellt inte skulle kalla för det.
Jag skulle argumentera att även om den faktiska tekniska definitionen av AI är både vag och bred, så är den generella bilden av AI som folk får upp i huvudet när de hör uttrycket betydligt mer specifik.
Folk tänker på maskiner med ett medvetande. Vilket inte är vad maskininlärning är.
Det här är, igen, inget försök att underminera maskininlärning. Jag är väldigt medveten om precis hur kraftfull teknologin är, och gjorde nyligen en video om hur jag tror att den kommer att påverka vårt samhälle på ett massivt och ganska skrämmande sätt. Men oavsett hur kraftfull den är, och oavsett hur snabbt utvecklingen av teknologin går, så är vi inte idag “på gränsen till” att skapa en riktig AI.
Även om många förutspår att vi kommer att utveckla “riktig” AI, så är det fortfarande bara spekulation. Vi vet inte faktiskt om vi kommer bygga en maskin som tänker på ett sätt som är på något vis jämförbart med en människa, och om vi gör det vet vi inte om den teknologin kommer bygga på dagens maskininlärning, eller på någon annan teknik som ännu inte tagits fram. Maskininlärning kan visa sig vara en återvändsgränd, en väg som kan ta oss en bit, men inte hela vägen fram.
Att kalla maskininlärning för AI är lite som att kalla en telegraf för en telefon. De två teknologierna är definitivt relaterade till varandra, och det finns en tydlig linjen från den ena till den andra, men säger du ”telefon” och sen ger någon en telegraf, så kommer de bli besvikna.
Så just nu skulle jag säga att det är missvisande att använda uttrycket AI om vår existerande teknologi. Och, som sagt, det är en åsikt jag har, och inte fakta. Jag tror personligen att det kommer vara betydligt lättare för folk att förstå vad teknologin innebär om vi bara använder uttrycket jag använt i den här texten: maskininlärning (även om jag inte för mitt liv kan sluta skriva “maskinlärning” istället för “maskininlärning”). Jag gillar också termen ”simulerad intelligens” eftersom jag känner att det mer beskriver vad maskininlärning är. Det är kod som simulerar aspekter av intelligens, som exempelvis språk.
Jag inser så klart att försöka få hela världen att ändra hur de refererar till teknologin är en omöjlig uppgift. Det kommer inte hända, AI är termen som är i bruk. Men jag tycker ändå att vi borde göra ett försök. För att hjälpa de stackars snubbarna.
*Jag är ingen expert på maskininlärning, och vill absolut inte råka placera mig i facket med snubbar som presenterar en uppblåst bild av sin egen kunskap. Så jag tänkte erbjuda mina bonafides, så att ni kan avgöra hur full av skit jag verkar.
Jag jobbar inom IT och har gjort så i ungefär tio års tid. Under den tiden har jag jobbat med högt och lågt, men på senare år med ett fokus på devops. På mitt nuvarande jobb sitter jag i ett projekt som inbegriper praktisk applicering av maskininlärning, men jag jobbar inte personligen direkt med den teknologin. På mitt förra jobb arbetade mer direkt med att sammanställa data och använda den för att träna upp en maskininlärningsmodell i ett POC-projekt, men jag kan inte säga att jag gick på djupet i teknologin bakom maskininlärningen, utan använde bara existerande bibliotek.
Så medan jag har arbetat med maskininlärning, och hållit på med det en hel del på fritiden, så kommer min främsta kunskap om hur det fungerar på ett djupare plan från saker jag läst. Så på något plan är jag bara en snubbe som googlat, och det är inte omöjligt att jag har fel om vissa detaljer. Men jag är ganska säker på att jag i den här texten håller mig väl inom ramarna för vad som är väl etablerade sanningar kring maskininlärning.