• English
  • Hrvatski

Več navdušenih oseb me je v zadnjih tednih podučilo, da imamo zdaj “splošno umetno inteligenco”. Da so govorili z GPT-jem in da je enako, kot če bi se pogovarjali s človekom. Zadevo so resno stestirali, opravi Turingov test in vse! To je to, končno nam je ratalo.

Kot sem težila že v eseju Mit o oblaku, zavajajoča poimenovanja tehnologij niso naključje, temveč diverzije, pogosto namerne. Kar se v dotičnem primeru nanaša že na izraz “chatbot”. To ni AOL chatbot iz devetdesetih ali stari dobri Peter Klepec. Hkrati je ChatGPT (klepet) le ena veja oziroma način uporabe najnovejšega GPT-ja. In kljub temu, da so nam njegove funkcije res dostopne prek navodil, ki jih lahko posredujemo kar v človeškem jeziku, ga tudi prek vmesnika za “klepet” malokdo uporablja za čvekanje ob kavi. 

Nadalje se terminološki pomislek nanaša na znanstvenofantastične izraze, kot je “umetna inteligenca”. Naslavljanje GPT-ja s chatbotkom ga podcenjuje. A govor o “umetni inteligenci”, celo “splošni”, model precenjuje in za brezveze počlovečuje.

Preberite tudi: Neja Berger: Mit o oblaku

Narcisoidna obsedenost s tem, da bi doživeli repliko naše verzije inteligence v stroju, ki smo ga zgradili, vodi v počlovečevanje računalnikov, kar nam kvečjemu otežuje razumevanje njihovega delovanja. Sploh pa bi lahko tisoč esejev napisali samo o tem, kaj naj bi sploh bila človeška inteligenca. Kaj je kognicija, kako je utelešena, kaj je čuteče bitje, kaj razum, avtonomija in kaj zavest. Vse to so kompleksni koncepti, o katerih je vredno razmišljati. Za potrebe tega eseja si naredimo to uslugo, da jih ločimo od današnjega vprašanja o tem, kaj je GPT.

Kaj je res ta ChatGPT

ChatGPT je podveja GPT (Generative Pre-Trained Transformer), naprednih modelov za procesiranje “naravnega” (človeškega) jezika, ki so jih s strojnim učenjem razvili pri OpenAI v San Franciscu. 

Modeli so abstraktne reprezentacije nekega procesa. Ne nujno v računalniku, lahko tudi v naših glavah. Model za odločanje o tem, koliko piva kupiti za zabavo, vzame kot input podatke o številu gostov, njihovih pivskih navadah, dnevu v tednu, namenu zabave idr. Z analizo teh informacij pride do outputa: ajde, en plato. Ko ugotovimo, da je bil plato premalo ali preveč, model nadgradimo (evalvacija in povratna informacija), da se naučimo v prihodnje še bolje napovedati primerno količino. 

Računalniške modele v družboslovju zadnjih nekaj let izmenjujoče imenujemo tudi “algoritmi” (izraz je že zakoreninjen kot nov termin), ker je to nekako bolj seksi beseda, ampak v bistvu še vedno govorimo o modelih, algoritmi v prvotnem pomenu pa so le njihov gradnik. O modelih govorimo tudi pri “algoritmično kuriranih časovnicah” družbenih omrežij ali pri “algoritmičnem managementu”. 

Zgolj napovedovanje naslednje besede v določenem zaporedju je precej neuporabno za dešifriranje širšega konteksta stavka, povedi, odstavka, celotnega besedila, kaj šele njegovega pomena, ironije, jezikovnih figur ali humorja, ki ga besedilo zajema.

Algoritmično kurirane časovnice kot input vzamejo podatke o naši celotni digitalni zgodovini, iz njih predvidijo, katere vsebine nas bodo najbolj zanimale, in nam jih servirajo za maksimiranje naše pozornosti in interakcije. Glede na naše odzive na kurirano vsebino evalvirajo in delujejo čedalje bolj učinkovito. Podobno je s ciljnim oglaševanjem. 

Modeli GPT spadajo pod generativne jezikovne modele, nastale s strojnim učenjem. Ti modeli analizirajo ogromne baze besedil, da predvidijo, kako si ponavadi sledijo besede, črke, stavki. Zaradi analize preteklih primerov sporočil, ki so jih ljudje tipkali, lahko na primer model, ki poganja vaš autocorrect, popravlja zatipke in predlaga besede ter sklepa, kako želite dokončati stavek. 

A zgolj napovedovanje naslednje besede v določenem zaporedju je precej neuporabno za dešifriranje širšega konteksta stavka, povedi, odstavka, celotnega besedila, kaj šele njegovega pomena, ironije, jezikovnih figur ali humorja, ki ga besedilo zajema. Statistični jezikovni modeli so pri tvorjenju kompleksnejših besedil po navadi pogrnili. Precej bolje so se odrezali jezikovni modeli, kot so modeli GPT, ki podatke modelirajo v nevronskih mrežah.

Način procesiranja informacij v nevronskih mrežah poskuša strukturno imitirati delovanje človeških možganov (od tu tudi poimenovanje). Nevronske mreže (ali bolje, omrežja) si lahko predstavljamo kot omrežja matematičnih enačb, njihovo delovanje pa kot večplastni proces, kjer vsaka plast vsebuje več vozlišč. Informacije, vnesene v prvo plast, potujejo do vseh vozlišč naslednje plasti, ta determinirajo, katera vozlišča naslednje plasti se aktivirajo in obdelajo informacijo iz prejšnjih vozlišč in tako naprej, dokler sistem glede na začetno vnešeno informacijo ne vrne rezultata oziroma rezultatov. 

Koncept nevronskih omrežij se na področju strojnega učenja uporablja že od osemdesetih, a šele v zadnjih letih je zaradi razvoja v strukturi samih omrežij (Transformer: T v GPT – se nanaša ravno na “arhitekturo” omrežja), novih zmožnosti modelov za opravljanje različnih nalog hkrati, čedalje bolj zmogljivih računalnikov in čedalje obsežnejših baz podatkov, lahko prišlo do preboja, ki ga predstavljata modela GPT-3 in GPT-4. 

Ta preboj ni bila genialna inovacija enega podjetja, temveč kombinacija desetletja raziskovanj znanstvenikov tako iz akademske kot zasebne sfere ter prispevkov in tehnologij odprtokodne skupnosti, ki je bila na področjih strojnega učenja od nekdaj močno prisotna – vse to in še ključna sestavina: petabajti besedil, ki smo jih prispevali vsi.

Tako pameten, da ne razumem niti ene besede, ki pride iz mojih ust

Nekaj v tem smislu je enkrat zapisal Wilde. 

Za GPT modele včasih slišimo, da dobro razumejo kontekst in strukturo jezika. A ne smemo pozabiti, da ti modeli pravzaprav ne razumejo ničesar, razen ničel in enk. Ne razmišljajo v jeziku kot ljudje. Z enormnimi količinami štroma, ki poganjajo ogromne konglomerate računalnikov, analizirajo in razporejajo še bolj enormne količine tekstov. GPT-3 s 175 milijardami povezav (med prej omenjenimi vozlišči) in GPT-4, s trilijoni povezav, predstavljata najbolj enormno kompleksnost, ki je kdaj obstajala v strojnem učenju. In, opevanje na stran, vse to skupaj omogoči le, da lahko modela s črpanjem iz milijard besedil, ki so jih pisali dejanski ljudje, zelo prepričljivo generirata besedila, ki jim bodo podobna.

Najnovejši GPT modeli v vsej svoji sofisticiranosti sicer res dobro generirajo, ali bolje, imitirajo, a hkrati ne razumejo, kaj generirajo. Kljub temu, da so sposobni reševati kompleksne naloge iz različnih področij, na drugih ne dosežejo (in tudi nikoli ne bodo dosegli) nivoja nekaj letnega otroka. Pravzaprav je že vsakršnja primerjava z otrokom ali človeškim razumevanjem zgrešena.

Tako nam na absurdna vprašanja odgovarja klepet, ki temelji na GPT-3.5. GPT zna zelo dobro predvideti, katere besede ponavadi sledijo drugim besedam, celo glede na kontekst, razlike v slogu, namenu besedila. Kaj bodo te besede pomenile človeku, pa ne more vedeti. 

Kako razumemo besede? Zakaj se nam zdi črpanje virov za članek iz ognja absurdno? Ker na popolnoma drugačen način od nevronske mreže vemo, kaj ogenj pomeni. Utelešenemu umu ogenj pomeni toploto, vonj dima, zvok šelestenja plamenov, spomine na izlete in prijatelje, travmo o opeklinah, bolečino, kuhanje, rdečo barvo, pekoče oči, smrdeča oblačila, težko dihanje, kajenje, “maš ogenj”, faracajg, ogenjček emoji, ko je nekdo lep, vroča poletja, podnebne spremembe. Vrsto vsaki posameznici unikatnih spominov in asociacij – ne na besedo ogenj, temveč na zaznave, življenje, na njene izkušnje s svetom v kombinaciji z družbenim kontekstom, v katerem beseda ogenj spreminja pomen in konotacije glede na situacijo.

Za računalnik, ne glede na to, s koliko teksti ga napitamo, obstaja le jezik kot skupek bolj ali manj verjetnih razporeditev črk (oz. kombinacij ničel in enk) – te pa nimajo povezave z nobeno izmed doživetih izkušenj, na podlagi katerih obstajajo.

Ljudje z jezikom opisujemo (in/ali ustvarjamo – spet tema za drug esej) svet okoli sebe. Z jezikom in v jeziku odraščamo, ponotranjimo kulturo in doživljamo okolico. Za računalnik, ne glede na to, s koliko teksti ga napitamo, obstaja le jezik kot skupek bolj ali manj verjetnih razporeditev črk (oz. kombinacij ničel in enk) – te pa nimajo povezave z nobeno izmed doživetih izkušenj, na podlagi katerih obstajajo in zaradi katerih so se lahko znašle v tekstih, ki so bili uporabljeni za treniranje modelov. 

Najnovejši GPT lahko ustvari povezave med besedami kres, požar, dim, vroč in besedo ogenj, ker se te pogosto pojavljajo skupaj, a nobena od njih ne obstaja v relaciji do tistega sveta, v katerem je že kdaj zagorelo. Če mu zastavimo vprašanje o virih za članek v ognju, bo poskušal odgovoriti glede na statistično najverjetnejšo povezavo med to nenavadno kombinacijo. Najnaprednejši nevronski mreži lahko “ogenj” pomeni le besedo, ki se n-krat pojavlja ob enih besedah in n-krat ob drugih. Najnaprednejša nevronska mreža se nikoli ni in se nikoli ne bo opekla

Prav dejstvo, da GPT ne more vedeti, o čem govori, je tudi razlog, da si, kot bi to imenovali ljudje, tako pogosto izmišljuje.

Takozvana “Nela Berne”, nova identiteta spojena nekje med milijardami povezav med vozlišči GPT-jeve mreže, je očitno križanec med mano in Johnom Bergerjem, ki je dejansko napisal omenjeno delo. ChatGPT zelo pogosto predlaga tudi popolnoma fiktivna književna dela. Ne le, ko ga poskušamo nesramno pretentati, temveč ko nič hudega sluteč iščemo informacije. A ne izmišljuje si le književnih del. Model je zelo težko prepričati, kaj se je zgodilo v svetu in kaj se ni zgodilo, pa se je o tem le pisalo, ali pa bi se lahko pisalo. Obstajajo le besedila brez povezave s svetom in generiranje njihovih imitacij. 

To ni poziv k podcenjevanju

Kar poskušam povedati je: hype o t.i. splošni umetni inteligenci je, po mojem, nepotreben in nekoristen. Odvrača pozornost od bolj urgentnih vprašanj.

GPT ni replika človeške inteligence, kar pa še ne pomeni, da naša uporaba te tehnologije ne more drastično vplivati na človeško družbo. Pozornost naj se raje preusmeri v družbene in politične implikacije, ki jih prinašajo novi modeli za generiranje besedil. 

GPT ni replika človeške inteligence, kar pa še ne pomeni, da naša uporaba te tehnologije ne more drastično vplivati na človeško družbo.

Prve skrbi glede GPT-ja lahko utemeljimo že, če se ozremo na računalniške modele, nastale s strojnim učenjem, ki jih že zdaj uporabljamo za upravljanje človeških življenj. Odkar obstajajo modeli, ki so “naučeni”, da sprejemajo odločitve in delijo napovedi glede na pretekle odločitve ljudi, ti tudi reproducirajo človeške predsodke. 

V St. George’s Hospital Medical School v Angliji so že v sedemdesetih poskušali razviti program za pregledovanje prijav, ki bi jim zmanjšal obseg dela. Model se je učil s statistično analizo preteklih primerov uspešnih in neuspešnih prijav na medicinsko fakulteto. Ko je na podlagi analize delil odločitve, je konsistentno zavračal ženske kandidatke ter prijave kandidatov iz Afrike in Pakistana, dokler ni bila institucija konec osemdesetih obtožena rasne in spolne diskriminacije. Model je delal točno to, za kar je bil razvit: reproduciral je človeško zgodovino. Sedemdeseta v angleški bolnišnici so se ponovila pred nekaj leti v Amazonu, ko je tudi njihov model preferiral moške kandidate. Obstaja ogromno podobnih primerov, sploh v Združenih državah tehnofevdalizma, kjer podobne računalniške modele uporabljajo v šolstvu, pri zaposlovanju, managementu, v javni upravi, pri računanju kreditne sposobnosti in praktično vsepovsod drugje. 

Vsak, ki je kdaj bil na internetu, si lahko misli, da tudi jezikovni modeli, ki se učijo generirati jezik iz baz, skrejpanih z interneta, ne uidejo istemu problemu. To se je odražalo v delovanju vseh dosedanjih chatbotov, ki so poskušali s strojnim učenjem imitirati človeško komunikacijo. Med njimi je morda najbolj znana Tay, Microsoftova twitter botka, ki naj bi twittala in komunicirala v stilu najstniškega dekleta. Mišljeno je bilo, da bo botka osvajala in nadgrajevala sposobnost komunikacije z nadaljnjim treniranjem v interakciji s tviti človeških uporabnikov. To se je zdelo zabavno trolom iz 4chana, ki so model, ki je poganjal Tay, kmalu priučili svojega diskurza. Že po 16 urah na spletu je Tay postala neonacistka, ki je v tvitih zanikala holokavst in heilala Hitlerju. Nekaj podobnega se je zgodilo z Metinim BlenderBot 3.

GPT-ji se zaenkrat zelo dobro izogibajo reprodukciji sovražnega govora, saj so, prvič, pre-trained (P v GPT), kar pomeni, da je nevronska mreža primarno zgrajena na omejeni bazi besedil in drugič, uporabljajo najnaprednejši filter za preprečevanje nasilnih in sovražnih outputov. Ta filter je rezultat še enega modela, nastalega s strojnim učenjem, ki se uči zaznavati nasilno in sovražno vsebino glede na primere le te. OpenAI je filter razvil v sodelovanju z ameriškim podjetjem za “etično umetno inteligenco” Sama. To podjetje je v skrajno etične namene zaposlilo delavce iz Kenije, da so pregledovali primere iz greznic interneta in jih označevali glede na tip sovražnosti ali nasilja, ki jih ti vsebujejo. Za ključno vlogo pri razvoju modela, ki filtira vsebino GPT-ja, so bili afriški delavci plačani od 1.32 do 2 dolarja na uro pregledovanja teksta, ki je med drugim vseboval opise spolne zlorabe otrok, posilstev, mučenja in umorov. Delavske pravice in okoljski vpliv grajenja tovrstnih tehnologij sta (še bolj od posledic uporabe) področji, ki ostajata v senci navdušenja nad znanstveno fantastiko.

Nadomeščanje ljudi z računalniškimi modeli pomeni prenos odločitev o človeških življenjih in delovanju družbenih institucij na model, katerega odločitev kljub poznavanju delovanja njegove arhitekture ni mogoče predvideti.

Kljub temu da je filtre ob spretnem pozivanju GPT modela mogoče zaobiti, so ti v večini situacij učinkoviti. A reprodukcija nasilja ni edina nevarnost masovne uporabe nereguliranih modelov. Nadomeščanje ljudi z računalniškimi modeli za odločanje, napovedovanje, management pomeni prenos odločitev o človeških življenjih in delovanju družbenih institucij na model, katerega odločitev kljub poznavanju delovanja njegove arhitekture ni mogoče predvideti. Model ne more prevzeti odgovornosti za odločitve, ki se bodo izkazale za napačne. 

Neregulirani modeli lahko uporabljajo občutljive osebne podatke (Googlov tekmec GPT-ja Bard je na primer streniran z bazami naših Gmail sporočil) ter brez privolitve avtorjev uporabljajo njihove tekste in podobe, kar postane ekstra problematično sploh, ko si modele, nastale z učenjem na skupnem ali prosto dostopnem, prilastijo podjetja in jih prodajajo nazaj ljudem. Nadalje modeli, kot je GPT-4, ravno zaradi prepričljivosti in sintetičnega odnosa, ki ga vzpostavijo s posameznico, predstavljajo genialno orodje za manipulacijo na masovni ravni. Tu ne govorimo le o botih za ljubezenske prevare (kar je, btw, tudi legitimna skrb), temveč o resni grožnji demokraciji. Taktike političnih manipulacij, kot jih poznamo iz astroturfing operacij, targetiranja neodločenih volivcev za najvišjega ponudnika, Cambridge Analytice ali ruskih farm trolov, lahko z uporabo tehnologij, kot je GPT, astronomsko eskalirajo. Manipulacija javnega mnenja s ciljnimi objavami in ustvarjanji lažnih javnosti še nikoli ni bila tako učinkovita in tako poceni. 

Regulacija who?

Leta 1998 sta Googlova ustanovitelja Page in Brin objavila članek o svoji novi tehnologiji spletnega brskanja, v katerem sta opozorila: oglaševalcev ne bi bilo pametno spustiti v spletne iskalnike, saj bo to pripeljalo do pristranskosti pri prikazovanju rezultatov. Tehnologije iskanja po spletu naj ostanejo transparentne in ne zaidejo iz akademske v privatno sfero

Kakšen vpliv bo imel GPT na delovna mesta? Kako bodo modeli, kot je GPT, spremenili delovanje naših možganov, naše pridobivanje informacij, komunikacijo, medije?

Leta 2015, ko se je Google že utrdil kot največje marketinško podjetje na svetu in vladal internetu z logiko neprenehne ekstrakcije podatkov, je bila ustanovljena neprofitna organizacija OpenAI. Tokrat z obljubo po razvoju odprtokodnih tehnologij na področju umetne inteligence in poslanstvom razvijanja umetne inteligence za dobrobit človeštva. V letu 2023 je OpenAI privatno podjetje, ki še kako zasleduje profit, okrepljeno z zavezništvom z Microsoftom in prelomljeno obljubo o odprtokodnosti in transparentnosti.

Oops, we did it again.

Kako preprečiti potencialno škodo novih modelov, še ni popolnoma jasno. Ena dobra smernica bi bila, da morajo učne baze ostati dostopne javnosti. Druga, da se mora tehnologijo testirati, preden se jo lansira v javnost. Da se, preden model v “jbg, bo kar bo” stilu ponudimo vsem, ki bodo zanj plačali (bodisi z denarjem, bodisi s podatki), določeno časovno obdobje, kot pri zdravilih ali hrani, nameni proučevanju možnih neželenih stranskih učinkov in nevarnosti. 

Kakšen vpliv bo imel GPT na delovna mesta? Kako bodo modeli, kot je GPT, spremenili delovanje naših možganov, naše pridobivanje informacij, komunikacijo, medije? Kako preprečiti zlorabe? Roboti delat in UTD vsem (hint)? Četudi še ne vemo, kaj točno storiti, je popolnoma jasno, katere napake zadnjih 20 let ne smemo ponoviti: prepustiti razvoja celotnega področja v upravljanje logiki ameriškega kapitala.

Prikazna fotografija: OpenAI model za generiranje podob DALLE, ki mu je avtorica dala navodilo, naj generirana sliko v slogu Matissa, ki bo prikazovala humanoidnega robota v pogovoru s človekom.