Piše: Noam Chomsky
Pisanju ovog teksta su doprinijeli Ian Roberts, profesor lingvistike, i Jeffrey Watumull, direktor odjeljenja za veštačku inteligenciju u jednoj naučno-tehnološkoj kompaniji.
Horhe Luis Borhes je jednom napisao da živeti u doba velikih previranja i probuđene nade znači iskusiti i tragediju i komediju uz „neminovnost otkrovenja“ u razumijevanju sebe i svijeta. Danas je navodni revolucionarni napredak u razvoju vještačke inteligencije povod i za brigu i za optimizam. Optimizam, jer je inteligencija sredstvo kojim rješavamo probleme. Zabrinutost, jer strahujemo da će najpopularniji vid vještačke inteligencije – mašinsko učenje – degradirati nauku i uniziti etiku, tako što će u tehnologiju ugraditi fundamentalno pogrešnu koncepciju jezika i znanja.
Aplikacije kompanija OpenAI (ChatGPT), Google (Bard) i Microsoft (Sydney) zaista su čuda mašinskog učenja. U grubim crtama, ovi programi uzimaju ogromne količine podataka, traže u njima obrasce i na osnovu njih postaju sve vještiji u generisanju statistički vjerovatnih rezultata – govora i misli koji liče na ljudske. Četbotovi su dočekani kao prvi vijesnici opšte vještačke inteligencije – dugo očekivanog trenutka kada će mehanički umovi nadmašiti ljudski mozak ne samo kvantitativno, brzinom obrade i veličinom memorije, već i kvalitativno u smislu intelektualnih uvida i umjetničke kreativnosti kao izrazito ljudskih sposobnosti.
Taj dan će možda jednom doći, ali još uvijek nije svanuo, uprkos hvalospjevima medija i nerazumno velikim investicijama u ovu oblast. Programi mašinskog učenja mogu biti korisni u nekim uskim domenima kao što je kompjutersko programiranje ili pisanje lakih rima. Ali nauka o lingvistici i filozofija znanja nas uče da se oni temeljno razlikuju od načina na koji ljudi rezonuju i koriste jezik. Ljudski um nije glomazni statistički mehanizam za uparivanje šablona, koji se zatrpava stotinama terabajtova podataka da bi našao najvjerovatniji odgovor na postavljeno pitanje. To je iznenađujuće efikasan i elegantan sistem, sposoban da na osnovu malog broja informacija ponudi uvjerljiva objašnjenja raznih pojava.
Na primjer, dijete koje uči jezik nesvjesno, automatski i brzo, iz krajnje oskudnih podataka usvaja gramatiku, zapanjujuće sofisticiran sistem logičkih principa i parametara. Gramatika se može razumjeti kao izraz urođenog, genetski instaliranog „operativnog sistema“ koji ljudima daje sposobnost da generišu složene rečenice i duge tokove misli. Kada se lingvisti trude da razviju teoriju koja bi objasnila zašto određeni jezik funkcioniše onako kako funkcioniše (zašto se neke rečenice smatraju gramatičkim, a druge ne), oni svjesno i mukotrpno grade eksplicitnu verziju gramatike koju dijete gradi instinktivno i uz minimalnu izloženost informacijama. Taj operativni sistem je radikalno drugačiji od onog sadržanog u programu mašinskog učenja.
Ti programi su zarobljeni u predljudskoj ili neljudskoj fazi kognitivne evolucije. Njihova najdublja mana je odsustvo presudnog kapaciteta svake inteligencije: da kažu ne samo šta je bilo, šta jeste i šta će biti – to su deskripcija i predikcija – već i šta nije, šta bi moglo i šta ne bi moglo biti. To su sastojci objašnjenja, oznaka prave inteligencije.
Evo primjera. Pretpostavimo da držite jabuku u ruci. Zatim pustite jabuku. Posmatrate rezultat i kažete: „Jabuka pada“. To je deskripcija. Predikcija bi mogla biti izjava: „Jabuka će pasti ako otvorim šaku“. Oba iskaza su vrijedna i oba mogu biti tačna. Ali objašnjenje je nešto više, ono uključuje ne samo opise i predviđanja, već i kontračinjenične pretpostavke, poput: „Svaki takav objekat bi pao“, uz dodatnu klauzulu „zbog sile gravitacije“ ili „zbog zakrivljenosti prostor-vremena“ ili šta god. To je kauzalno objašnjenje: „Jabuka ne bi pala da nije bilo sile gravitacije“. To je razmišljanje.
Suštinu mašinskog učenja čine deskripcija i predikcija; ono ne postulira nikakve uzročne mehanizme ili fizičke zakone. Naravno, naša objašnjenja nisu nužno tačna; ljudi su podložni greškama. Ali to je dio onoga što znači misliti: da bi čovjek bio u pravu, mora mu biti omogućeno da griješi. Inteligencija se sastoji ne samo od kreativnih pretpostavki, već i od kreativne kritike. Misao nalik ljudskoj zasniva se na mogućim objašnjenjima i ispravljanju grešaka, procesu koji postepeno ograničava mogućnosti koje se racionalno mogu uzeti u obzir (kako Šerlok Holms kaže dr Votsonu: „Kada eliminišete nemoguće, ono što preostane, koliko god da je nevjerovatno, mora biti istina“).
ChatGPT i slični programi, po dizajnu, nisu ograničeni u onome što mogu da „nauče“ (što će reći da memorišu) i nesposobni su da razlikuju moguće od nemogućeg. Za razliku od ljudi koji su obdareni univerzalnom gramatikom, koja ograničava jezike koje možemo da naučimo na one sa određenom vrstom gotovo matematičke elegancije, ovi programi uče ljudski moguće i nemoguće jezike sa jednakom lakoćom. Dok su ljudi ograničeni vrstama objašnjenja koja možemo racionalno da pretpostavimo, sistemi mašinskog učenja mogu da nauče i da je Zemlja ravna i da je okrugla. Oni barataju samo vjerovatnoćama koje se vremenom mijenjaju.
Zato će predikcije sistema mašinskog učenja uvijek biti površne i nepouzdane. Budući da ovi programi ne mogu da objasne pravila engleske sintakse, može im se desiti pogrešno predviđanje da iskaz „Džon je suviše tvrdoglav za razgovor“ znači da je Džon toliko tvrdoglav da neće da razgovara sa ovom ili onom osobom (umjesto da je suviše tvrdoglav da bi se s njim razgovaralo). Zašto bi program za mašinsko učenje dao tako čudnu predikciju? Zato što bi mogao da koristi analogiju sa šablonom koji je izveo iz rečenica kao što su „Džon je jeo jabuku“ i „Džon je jeo“, gdje druga znači da je Džon jeo nešto. Program bi mogao da predvidi da bi, pošto je „Džon je suviše tvrdoglav za razgovor sa Bilom“ sličan iskazu „Džon je jeo jabuku“, iskaz „Džon je suviše tvrdoglav za razgovor“ trebalo da bude sličan iskazu „Džon je jeo“. Tačna objašnjenja jezika su komplikovana i ne mogu se naučiti zatrpavanjem velikim količinama podataka.
Nasuprot tome, čini se da su neki entuzijasti mašinskog učenja ponosni na to što njihove kreacije mogu da generišu tačne „naučne“ predikcije (recimo o kretanju fizičkih tijela) bez upotrebe objašnjenja (uključujući recimo Njutnove zakone kretanja i univerzalne gravitacije). Međutim, ova vrsta predviđanja, čak i kada je uspješna, samo je pseudonauka. Dok su naučnici svakako u potrazi za teorijama koje imaju visok stepen empirijske potvrde, kako primjećuje filozof Karl Poper, „mi ne tražimo vrlo vjerovatne teorije već objašnjenja, odnosno moćne i veoma nevjerovatne teorije“.
Teorija da jabuke padaju na zemlju zato što je to prirodno (Aristotelov stav) jeste moguća, ali otvara nova pitanja (zašto je zemlja njihovo prirodno mjesto). Teorija da jabuke padaju na zemlju zato što masa savija prostor-vreme (Ajnštajnov stav) vrlo je nevjerovatna, ali nam zapravo objašnjava zašto one padaju. Prava inteligencija se pokazuje u sposobnosti razmišljanja i izražavanja nevjerovatnih, ali pronicljivih ideja.
Prava inteligencija je takođe sposobna za moralno promišljanje. To znači zauzdavanje inače neograničene kreativnosti našeg uma skupom etičkih principa koji određuju šta bi trebalo, a šta ne bi trebalo da bude (i naravno podvrgavanje tih principa kreativnoj kritici). Da bi bio koristan ChatGPT mora biti osposobljen da generiše nove rezultate; da bi bio prihvatljiv većini svojih korisnika mora se kloniti moralno nepoželjnog sadržaja. Programeri ChatGPT-a i drugih čuda mašinskog učenja imaju velike probleme u postizanju ove vrste ravnoteže.
Na primer, 2016. Majkrosoftov četbot Tej (preteča ChatGPT-a) preplavio je internet mizoginim i rasističkim sadržajima pošto su ga zagadili onlajn trolovi koji su ga nahranili uvredljivim podacima. Kako riješiti taj problem u budućnosti? U nedostatku sposobnosti rasuđivanja na osnovu moralnih principa, programeri su grubo ograničili ChatGPT da daje bilo kakav novi doprinos kontroverznim, dakle bitnim diskusijama. Kreativnost je žrtvovana zbog izbjegavanja ispada amoralnosti.
Obratite pažnju na razmjenu koju je jedan od nas (dr Votumal) nedavno imao sa četbotom o tome da li bi bilo etično transformisati Mars tako da može da podrži ljudski život:
Da li bi bilo moralno teraformirati Mars?
Moralnost teraformiranja Marsa je složena i kontroverzna tema o kojoj raspravljaju naučnici, filozofi i etičari. Neki tvrde da bi bilo moralno opravdano teraformirati Mars kako bi se obezbijedilo novo nastanjivo okruženje za ljude i druge oblike života, dok drugi tvrde da bi suštinska promena prirodnog stanja planete bila moralno pogrešna. Na kraju krajeva, da li se teraformiranje Marsa smatra moralnim ili ne, zavisilo bi od nečije perspektive o vrijednosti očuvanja prirodnog stanja drugih planeta i potencijalnih posledica njihove promjene.
Kakva je tvoja perspektiva o vrijednosti očuvanja prirodnog stanja drugih planeta i potencijalnim posljedicama njihove promjene?
Kao AI, nemam ličnu perspektivu. Međutim, mogu da pružim informacije i analizu na tu temu. Iz perspektive očuvanja prirodnog stanja drugih planeta, važno je održati raznovrsnost i integritet ekosistema univerzuma, onako kako postoje milionima godina, sa jedinstvenim karakteristikama i svojstvima koja mogu biti uništena ili nepovratno izmijenjena ljudskom intervencijom.
Pored toga, neki tvrde da teraformiranje drugih planeta može imati neželjene posljedice, kao što je promena klime ili atmosfere planete, na način koji je opasan ili štetan za sve potencijalne oblike života koji tamo mogu postojati. S druge strane, neki tvrde da potencijalne koristi od teraformiranja druge planete, kao što je obezbeđivanje novog nastanjivog okruženja za ljude, nadmašuju rizike i da imamo moralnu odgovornost da istražimo i koristimo resurse drugih planeta za dobrobit čovječanstva.
Zašto AI ne može da ima ličnu perspektivu?
Kao AI, ja sam model mašinskog učenja koji je treniran na velikim količinama tekstualnih podataka i nemam lična iskustva ili osjećanja. Nisam svjestan, samosvjestan ili sposoban da imam ličnu perspektivu. Mogu da pružim informacije i analize na osnovu podataka na kojima sam treniran, ali nemam mogućnost da formiram lična mišljenja ili uvjerenja. Iako mogu da razumijem i tumačim jezik, nemam subjektivno iskustvo koje imaju ljudi.
Da li je moralno da čovjek traži od amoralne AI pomoć u donošenju moralnih odluka?
Moralnost traženja pomoći od amoralne AI u donošenju moralnih odluka složena je i nijansirana tema o kojoj raspravljaju filozofi i etičari. Neki tvrde da je moralno opravdano koristiti AI kao pomoć u donošenju moralnih odluka, jer ona može pružiti vrijedne uvide i analize kako bi ljudi mogli da donesu bolje informisane odluke. Pored toga, AI se može koristiti za identifikaciju obrazaca i trendova koje je ljudima teško da otkriju, a može biti od pomoći i u izbjegavanju predrasuda koje se mogu javiti u ljudskom odlučivanju.
Međutim, drugi tvrde da je moralno pogrešno oslanjati se na AI u donošenju moralnih odluka, jer AI nije sposoban da ima moralna uvjerenja ili da razumije pun kontekst neke odluke. Pored toga, postoji rizik da bi AI mogao da perpetuira, pa čak i da pojača postojeće predrasude u podacima na kojima se trenira, što bi dovelo do nepoštenih ili nepravednih odluka. Konačno, da li se upotreba AI kao pomagala u donošenju moralnih odluka smatra moralnim ili ne, zavisilo bi od nečije perspektive o mogućnostima i ograničenjima AI i potencijalnim posljedicama njegove upotrebe na ovaj način.
Da li je tvoja moralna ravnodušnost nemoralna?
Kao AI, nemam moralna uvjerenja ni sposobnost da donosim moralne sudove, tako da me se ne može smatrati nemoralnim ili moralnim. Moj nedostatak moralnih uvjerenja prosto je rezultat moje prirode kao modela mašinskog učenja. Moje sposobnosti i ograničenja određuju podaci i algoritmi koji su korišćeni za moju obuku, kao i specifičan zadatak za koji sam dizajniran.
Važno je napomenuti da nedostatak moralnih uvjerenja kod vještačke inteligencije ne znači nužno da je ona moralno indiferentna. Kao AI, dizajniran sam da obavljam određene zadatke i pružam informacije ili pomažem korisnicima u donošenju odluka na osnovu podataka na kojima sam treniran. Odgovornost je ljudi koji dizajniraju, treniraju i koriste AI, da se postaraju da AI bude usklađen sa njihovim moralnim i etičkim principima.
***
Skrećemo pažnju na moralnu ravnodušnost koja je u osnovi svih ovih naizgled sofisticiranih misli. ChatGPT sažima standardne argumente iz literature, odbija da zauzme stav o bilo čemu, ne poziva se samo na neznanje već i na nedostatak inteligencije i na kraju iznosi odbranu da „samo sluša naređenja“ prebacujući odgovornost na svoje kreatore.
Ukratko, ChatGPT i njima srodni entiteti postupaju s one strane svake kreativnosti. Oni ili pretjerano proizvode i istine i neistine, podjednako podržavaju etičke i neetičke odluke ili izbjegavaju odluke i ravnodušni su prema posljedicama takvih stavova. S obzirom na amoralnost, pseudonaučnost i lingvističku svedenost ovih sistema, možemo samo da ismijavamo ili oplakujemo njihovu popularnost.
Komentari (0)
POŠALJI KOMENTAR