Foto: Google
Nedavne studije kvalitete znanstvenih radova, plagiranja i falsificiranja podataka identificirala je tragove upotrebe generativne umjetne inteligencije u preko šezdeset hiljada radova, a sadržaj koji se generira na temelju dostupnih podataka ili postojećeg konsenzusa potencijalno “kvari” osnovnu funkciju izvornih znanstvenih radova
Piše: Nikola Vukobratović
Upotreba alata “umjetne inteligencije” sve je vidljivija u znanstvenim radovima, uključujući i one koji su prošli sve potrebne recenzije. Upozorenje je to brojnih stručnjaka za kvalitetu znanstvenih radova, plagiranje i falsificiranje podataka koje je nedavno objavljeno na portalu Euronews. Vidljive tragove upotrebe generativne umjetne inteligencije stručnjaci nazivaju “otiscima prstiju”, a nedavna, još neobjavljena studija, koja je u postupku recenzije, identificirala ih je u preko šezdeset hiljada radova.
Studija je bazirana na pretrazi određenih “ključnih riječi” u radovima, za koje se smatra da su natproporcionalno zastupljene u jezičnim alatima koji koriste “umjetnu inteligenciju”, prije svega ChatGPT, koji je postao javno dostupan 2022. Naravno, nije svaka upotreba takvih alata jednako problematična. Dio njih nesumnjivo je korišten kako bi se jezično popravili dijelovi teksta na engleskom, osobito ako engleski nije prvi jezik autora. To, međutim, neminovno dovodi do situacije u kojoj je tekst radova sve “šablonskiji” i ujednačeniji, što ne dovodi do povećanja kvalitete ili čitkosti. No, problemi s intenzivnom upotrebom alata poput ChatGPT-ja puno su dublji. Alati funkcioniraju na temelju gigantskih baza podataka i pristupa informacijama na engleskom te na temelju toga mogu generirati novi sadržaj koji slijedi osnovnu strukturu sadržaja kojem imaju pristup. To na primjer znači da, koristeći pristup golemoj kolekciji sažetaka, koji su sastavni dio svakog znanstvenog rada služe i kao orijentir istraživačima, alati “umjetne inteligencije” mogu o zadanoj temi formulirati sažetak koji djeluje sasvim plauzibilno. No plauzibilno ne znači nužno i sasvim točno ili funkcionalno. Iako alati poput ChatGPT-ja mogu fascinirati korisnika uspješnim sumiranjem i objašnjenjem kompliciranih tema, sadržaj koji generiraju ne mora biti točan ni pouzdan.
Neposredno nakon javne objave, ChatGPT je zabavljao mnoge korisnike iz znanstvene zajednice svojom sposobnošću da ponudi potpuno lažne podatke vezane uz znanstvenu literaturu. Naime, ako zamolite taj alat da vam predloži relevantnu literaturu na engleskom o relativno opskurnoj temi – recimo iz hrvatske povijesti kraja 18. stoljeća – ChatGPT će vam rado udovoljiti. Ponuđena literatura zvučat će vrlo atraktivno, a alat će bez oklijevanja navesti i autora, izdavača, pa čak i ISBN identifikator. Jedini problem je što navedena jedinica literature nije nikada ni napisana ni objavljena. Njezin naslov i tema samo zvuče plauzibilno, ali zapravo ne postoje.
Takva je “fatamorgana” tipična pogreška alata generativne “umjetne inteligencije” i ne odnosi se samo na prijedloge literature, već potencijalno i na elemente istraživanja. Osim toga, sadržaj koji se generira na temelju dostupnih podataka ili postojećeg konsenzusa potencijalno “kvari” osnovnu funkciju izvornih znanstvenih radova, koji bi trebali na temelju originalnih istraživanja remetiti uvriježene stavove o određenom pitanju. S tim je povezano i pitanje potencijalne pristranosti rezultata. Već je, naime, dobro dokumentirana “sklonost” umjetne inteligencije da reproducira postojeće nejednakosti, npr. socijalne, rodne ili rasne. Naposljetku, alati generativne “umjetne inteligencije”, poput ChatGPT-ja, iako efikasno prevode na druge jezike, svoje rezultate temelje na bazama podataka na engleskom, što daje iskrivljenu sliku globalne znanosti.
Osobit je problem prilikom korištenja alata “nekreditiranje”, odnosno nenavođenje postupka prilikom korištenja “umjetne inteligencije” i izostanak argumentacije za njegovu upotrebu. Jedna od uočenih nelegitimnih upotreba je zahtjev “umjetnoj inteligenciji” da parafrazira već objavljeni tekst, kako bi se prikrilo plagiranje, iako je doprinos potpisanog autora u tom slučaju minimalan. Kako za Euronews objašnjava stručnjak za plagiranje Guillaume Cabanac, autori se ponekad ne potrude ni ukloniti zaostatke iz alata, poput dugmeta “generiraj ponovo”.
Sve to moglo bi samo pogoršati javno povjerenje u znanost, koje ne proizlazi primarno iz tehnologije, nego i iz već ranije prepoznatog problema raširenog plagiranja i falsificiranja rezultata. Savršeni mehanizmi sprječavanja tih opasnih pojava naravno ne postoje, ali koliko ih potencira sistem znanosti u kojem napredovanje i zadržavanje posla dominantno ovise o bodovanju na temelju redovite objave radova u rangiranim časopisima otvoreno je pitanje.