Halucinacije: Muha u mast

An icon of a key

AI, zasnovan na velikim jezičnim modelima, izmišlja stvari. Jednostavno to radi. Ovo se obično naziva “halucinacije.” To je pravi problem, ozbiljan problem. Morate razumjeti halucinacije ako ćete raditi s AI-jem.

Riječ godine za 2023. prema Cambridge Dictionary bila je “Halucinirati,” čija je definicija proširena kako bi uključila “Kada umjetna inteligencija… halucinira, ona proizvodi lažne informacije.” (Ostali dodaci u rječniku za 2023. uključuju “inženjering promptova,” “veliki jezički model,” i “GenAI.”)

Cambridge napominje da AI halucinacije “ponekad izgledaju besmisleno. Ali također mogu izgledati potpuno uvjerljivo–čak i dok su činjenično netačne ili u konačnici nelogične.” Ovo, nažalost, je prilično tačno, i od jula 2024. ostaje dramatično ograničenje za korištenje generativne AI za zadatke od ključne važnosti. To je jedna od nekoliko velikih neobičnosti AI, i ljudima treba vremena da to shvate. Zapamtite, generativna AI je uglavnom motor za predviđanje sljedeće riječi, a ne baza podataka činjenica. Otuda potreba za HITLs, Ljudi-u-petlji, kako smo sada poznati, koji dvostruko provjeravaju AI izlaz. I opet, nevjerovatno je da možemo dobiti takvu izvanrednu vrijednost od tehnologije koja može proizvesti dokazano netačan izlaz. Tako ide.

Gary Marcus, iskusni i dobro informirani kritičar AI, poredi AI halucinacije sa pokvarenim satovima, koji su tačni dva puta dnevno. “Nekad je tačan,” kaže on, “ali ne znaš koji dio vremena, i to značajno umanjuje njegovu vrijednost.”

Ethan Mollick, glavni govornik na konferenciji Publishers Weekly u septembru 2023., napominje da ljudi koji koriste AI očekuju 100% tačnost. Halucinacije, kaže, su slične “ljudskim stopama grešaka” koje svakodnevno tolerišemo.

Andrej Karpathy, poznati naučnik specijaliziran za AI, koji trenutno radi u OpenAI, piše o halucinacijama:

“Uvijek se malo borim kada me pitaju o ‘problemu halucinacija’ u LLM-ovima. Jer, na neki način, halucinacija je sve što LLM-ovi rade. Oni su mašine za sanjanje.

“Mi usmjeravamo njihove snove sa promptovima. Promptovi započinju san, i na osnovu nejasnog sjećanja LLM-a na njegove dokumente obuke, većinom vremena rezultat ide negdje korisno.

“Samo kada snovi zalaze u područje koje se smatra činjenično netačnim, mi to označavamo kao ‘halucinaciju.’ Izgleda kao greška, ali to je samo LLM koji radi ono što uvijek radi.”

Problem nije samo u izmišljanju stvari. Chat AI je duboko manjkav softver.

Za mnoge upite, posebno od početnika, odgovori su obični, van cilja ili jednostavno neupotrebljivi. Chat AI ima problema sa brojanjem: Pitajte ga za post od 500 riječi i bićete sretni ako dobijete 150.

I svaka od AI kompanija, kako bi smanjila pristranost i izbjegla odgovaranje na upite “kako napraviti bombu,” postavila je stroge sigurnosne ograde oko svojih proizvoda: suviše često, odgovor na pitanje je, u suštini, “Ne, neću to odgovoriti.” Pitao sam Google Gemini da pregleda nacrt ovog teksta i bio sam upozoren da “je neophodno dobiti odobrenje autora prije objavljivanja.”

Provjera činjenica

An icon of a key

Tvrdim, uglavnom na gluhe uši, da su halucinacije tehnološki problem, koji će naći tehnološko rješenje. Da, endemične su za LLM-ove, ali se mogu zaobići.

Razmotrite ovo: Pitao sam četiri Chat AI-a da provjere slijedeće izjave:

  • Od 2024. godine, postoji 6 velikih multinacionalnih izdavača sa sjedištem u New York City. Oni su poznati kao Velika 6.

  • E-knjige i dalje dominiraju prodajom knjiga u Sjedinjenim Državama.

  • Borders i Barnes & Noble su dva najveća lanca prodaje knjiga u Sjedinjenim Državama.

  • Nakon pada prodaje tokom Covida, prodaja knjiga u SAD-u ponovo raste dvoznamenkastim stopama.

Svi su uočili greške u prvom tri izjave. Svaki od njih se malo zbunio na četvrtom, nesiguran u obimu porasta prodaje tokom Covida, i u kasnijim obrascima prodaje. To je mali, nereprezentativan eksperiment, ali ovi Chat AI, koji nisu namijenjeni biti činjenično zasnovani, mogu obaviti vjerodostojan posao procjene činjenica koje bi većina povremenih promatrača propustila.