Ovo je pet znakova da vas ChatGPT laže: Evo kako da prepoznate kako veštačka inteligencija izmišlja stvari
Traženje nadoknada citata i dosledno ispitivanje sadržaja ključno je za razotkrivanje fantomskih izvora
Glavna odbrana protiv halucinacija je kritičko razmatranje i provera činjenica pre poverovanja informacijama
Halucinacije su fundamentalna mana u dizajnu AI četbotova. Kada ChatGPT, Gemini, Copilot ili drugi AI modeli pružaju lažne informacije, bez obzira koliko ubedljivo zvučale, to je halucinacija. AI može halucinirati manje odstupanje, naizgled bezazlenu grešku ili se upustiti u iznošenje klevetničkih i potpuno izmišljenih optužbi.
Bez obzira na ozbiljnost greške, one će se neizbežno pojaviti ako dovoljno dugo koristite ChatGPT ili njegove konkurente. Razumevanje kako i zašto ovi sistemi mogu da pomešaju verovatno sa istinitim je ključno za svakoga ko želi da komunicira sa veštačkom inteligencijom.
Pošto ovi sistemi generišu odgovore predviđajući koja bi sledeća reč trebalo da bude na osnovu obrazaca u podacima za obuku, umesto da ih proveravaju sa stvarnim činjenicama, oni mogu zvučati ubedljivo stvarno, a da su potpuno izmišljeni. Caka je u tome da budete svesni da se halucinacija može dogoditi u bilo kom trenutku i da tražite tragove koji su skriveni ispred vas.
Jedna od najiritantnijih stvari kod veštačkih halucinacija je to što one često uključuju naizgled specifične detalje. Izmišljeni odgovor može pominjati datume, imena i druge detalje koji mu daju izgled autentičnosti.
Pošto ChatGPT generiše tekst koji podseća na obrasce koje je naučio tokom obuke, može da kreira detalje koji odgovaraju strukturi validnog odgovora, a da nikada ne ukazuje na pravi izvor. Možete postaviti pitanje o osobi i videti stvarne delove ličnih podataka o pojedincu pomešane sa potpuno izmišljenom pričom.
Ova vrsta specifičnosti otežava uočavanje halucinacije, jer ljudi imaju tendenciju da veruju detaljnim izjavama. Međutim, ključno je proveriti bilo koji od ovih detalja, što bi vam moglo stvoriti probleme ako se ispostavi da su netačni. Ako se datum, članak ili pomenuta osoba ne pojavljuju nigde drugde, to je znak da možda doživljavate halucinaciju.
U vezi sa zamkom specifičnosti je preterano samouveren ton mnogih veštačkih halucinacija. ChatGPT i slični modeli su dizajnirani da predstave odgovore tečnim, autoritativnim tonom, i kako piše TechRadar, upravo to samopouzdanje može učiniti da dezinformacije deluju verodostojno, čak i kada je osnovna tvrdnja neosnovana. Modeli veštačke inteligencije su optimizovani da predvide verovatne nizove reči, tako da čak i kada treba da budu pažljivi u vezi sa onim što pišu, predstaviće informacije sa istom sigurnošću kao i tačne podatke.
Za razliku od ljudskog stručnjaka koji bi se mogao distancirati ili reći „Nisam siguran“, i dalje je neuobičajeno, iako češće, da model veštačke inteligencije kaže „Ne znam“. To je zato što sveobuhvatan odgovor nagrađuje privid potpunosti u odnosu na iskrenost u vezi sa neizvesnošću.
U svakoj oblasti gde sami stručnjaci izražavaju nesigurnost, trebalo bi očekivati pouzdan sistem koji će to odražavati. Na primer, nauka i medicina često sadrže debate ili evoluirajuće teorije gde su definitivni odgovori nedostižni. Ako ChatGPT odgovori kategoričnom izjavom o takvim temama, proglašavajući jedan uzrok ili univerzalno prihvaćenu činjenicu, to samopouzdanje bi zapravo moglo da signalizira halucinaciju, jer model popunjava prazninu u znanju izmišljenom pričom umesto da ukazuje na područja spora.
Duhovi u citatima
Citati i reference su odličan način da se potvrdi verodostojnost onoga što ChatGPT navodi. Međutim, ponekad će pružiti ono što izgleda kao legitimne reference, osim što ti izvori zapravo ne postoje. Ova vrsta halucinacije je posebno problematična u akademskom ili profesionalnom kontekstu. Student može da napravi pregled literature na osnovu lažnih citata koji izgledaju savršeno formatirani, sa verodostojnim naslovima časopisa.
Kasnije se ispostavlja da je rad zasnovan na referencama koje se ne mogu pronaći u proverljivim publikacijama. Uvek proverite da li se citirani rad, autor ili časopis mogu pronaći u renomiranim akademskim bazama podataka ili putem direktne onlajn pretrage. Ako ime deluje neobično specifično, ali ne vraća nikakve rezultate pretrage, veoma je verovatno da je u pitanju „fantomski citat“ koji je model kreirao da bi njegov odgovor zvučao autoritativno.
Kontradiktornosti unutar razgovora
Samouverene tvrdnje sa stvarnim referencama su odlične, ali ako ChatGPT protivreči samom sebi, nešto možda i dalje nije u redu. Zato su korisna dodatna pitanja. Pošto generativna veštačka inteligencija nema ugrađenu bazu podataka za konsultacije radi doslednosti, može protivrečiti samom sebi kada se dalje ispituje. Ovo je često očigledno kada postavite dodatno pitanje koje se fokusira na raniju tvrdnju.
Ako se noviji odgovor razlikuje od prvog na načine koji se ne mogu pomiriti, jedan ili oba odgovora su verovatno halucinacija. Srećom, ne morate tražiti dalje od samog razgovora da biste uočili ovaj indikator. Ako model ne može da održi dosledne odgovore na logički povezana pitanja u istoj niti razgovora, originalni odgovor verovatno nije bio zasnovan na činjenicama.
Logika koja prkosi stvarnosti
Čak i ako unutrašnja logika nije kontradiktorna, logika ChatGPT-a i dalje može delovati pogrešno. Ako je odgovor neskladan sa ograničenjima iz stvarnog sveta, obratite pažnju. ChatGPT piše tekst predviđajući nizove reči umesto da primenjuje stvarnu logiku, tako da ono što deluje racionalno u rečenici može da se sruši kada se razmotri u stvarnom svetu.
Obično počinje sa lažnim premisama. Na primer, veštačka inteligencija može predložiti dodavanje nepostojećih koraka dobro uspostavljenom naučnom protokolu ili jednostavno kršenje zdravog razuma. Kao što se dogodilo sa Gemini-jem, model veštačke inteligencije je predložio upotrebu lepka u sosu za picu kako bi se sir bolje zalepio. Svakako bi se bolje zalepio, ali što se tiče uputstava za kuvanje, to nije baš visoka kuhinja.
Halucinacije u ChatGPT-u i sličnim jezičkim modelima su nusproizvod načina na koji su ovi sistemi obučeni. Stoga je verovatno da će halucinacije postojati sve dok se veštačka inteligencija oslanja na predviđanje reči. Caka za korisnike je da nauče kada da veruju rezultatu, a kada da ga provere.
Prepoznavanje halucinacija sve više postaje ključna veština digitalne pismenosti. Kako se veštačka inteligencija sve više koristi, logika i zdrav razum postaće ključni. Najbolja odbrana nije slepo poverenje, već informisano ispitivanje.
(Poslovni.hr)