8. Fenomen halucinacije

Autor: Mario Frančešević

Fenomen halucinacije odnosi se na slučajeve kada sustavi umjetne inteligencije generiraju rezultate koji su netočni ili potpuno izmišljeni.  Halucinacije se mogu pojaviti u različitim oblicima, uključujući tekst, slike ili druge vrste podataka koje generiraju modeli umjetne inteligencije.

8.1. Glavni razlozi zašto AI modeli haluciniraju

Nedovoljna količina podataka kojima raspolažu 

Ako su podaci na kojima se model trenirao pristrani, netočni ili nemaju dovoljno primjera, postoji mogućnost da će modeli umjetne inteligencije generirati rezultate koji se opisuju kao halucinacije.

Složenost jezika kojeg obrađuju

Zbog kompleksnosti jezika, postoji mogućnost da UI modeli nedovoljno dobro razumiju kontekst, idiome i specifičnosti jezične konstrukcije. Iako će model ponuditi odgovor koji zvuči uvjerljivo, u takvom scenariju rezultat može biti činjenično netočan.

Dvosmislenost pri unosu upita 

UI modeli se odlučuju na popunjavanje praznina u rezultatu vlastitim pretpostavkama ako je unos nejasan ili dvosmislen. Takav odgovor se može okarakterizirati kao halucinacija.

Nedostatak raznolikosti u podacima za obuku 

Ako je model umjetne inteligencije treniran na jednoj vrsti sadržaja, može izvući pogrešne zaključke zbog nedostatka raznolikosti podataka.

8.2. Primjeri halucinacija

Lažne informacije u formi teksta

Modeli umjetne inteligencije mogu dostaviti rezultat koji nije istinit. Na primjer, UI model može izgenerirati tekst koji izgleda točno, no u potpunosti je izmišljen.

Stvaranje slika koje netočno spajaju različite dijelove slike 

Kod generiranja i spajanja slike, UI model može stvoriti dijelove slike koji nisu realni ili točni. 

Dezinformacije 

Ako UI model krivo protumači kontekst ili se oslanja na informacije koje više nisu relevantne, može ponuditi rezultat koji (više) nije točan.

8.3. Implikacije halucinacija

Pouzdanost rezultata

Zbog netočnih ili djelomičnih informacija koje modeli isporuče kao rezultat, korisnici mogu biti skeptični te na kraju odustati od korištenja modela umjetne inteligencije koji su skloni halucinacijama.

Širenje dezinformacija 

Opasnost pri razumijevanju i korištenju informacija koje su netočne, pogotovo na osjetljivim područjima poput zdravstva ili obrazovanja.

Izvor:

(1) When AI Gets It Wrong: Addressing AI Hallucinations and Bias https://mitsloanedtech.mit.edu/ai/basics/addressing-ai-hallucinations-and-bias/