Az első “hallucinációs” jelenségekről a chatbotoknál 2023 áprilisában számoltak be. Ez a jelenség akkor fordul elő, amikor a chatbotok és/vagy az emberek olyasmit látnak, ami nincs ott, és a probléma egyre súlyosbodik. Iskolák és egyetemek (valamint vállalkozások) próbálnak megoldást találni a problémára, mielőtt az túl nagy méreteket öltene. Nos, már most is túl nagy a probléma.
Azok számára, akik kísérleteznek az OpenAI ChatGPT-jével, a Google Bardjával (és hasonlókkal) a problémára az lett a felhívás, amikor Ben Zimmer a The Wall Street Journalban írt róla. Zimmer saját szavaival:
Például megkérdeztem Bardot az “argumentatív diftongizációról”, egy kifejezésről, amit én találtam ki. Nemcsak hogy öt bekezdést produkált erről a hamis jelenségről, a chatbot azt is elmondta, hogy a kifejezést “elsőként a nyelvész Hans Jakobsen alkotta meg 1922-ben”. Nem kell mondanom, hogy soha nem létezett egy neves nyelvész Hans Jakobsen néven (bár egy dán tornász ezen a néven versenyzett az 1920-as olimpián).
Az AI kutatók ezt a problémát “hallucinációknak” hívják. Vajon a gépek valóban képesek elveszíteni a valóságérzéküket és eltérni a valóságtól? Úgy tűnik, igen. Itt egy interjú a CBS “60 Minutes” műsorában a Google vezérigazgatójával, Sundar Pichaival, aki túlságosan is jól ismeri az AI hallucináció problémáját. Pichai azt mondja, hogy “senki sem tudta még megoldani a hallucinációt, és hogy minden AI modellben ez probléma.”
Romlik a helyzet?
Íme egy nyílt ismertető, amelyet érdemes megvizsgálni az iparágat jelenleg sújtó azonnali problémáról, amit több tudós írt, akik a Google AI-vel dolgoztak 2018-ban. Miért csak az elmúlt hónapokban hallunk erről — és miért romlik a helyzet?
A CNN így fogalmazta meg: “Mielőtt a mesterséges intelligencia átvehetné a világ feletti uralmat, egy problémát kell megoldania. A botok hallucinálnak. Olyan AI-alapú eszközök, mint a ChatGPT, lenyűgöztek minket azzal, hogy milyen hitelesen és emberien válaszolnak szinte bármilyen kérdésre.”
A Wired tegnap azt állította: “A chatbot hallucinációk megrontják a webes kereséseket.” Valóban nehéz különbséget tenni, hacsak nem ismerjük a tényleges igazságot. A mesterséges intelligencia a legmagabiztosabb hangnemben adja meg az információt, és a válasz igaznak tűnik — amíg tovább nem keresünk és rájövünk, hogy nem igaz.
Elkerülhetők ezek az AI hallucinációk? De itt vannak a legrosszabb chatbot hazugok — akik orvosi tudásukat hirdetik. Képzeljük el azt a szülőt, akinek nincs orvosi képzése — mint a legtöbbünknek. Képzeljük el: egyik éjjel beteg a gyermekünk, és azt akarjuk keresni, hogy adjunk-e neki egy kis Tylenolt, vagy vigyük-e sürgősségi osztályra. A bot hibásan utasít minket, és a gyermekünk megsérül. Sokan felfedezhetnénk néhány problémát ebben a helyzetben.
A PubMed — az Amerikai Egyesült Államok kormányának hivatalos weboldala válaszolt a chatbotok tudományos írásaira. Úgy tűnik, hogy még a kormány is aggódik kissé.
Reméljük, hogy a chatbotok hamarosan átalakulnak.