{ SKIP }
文:MenClub 魏文青  
POSTED ON 13 Jun 2024

ChatGPT等「大型語言模形」(LLM) 正迅速進入人類生活,甚至有唔少人已經培養出「有事問AI」嘅習慣。但只要試用過就會發現,呢類LLM提供嘅資訊往往不準確、錯誤甚或「無中生有」,令使用者未能盡信。目前業界稱呢種現象為「AI幻覺 (AI Hallucinations)」,但近日有研究團體就呼籲大眾及專家為呢個AI問題「正名」,更表示「AI唔係有幻覺,而係純粹9噏!」

來自蘇格蘭Glasgow大學嘅Michael Townsen Hick及James Humphries等多位學者近日於《Ethics and Information Technology》上發表最新研究,指出目前LLM出現「提供不準確資訊」嘅情形並非因為「幻覺」,而係因為LLM嘅本質就係「9噏 (Bullshitting)」。佢哋首先引用咗近代美國哲學家Harry Frankfurt對「9噏」嘅定義,指出「說謊者 (Liar)」係「知道真相但故意說出錯誤的話」,而「9噏者(bullshitter)」就係不理會事實真假及說話內容嘅準確性,純粹想講啲嘢出黎達到「留下好印象或說服」嘅目的。

然後佢哋進一步指出,目前如ChatGPT等LLM係唔理解「對與錯」、「準確與否」嘅概念,佢哋只係按訓練庫中嘅內容格式,生成出類似嘅文字,而無考慮內客本身嘅對錯。換言之佢哋生成嘅只係睇或聽落合理,但缺乏事實支撐嘅陳述,令佢哋更貼近「9噏」嘅定義。

你可能會問:「9噏」又好,「幻覺」又好,都係字眼問題啫,有分別咩?Michael Townsen Hick等人就指出,如果我哋將「AI提供錯誤資訊」歸咎於「AI幻覺」,就暗示我哋相信AI「想」提供正確資訊,只係目前做唔到或者出咗錯;但實際情況係AI根本冇理過資訊正確與否,佢哋生成文字出黎並非真係想同人溝通、提供錯誤資訊時亦非因為觀點錯誤或「幻覺」。

「AI幻覺」呢個錯誤嘅比喻除咗會助長對AI嘅過度炒作,亦會令公眾產生不必要的恐慌,同時令AI專家們試圖去解決一個唔存在嘅問題。研究團隊亦警告,即使AI提供正確資訊,都唔代表佢唔係「9噏」,相反只係「咁啱噏中」。

資料來源:ChatGPT is bullshit

於日前舉行嘅日本「生成AIなんでも展示会(生成AI乜都可以展示會)」中,遊戲製作人玉置絢展示一個佢自己開發嘅「AI女馬迷」系統「GALLOPIA」,而且仲用呢個系統成功扑中一條2273.3倍嘅冷門飛。各位馬迷係咪都好想試 ...
tech
【人工智能】遊戲製作人創「AI女馬迷」預測賽果 竟中2273.3倍冷門飛
21 Nov 2024
以文字為主嘅社交平台「Threads」,自去年7月推出後迅速爆紅,介面簡約而且冇廣告吸引大批網民使用,目前每月活躍用戶已高達2.75億人。但最近有消息指,Threads將於明年開放廣告投放功能,睇嚟社交媒體最後一片淨土 ...
tech
【科技】要來的始終要來!傳Threads將於2025年初加入廣告
15 Nov 2024