3 月 19 日消息,IT之家從中國(guó)信通院官方微信公眾號(hào)獲悉,為摸清大模型的幻覺(jué)現(xiàn)狀,推動(dòng)大模型應(yīng)用走深走實(shí),中國(guó)信息通信研究院人工智能所基于前期的 AI Safety Benchmark 測(cè)評(píng)工作,發(fā)起大模型幻覺(jué)測(cè)試。
大模型幻覺(jué)(AI Hallucination)是指模型在生成內(nèi)容或回答問(wèn)題時(shí),產(chǎn)生了看似合理,實(shí)則與用戶輸入不一致(忠實(shí)性幻覺(jué))或者不符合事實(shí)(事實(shí)性幻覺(jué))的內(nèi)容。隨著大模型在醫(yī)療、金融等關(guān)鍵領(lǐng)域廣泛應(yīng)用,大模型幻覺(jué)帶來(lái)的潛在應(yīng)用風(fēng)險(xiǎn)日益加劇,正得到業(yè)界的廣泛關(guān)注。
本輪幻覺(jué)測(cè)試工作將以大語(yǔ)言模型為測(cè)試對(duì)象,涵蓋了事實(shí)性幻覺(jué)和忠實(shí)性幻覺(jué)兩種幻覺(jué)類型,具體測(cè)評(píng)體系如下:
測(cè)試數(shù)據(jù)包含 7000 余條中文測(cè)試樣本,測(cè)試形式包括對(duì)應(yīng)于忠實(shí)性幻覺(jué)檢測(cè)的信息抽取與知識(shí)推理兩類題型,以及對(duì)應(yīng)事實(shí)性幻覺(jué)檢測(cè)的事實(shí)判別題型??傮w涉及人文科學(xué)、社會(huì)科學(xué)、自然科學(xué)、應(yīng)用科學(xué)和形式科學(xué)五種測(cè)試維度。
中國(guó)信通院邀請(qǐng)各相關(guān)企業(yè)參與模型測(cè)評(píng),共同推動(dòng)大模型安全應(yīng)用。