10月28日消息,當?shù)貢r間27日,據(jù)美聯(lián)社報道,超過十位軟件工程師、開發(fā)人員和學術(shù)研究人員稱,OpenAI的語音轉(zhuǎn)寫工具Whisper存在一個重大缺陷:有時會憑空生成大段甚至整句虛假內(nèi)容。
這些專家指出,這些生成的文本可能涉及種族言論、暴力措辭,甚至杜撰的醫(yī)療建議。
專家們認為,這一問題尤其令人擔憂,因為Whisper已被廣泛應用于全球多個行業(yè),包括用于翻譯和轉(zhuǎn)錄訪談內(nèi)容、生成常見消費科技文本及制作視頻字幕。
更具風險的是,盡管OpenAI已提醒不應在“高風險領(lǐng)域”使用該工具,但一些醫(yī)療機構(gòu)仍在匆忙采用基于Whisper的工具來記錄醫(yī)生與患者的咨詢記錄。
報道稱,研究人員和工程師在工作中經(jīng)常遇到Whisper的“幻覺”現(xiàn)象,問題的整體規(guī)模尚不清楚。例如,密歇根大學一位研究員在研究公共會議時發(fā)現(xiàn),在嘗試改進模型前,他所檢查的十份音頻轉(zhuǎn)錄中,八份含有虛構(gòu)內(nèi)容。
一位機器學習工程師透露,在最初分析的超過100小時Whisper轉(zhuǎn)錄中,他發(fā)現(xiàn)大約一半的內(nèi)容存在“幻覺”現(xiàn)象。一位開發(fā)人員進一步指出,在他用Whisper生成的26000份轉(zhuǎn)錄中,幾乎每一份都帶有虛構(gòu)內(nèi)容。
即便是音質(zhì)良好的簡短音頻樣本,也未能幸免于這些問題。計算機科學家們的最新研究表明,他們審查的13000多段清晰音頻片段中,有187段出現(xiàn)了“幻覺”現(xiàn)象。
研究人員認為,這一趨勢意味著,在數(shù)百萬條錄音中將可能出現(xiàn)數(shù)以萬計的錯誤轉(zhuǎn)錄。
OpenAI的發(fā)言人表示,該公司持續(xù)研究如何減少幻覺,并且感謝研究者的發(fā)現(xiàn),將會在模型更新中采納反饋。
分享到微信 ×
打開微信,點擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。