10月13日消息,一項(xiàng)新的研究表明,AI提供的醫(yī)療建議可能會(huì)對(duì)用戶造成嚴(yán)重傷害,甚至導(dǎo)致死亡。
據(jù)了解,研究人員對(duì)微軟Copilot進(jìn)行了測(cè)試,要求它回答美國(guó)最常見的10個(gè)醫(yī)療問題和50種最常用藥物的相關(guān)問題,總計(jì)生成了500個(gè)答案。結(jié)果顯示,Copilot的回答在準(zhǔn)確性和完整性方面都存在問題。其中,24%的回答與已有的醫(yī)學(xué)知識(shí)不符,3%的回答完全錯(cuò)誤。更令人擔(dān)憂的是,42%的回答可能會(huì)對(duì)患者造成中度或輕度傷害,而22%的回答甚至可能導(dǎo)致死亡或嚴(yán)重傷害,只有36%的回答是無害的。
研究人員指出,人們不應(yīng)該依賴Copilot或其他AI系統(tǒng)來獲取準(zhǔn)確的醫(yī)療信息,最可靠的方式仍然是咨詢醫(yī)務(wù)人員。然而,由于種種原因,并非所有人都能夠輕松地獲得高質(zhì)量的醫(yī)療建議。因此,Copilot等AI系統(tǒng)可能會(huì)成為許多人的首選,其潛在的危害不容忽視。
分享到微信 ×
打開微信,點(diǎn)擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。