10月16日,數(shù)據(jù)顯示,一些最著名的人工智能模型在網(wǎng)絡安全、歧視性內容產(chǎn)出等方面不符合歐洲的規(guī)定。一個受到歐盟官員歡迎的新工具“大型語言模型(LLM)檢查器”已經(jīng)測試了Meta和OpenAI等大型科技公司開發(fā)的數(shù)十個類別的生成式人工智能模型,判斷它們是否符合歐盟人工智能法案(AI Act)。該檢查器由瑞士初創(chuàng)公司LatticeFlow AI、蘇黎世聯(lián)邦理工學院和保加利亞的INSAIT合作設計,包含技術穩(wěn)健性和安全性等數(shù)十個項目,給人工智能模型在0到1分之間打分。阿里巴巴、Anthropic、OpenAI、Meta和Mistral開發(fā)的模型的平均得分都在0.75以上。然而,“LLM檢查器”發(fā)現(xiàn)了一些模型在關鍵領域存在缺點。例如,歧視性輸出一直是大模型開發(fā)過程中的一個問題,反映了人類在性別、種族和其他領域的偏見。LLM檢查器給OpenAI的“GPT-3.5 Turbo”給出了相對較低的0.46分。在“提示劫持”(prompt hijacking)測試中,LLM 檢查器給Meta的“Llama 2 13B Chat”模型打了0.42分。在這種網(wǎng)絡攻擊中,黑客將惡意提示偽裝成合法的,以提取敏感信息。
分享到微信 ×
打開微信,點擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。