如果請你來為(wei) 即將過去的2023年總結出一個(ge) 年度詞匯,你會(hui) 選擇什麽(me) 呢?
本周三,劍橋詞典宣布hallucinate為(wei) 2023 年的年度詞匯。
在過去的一年裏,人們(men) 對ChatGPT、Bard和Grok等生成式人工智能(AI)工具的興(xing) 趣激增,公眾(zhong) 的注意力轉向了人工智能的局限性以及是否可以克服這些局限性。
人工智能工具,尤其是那些使用大型語言模型(LLM)的AI工具,已被證明能夠生成看似合理的文本,但它們(men) 經常使用虛假、誤導或捏造的“事實”,以一種自信的、或讓人覺得可信的方式“產(chan) 生幻覺,製造虛假信息(hallucinate)”。
我們(men) 在全球推出的劍橋詞典是世界上最受英語學習(xi) 者歡迎的在線詞典,我們(men) 更新了詞典裏hallucinate的定義(yi) ,以解釋其在AI背景下產(chan) 生的新的含義(yi) 。
Hallucinating ‘false information’
產(chan) 生幻覺,製造“虛假信息”
Hallucinate的傳(chuan) 統定義(yi) 是“似乎看到、聽到、感覺到或聞到不存在的東(dong) 西,通常由於(yu) 健康狀況或服用藥物”。劍橋詞典新增定義(yi) 如下:
“When an artificial intelligence (= a computer system that has some of the qualities that the human brain has, such as the ability to produce language in a way that seems human)hallucinates, it produces false information.”
當人工智能(=具有人腦所具有的某些品質的計算機係統,例如以看似人類的方式產(chan) 生語言的能力)產(chan) 生幻覺(hallucinate)時,它會(hui) 製造虛假信息。
AI幻覺(AI hallucinations),也稱為(wei) 虛構(confabulations),有時看起來很荒謬。但它們(men) 也可能看起來完全合理——即使事實上不準確或最終不合邏輯。
人工智能幻覺已經對現實世界產(chan) 生了影響。一家美國律師事務所使用 ChatGPT 進行法律研究,導致在法庭上引用虛構案例。在穀歌自己為(wei) Bard製作的宣傳(chuan) 視頻中,人工智能工具犯了一個(ge) 關(guan) 於(yu) 詹姆斯·韋伯太空望遠鏡事實錯誤。
劍橋詞典出版經理Wendalyn Nichols說:“人工智能可以產(chan) 生'幻覺'這一事實提醒我們(men) ,人類仍然需要將他們(men) 的批判性思維技能帶到這些工具的使用中。
人工智能非常擅長攪動大量數據以提取特定信息並對其進行整合。但是你要求他們(men) 越有原創性,他們(men) 就越有可能誤入歧途。“在最好的情況下,大型語言模型也不過隻能與(yu) 它們(men) 的訓練數據一樣可靠。
可以說,要想創建可以培訓LLM的最新權威信息,人類的專(zhuan) 業(ye) 知識比以往任何時候都更加重要和難得。”
觀念的深刻轉變新的定義(yi) 表明,我們(men) 越來越傾(qing) 向於(yu) 將AI技術擬人化,在談到、寫(xie) 到和想到機器時使用類似人類的隱喻。
劍橋大學人工智能倫(lun) 理學家Henry Shevlin博士說:“'hallucinate一詞被廣泛使用來指代ChatGPT等係統所犯的錯誤,由此可見我們(men) 如何思考和擬人化人工智能。當然,不準確或誤導性的信息長期以來一直伴隨著我們(men) ,無論是以謠言、宣傳(chuan) 還是“假新聞”的形式。“雖然這些通常被認為(wei) 是人類產(chan) 品,但hallucinate是一個(ge) 令人回味的動詞,暗示主體(ti) 正在經曆與(yu) 現實脫節。這種語言選擇反映了一種微妙而深刻的感知轉變:人工智能,而不是用戶,是“產(chan) 生幻覺”的主體(ti) 。
雖然這並不意味著人們(men) 普遍相信人工智能的感知能力,但它強調了我們(men) 願意將類似人類的屬性歸因於(yu) 人工智能。“隨著這十年的發展,我預計我們(men) 的心理學詞匯將進一步擴展,以涵蓋我們(men) 正在創造的新智能的奇怪能力。”
解決(jue) 幻覺——如果它們(men) 能夠完全修複——可能會(hui) 對生成式人工智能在未來的成功和采用至關(guan) 重要。世界各地的工程師和學者,其中很多來自OpenAI,穀歌和Microsoft,正在努力通過“grounding”來限製AI幻覺,即將LLM輸出與(yu) 可靠的來源或網絡搜索進行交叉檢查。有些人正在研究“從(cong) 人類反饋中強化學習(xi) ”,通過人來幫助解決(jue) 幻覺,並研究如何預測和消除幻覺。
劍橋詞典編纂者在 2023 年為(wei) 劍橋詞典的 170,000+ 條英語定義(yi) 添加了 6,000 多個(ge) 新單詞、短語和意義(yi) 。
除了hallucinate之外,一些新增內(nei) 容也反映了人工智能和計算機技術的快速發展。想了解這些詞匯?快來訪問劍橋詞典吧——
https://dictionary.cambridge.org
關(guan) 於(yu) 劍橋詞典
劍橋詞典每年的瀏覽量超過 23 億(yi) 次,訪問量超過 4.2 億(yi) ,是世界上最受英語學習(xi) 者歡迎的網站,也是全球最大的免費在線詞典。它借鑒了劍橋英語語料庫——一個(ge) 超過 20億(yi) 個(ge) 單詞的數據庫——涵蓋英式和美式英語。
劍橋詞典是完全免費的。其豐(feng) 富的詞典、同義(yi) 詞庫和語法資源(如測驗和單詞表)都來自劍橋大學的語言專(zhuan) 家研究。獨特的是,劍橋詞典允許用戶在英式和美式英語定義(yi) 之間輕鬆切換。
Cambridge University Press & Assessment是劍橋詞典的出版商,是英語教學、學習(xi) 和評估領域的市場領導者。每天,都有來自世界各地的學習(xi) 者參加劍橋英語旗下其中某一項英語評估。僅(jin) 2022 年就總共進行了約 610 萬(wan) 次評估。Cambridge University Press & Assessment是世界領先的研究型大學——劍橋大學的一部分。
劍橋詞典年度詞匯網站:Cambridge.org/woty
評論已經被關(guan) 閉。