OpenAI 能否在未來給我們帶來安全的人工智能?

攪翻科技圈後,OpenAI 迎來多事之秋

本期話題

取得成功不能“偷工減料”

安全的人工智能未來如何?

 作者 | ASC科研社

 圖片來源 | 互聯網

近期,OpenAI 遭遇了一係列“多事之秋”。

ChatGPT 和 GPT-4 的安全隱患引起了外界的擔憂和批評。

馬斯克等上千人聯名呼籲暫停訓練比 GPT-4 更強大的大型模型,時間至少為(wei) 6 個(ge) 月。

意大利禁用了 ChatGPT,並要求 OpenAI 在 20 天內(nei) 向他們(men) 通報公司的應對措施

ChatGPT 發生了大麵積封號事件

ChatGPT Plus 也被停售......

攪翻科技圈後,OpenAI 迎來多事之秋

這些事件表明,雖然 AI 在為(wei) 人類社會(hui) 帶來許多好處方麵已經有了實際證明,但技術始終是雙刃劍,也可能給人類社會(hui) 帶來真正的風險。

因此,AI 的發展需要更多的關(guan) 注和審慎。我們(men) 必須認識到,AI 也需要遵守道德和法律規範,以確保 AI 的應用不會(hui) 對人類社會(hui) 造成傷(shang) 害。作為(wei) AI 技術的提供者和使用者,我們(men) 有責任確保其安全性和可靠性。

攪翻科技圈後,OpenAI 迎來多事之秋

*圖源:OpenAI官網

OpenAI 於(yu) 4 月 6 日發布了一篇名為(wei) “Our approach to AI safety”的博客文章,探討了如何安全地構建、部署和使用人工智能係統的方法。OpenAI 在博文中提到將致力於(yu) 保持強大的 AI 安全性和廣泛受益。我們(men) 的 AI 工具為(wei) 全球用戶提供了許多好處。

ChatGPT 已經被證明能夠提高生產(chan) 力、增強創造力,並提供個(ge) 性化的學習(xi) 體(ti) 驗。我們(men) 也認識到,像所有技術一樣,這些工具也存在潛在的風險。因此,我們(men) 致力於(yu) 在開發、測試和部署過程中將安全性貫穿始終。我們(men) 相信,這些努力將確保我們(men) 的 AI 工具始終處於(yu) 安全、可靠的狀態,為(wei) 用戶帶來最大的好處。

OpenAI 能否在未來給我們(men) 帶來安全的人工智能?

建立越來越安全的人工智能係統

為(wei) 了建立越來越安全的人工智能係統,在發布任何新係統之前,我們(men) 會(hui) 進行嚴(yan) 格的測試,並邀請外部專(zhuan) 家參與(yu) 反饋。我們(men) 還會(hui) 利用人類反饋的強化學習(xi) 等技術來改善模型的行為(wei) ,並建立廣泛的安全和監測係統。例如,在我們(men) 最新的模型 GPT-4 完成訓練後,我們(men) 所有的員工花了 6 個(ge) 多月的時間來使其更加安全和一致,然後才公開發布。

攪翻科技圈後,OpenAI 迎來多事之秋

我們(men) 相信,強大的人工智能係統應該接受嚴(yan) 格的安全評估。因此,我們(men) 積極與(yu) 政府接觸,探討監管可能采取的最佳形式,以確保這種做法被廣泛采納。我們(men) 認為(wei) ,有必要建立一套完整的監管機製,以確保人工智能係統的安全性和可靠性。

從(cong) 真實世界的使用中學習(xi) 改進保障措施

他們(men) 努力在部署前預防可預見的風險,然而,他們(men) 在實驗室中能學到的東(dong) 西是有限的。盡管進行了廣泛的研究和測試,他們(men) 無法預測人們(men) 使用他們(men) 技術的所有有益方式,也無法預測人們(men) 濫用技術的所有方式。這就是為(wei) 什麽(me) 他們(men) 相信,隨著時間的推移,從(cong) 現實世界的使用中學習(xi) 是創建和發布越來越安全的人工智能係統的一個(ge) 關(guan) 鍵組成部分。

在有大量的保障措施下,他們(men) 謹慎地逐步發布新的人工智能係統,將其推送給一個(ge) 穩步擴大的人群,並根據他們(men) 學到的經驗不斷改進。他們(men) 通過服務和 API 提供他們(men) 最有能力的模型,這樣開發者就可以直接在他們(men) 的應用程序中使用這種技術。

現實世界的使用也使他們(men) 製定了越來越細微的政策,以防止那些對人們(men) 構成真正風險的行為(wei) ,同時還允許他們(men) 的技術有許多有益的用途。至關(guan) 重要的是,他們(men) 相信社會(hui) 必須有時間來更新和調整,以適應能力越來越強的人工智能,而且每個(ge) 受這種技術影響的人都應該在人工智能的進一步發展中擁有重要的發言權。迭代部署幫助他們(men) 將各種利益相關(guan) 者帶入關(guan) 於(yu) 采用人工智能技術的對話中,比他們(men) 沒有親(qin) 身經曆過這些工具的情況下更有效。

保護兒(er) 童仍是重中之重

我們(men) 非常重視保護兒(er) 童的安全,因此我們(men) 要求使用我們(men) 的人工智能工具的人必須是 18 歲或以上,或 13 歲或以上並得到父母的批準。我們(men) 嚴(yan) 格禁止我們(men) 的技術被用於(yu) 產(chan) 生仇恨、騷擾、暴力、成人內(nei) 容以及其他有害的類別。

我們(men) 的最新模型 GPT-4 對不允許的內(nei) 容請求的回應率降低了 82%。我們(men) 建立了一個(ge) 強大的係統來監控濫用,並與(yu) 非營利性的可汗學院等合作,為(wei) 他們(men) 的使用情況定製安全緩解措施。

我們(men) 還在開發一些功能,使開發者能夠為(wei) 模型輸出設定更嚴(yan) 格的標準,以更好地支持那些希望獲得這種功能的開發者和用戶。同時,我們(men) 阻止用戶上傳(chuan) 兒(er) 童安全虐待材料,並向國家失蹤和受剝削兒(er) 童中心報告,以盡可能減少我們(men) 的模型產(chan) 生傷(shang) 害兒(er) 童的內(nei) 容的可能性。

未來投入更多資源,部署更強大的模型

OpenAI 認為(wei) ,解決(jue) 人工智能安全問題的實用方法是投入更多時間和資源來研究有效的緩解措施和調整技術,並針對現實世界的濫用進行測試。

提高人工智能的安全性和能力應該同時進行。將謹慎地創建和部署更強大的模型,並將隨著人工智能係統的不斷發展,繼續增強安全預防措施。

OpenAI 認為(wei) ,沒有人會(hui) 為(wei) 了盡快取得成功而偷工減料。關(guan) 注人工智能領域的學者們(men) ,將會(hui) 更加廣泛的辯論、實驗和參與(yu) ,包括在人工智能係統行為(wei) 的界限上。

未來人工智能領域的求職趨勢將朝著高知化、複合化、年輕化的方向發展。市場對跨領域複合型人才的需求會(hui) 更強烈。人才的學科專(zhuan) 業(ye) 背景呈現出廣泛性特征,‘AI+X’多學科複合交叉趨勢明顯。

00 後、95後會(hui) 成為(wei) AI人才市場的中流砥柱,其中90後是研發團隊的主力軍(jun) 。從(cong) OpenAI的人員流動中可看到,大廠也不再是頂尖人才第一選擇。ChatGPT的爆火將AI人才重新拉回了大眾(zhong) 視野,未來,勢必還將掀起一輪新的人才爭(zheng) 奪戰。

"人工智能"方向教授推薦

··攪翻科技圈後,OpenAI 迎來多事之秋攪翻科技圈後,OpenAI 迎來多事之秋攪翻科技圈後,OpenAI 迎來多事之秋

【競賽報名/項目谘詢+微信:mollywei007】

上一篇

全球中小學生都可參加的編程競賽USACO介紹

下一篇

芝加哥大學終身教授法律科研項目推薦

你也可能喜歡

  • 暫無相關文章!

評論已經被關(guan) 閉。

插入圖片
返回頂部