在過去一年,GPT快速風靡世界,大語言模型的技術進步可謂是一日千裏,從(cong) GPT3,到3.5,到GPT4隻用了兩(liang) 年多時間。而最近一條新聞再次讓GPT上了熱搜,紐約時報對OpenAI和微軟正式提起訴訟,指控其未經授權就使用紐約時報內(nei) 容訓練人工智能模型。索賠金額,達到了數十億(yi) 美元。
GPT的誕生本身,是否就是“不合法”的?
紐約時報指控OpenAI和微軟未經許可,就使用紐約時報的數百萬(wan) 篇文章來訓練GPT模型,創建包括ChatGPT和Copilot之類的AI產(chan) 品。並且,要求銷毀“所有包含紐約時報作品的GPT或其他大語言模型和訓練集”。
紐約時報的指控其實非常本質,大多數人往往隻把GPT的核心代碼看作是人類知識的結晶,或者法律上所說的“知識產(chan) 權”,但卻忽略了讓GPT成長起來,甚至能夠誕生的必要條件——海量的訓練數據。這些海量的文字圖像訓練數據是公開的,但並不代表它們(men) 沒有知識產(chan) 權的保護,比如紐約時報的內(nei) 容,你可以在互聯網上閱讀,但你想要“商用”,就會(hui) 觸碰到版權的屏障。而利用這些包含“版權”的內(nei) 容訓練出來的GPT,它的合法性也因此被質疑。
通俗點說,比如我們(men) 在土地上建立了雄偉(wei) 華麗(li) 的建築,盡管建築看起來輝煌燦爛,是人類知識和勞動的結晶,但我們(men) 不能忽略土地的作用,土地的三通一平,整理規劃也是人類勞動的集合。如果“土地”被隨意取用,那土地上的“建築”是否由建造者保有全部的產(chan) 權?也許,GTP從(cong) 誕生那一刻,它的“合法性”就必然會(hui) 被質疑。
另外,關(guan) 於(yu) 合法性的探討其實也反應出人們(men) 對於(yu) GPT這樣大語言模型的一些擔憂。
尤其是在使用端,這一兩(liang) 年來更是眾(zhong) 說紛紜。
雖然暫時沒有統一的法規來規範GPT的使用,但針對科研領域的應用,很多大學和研究機構其實提出了一些使用規範和共識。比如在2023年初ChatGPT剛開始風靡的時候,哈佛大學曾考慮禁止學生使用。
但隨著ChatGPT等生成式AI的飛速發展和應用的深入,哈佛大學認為(wei) ,一味禁止無法改變現實,應該順應技術潮流,並以安全的方式將ChatGPT整合到教育中以提升教學效率和質量。類似的,像香港科技大學、牛津大學、耶魯大學等一票名校也紛紛做出類似表態,適當對新技術進行了妥協——與(yu) 現有大學政策和學術道德不相違背的情況下有限製地使用。這些共識的本質,是對“濫用”GPT的擔憂,而這種擔憂不無道理。
GPT到底是“靈丹妙藥”還是一顆“毒丸”?
在最初的“萬(wan) 眾(zhong) 歡呼”和“狂飆突進”之後,其實包括小e和我們(men) 熟悉的一些專(zhuan) 家也一直在思考和探討這樣一個(ge) 問題——對於(yu) 我們(men) 每個(ge) 人,或者針對科研人這個(ge) 小群體(ti) 來說,GPT的出現到底給我們(men) 帶來了什麽(me) ?是解決(jue) 很多難題的“靈丹妙藥”,還是一顆“毒丸”?任何一項新技術新工具的出現往往都會(hui) 帶來好壞參半的影響,區別隻在於(yu) 是好處多些還是壞處多些。很多人沒有提到一個(ge) 點——GPT這類大語言模型技術最顯著的特點是低門檻。
盡管它隻是人工智能技術的一些新進展,但GPT可以讓普通人通過自然語言與(yu) 計算機溝通,並且生成內(nei) 容,讓GPT的使用幾乎沒有門檻。要知道,GPT出現之前,人工智能技術還是少部分專(zhuan) 家和科學家的自留地,想要應用人工智能技術,不僅(jin) 要理解相應的技術,還需要熟練掌握相應的編程語言,但現在,統統不需要了。
這導致的最大的問題在於(yu) GPT帶來的影響被無限放大,新技術的利好和便利迅速被無數人共享,問題也不可避免地迅速顯現。
不恰當地使用GPT這樣的大語言模型技術,給創作者和普通人都帶來了很嚴(yan) 峻的挑戰。
創作者是一個(ge) 廣義(yi) 的說法,不僅(jin) 包括所有從(cong) 事文字、語言、藝術的工作者,“創作”科研成果的科研人員也同樣屬於(yu) 創作者的範疇。沒錯,雖然GPT大家見的最多的是生成文本信息,但是像Midjourney這樣的工具在生成圖像、插畫等方麵的功力,要是光看出圖時間,能打100個(ge) 插畫師!而且,人家出圖的質量也不差。另外,音樂(le) 、視頻、動畫等等都因為(wei) GPT的出現卷出了天際。至於(yu) 科研,原本被認為(wei) 是人類智慧的結晶,是不容被“呆萌”的機器褻(xie) 瀆的。
但是,大家已經看到了,GPT已經“不甘於(yu) ”隻當一個(ge) 小輔助,而是想要擔綱成為(wei) 主角。在GPT4剛出來的時候,就有人用它來寫(xie) 科研論文,甚至還成為(wei) 了科研論文的“作者”。因為(wei) 這個(ge) 事,Nature和Science分別都發表了相關(guan) 文章。明確了GPT作為(wei) 科研論文作者的可行性和限製。至於(yu) 對於(yu) 所有普通人帶來的危害,看起來是隱性的,但影響深遠。
GPT的廣泛使用對於(yu) 大眾(zhong) 來說,有點像商業(ye) 領域“毒丸”計劃,通過大量增發新股,導致收購難度增加,而之所以說是“毒丸”,是因為(wei) 這種增發新股的舉(ju) 措讓公司本身也會(hui) 被影響,導致投資價(jia) 值變低,可以說是一種不太有利於(yu) 公司本身的無奈舉(ju) 措。而GPT大幅增加了整個(ge) 互聯網中的信息總量,和“毒丸”類似,這些信息往往是低價(jia) 值和低質量的。
海量低質量信息充斥互聯網,導致我們(men) 每個(ge) 人想要獲取有價(jia) 值信息的難度大幅度增加。如果原先尋找信息是在池塘裏,現在則是把同樣多的魚放到大海中,魚的數量沒變(優(you) 質創作者的創作量沒有顯著變化),但“水”多了太多。
最近我自己的感受就很明顯,以前搜索一些東(dong) 西,隻需要簡單翻看幾個(ge) 排名在前麵的搜索結果,現在嘛,不僅(jin) 有大量雷同的內(nei) 容,而且很多內(nei) 容都言之無物,看起來好像有很多文字,仔細讀完發現邏輯混亂(luan) ,內(nei) 容價(jia) 值也不高。如何在海量低質量信息中搜尋出有價(jia) 值的信息,這對我們(men) 每個(ge) 普通人都是一個(ge) 巨大的挑戰。
對於(yu) 科研,監管、妥善使用可能是最好的答案
對於(yu) 科研人員,GPT所帶來的巨大的生產(chan) 力提升可以幫助科研人員把精力更多地集中在創造性的工作當中,為(wei) 一些瑣碎的工作提供了低成本的解決(jue) 方案。比如GPT輔助論文閱讀,對論文進行語言潤色和調整,甚至通過GPT來搜索、整理、歸納一些資料,你把GPT當作一個(ge) 科研助手也沒問題。
所以,不能因為(wei) GPT帶來的壞處就因噎廢食,但也不能為(wei) 了追求效率和易用性而影響科研創新本身。
也許,最好的辦法就是像那些國內(nei) 外知名大學一樣,加強監管,妥善使用吧。但是,在GPT激流勇進的當下,我們(men) 也要知道,GPT目前的能力還達不到真正科研人的水平。——夠用,但還不夠“專(zhuan) 業(ye) ”。
就拿英文翻譯來說,如果你真的全靠GPT那不得不說“心有點大”,專(zhuan) 業(ye) 詞匯使用不準,表達一般還能忍受的話,原文意思歪曲也是偶有發生的情況。這在平時可能無所謂,但對於(yu) 每一句話都要力求嚴(yan) 謹的科研論文來說可以算是致命傷(shang) 。之前有小夥(huo) 伴試著自己寫(xie) 出中文論文,然後用GPT翻譯再潤色,搗鼓了半天後還是老老實實回去自己寫(xie) 英文了。
如果想要論文翻譯的準確,符合期刊要求和科研嚴(yan) 謹性,人工輔助依然必不可少。意得輯一直為(wei) 科研人提供各類論文服務,包括但不限於(yu) 論文潤色、論文翻譯、發表指導,如果你有這方麵需要,那麽(me) 不妨讓我們(men) 的專(zhuan) 家為(wei) 你提供專(zhuan) 業(ye) 的論文服務,讓你的學術發表過程更加順利和流暢。
評論已經被關(guan) 閉。