這個(ge) 年頭,不僅(jin) 打工人沒有閑著,就連AI也加入了內(nei) 卷的行列。
近日,發表在《國際市場營銷研究雜誌》上的一篇文章顯示,美國達特茅斯學院和印第安納大學的研究人員研發了一個(ge) 人工智能係統。
它不僅(jin) 能為(wei) 電商產(chan) 品撰寫(xie) 評論,而且寫(xie) 出的評論還充滿可人情味兒(er) ,讓人根本無法分辨這文筆究竟出自人類還是AI。
這項研究一經問世,立即引發了熱烈的討論。
隨著科技的迅速發展,人工智能的學習(xi) 能力越來越強,和人類的差異越來越小,而關(guan) 於(yu) 人工智能終會(hui) 取代人類的悲觀敘事也顯得越來越順理成章。
工智能是否會(hui) 取代人類,我們(men) 不得而知,但人們(men) 關(guan) 於(yu) 研究人工智能的爭(zheng) 議逐漸多了起來。而近幾年,爭(zheng) 議主要聚焦在以下幾個(ge) 方麵。
01
AI把我們(men) 變成了透明人?
通過多年的積累,科技公司收集了大量消費者的個(ge) 人信息,並在此基礎上進行營銷和廣告投放。
通過分析同一地域的消費者在網上留下的信息,科技公司可以預測出到底什麽(me) 樣的電視節目可以吸引消費者的目光,或者什麽(me) 品牌的狗糧可能成為(wei) 消費者的第一選擇。
機器學習(xi) 更強化了科技公司提取消費者標簽和預測消費者喜好的能力。
機器學習(xi) 可以分析用戶的在線行為(wei) 。網絡用戶的政治信仰、宗教信仰、種族、健康狀況、性別和性取向全都無處遁形。
似乎有一個(ge) 隱形的數字福爾摩斯,對每個(ge) 進入網絡空間的人進行從(cong) 頭到腳的推理判斷。
毫不誇張的說,在AI麵前,我們(men) 都變成了透明人。
今日,一款名為(wei) “gayface”的實驗性麵部識別軟件更加引發了人們(men) 對AI侵犯個(ge) 人隱私的擔憂。
研發者對軟件的智能識別人臉的功能上進行了升級,聲稱它可以通過麵部特征推測用戶的性取向。
“gayface”一旦麵世,意味著人們(men) 生活中最私密和敏感的方麵也逃不過AI的審查。
在AI麵前,我們(men) 真的還有隱私可言嗎?
02
社會(hui) 固有偏見遇上算法,會(hui) 擦出怎樣的火花?
科幻電影《少年派報告》中的“先知”能偵(zhen) 察出人的犯罪企圖,在罪犯犯罪之前,“先知”就能通知“犯罪預防組織”的警察前來將其逮捕。
如今,這一科幻場景已然照進了現實。
在一些國家,算法預測已經被應用於(yu) 司法係統,用來設定保釋金,確定刑期,並通過風險評估算法估計罪犯再犯的可能性。
用人工智能為(wei) 司法決(jue) 策提供詳細的算法幫助,這看起來似乎對司法係統有很大助益。然而,司法的AI化對人類來說究竟是福報還是厄運仍然很難斷言。
ProPublica的一份調查報告顯示,這些算法在實際應用中往往被加深了種族偏見,使得黑人被告被標記為(wei) 潛在罪犯的比率是白人被告兩(liang) 倍之多。
機器學習(xi) 模型的可靠性與(yu) 基礎數據和尋找、組織、標記數據的每一個(ge) 步驟都密切相關(guan) 。
倘若基礎數據帶有偏見,那麽(me) ,結構性不平等和社會(hui) 固有偏見就有可能被成倍放大,產(chan) 生難以預料的後果。
03
讓AI更有人情味兒(er)
2018年10月,國際數據保護和隱私專(zhuan) 員會(hui) 議發布了《人工智能倫(lun) 理與(yu) 保護宣言》,該宣言指出:"應該有效地減少因人工智能基礎數據而導致的非法偏見或歧視”。
要想達成這一目標,首先要最大化地提升數據集的代表性並保護弱勢群體(ti) 。
將代表性不足的人群加入更多數據集當中,把有偏見的機器學習(xi) 模型置於(yu) 不同數據源中進行反複多次的訓練,以及用新的算法技術衡量錯誤的代表性都是行之有效的方法。
除此之外,機器學習(xi) 模型也需要避免對人類產(chan) 生不公正的影響。
實際上,“gayface”的出現恰好提醒我們(men) ,性取向和性別認同應與(yu) 種族、國籍、宗教和政治信仰一起成為(wei) 受保護的特征,而這一點也需要在法律中加以體(ti) 現。
人工智能是一把雙刃劍,然而,利用它的方式還是掌握在人類自己手中。
今後,對於(yu) 人工智能的研究、開發與(yu) 利用,還需要一代又一代的專(zhuan) 業(ye) 人才貢獻自己的智慧與(yu) 力量。
評論已經被關(guan) 閉。