11月22日在以“跨越邊界的科技倫理”為主題的第二屆中國科技倫理高峰論壇上,中國科學(xué)院院士、北京大學(xué)教授梅宏,再度發(fā)聲認為,當(dāng)前AI面臨此三大問題。
(1)泡沫太大,仍處于技術(shù)成熟度曲線(hype cycle)的高峰階段,喧囂埋沒理性,需要一個冷靜期;
(2)以偏概全,對成功個案不顧前提地放大、泛化,過度承諾;
(3)期望過高,用戶神化AI的預(yù)期效果,提出難以實現(xiàn)的需求。
“智能是人類區(qū)別于其他動物的專有特征,特別是認知能力。我們可以接受機器在感知能力方面超越人類,但對機器認知智能的研發(fā),需要高度審慎。從科技倫理的視角來看,我們?yōu)槭裁匆斐鲆粋€替代我們認知的東西?”
11月22日,在以“跨越邊界的科技倫理”為主題的第二屆中國科技倫理高峰論壇上,中國科學(xué)院院士、北京大學(xué)教授梅宏直指當(dāng)前數(shù)字技術(shù)面臨的倫理挑戰(zhàn)。
從智能制造到智慧城市,從醫(yī)療健康到金融服務(wù),當(dāng)前大語言模型火爆,人工智能(AI)風(fēng)頭正盛。梅宏認為,在AI熱潮中,泡沫太大,仍處于技術(shù)成熟度曲線的高峰階段,喧囂埋沒理性,需要一個冷靜期。
他強調(diào),雖然基于當(dāng)前的技術(shù)路徑,大模型尚不能“無中生有”,做出超越人類預(yù)期的事情,但一味信奉“蠻力”、追求規(guī)模,也極易發(fā)展出在覆蓋面和復(fù)雜度上人們難以掌控的“巨獸”。
在經(jīng)歷了兩個“春天”和兩個“冬天”后,AI迎來了第三個“春天”,深度學(xué)習(xí)技術(shù)帶來的一次次突破不斷刷新著人們對AI的認知。
但是,從臉書公司(Facebook)數(shù)據(jù)泄露到大模型生成內(nèi)容引發(fā)侵權(quán)糾紛和虛假信息傳播,數(shù)字技術(shù)在為人類社會經(jīng)濟發(fā)展帶來益處的同時,也帶來了數(shù)據(jù)隱私保護、算法偏見、責(zé)任認定等一系列倫理問題。
例如,就當(dāng)前大語言模型的技術(shù)路線而言,“黑盒”導(dǎo)致的不可解釋性是其最大“罩門”。如果不加任何規(guī)制而大量應(yīng)用,可能導(dǎo)致人類知識體系面臨嚴峻挑戰(zhàn)。訓(xùn)練語料的質(zhì)量缺陷、概率統(tǒng)計的內(nèi)生誤差等因素會導(dǎo)致大模型產(chǎn)生幻覺,生成錯誤內(nèi)容;再加上人為干預(yù)誘導(dǎo),極易生成虛假內(nèi)容。
“通過算法,平臺可以個性化推送內(nèi)容,但也可能形成用戶的信息繭房。我最近最大的困擾就是拿著手機卻讀不到想讀的有價值的內(nèi)容。”梅宏表示,目前幾乎大部分網(wǎng)絡(luò)平臺都在AI算法和大數(shù)據(jù)驅(qū)動下運營,這就帶來對算法和數(shù)據(jù)應(yīng)用的有效監(jiān)管問題,這些亟待通過建立完善的治理體系加以解決。當(dāng)涉及平臺跨境時,還需要有相應(yīng)的國際治理體系。
當(dāng)前,社會對“AI+”或“AI for everything”(一切皆人工智能)抱有很高的期望,然而,現(xiàn)實情況卻不盡如人意。
“雷聲隆隆,雨點并不大?!泵泛晏寡裕皬漠?dāng)前的熱潮中,我看到了太多‘炒作’和‘非理性’導(dǎo)致的 AI‘過熱’現(xiàn)象,也對當(dāng)前AI發(fā)展技術(shù)路徑多樣性的欠缺產(chǎn)生了一些擔(dān)憂?!?/p>
“大語言模型的成功依賴于人類長時間積累的龐大語料庫,文生視頻的成功也依賴于互聯(lián)網(wǎng)上存在的海量視頻。然而,其他行業(yè)的數(shù)據(jù)積累尚未達到這個量級。獲取全數(shù)據(jù),關(guān)鍵是跨越足夠的時間尺度?!泵泛瓯硎?,AI的應(yīng)用還需要經(jīng)歷一段時期的探索、磨合和積累,才可能迎來繁榮。
“在我看來,AI當(dāng)前的問題有3個:泡沫太大,仍處于技術(shù)成熟度曲線的高峰階段,喧囂埋沒理性,需要一個冷靜期;以偏概全,對成功個案不顧前提地放大、泛化,過度承諾;期望過高,用戶神化AI的預(yù)期效果,提出難以實現(xiàn)的需求。”梅宏說。
面對AI技術(shù)發(fā)展及其應(yīng)用的現(xiàn)狀,梅宏建議,在尚搞不清如何應(yīng)用、用到何處時,不妨先積累數(shù)據(jù),“可采盡采、能存盡存”。那么,大語言模型能走向通用人工智能嗎?梅宏認為,從基本原理來看,目前的大語言模型沒有跳出概率統(tǒng)計這個框架。
梅宏并不認為現(xiàn)在的AI有所謂“意識”或者知識涌現(xiàn)能力。以大語言模型為例,模型本身無法產(chǎn)生新的東西,其生成的內(nèi)容取決于對大量文本內(nèi)容的統(tǒng)計,如果某些內(nèi)容反復(fù)出現(xiàn),它們大概率就會將之視為“合理存在”的內(nèi)容。
“就這個意義而言,大模型可被視為是由已有語料壓縮而成的知識庫,生成結(jié)果的語義正確性高度依賴于數(shù)據(jù)的空間廣度、時間深度以及分布密度,更高度依賴于數(shù)據(jù)的質(zhì)量?!彼岬?,學(xué)術(shù)界的研究更應(yīng)關(guān)心大模型構(gòu)建過程的可重復(fù)性和可追溯性,盡可能保證結(jié)果的可解釋和可信任。
“大膽預(yù)測,作為壓縮了人類已有的可公開訪問的絕大多數(shù)知識的基礎(chǔ)模型,大語言模型將像互聯(lián)網(wǎng)一樣走向開源。全世界共同維護一個開放共享的基礎(chǔ)模型,盡力保證其與人類知識同步。”梅宏說,“這至少也是表達自己的一種期望?!?/p>