《中國經(jīng)濟周刊》 記者 王紅茹|北京報道
隨著科技的飛速進步,人工智能(AI)已逐漸滲透到社會生活的方方面面,從千行百業(yè)到衣食住行,AI技術(shù)在賦能發(fā)展和提升效率的同時,也帶來了一系列新問題和新挑戰(zhàn)。尤其是在公共管理領(lǐng)域,如何在享受技術(shù)紅利的同時,又規(guī)避安全風(fēng)險,至關(guān)重要。比如人臉識別技術(shù)是AI領(lǐng)域的一個重要應(yīng)用,但如何在使用的同時保護好個人隱私和數(shù)據(jù)安全?AI成為創(chuàng)作者是否會引發(fā)知識產(chǎn)權(quán)深刻變革?AI法律監(jiān)管體系如何完善?……
AI到底應(yīng)該如何“管”?針對上述問題,《中國經(jīng)濟周刊》記者邀請了清華大學(xué)公共管理學(xué)院教授、人工智能治理研究中心主任梁正,北京市政協(xié)經(jīng)濟委員會副主任、振興國際智庫理事長李志起,中國政法大學(xué)傳播法研究中心副主任朱巍,對外經(jīng)濟貿(mào)易大學(xué)數(shù)字經(jīng)濟與法律創(chuàng)新研究中心主任許可,從各自的專業(yè)領(lǐng)域來解疑釋惑、建言獻策。
梁正:AI大模型對公共管理帶來機遇與挑戰(zhàn)
AI大模型是指具有極其大規(guī)模參數(shù)(通常在10億個以上)和超強計算資源的機器學(xué)習(xí)模型,它的應(yīng)用有助于賦能政府的治理轉(zhuǎn)型,通過構(gòu)建“智能體”來推動公共服務(wù)的智慧化躍升,并為政府長期以來的數(shù)字化建設(shè)提供新的技術(shù)助力。具體而言,AI大模型為公共管理轉(zhuǎn)型提供了以下潛力。
第一,深度挖掘政務(wù)大數(shù)據(jù),優(yōu)化政務(wù)決策模式。傳統(tǒng)政務(wù)決策模式往往受限于決策者的有限理性,只能實現(xiàn)決策方案的局部最優(yōu),并遵循“漸進式”的決策優(yōu)化邏輯。相比之下,AI大模型能抓取海量的政務(wù)大數(shù)據(jù),從中提煉出有價值的信息,利用強大的數(shù)據(jù)處理能力開展訓(xùn)練和分析,以預(yù)測為導(dǎo)向?qū)崿F(xiàn)全局最優(yōu)決策。在這一方面,AI大模型不僅可以直接提高預(yù)測的可靠性與準(zhǔn)確率,而且能夠為決策者提供間接性的信息支持。
第二,創(chuàng)造虛擬行政人員,推動新型政民互動。傳統(tǒng)政民互動方式以行政人員與公民的點對點交流為主,這既可能引發(fā)公眾對于行政人員自由裁量權(quán)的擔(dān)憂,也可能增加行政人員的工作負擔(dān)和職業(yè)倦怠。相比之下,大模型可以同時處理多項公民訴求,實現(xiàn)情境性、個性化的響應(yīng)與反饋,保證服務(wù)的效率與一致性,并將行政人員從繁瑣化、機械化與重復(fù)性的行政事務(wù)中解放出來。
第三,推動組織數(shù)據(jù)集成,整合跨領(lǐng)域政務(wù)運作。龐大政府組織往往面臨著不同部門的“信息煙囪”與“各自為政”等困境,這不僅源于部門間缺乏數(shù)據(jù)共享動機,而且受到數(shù)據(jù)標(biāo)準(zhǔn)不一致的制約。相比之下,大模型可以解決復(fù)雜數(shù)據(jù)的整合問題,為數(shù)據(jù)的獲取、傳輸、存儲、訓(xùn)練、分析與應(yīng)用提供技術(shù)支撐。同時,大模型可以適用于不同的政務(wù)服務(wù)場景,這為不同部門間共享和協(xié)調(diào)本部門數(shù)據(jù)提供了有效激勵。
盡管如此,仍需警惕AI大模型的開發(fā)與使用帶來的公共價值困境。
首先是AI大模型的“黑匣子”問題。人工智能技術(shù)一直被詬病于不可訪問性、不透明性和不可解釋性的“黑匣子”屬性,政務(wù)大模型中的“智能涌現(xiàn)”(指人工智能大模型參數(shù)量超過一定規(guī)模后能力會陡然提升,可能會出現(xiàn)預(yù)期之外的能力)更是加劇了這一問題。大模型“智能”背后原因和邏輯的缺失會降低其結(jié)果的可信性與合法性。
其次是AI大模型的隱私與價值問題。AI大模型依賴于海量的政務(wù)數(shù)據(jù)作為輸入,這些數(shù)據(jù)通常涵蓋了公民的個人信息,造成模型訓(xùn)練與公民隱私間的沖突。同時,AI大模型的輸出可能會面臨價值權(quán)衡的問題,在美國和荷蘭發(fā)生的一些人工智能事故就反映了效率與公平間的張力,造成了惡劣的社會影響。
最后是AI大模型的風(fēng)險與問責(zé)問題。AI大模型的高度技術(shù)復(fù)雜性降低了公共管理者在行政流程中的自主性,并可能產(chǎn)生技術(shù)依賴,導(dǎo)致管理者難以進行有效監(jiān)督和審核,造成公共風(fēng)險的累積與放大。同時,AI大模型在公共問責(zé)上存在著“多手”和“多眼”的問題:能否厘清不同主體的問責(zé)分配,以及能否滿足不同利益相關(guān)者的訴求。
因此,需要通過合理的治理機制和倫理監(jiān)管,確保其應(yīng)用既符合技術(shù)進步的要求,也顧及公共利益和道德倫理的標(biāo)準(zhǔn)。在這一方面,公共管理者應(yīng)當(dāng)始終堅持“以人為本”的基本原則,以公眾的實際感受為尺度,鼓勵公眾參與到人工智能大模型的部署、運行、評估與反饋中來。
李志起:AI人臉識別技術(shù)需規(guī)范與發(fā)展并行
隨著科技的飛速進步,人工智能(AI)已逐漸滲透到我們生活的方方面面,其中人臉識別技術(shù)作為AI領(lǐng)域的一個重要應(yīng)用,正廣泛應(yīng)用于安全監(jiān)控、金融支付、身份驗證等多個領(lǐng)域。然而,任何技術(shù)的雙刃劍效應(yīng)都不容忽視,人臉識別技術(shù)在帶來便利的同時,也引發(fā)了一系列關(guān)于隱私保護、數(shù)據(jù)安全和倫理道德的討論,近期上海市要求不得對旅客進行“強制刷臉”核驗的通知也引發(fā)輿論的廣泛關(guān)注。
人臉識別技術(shù)的廣泛應(yīng)用,為社會治理和公共服務(wù)提供了強有力的技術(shù)支撐。比如,在公共安全領(lǐng)域,人臉識別技術(shù)可以幫助警方迅速鎖定犯罪嫌疑人,提高案件偵破效率;在商業(yè)領(lǐng)域,該技術(shù)可以提升客戶體驗,實現(xiàn)無接觸支付等功能。但是,技術(shù)的雙刃劍效應(yīng)也在人臉識別技術(shù)上表現(xiàn)得淋漓盡致。一方面,由于人臉識別技術(shù)的高度精確性,使得個人隱私泄露的風(fēng)險大大增加,一旦數(shù)據(jù)被濫用或泄露,后果不堪設(shè)想。另一方面,誤識和濫用的可能性也引發(fā)了公眾對于技術(shù)可靠性的擔(dān)憂。
因此,規(guī)范AI人臉識別技術(shù)的發(fā)展勢在必行。首先,需要從立法層面對人臉識別技術(shù)進行規(guī)范。2023年8月8日,國家網(wǎng)信辦發(fā)布了《人臉識別技術(shù)應(yīng)用安全管理規(guī)定(試行)(征求意見稿)》,對明確人臉識別技術(shù)的使用范圍、數(shù)據(jù)處理方式和責(zé)任主體,確保個人隱私不受侵犯等方面擬作出新規(guī)定;2024年7月1日起即將施行的消保法首部配套行政法規(guī)——《消費者權(quán)益保護法實施條例》也要求不得過度收集消費者個人信息。筆者同時認為,對于違規(guī)使用人臉識別技術(shù)的行為,還應(yīng)給予嚴(yán)厲的法律制裁,以此來保護公民的合法權(quán)益。
其次,行業(yè)內(nèi)部應(yīng)建立起嚴(yán)格的自律機制。企業(yè)作為技術(shù)開發(fā)和應(yīng)用的主體,有責(zé)任也有義務(wù)確保其所使用的技術(shù)不會侵犯用戶隱私。這就要求企業(yè)在開發(fā)和應(yīng)用人臉識別技術(shù)時,必須遵循相關(guān)的法律法規(guī),同時還需要建立起完善的數(shù)據(jù)保護機制,確保用戶數(shù)據(jù)的安全性和完整性。
此外,公眾對于人臉識別技術(shù)的認知和接受程度也是影響其發(fā)展的重要因素。因此,加強公眾的科學(xué)素養(yǎng)教育,提高公眾對于新技術(shù)的認知和理解能力,也是推動人臉識別技術(shù)規(guī)范發(fā)展的關(guān)鍵一環(huán)。只有當(dāng)公眾充分了解并信任這項技術(shù)時,它才能更好地服務(wù)于社會。
同時,必須要注意的一個問題是,規(guī)范人臉識別技術(shù)并不等于簡單“一刀切”叫停該技術(shù)的發(fā)展。人臉識別技術(shù)作為人工智能領(lǐng)域的一個分支,其發(fā)展也必將受到人工智能技術(shù)整體發(fā)展趨勢的影響。隨著5G、云計算、大數(shù)據(jù)等技術(shù)的不斷發(fā)展,人臉識別技術(shù)也將迎來更多的應(yīng)用場景和發(fā)展機遇。因此,在規(guī)范人臉識別技術(shù)發(fā)展的同時,我們還應(yīng)積極探索其在各個領(lǐng)域的應(yīng)用潛力,推動其與其他技術(shù)的融合發(fā)展。比如,我們應(yīng)進一步鼓勵技術(shù)創(chuàng)新,通過技術(shù)手段來提高人臉識別技術(shù)的準(zhǔn)確性和可靠性,應(yīng)充分考慮不同地區(qū)和群體的實際需求,確保人臉識別技術(shù)的普及和惠及面。因此,在推廣人臉識別技術(shù)時,需要充分考慮不同地區(qū)和群體的實際需求,確保技術(shù)的普及和惠及面。
公眾期待一個更加智能化、便捷化、安全化的社會環(huán)境,人臉識別技術(shù)無疑將是實現(xiàn)這一目標(biāo)的重要工具之一。在這一技術(shù)的發(fā)展中,只有通過全社會的共同努力和協(xié)同治理,才能確保人臉識別技術(shù)能夠健康、有序地發(fā)展,并最終造福于人類社會。
朱?。?span style="text-indent: 2em;">AI創(chuàng)作或引發(fā)知識產(chǎn)權(quán)深刻變革
AI大模型的快速發(fā)展在全球范圍內(nèi)帶來了空前的生成式人工智能(AIGC)熱潮。比如,人們只需要輸入一些提示詞,AI就能相應(yīng)地產(chǎn)出你想要的文章、視頻、音頻、圖像等。當(dāng)前,生成式人工智能正在引發(fā)新一輪人工智能革命,AIGC不僅改變了信息和知識的生產(chǎn)方式,重塑了人類與技術(shù)的交互模式,還開啟了我們對于通用人工智能的無窮想象。但人工智能也有“成長的煩惱”,比如,一個近在眼前的問題是:AI作品是否享有著作權(quán)?
基于現(xiàn)有的法律體系,這些生成的作品是否受到著作權(quán)法保護有一定爭議,應(yīng)該分類型來具體分析。
第一個問題:明確AI作品版權(quán)主體。
AI作品的著作權(quán)涉及多個主體。首先,AI使用者是第一個主體。比如,AI使用者通過AI工具畫了幾幅畫,這些畫到底有沒有版權(quán)?從此前法院判例看,AI使用者擁有這些畫的版權(quán)。但這個判例的基礎(chǔ),是基于AI服務(wù)提供者與網(wǎng)民協(xié)議缺乏具體版權(quán)約定的情況下作出的。若使用者在接受服務(wù)之前,與服務(wù)提供者之間有版權(quán)協(xié)議的話,版權(quán)的最終歸屬權(quán)還是要看協(xié)議約定。
AI作品的第二個主體是AI服務(wù)提供者,主要是指人工智能的軟件或平臺有沒有對生成作品的版權(quán)。這個需要根據(jù)使用者協(xié)議來進行判斷,AI在使用的過程中,如果與AI生成者沒有特殊性約定,AI作品的著作權(quán)歸使用者,平臺很難獲得版權(quán)。
第三個主體是AI學(xué)習(xí)的物料版權(quán)問題。AI之所以會變得智能,肯定要學(xué)習(xí)很多物料。AI機器在學(xué)習(xí)的過程當(dāng)中,需要使用大量的享有版權(quán)的內(nèi)容,才可以不斷地去完善。那么,AI學(xué)習(xí)過程中使用享有版權(quán)的內(nèi)容構(gòu)不構(gòu)成侵權(quán),這也是目前法律上一個具有爭議性的問題。據(jù)了解,目前不管是國內(nèi)還是國際規(guī)定,AI學(xué)習(xí)的物料應(yīng)當(dāng)是之前有版權(quán)或之后獲得版權(quán)人許可。
第二個問題:AI版權(quán)立法應(yīng)跟得上時代發(fā)展。
AI沒有出現(xiàn)之前,一個作品之所以擁有版權(quán)的一個基本原則叫“額頭出汗”原則,“額頭出汗”原則(或稱辛勤原則)是一條知識產(chǎn)權(quán)法律原則,尤其關(guān)系到著作權(quán)法。根據(jù)這條法律原則,作者通過創(chuàng)作時所付出的勞動就可獲得著作權(quán)。但是在AI出現(xiàn)以后,獲得的作品是否付出了相關(guān)勞動就不好判斷,因為大部分工作是由AI完成,這給版權(quán)權(quán)利授權(quán)造成沖擊。現(xiàn)在所有的版權(quán)制度,基本都是基于工業(yè)革命時代形成的版權(quán)體系。即便我國的著作權(quán)法已經(jīng)修改了三次,其實也是工業(yè)時代的著作權(quán)法,并不是互聯(lián)網(wǎng)時代的法律。
第三個問題:以技術(shù)對技術(shù)的版權(quán)保護模式。
針對AI著作權(quán)問題,用區(qū)塊鏈技術(shù)+智能合約的方式加以分配更為妥當(dāng)。區(qū)塊鏈以分布記賬的方式確保作品的可追溯、不可篡改,智能合約則側(cè)重作品使用的利益分配。二者結(jié)合,可以將技術(shù)在一定程度上代替制度,妥善處理AI作品使用、處分和利益分配等問題。
其實版權(quán)保護的核心不在于不讓使用未經(jīng)權(quán)利人許可的內(nèi)容,重點在于鼓勵創(chuàng)新。所以要做到既鼓勵創(chuàng)新、保護權(quán)利人,又能平衡社會整體發(fā)展的權(quán)利,區(qū)塊鏈中的智能合約的分成制度是可以做到的,可以將當(dāng)前的著作權(quán)法中的相關(guān)規(guī)定放到區(qū)塊鏈上,這就是法律的技術(shù)化過程。
總之,人類創(chuàng)作方式的變革,將會引發(fā)知識產(chǎn)權(quán)的深刻變革,引發(fā)知識產(chǎn)權(quán)的主體、客體和內(nèi)容三個方面的深刻變革。我們的思維不應(yīng)僅停留在工業(yè)時代的立法,應(yīng)全面進入到AI時代。
許可:AI不斷進化,法律應(yīng)改進式創(chuàng)新
40年前,英國社會學(xué)家科林格里奇曾言:當(dāng)某項科技還沒完全成熟和廣泛應(yīng)用之時,法律尚有機會和能力去影響其發(fā)展,但此時我們并不知道它會帶來何種社會后果;相反,當(dāng)我們可以清楚預(yù)見到某項科技引發(fā)的后果時,它往往已經(jīng)成熟且被廣泛使用,以至于法律很難對其作出實質(zhì)性改變了。這就是“科林格里奇困境”。當(dāng)然,人工智能恰恰是這樣一種影響未知但又潛力無窮的科技。不僅如此,人工智能作為“未完成之事物”,進一步加劇了科林格里奇困境。
為了化解人工智能的科林格里奇困境,各國紛紛未雨綢繆。但是,各國爭先恐后的立法未必是最佳的回應(yīng)舉措。其中道理至為簡明:如果缺乏對人工智能規(guī)律和趨勢的充分認識,只能陷入“法令滋彰,盜賊多有”的窘境,而這正是科林格里奇困境的本質(zhì)問題。然則,有無解決之道?
其實,解決問題的關(guān)鍵是放棄整全式的人工智能立法構(gòu)想。與科技的顛覆性創(chuàng)新不同,法律永遠是改進式的創(chuàng)新。新的立法絕不是要廢止在同一調(diào)整范圍內(nèi)的一切舊法,而是通過補充使之完善。將此觀點運用于我國的人工智能立法,一方面可以從既有制度汲取經(jīng)驗,另一方面則應(yīng)采取應(yīng)改盡改的原則,使法律與人工智能發(fā)展同頻共振。
就前者論之,我國的算法規(guī)制可首先作為人工智能法律的重要內(nèi)容。2021年12月,國家網(wǎng)信辦會同工信部、公安部、市場監(jiān)管總局出臺了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,該規(guī)定可謂對算法相關(guān)問題的階段性法律回應(yīng);2022年11月,國家網(wǎng)信辦聯(lián)合工信部、公安部發(fā)布了《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,明確了深度合成服務(wù)的適用范圍、深度合成服務(wù)提供者、使用者以及技術(shù)支持者的相關(guān)義務(wù)規(guī)定與安全主體責(zé)任,加強了對互聯(lián)網(wǎng)信息服務(wù)深度合成的監(jiān)督和管理。
其次,個人信息保護法下自動化決策規(guī)則對于人工智能治理有重要參考價值。所謂自動化決策,是指通過計算機程序自動分析、評估個人的行為習(xí)慣、興趣愛好或者經(jīng)濟、健康、信用狀況等,并進行決策的活動。該法規(guī)定:“個人信息處理者利用個人信息進行自動化決策,應(yīng)當(dāng)保證決策的透明度和結(jié)果公平、公正,不得對個人在交易價格等交易條件上實行不合理的差別待遇?!薄巴ㄟ^自動化決策方式作出對個人權(quán)益有重大影響的決定,個人有權(quán)要求個人信息處理者予以說明,并有權(quán)拒絕個人信息處理者僅通過自動化決策的方式作出決定?!?/p>
再次,規(guī)范科技倫理的審查工作有利于降低人工智能的倫理風(fēng)險。2023年9月,科技部等部委聯(lián)合發(fā)布《科技倫理審查辦法(試行)》,規(guī)定“具有輿論社會動員能力和社會意識引導(dǎo)能力的算法模型、應(yīng)用程序及系統(tǒng)的研發(fā)”及“面向存在安全、人身健康風(fēng)險等場景的具有高度自主能力的自動化決策系統(tǒng)的研發(fā)”均需要開展倫理審查復(fù)核。
最后,生成式人工智能規(guī)則為人工智能立法提供經(jīng)驗儲備。2023年7月,國家網(wǎng)信辦等聯(lián)合發(fā)布《生成式人工智能服務(wù)管理暫行辦法》,規(guī)定了生成式人工智能服務(wù)提供者與使用者的合規(guī)舉措,確立了分類分級監(jiān)管與行業(yè)部門監(jiān)管相輔相成的監(jiān)管體系。就后者論之,人工智能的發(fā)展也給個人信息保護法、數(shù)據(jù)安全法、網(wǎng)絡(luò)安全法、電子商務(wù)法、著作權(quán)法、民法典等一系列法律帶來了沖擊,亟待通過修法予以調(diào)適。
(本文刊發(fā)于《中國經(jīng)濟周刊》2024年第9期)