亚洲人成图片小说网站_亚洲精品无码成人_亚洲精品国产a久久久久久_日韩人妻无码免费视频一区二区三区_国产精品久久久久久久久久直播

當前位置

首頁> 新聞動態(tài)> 協(xié)會動態(tài)

藍海沙龍|第269期:“生成式人工智能領域下的個人信息侵害風險及應對策略”研討會在京召開

2024年03月26日 17:39

3月22日,中國互聯(lián)網(wǎng)協(xié)會召開第269期藍海沙龍——“生成式人工智能領域下的個人信息侵害風險及應對策略”研討會。中國政法大學副校長、數(shù)據(jù)法治研究院院長時建中,中國科學院信息工程研究所正高級工程師戴嬌,中國社科院法學所研究員、科技與法研究中心主任楊延超,北京郵電大學電子工程學院教授吳帆,中國移動研究院博士袁博,中國信息通信研究院互聯(lián)網(wǎng)法律研究中心高級工程師趙淑鈺,華為云EI解決方案專家張瑞鋒,360集團法務部資深律師王樂,阿里巴巴集團公共事務總監(jiān)肖堯,淘天集團政府事務總監(jiān)鐵木爾夫等專家參加了會議。會議由中國互聯(lián)網(wǎng)協(xié)會副秘書長裴瑋主持。


upfile

  

裴瑋表示,生成式人工智能為教育、娛樂、醫(yī)療保健和科學研究等多個領域提供了變革潛力,激發(fā)起前所未有的關注度和創(chuàng)造力浪潮。但在具有廣闊應用前景與發(fā)展未來的同時,生成式人工智能也對既有的個人信息保護體系形成了巨大沖擊與威脅。生成式人工智能通常需要大量數(shù)據(jù)進行訓練,隨著生成式人工智能的廣泛使用,個人數(shù)據(jù)的收集、存儲和處理將變得非常普遍。在未形成有效的數(shù)據(jù)管理和個人信息保護機制的情況下,生成式人工智能服務將缺乏透明性和可控性,個人信息保護的落地需要更加細化的技術、機制與規(guī)則設計。本次研討會結合人工智能的具體落地應用案例,重點關注生成式人工智能時代如何提升個人信息保護技術手段的有效性,討論如何健全監(jiān)管空缺與補充機制、平衡安全與發(fā)展等問題,旨在為政府部門的監(jiān)管和治理提供思路和建議,更好地推動生成式人工智能行業(yè)的建設和健康發(fā)展。


upfile


張瑞表示,華為云大模型分為三層,包括L0基礎大模型,L1行業(yè)大模型及L2場景模型。其中基礎大模型當前包括NLP大模型、CV大模型、多模態(tài)大模型、預測大模型和科學計算大模型5種。華為云大模型在各個行業(yè)的應用已有很多案例,如政務、醫(yī)療、金融、司法、礦山、軌道、電力、氣象行業(yè)等。政務大模型功能主要包括城市感知、協(xié)同辦公、政策咨詢、城市治理。金融大模型功能主要包括金融政策梳理、跨模態(tài)內(nèi)容理解與多任務理解、代碼的智能生成及軟件的交互集成。醫(yī)療大模型則主要通過醫(yī)療報告的生成與解讀服務推動醫(yī)療領域疑難問題的解決。


王樂表示,360的大模型包括360智腦大模型、元大模型、多模態(tài)大模型和360安全大模型,目前智腦大模型和元大模型已經(jīng)通過備案向公眾開放。生成式人工智能領域個人信息保護的風險主要有三個方面,一是訓練數(shù)據(jù)過程中的誤抓取的風險;二是信息流轉(zhuǎn)過程中的信息泄露風險;三是AI作為新業(yè)態(tài),在發(fā)展速度較快的同時,企業(yè)可能會輕視信息安全的風險。結合我國AI發(fā)展現(xiàn)狀,建議更多去鼓勵行業(yè)發(fā)展,采取輕事前重事后、輕過程重結果的監(jiān)管策略。建議企業(yè)強化自身的安全建設,對個人信息做分類,分級的管理。尤其敏感信息強化監(jiān)管,嚴防泄露,同時建立規(guī)范的信息管理及處理流程,確保信息的處理及使用合法合規(guī),且符合與用戶的約定。企業(yè)要強化和監(jiān)管部門的對話,對新業(yè)態(tài)新模式以及潛在的風險及時報備,積極聽取監(jiān)管部門的意見與建議,在監(jiān)管部門的指導下,個人信息保護工作能落到實處。在信息收集及內(nèi)部處理使用階段,以企業(yè)的自律為主,個人信息分享、轉(zhuǎn)讓以及涉及任何形式的流出時,應按照規(guī)定對信息接收方做安全能力評估,一旦造成信息泄露可以從嚴處理,如造成了比較嚴重的安全事故,可酌情加重處理。


肖堯表示,阿里巴巴自研了通義千、通義萬兩款基礎大模型,相繼開源了1.8B、7B、14B、72B參數(shù)大模型。并推出通義聽、通義法睿、通義靈碼等8類垂類大模型,推動大模型在千行百業(yè)落地。同時,阿里還推出一站式大模型應用開發(fā)平臺“百煉”,大幅降低大模型應用開發(fā)門檻,讓廣大企業(yè)能夠根據(jù)自己的業(yè)務需求快速“煉”出專屬模型。對于AIGC領域下的個人信息保護問題,肖堯表示阿里巴巴對此高度重視,嚴格根據(jù)法律要求和行業(yè)規(guī)范對AIGC全生命周期中的各關鍵節(jié)點采取了針對性合規(guī)措施。建議探索AIGC數(shù)據(jù)治理的規(guī)則,由政企學社媒多方聯(lián)合,綜合考慮治理價值的平衡性、治理主體的平衡性、治理手段的靈活性,開展敏捷治理。要以確定性的規(guī)則來滿足人工智能對個人信息處理的需求,在保護個人信息的同時能夠激發(fā)數(shù)據(jù)價值。此外,還需要通過行業(yè)標準、國家標準明確公開領域個人信息作為訓練語料時的合法性的基礎。


鐵木爾夫表示,生成式人工智能監(jiān)管的目的是促發(fā)展,對于大型公司與小型垂類公司可以考慮采取分級分類和分階段的方式細化監(jiān)管。同時,可以將協(xié)會作為平臺構建一套沙自律的監(jiān)管平臺或自律平臺,使大模型的運行公開、透明化。讓監(jiān)管部門能夠有效了解到整個模型的個人信息保護情況,既提升了行業(yè)的自律,也能夠做好事前監(jiān)管工作。


趙淑鈺表示,生成式人工智能在發(fā)展過存在著一定的個人信息風險。一方面,大規(guī)模數(shù)據(jù)匯集、多樣的數(shù)據(jù)來源等特性會加大個人信息濫用、泄露風險。另一方面,生成式人工智能對現(xiàn)有立法中“知情-同意”原則、刪除權、更正權等也構成挑戰(zhàn)。建議對生成式人工智能實施審慎監(jiān)管,可明確大模型應用紅線,以個案導向、問題導向解決生成式人工智能應用發(fā)展中的突出問題,出臺權威指引、標準,逐步構建完善生成式人工智能規(guī)則體系。


袁博表示,中國移動的天大模型平臺宗旨是借助移動海量的客戶以及網(wǎng)絡運營,依托泛在的網(wǎng)絡和智能算力使人工智能像水電一樣為大眾所使用。目前已經(jīng)發(fā)布了139億參數(shù)的九天眾基座大模型,在研的行業(yè)大模型三大類包括客服大模型、政務大模型、網(wǎng)絡大模型。在大模型的使用上,建議在技術層面上充分保障用戶和行業(yè)數(shù)據(jù)安全的同時,監(jiān)管部門還要明確哪些數(shù)據(jù)、行業(yè)具有涉及國家機密信息不能對外滲透,做好安全措施。


吳帆表示,從法律法規(guī)的角度看,目前國內(nèi)生成式人工智能監(jiān)管較為寬松,政府主要以約談、督促的方式展開監(jiān)管,總體秉持保護企業(yè)、保護技術發(fā)展的立場。從技術發(fā)展角度看,國內(nèi)生成式人工智能的發(fā)展將在行業(yè)應有所側(cè)重并會取得一定優(yōu)勢,這將與個人隱私數(shù)據(jù)、行業(yè)隱私數(shù)據(jù)甚至是國家安全數(shù)據(jù)緊密聯(lián)系在一起,無法進行脫鉤。在技術快速發(fā)展的當下,建議從標準和政策制定層面去做快速的引導、迭代和推進,使監(jiān)管體系與技術發(fā)展速度相匹配。同時,在使用境外服務的過程中,政府可加強對關鍵數(shù)據(jù)、國家安全數(shù)據(jù)的分級分類統(tǒng)籌管理,確保國家數(shù)據(jù)安全。


楊延超表示,生成式人工智能領域下個人信息保護最大的風險是使用過程中的聊天記錄所形成的完整的用戶畫像,使用者的意思意圖會被完整確地表達出來,個人信息保護的重點應當是對大模型使用過程中聊天記錄的管理與治理,要明確好聊天記錄是否需要定期刪除、是否能用于訓練等問題。政府需要考慮如何實現(xiàn)有效監(jiān)管,如充分落實數(shù)據(jù)刪除權等,確保個人信息不被泄露或濫用。


戴嬌表示,人工智能監(jiān)管政策要服務于整個國家的發(fā)展,生成式人工智能的管理尺度應當與它的不同發(fā)展階段以及發(fā)展訴求相匹配。在堅持包容審慎鼓勵發(fā)展原則的基礎上,一方面可以通過發(fā)展個人信息保護技術推動生成式人工智能的治理,另一方面可以加強事前、事后的管理,事前階段對涉及侵權或違法的信息進行處理,使生成式人工智能無法對該類信息進行操控或修改,事后階段通過設置方便事后追溯的標識等推動監(jiān)管。同時,建議自上而下構建一套框架性的監(jiān)管體系,配合現(xiàn)行規(guī)范體系推動監(jiān)管的落地。


時建中表示,生成式人工智能的監(jiān)管要充分考慮發(fā)展與安全、促進與規(guī)范、國內(nèi)與國際、研發(fā)與運用、政府與市場等因素的關系,明確側(cè)重點。同時,站在全球視角,針對我國數(shù)據(jù)、算法、算力等人工智能不同要素的情況,精準施策。當前生成式人工智能缺乏高質(zhì)量的訓練數(shù)據(jù),公共數(shù)據(jù)流通也存在障礙。隨著生成式人工智能算法的先進程度與復雜度日益提高,算法黑箱的問題也日益凸顯,而算力的不斷發(fā)展也在沖擊各類數(shù)據(jù)加密手段。建議以促進發(fā)展為目標,在實踐中分場景展開監(jiān)管。對于預訓練階段個人信息的使用可采取寬容的態(tài)度,對于實際應用場景則做嚴格把控。同時,注重發(fā)揮法律規(guī)范的倒逼作用,在明確主體責任與對象的基礎上,推動企業(yè)以先進技術實現(xiàn)對用戶個人信息的保護。


會議認為,我國生成式人工智能在政務、醫(yī)療、金融等領域已展開廣泛的應用,但需注意到其與產(chǎn)業(yè)前沿之間的技術差距。個人信息的保護要以促進發(fā)展為目標,做好各類監(jiān)管場景的區(qū)分。建議政府以自上而下的形式構建一套生成式人工智能的治理框架,加快該領域下標準與政策的制定進程,使其與生成式人工智能技術的發(fā)展需要相匹配。同時,不斷創(chuàng)新隱私保護技術,以技術手段解決好生成式人工智能領域下的個人信息保護問題,實現(xiàn)我國新質(zhì)生產(chǎn)力的發(fā)展與飛躍。


2011-2019 Copyrights reserved 京ICP備05006316號 版權所有:中國互聯(lián)網(wǎng)協(xié)會
技術支持:北京圣明慧力科技有限公司