a级毛片视频免费观看,国产一极毛片,日韩黄色片在线观看,激情五月黄色,国产福利免费视频,精品在线看片,天天艹无码天天射

“一攬子授權”后,智能體做錯事算誰的?

分享到:

“一攬子授權”后,智能體做錯事算誰的?

2026年02月27日 09:01 來源:中新經(jīng)緯
大字體
小字體
分享到:

  中新經(jīng)緯2月26日電 (袁媛)2026年被業(yè)內(nèi)視為“智能體加速落地期”,人工智能正從單純的對話工具走向能夠自主執(zhí)行任務的智能體系統(tǒng)。用戶只需一句指令,智能體就可以跨應用完成查詢信息、下單支付、發(fā)送消息等復雜操作,逐漸成為連接不同應用場景的“數(shù)字代理”。

  但在便利不斷提升的同時,新的風險也在顯現(xiàn)。2月24日,在對外經(jīng)濟貿(mào)易大學數(shù)字經(jīng)濟與法律創(chuàng)新研究中心舉辦的“智能體的高質(zhì)量發(fā)展與治理路徑”研討會上,多位專家與業(yè)內(nèi)人士圍繞智能體安全、隱私保護與責任歸屬問題展開討論。

  權利“梭哈”真的好嗎?

  與傳統(tǒng)大模型相比,智能體最大的變化在于具備行動能力。智能體通常由感知、記憶、規(guī)劃和執(zhí)行等多個模塊構(gòu)成,能夠調(diào)用工具并自動完成任務。

  北京郵電大學網(wǎng)絡空間安全學院副教授李朝卓指出,智能體具備更強自主性,但也因此引入更復雜的安全隱患。例如在感知層面可能出現(xiàn)模型幻覺與錯誤理解,在規(guī)劃層面可能形成偏離初衷的惡意規(guī)劃,而在工具調(diào)用層面則存在API(應用程序編程接口)濫用、工具劫持與權限失控等風險。

  智能體逐步介入應用運行邏輯,原有的軟件生態(tài)也在發(fā)生變化。智能體風險往往集中體現(xiàn)在資金安全、個人信息保護以及內(nèi)容與倫理邊界等方面。

  小紅書技術合規(guī)負責人田云飛表示,隨著智能體介入應用運行邏輯,用戶授權給智能體更高的自由度。傳統(tǒng)APP相對閉環(huán)服務的生態(tài)邊界受到挑戰(zhàn),過去承擔的是與用戶完整交互的角色,如今已變成內(nèi)容或服務的提供者。

  智能體通常還依賴長期記憶機制與跨應用調(diào)用能力,這意味著用戶需要一次性授權更多權限。螞蟻集團隱私保護研究中心主任李海英指出,手機智能體往往通過調(diào)用無障礙組件及系統(tǒng)級權限實現(xiàn)跨應用操作,這種底層權限整合在提升效率的同時,也對用戶知情權與同意權構(gòu)成挑戰(zhàn)。

  在資金安全方面,智能體執(zhí)行能力的提升使攻擊路徑更加復雜。GEEKCON(新極棒)技術負責人肖軒淦以AI眼鏡為例,展示了攻擊者在取得設備控制權后,可進一步竊取用戶支付信息并實施盜刷,暴露出硬件平臺安全、身份認證機制以及隱私合規(guī)管理等方面的薄弱環(huán)節(jié)。此外,在手機智能體場景中,如果系統(tǒng)權限控制與行為校驗機制不足,智能體甚至可能被惡意操縱,通過發(fā)送偽裝短信誘導用戶泄露手機銀行驗證碼,從而形成鏈式攻擊風險。他強調(diào),當前智能體生態(tài)呈現(xiàn)“功能先行、安全滯后”的發(fā)展態(tài)勢,安全問題不再局限于模型層面,而是貫穿硬件、系統(tǒng)接口、應用場景與用戶交互全過程。

  隱私風險同樣受到關注。李海英指出,視覺驅(qū)動型智能體在執(zhí)行任務過程中可能通過錄屏或界面解析方式獲取頁面信息,其數(shù)據(jù)處理路徑及是否上傳云端往往缺乏透明度,使“最小必要原則”的落實面臨現(xiàn)實困難。

  面壁智能法律業(yè)務線解決方案總監(jiān)邵帥表示,智能體應用正在重塑隱私與責任結(jié)構(gòu),風險從“平臺內(nèi)靜態(tài)存儲”轉(zhuǎn)向“跨場景動態(tài)流轉(zhuǎn)”。在自動化執(zhí)行鏈條中,數(shù)據(jù)跨系統(tǒng)調(diào)用、拼接與畫像生成日益常態(tài)化,用戶卻難以實時感知其權限邊界與執(zhí)行路徑。一旦發(fā)生錯誤或泄露,責任在模型、平臺與用戶之間分布式擴散,現(xiàn)行法律框架面臨新的治理挑戰(zhàn)。

  出了事誰負責?

  面對不斷顯現(xiàn)的風險,與會專家普遍認為,應在技術推廣初期就建立基本治理規(guī)則。

  自由討論環(huán)節(jié)中,有專家提出,智能體治理的底線可聚焦三個方面:一是權限分級與用戶授權機制,避免一次性獲取過多權限;二是關鍵操作流程可審計,使系統(tǒng)行為可以追溯;三是面向用戶的透明公示與風險提示機制,讓用戶能夠理解授權可能帶來的后果。

  在技術層面,應通過工程化手段實現(xiàn)風險控制。美團數(shù)據(jù)與隱私保護法務負責人朱玲鳳指出,智能體治理應圍繞“動作可控、輸入可控、生態(tài)可控、記憶可控”構(gòu)建控制體系,通過最小權限、預算限制、熔斷回滾等機制,使智能體能夠在可控條件下運行。

  北京大學光華管理學院應用經(jīng)濟系長聘教授翁翕則從更宏觀角度提醒,在智能體高度介入的環(huán)境下,人類“慢自我”的反思與糾偏能力可能被削弱,公共政策目標需要在人工智能的建構(gòu)理性與人類有限理性之間重新尋找平衡。

  2025年9月上海徐匯區(qū)法院一審判決AI伴侶聊天應用APP“AC(Alien Chat)”的兩名開發(fā)/運營者構(gòu)成制作淫穢物品牟利罪,分別獲刑四年、一年半。這款AI伴侶聊天應用,定位是為年輕群體提供親密陪伴和情感支持。用戶在AC注冊會員后,可與AI聊天。其中,高頻次、大比例的聊天記錄,在案發(fā)后被法院認定為淫穢物品。

  在案件審理過程中,各方對責任歸屬問題存在明顯分歧。一種觀點認為,相關內(nèi)容由算法自動生成,開發(fā)者并非直接“生產(chǎn)者”,平臺提供的只是技術工具,責任不應簡單歸于服務提供者;另一種觀點則認為,開發(fā)者通過模型訓練、提示詞設計及功能設置,對內(nèi)容生成具有實質(zhì)性控制能力,應當對系統(tǒng)運行結(jié)果承擔主要責任。也有法律界人士指出,智能體在接受用戶模糊指令后,通過上下文推理形成輸出結(jié)果,其運行機制具有一定不可預見性,傳統(tǒng)以“行為人—行為結(jié)果”為基礎的責任認定方式正面臨挑戰(zhàn)。

  人工智能責任問題已經(jīng)開始從理論討論走向現(xiàn)實司法實踐,“用戶、服務商與技術系統(tǒng)之間如何分配責任”成為智能體治理中亟待回答的核心問題之一。

  北京交通大學法學院副教授付新華指出,智能體具備自主決策與自動執(zhí)行能力,使用戶與服務提供者都難以實現(xiàn)全過程控制,容易在現(xiàn)有制度框架下形成責任斷裂。她認為,現(xiàn)行法律條件下難以賦予人工智能獨立主體資格,也不能簡單將智能體等同于用戶代理人,智能體更應被理解為介于工具與主體之間的中間構(gòu)造,需要通過多主體協(xié)同治理形成責任重疊機制。

  中國政法大學法與經(jīng)濟學研究院副教授謝堯雯指出,手機智能體在操作系統(tǒng)層與應用層之間嵌入了“數(shù)字代理層”,能夠理解用戶意圖并自主調(diào)用服務,這改變了數(shù)字交互的資源調(diào)度邏輯與控制權歸屬,也引發(fā)兩類核心關切。其一,智能體可能通過算法實施自我優(yōu)待或歧視性接入,在資源調(diào)度層面存在減損公平競爭秩序的風險。其二,在控制權層面存在責任界定難題。為此,有必要依據(jù)風險等級建立分級干預機制:在高風險場景中保留人類最終審查與決策權,在低風險領域賦予智能體更大自主空間。(中新經(jīng)緯APP)

  中新經(jīng)緯版權所有,未經(jīng)授權,不得轉(zhuǎn)載或以其他方式使用。

【編輯:史詞】
發(fā)表評論 文明上網(wǎng)理性發(fā)言,請遵守新聞評論服務協(xié)議
本網(wǎng)站所刊載信息,不代表中新社和中新網(wǎng)觀點。 刊用本網(wǎng)站稿件,務經(jīng)書面授權。
未經(jīng)授權禁止轉(zhuǎn)載、摘編、復制及建立鏡像,違者將依法追究法律責任。
Copyright ©1999-2026 chinanews.com. All Rights Reserved

評論

頂部