

2026全国两会正在进行,人工智能及智能体成为代表委员关注的核心科技话题。过去一段时间,从“系统级AI助手”概念的横空出世,到“AI接管手机”的广泛讨论,一系列标志性事件宣告中国正大步迈入“AI智能体元年”。然而,技术狂奔的同时,一系列产业矛盾与治理挑战也随之浮出水面,给智能体产业带来新的考验。全国政协委员、上海交通大学安泰经济与管理学院教授陆铭为此呼吁,亟须为智能体的高质量发展构建一套“系统性秩序”,以制度建设确保其在发展与风险之间找到平衡。
AI手机助手走进公众视野后,市场首次直观感受到智能体2.0时代“执行任务”的巨大潜力,但部分技术路线也引发了更广泛的隐私安全、平台边界与生态协作规则的行业讨论,客观上加速了产业对技术路径、安全标准与商业规则的思考。
比如,部分技术路径通过调用系统级权限,实现暴力读屏和模拟点击,强行介入第三方应用,将原本清晰的授权和权责关系变得模糊不清。手机厂商和智能体厂商可以直接获取入口溢价,而数据安全、个人隐私等风险却转移给用户和应用生态伙伴。这种做法一旦被大规模沿用,中国软硬件产业或将从良性协同转变为“收益上收、风险下沉”的困局。当然,相关AI手机开发商对这些问题也有所认知,正在做积极的调整,以寻求更好的解决方案。
陆铭委员认为,这一问题的核心在于不同数据提供商之间的利益分享,可以通过“制度+算法”来解决:“技术上,智能体调用哪些APP数据是可以被记录和溯源的,基于此,应形成一个透明的利益分享机制。”但他认为,更有挑战的是授权的合法性问题,比如,AI手机在调用聊天记录时,可能涉及他人的聊天信息,也会碰到敏感的银行支付信息甚至公共安全领域问题,“这些都是新事物,是制度上的真空地带,监管和立法者应该及时关注,别等到问题爆发后再叫停。”
从更大的维度来看,今年智能体已渗透到千行百业,狭义上有超过3000万个智能体在各行业里发挥作用。IDC咨询在一份研究报告中指出,中国企业活跃智能体数量将在2031年突破3.5亿规模,年复合增长率达到135%以上。在这种“快进”模式中,智能体的发展触及到数字产权、责任界定等制度真空地带。
陆铭委员表示,AI赋能千行百业,比如,最近一些AI辅助消费决策大幅增加了消费订单,为社会经济发展带来积极的助益,这个大方向是确定的。当下的问题是如何在发展和风险里找到平衡,这也需要政策制定者及早关注,并出台相关政策或法律规则。
在他看来,当AI智能体代替用户进行操作并产生误操作或损失时,现行法律在行为溯源、平台中立性等方面存在模糊地带:“未来如果AI辅助决策,事后发现亏损了,谁来承担责任?这些问题摆在那里,必须要有一个界定,否则就会出现制度失序。”
面对这些挑战,构建“系统性秩序”的紧迫性日益凸显。不少代表委员呼吁,为这场新的竞赛划定清晰的规则红线,核心在于防范“裁判员”变成“运动员”的系统性风险。对于同时掌握操作系统入口与自营智能体服务的平台,必须明确其“算法中立”和“公平竞争”的刚性义务。同时,监管应重点关注并防止其利用底层系统优势实施自我优待或流量劫持,确保不同规模、不同背景的服务提供者都能在统一的规则下公平获取用户,保护中国互联网生态的多样性与韧性。
“我们其实是要做前瞻性的制度建设。”陆铭认为,未来AI将带动更广泛的产业变革,数据安全、隐私保护……这些问题既是中国的,也是全球的,在AI竞赛中,中国的法律和监管也不能滞后,要做前瞻性的规则设计,为智能体产业的健康、可持续发展构建一个清晰、公平、安全的系统性秩序。
鑫东财配资提示:文章来自网络,不代表本站观点。