随着2025世界人工智能大会的召开,人工智能(AI)在高速发展的移动互联网中如何安全应用成为各方关注的焦点。业内人士近期纷纷表示,监管方、设备生产商、软件服务商应加强协作,在防范新发风险的前提下,共同确保行业稳定发展。
中国信通院泰尔终端实验室、标准所日前联合发布的《移动互联网应用程序(APP)风险分类分级指南(2025年)》(以下简称《指南》)指出,截至2024年底,移动互联网用户规模达15.7亿户,全年移动互联网接入流量达3376亿GB。APP应用场景的日益丰富,也对APP治理中全链条、全流程风险管理提出了更高要求。
尤其是在当前AI应用快速发展的态势下,APP内嵌AI插件成为吸引用户的重要形式,并在深刻改变移动应用市场的格局。《指南》提出,AI给内容审核、功能性检测带来极大挑战,已出现降低恶意开发者门槛等弊端。通过AI工具可以快速批量生产恶意应用,动态改变恶意特征,增大了检测难度。例如,AI可自动重构代码逻辑、修改接口命名或添加冗余代码,生成功能相同的应用变体,极大增加了安全检测的样本分析压力。
同时,《指南》也指出,通过技术更新迭代进行恶意利用的风险也在持续升级。如在移动应用分发平台上架审核和在架投放阶段,部分开发者可将恶意APP伪装成正常APP,当用户下载安装完成后或在使用过程中满足某些特定触发条件时,通过热更新的方式下载安装包含恶意代码或违规内容的新版本,实现APP的“换装”和“变脸”。
《指南》还将APP风险分为隐私安全风险、恶意行为风险、服务异常风险、财产安全风险、内容安全风险、未成年人安全风险六大类目,根据APP风险对社会公序良俗及公共利益、系统安全、用户合法权益等不同影响对象的不同损害程度,将风险级别划分为极高、高、中、低四个等级。针对不同风险等级,《指南》建议在APP全生命周期的各个阶段,不同主体可实施不同管理措施。
《指南》指出,需推动各方就APP风险类别与危害程度达成共识,为当下APP风险防范及治理提供参考。《指南》呼吁,移动互联网行业的健康发展,离不开全产业链多方协作:企业需增强合规开发意识,将风险防控贯穿产品全生命周期;移动应用分发平台应优化审核能力,强化在架巡检;移动终端厂商要提升风险检测水平,加强对APP风险行为的监测;管理部门需持续完善法律法规,明确风险界定与处罚标准。此外,鼓励行业协会制定自律规范,推动APP相关主体自我约束与管理,共同构建良好的行业发展生态。
针对AI大模型应用时代的来临,业内专家对行业痛点进行梳理时发现,手机厂商和APP应用服务商等协同配合是维护平稳发展的关键。中国信通院互联网法律研究中心主任何波表示,今年1月1日生效的《网络数据安全管理条例》对涉及自动化工具、生成式人工智能等新兴技术的数据处理活动作出了特殊规定。
随着技术的迭代更新,AI相关的政策法令以及防控治理手段将持续更新优化,本次《指南》的发布也将助力AI时代下相关技术风险防范的常态化与规范化,引导行业各方进一步深化合作,强化数据共享与技术交流机制,共同探索应对新兴风险的有效策略。
【来源:经济参考报】
声明:转载此文是出于传递更多信息之目的,若有来源标注错误或侵犯了您的合法权益,请作者持权属证明发至邮箱newmedia2023@xxcb.cn,我们将及时更正、删除。内容咨询及合作:19176699651;yuanshipeng@xxcb.cn。
举报/反馈
相关知识
健康管理迈入精准时代:大数据揭示风险分层,科技驱动个性化干预
山丘联康:IHIC 2024上的璀璨之星,引领AI+慢病管理新时代
化学品健康危险分几级(化学品危害等级分类有几种)
AI+制造,这些风险超乎想象
移动医疗时代,打造定制化健康管理APP的策略与案例分析
2025年数字健康管理行业发展现状及投资风险分析
最新!安徽疫情风险等级分类名单更新!马鞍山风险等级是…
药品说明书适老化升级,AI助力健康用药:百度健康AI用药助手上线健康天津APP医药新闻
哈佛学者呼吁解决医学AI的信任危机 AI有望“训练”人脑增强记忆与认知功能
宠智灵AI深度赋能:宠物保险迎来精准化、个性化新时代
网址: 业界呼吁AI时代强化APP风险分类分级管理 https://m.trfsz.com/newsview1656064.html