据中央网信办公开数据,截至2024年8月,我国完成备案并上线、能为公众提供服务的生成式AI(人工智能)服务大模型已达190多个,注册用户超过6亿。随着AI技术的快速发展,境内外利用AI技术实施各类不法行为或违法犯罪的活动日益增多(统称“AI犯罪”),已经严重危害到我国国家安全、社会安全和人民群众的人身财产权益,主要现象包括:一是以ChatGPT为代表的国际AI系统涉嫌沦为西方对华国际舆论认知战的工具。其基于西方价值观和立场进行的大数据搜集、训练,输出不符合客观事实的观点、言论,给我国国家主权安全和国际利益造成严重威胁。已有多位高校学者呼吁,如上海外国语大学吴瑛等2024年9月28日在万方数据网发表的《AIGC时代涉华国际舆论的演变、风险与敏捷治理——以ChatGPT为例》。二是一些犯罪团伙滥用AI洗稿技术散播谣言或滥用AI技术生成低质量内容迅速传播,严重扰乱社会秩序及诋毁政府形象。AI技术被滥用沦为谣言制造机,如上海市宝山区人民法院2025年1月23日判决的“AI洗稿案”,犯罪团伙为吸引流量炮制“上海某地惊现骨灰房”,误导公众的认知,引发群众恐慌和不安。三是不法分子利用AI技术实施新型犯罪,隐蔽性高欺骗性强。据中国裁判文书网公开的判例,全国各地已发生多起不法分子利用AI技术换脸、换声实施诈骗,利用AI技术进行传销活动,利用AI技术伪造公章、破解人脸识别系统实施盗窃等犯罪。
当前,有关“AI犯罪”的监管治理存在以下问题,亟须解决:一是AI科技企业在非法利用数据层面存在监管遗漏,我国面临严重的数据安全危机。一些科技很可能利用数据支配地位实施各类非法利用数据的行为,实施流量造假、操控搜索结果等。如国家网信办2025年1月3日公布查处网络利用AI技术实施流量造假等行为,仅2024年就累计清退1300余家批量操控账号的MCN机构、关闭MCN机构旗下9600个账号、处置账号和商家店铺239万个、群组5.2万个。
二是刑事司法惩处滞后性和行政监管泛化,造成“AI犯罪”监管疲软性。虽然“AI犯罪”侵犯的法益和行径所对应的刑事惩处均处于我国《刑法》条文规定范围内,但面对高速发展的AI技术及其日益广泛的应用场景,刑事司法具有天然的滞后性。尽管我国已先后颁布实施《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等法律法规,但其涉及的行政管理部门泛化,行政部门间缺乏完善的协同机制和统一的指挥调度,造成监管疲软,加剧“信息孤岛”的形成,给“AI犯罪”滋生空间。
三是AI行业自我监管机制尚未健全。尽管国家已出台一系列网络安全与反诈骗政策,但在实际执行中,部分平台和企业未能得到有效落实政策。例如,网络平台虽被要求加强用户内容审查,但因缺乏必要的技术手段与人力资源支持,导致AI诈骗信息未能及时被识别与删除。
党的二十届三中全会审议通过的《中共中央关于进一步全面深化改革、推进中国式现代化的决定》提出要健全网络综合治理体系。“AI犯罪”给我国国家安全、社会安全带来极大威胁和治理新挑战,亟需补齐监管漏洞,优化监管措施,加强防范治理,引导AI向善,构建更加安全的数字环境和AI生态圈。为此,建议:
一是提升我国参与AI全球治理的话语权和影响力,强化国家数据安全监管和应用场景标准化建设。借助一年一度的世界互联网大会乌镇峰会举办契机,深入开展以AI和数据领域为主旨国际交流合作,不断增强我国互联网领域的国际话语权和影响力。持续支持DeepSeek企业做大做强,引领全球AI新格局,扩大国家间的国际协作。依托工信部2024年12月成立的人工智能标准化技术委员会,加快AI数据集、软件平台、应用开发管理、风险等领域行业的标准制修订工作并公布实施。
二是健全协同治理机制,推进多领域跨部门联合执法,打破信息孤岛,形成司法打击合力。完善各级党委的领导,依托政府协调,推动公安执法、刑事司法等部门形成合力,建立信息共享机制。不断提升互联网监测、识别能力,用“AI警官”打击“AI犯罪”。广泛推广成功案例与技术创新,如安徽省合肥市警方的媒体宣传行动及浙江省杭州市临平区的“反诈智能AI宣防外呼系统”,通过媒体曝光、技术创新等手段,提升公众对AI诈骗的认知与警觉性。同时,鼓励技术创新,研发更加智能、高效的反诈骗系统与工具,为打击AI诈骗提供有力支持。
三是指导平台企业合法合规发展,推动行业自律管理,强化责任意识和细化责任链条。加强对AI模型算法研发者、服务提供者、重点领域使用者等主体的合规审查,强化伦理道德、国家安全培训宣讲。对“自媒体”平台及MCN机构进行常态化监管。细化各类网络服务提供商的责任链条,推动行业内各主体落实国家法规政策,签署相关承诺书保证信息安全抵制“AI犯罪”。
(农工党厦门市委社情民意专委会副主任陈粲,农工党厦门经济二支部党员赖镇江)