AI换脸、虚假信息泛滥?网信办出手整治技术滥用

8396png

随着AI技术的迅猛发展,AI换脸、深度伪造等技术的滥用问题日益凸显。从明星、网红被恶意"换脸"到虚假信息在社交平台泛滥,技术滥用不仅侵犯个人权益,更对社会秩序和网络生态造成严重威胁。近日,国家网信办出手整治技术滥用乱象,引发社会广泛关注。如何平衡技术创新与伦理边界,成为当下亟需解决的难题。

AI换脸技术为何引发全民担忧?

AI换脸技术通过深度学习算法,能够将一个人的面部特征完美移植到另一个人的身体上。这项技术本可用于影视制作等合法领域,但如今却被不法分子用于制作虚假视频、实施诈骗。许多普通人在不知情的情况下"被主演"色情视频,明星网红更是成为重灾区。更令人担忧的是,这项技术门槛不断降低,普通网民通过手机APP就能完成换脸操作,导致侵权内容呈几何级数增长。

虚假信息泛滥如何冲击社会信任?

AI技术生成的虚假内容正在侵蚀社会信任基础。从伪造领导人讲话视频到编造突发事件,这些以假乱真的内容通过社交媒体迅速传播,造成恶劣社会影响。疫情期间,AI生成的虚假医疗建议导致部分民众误服药物;金融领域,伪造的企业高管发言视频曾引发股市异常波动。专家指出,当人们难以辨别真假信息时,整个社会的运行效率将大幅降低,甚至可能引发群体性事件。

网信办新规有哪些整治重点?

国家网信办最新发布的《生成式人工智能服务管理办法》明确要求,提供AI换脸等深度合成服务的平台必须进行显著标识,并建立完善的审核机制。新规重点整治三类行为:一是未经许可使用他人肖像进行换脸;二是制作、传播虚假信息;三是利用技术实施诈骗等违法犯罪活动。平台方需落实主体责任,对违规内容采取删除、下架等措施,并向主管部门报告。

技术平台如何构建防护体系?

面对技术滥用挑战,头部互联网企业正在构建多维度防护体系。内容审核方面,采用"AI+人工"双重审核机制,通过数字水印、元数据分析等技术识别伪造内容。用户教育层面,平台推出"反AI诈骗"科普专栏,提高网民防范意识。技术防护上,部分平台已上线"原图验证"功能,要求用户上传原始照片进行比对。但这些措施仍需不断完善,才能应对日益复杂的伪造手段。

普通网民该如何自我保护?

在AI技术滥用的环境下,普通网民需要提高警惕性。遇到可疑视频时,可通过观察人物边缘细节、光线一致性等特征初步判断真伪。个人隐私保护方面,建议在社交平台减少分享高清正脸照片,设置严格的隐私权限。若发现自己的肖像被恶意使用,可依据《民法典》第1019条主张肖像权,通过平台投诉或法律途径维权。同时,面对网络信息要保持理性思考,不轻信、不传播未经证实的内容。