AI造假“起号”博流量,如何封堵技术漏洞?
◎ 刘霁月

    近日,社交媒体上AI生成的虚拟网红、明星仿声视频引发广泛关注。从“奥运冠军带货”到“银发博主授课”,一批借助人工智能技术造假吸粉、违规变现的账号浮出水面,平台专项治理随之启动。这既折射出生成式人工智能技术的广泛应用,也暴露出技术滥用对社会信任和网络秩序的严峻挑战。

    AI造假之所以能形成灰色产业链,源于其低门槛与高流量的诱惑。通过合成人脸、模拟人声,侵权者可以快速打造“爆款人设”,短期内聚集大量粉丝进而牟利。而深度伪造内容难以辨识、侵权主体隐蔽性强、证据固定难等特点,更使得此类行为屡禁不止。尤其值得警惕的是,部分所谓“AI变现课程”以夸大宣传诱骗用户,实质是以“技术培训”为名行“收割韭菜”之实,严重损害消费者权益。

    技术本身并无善恶,但如何使用技术却关乎伦理与法律底线。AI造假内容不仅侵犯公民肖像权、名誉权,还可能衍生诈骗、虚假广告等违法犯罪行为,侵蚀社会信任基石。如果“AI造假”成为公众共识,甚至催生“怀疑一切”的认知危机,将严重破坏数字时代的信任生态。

    治理AI滥用乱象,需打出“技术+制度+平台”的组合拳。技术上应强化深度伪造检测与溯源能力,通过数字水印、内容标识等技术手段提高AI生成内容的可辨识性;制度上须加快完善人工智能应用法律法规,明确技术开发者、内容生产者、平台运营者及用户各方责任;平台上则应建立从内容审核到违规处置的全周期治理机制,切断违规AI账号的利益链。自今年4月“清朗·整治AI技术滥用”专项行动开展以来,已有数千个违规账号及应用程序被处置,显示出治理行动的初步成效。

    我们既要看到人工智能赋能创意生产、提升内容质量的积极作用,也要警惕技术滥用带来的风险。推动人工智能技术向善发展,不仅需要有效的监管和法治保障,更需要行业自律、公众监督和教育引导,形成多方协同的治理格局。

    归根结底,技术发展的终极目标是为了人的福祉。唯有将人工智能纳入规范发展轨道,使技术创新行驶在伦理与法律的轨道上,才能真正实现科技造福人类的美好愿景。人工智能的未来,不仅取决于技术突破的高度,更取决于我们治理智慧的深度。

 

当前:A4版(2025年08月28日) 上一版 下一版