2025年11月,国家网信办联合市场监管总局发布《生成式AI营销服务管理暂行规定》,要求AI生成的营销内容必须添加明显标识,禁止使用虚假数据、仿冒他人形象等行为,为快速发展的AI营销行业划定合规边界。
《规定》重点条款包括:一是可追溯性,AI生成的文案、图像、视频需标注“本内容由AI辅助生成”,并保存生成日志至少6个月;二是真实性,禁止虚构用户评价、伪造专业人士建议(如“90%医生推荐”需提供机构证明);三是知识产权保护,不得未经授权使用他人肖像、作品进行训练或生成内容。违反者将面临比较高50万元罚款,情节严重的暂停服务。
政策落地首月,平台整改成效明显。微信推出“AI内容标识工具”,用户发布时自动添加标签,未标注内容的曝光量减少70%;抖音开发“AI生成内容识别模型”,通过图像噪声(AI生成图像的高频噪声特征)、语义特征(模板化文案检测)等识别未标注内容,准确率达98%,已拦截违规视频1200万条。
行业反应呈现分化。大型企业迅速组建合规团队:某互联网公司投入500万元建立“AI内容审核中心”,配备200名专职人员,对生成内容进行人工复检,通过率控制在85%;中小企业则面临成本压力,某MCN机构负责人表示:“新规实施后,我们的内容制作成本增加15%,但品牌合作更稳定了,长期看有利于行业健康发展。”
法律界对《规定》的解读聚焦“责任划分”。北京互联网法院法官指出:“商家需对AI生成内容的真实性负责,即使提示词由第三方提供。”典型案例中,某电商平台因未审核商家的AI虚假宣传(“100%纯棉”实为化纤),被判承担连带责任,赔偿消费者50万元。
自律机制同步完善。中国广告协会发布《AI营销伦理指南》,倡导“透明、公平、尊重”三大原则;百度、阿里等企业签署《AI内容诚信公约》,承诺不利用技术优势进行不正当竞争。第三方机构推出“AI内容合规认证”,通过认证的内容在平台审核中可享受绿色通道,通过率提升40%。
品牌合规策略需从“被动整改”转向“主动预防”。奥美集团建议企业建立“AI内容审核SOP”:1)提示词审核(过滤虚假数据请求);2)生成内容初检(AI自动检测敏感词、事实错误);3)人工复检(重点审核高风险内容如医疗、金融);4)发布后监测(追踪用户反馈,及时处理投诉)。某银行通过该流程,将AI话术违规率从12%降至0.5%,客户满意度提升至96分。
长远来看,规范发展将推动AI营销向“高质量”转型。某汽车品牌的“AI合规营销”案例显示,其发布的AI生成广告因标注清晰、数据真实(如“续航600公里”附第三方检测报告),点击率反而比未标注广告高25%,品牌信任度提升18%。