IAB 正在通过一个新框架加入有关 AI 责任的讨论,该框架直接针对营销人员最大的未决问题之一:在广告中究竟何时应披露 AI 的使用?
周四,IAB推出了其首个“人工智能透明度与披露框架(AI Transparency and Disclosure Framework)”,将其定位为品牌、代理机构、出版商和平台在大规模应用生成式人工智能时的实用指南。
该框架并未强制实施一刀切的信息披露规则,而是采取了基于风险的方法,重点关注消费者的影响——仅在人工智能的使用对真实性、身份或表述产生实质性影响,且可能误导人们时才予以披露。
“我们确实正处于生成式人工智能的关键转折点,”美国互动广告局(IAB)首席执行官大卫·科恩(David Cohen)在一份声明中表示,“虽然人工智能正在改变我们从创意构思到执行和评估的工作方式,但我们必须确保透明度和信息披露到位,否则我们可能会失去支撑整个价值交换的信任基础。”
该框架的核心是一个简单的问题:人工智能的参与是否显著改变了消费者认为自己所看到、听到或互动的内容?如果答案是肯定的,就应予以披露。这包括诸如描绘现实事件的人工智能生成或高度合成的图像和视频、从未说过某些话的真实人物的合成声音、被置于从未发生过的情境中的数字孪生体,以及在广告中设计用于模拟人类互动的对话代理或虚拟形象等场景。
重要的是,IAB 并未要求每次在广告活动中使用人工智能时都进行披露。诸如人工智能辅助编辑、优化或后台工作流程等常规用途不会自动触发标注。其目的是在避免披露信息过载的同时,仍能保护消费者不被误导。
为了使这一框架在各种渠道和平台上都能行之有效,它引入了一个两层模型。一层面向消费者,使用标准化的文字标签或视觉提示,如徽章、图标、水印或放置在广告创意附近的互动信息元素。另一层是机器可读的,依靠 C2PA 等元数据标准来支持技术合规性和下游透明度。
封面图片来源:Photo by Nahrizul Kadri on Unsplash