人工智能时代的信息甄别:挑战、机制与应对策略「NotDeepReport」
- 本内容使用Google的Deep Research生成
引言
人工智能(AI)的飞速发展,正以前所未有的方式重塑信息生态系统。AI生成内容(AIGC)在文本、图像、音频和视频等多种模态上展现出惊人的创造力和逼真度,极大地提高了信息生产的效率。然而,这种进步也伴随着严峻的挑战。AI技术在降低内容创作门槛的同时,也显著降低了制造和传播虚假信息的成本和难度¹。这些由AI生成的虚假内容,因其高度的自然性和难以辨识的特点,对个体认知、社会信任乃至民主进程构成了潜在威胁。
人类社会对信息真伪的甄别历来是一项充满挑战的工作。从信息匮乏的古代到信息爆炸的互联网时代,虚假信息的形态与传播方式不断演变,而人类的应对机制亦随之发展³。科研工作者等对信息可靠性有极高要求的群体,也并非在“温室”中工作,他们同样需要投入大量精力来培养甄别信息真伪的能力。
在AI技术日新月异的今天,虚假信息无论是数量还是质量都可能再上一个台阶。因此,深入理解人类甄别信息真伪的内在机制,分析AI时代虚假信息带来的新挑战,并探索有效的应对策略,具有至关重要的理论与现实意义。本报告旨在系统梳理人类进行真伪判断的认知基础与后天技能,剖析AI技术对信息真实性带来的冲击,探讨技术与非技术手段在应对这一挑战中的作用,并展望未来信息生态的治理方向。
I. 人类对真理的探求:甄别能力的基础
本章节旨在奠定理解信息甄别问题的基础,探讨人类区分真伪所依赖的内在认知过程和后天习得的技能。通过审视这些机制的功能及其在历史上面临的挑战,为理解AI时代更为严峻的甄别困境提供背景。
A. 认知机制:心智如何区分事实与虚构
人类在判断信息真伪时,会动用一系列复杂的认知机制。这些机制既包括快速、直觉式的反应,也涉及审慎、分析性的思考。
- 双重加工理论(直觉与分析思维):根据双重加工理论,人类认知系统包含两种主要的思维模式:系统1(直觉思维)和系统2(分析思维)。系统1的特点是快速、自动化、不费力,常依赖启发式方法;而系统2则相对缓慢、需要意志努力和逻辑推理⁴。在信息甄别过程中,过度依赖直觉思维可能使个体更容易相信虚假信息,因为他们可能未进行足够的深度加工来识别信息中的可疑线索⁴。研究表明,个体依赖直觉或分析思维的倾向性,显著影响其辨别信息真伪的能力⁴。这种认知效率与准确性之间的权衡,构成了人类认知的一个根本性脆弱点。当面对AI生成内容时,其高度的自然流畅性和巨大的信息量,可能会使得持续调用高认知成本的系统2进行深度审视变得异常困难,从而更容易依赖系统1的快速判断,增加了受骗的风险。
- 真理默认理论(真实偏见):人类在沟通中倾向于默认他人所言为真,即存在所谓的“真实偏见”(Truth Bias)或“真理默认”(Truth-Default Theory)⁵。除非存在特定的怀疑理由,否则人们通常会接受接收到的信息是诚实的⁵。这种默认机制在日常交流中提高了沟通效率,但也使用户更容易受到欺骗性信息的影响,因为人们最初可能不会仔细审查信息的真实性⁵。即使是专业的测谎人员,如警察和法官,也表现出与普通人相似程度的真实偏见⁵。一旦基于不准确信息形成了错误信念,由于确认偏误(Confirmatory Bias)的存在——即人们更倾向于接受证实而非证伪其现有信念的证据——这些错误信念便难以被纠正⁵。
- 认知反思与认知需求:个体在信息甄别方面的能力差异,也与其认知特质相关。“认知反思”(Cognitive Reflection)指的是个体克服直觉反应、进行更深入思考的能力;而“认知需求”(Need for Cognition)则指个体参与和享受努力思考活动的倾向性⁵。研究发现,认知反思能力和认知需求水平均较高的个体,通常能更准确地辨别信息真伪,并且对事实核查信息更为接纳⁵。特别是,那些同时具备高认知反思能力和高认知需求的个体,对事实核查的结论表现出更高的接受度⁵。值得注意的是,证伪性的事实核查(即指出信息为假)比证实性的事实核查(即确认信息为真)对受众的感知真实性具有更强的影响力,这凸显了反面证据在纠正错误信念中的价值⁵。然而,纠正信息也面临一个悖论:虽然证伪证据本身是强有力的,但由于真实偏见和初始审查的缺乏,错误信念一旦形成,人们会更倾向于寻找和接受确认其既有错误信念的证据⁵。AI能够大规模、个性化地快速传播初始的虚假信息,这可能导致在纠正信息出现之前,错误信念已经在大范围人群中固化,从而削弱了后续纠正的效果。
- 其他认知驱动因素:除了上述机制,还有一些其他认知因素可能影响个体对错误信息的判断。例如,“动机性推理”(Motivated Reasoning)理论认为,个体可能会利用其认知能力来确认已有的信念和身份认同,而非追求客观真理,尽管一项研究在日常新闻情境下仅发现了其边缘支持⁴。此外,反精英主义、机构信任度以及社会规范等因素也被认为是错误信息信念的驱动因素,尽管认知风格的影响在实验中表现得更为显著⁴。
B. 后天习得的技能:批判性思维与信息评估的作用
除了天生的认知机制,人类还通过学习和实践获得甄别信息真伪的技能,其中批判性思维和系统性的信息评估方法至关重要。
- 批判性思维的定义与要素:批判性思维是一种清晰、理性、反思性的思考方式,专注于决定相信什么或做什么。它涉及怀疑精神,提出探索性问题(例如“我们是如何知道的?”“这在所有情况下都成立,还是仅限于此例?”),挑战假设,评估陈述与论证,以及区分事实与观点⁶。这是一个对信息和数据进行质疑的过程,包括质疑自己固有的信念⁶。批判性思维在评估中的关键要素包括:收集基本信息并提出初步问题(“发生了什么?”);判断信息的重要性(“为何重要?”);识别缺失信息(“我没有看到什么?”);探究信息来源和构建方式(“我如何知道?是谁说的?”)⁶;以及考虑其他可能性和视角(“还有什么?如果……会怎样?”)⁶。
- 信息来源评估的应用(例如学术论文):
- CRAAP测试:这是一个广泛用于评估信息来源可信度的框架,包含五个维度:时效性(Currency)、相关性(Relevance)、权威性(Authority)、准确性(Accuracy)和目的性(Purpose)⁶。该测试通过提出关于信息发布时间、与主题的契合度、作者资质、证据支持和潜在偏见等问题,帮助评估者判断信息来源是否可靠⁸。
- 学术文章评估:科研工作者在评估学术论文时,会关注其是否提出清晰的研究问题或论点,是否有全面的文献综述,研究方法是否恰当,结论是否基于充分证据且逻辑严谨,是否指出了研究局限性,以及参考文献是否完整准确⁸。同行评议是学术质量的关键保障,即由领域内专家在论文发表前对其质量、可信度和准确性进行评估⁸。
- 研究中的信度和效度:科学家评估研究质量的核心标准是信度和效度¹⁰。信度指测量结果的一致性,可通过跨时间(重测信度)、跨项目(内部一致性)和跨研究者(评分者间信度)等方式进行评估¹⁰。效度指测量结果在多大程度上真正代表了其意图测量的变量,通常基于多种证据进行判断,包括结构效度、内容效度和标准效度¹⁰。
后天习得的批判性思维技能,如CRAAP测试的应用⁸,是抵御诸如真实偏见等先天认知偏差的有效工具⁵。然而,严格运用这些技能是一个认知要求极高(即系统2)的过程。人工智能生成内容的海量特性,可能导致“批判性思维疲劳”,使得个体因不堪重负而重新依赖更为经验化、但准确性较低的启发式处理方式(即系统1)。此外,传统的批判性思维高度依赖对信息来源权威性和可信度的评估⁷。AI生成内容往往缺乏明确的人类作者,或者能够令人信服地模仿可信来源¹²,这对传统评估方法构成了挑战。因此,AI时代的批判性思维必须演进,纳入对AI生成过程、模型局限性和合成内容模仿可能性的理解,超越传统的权威标记。
C. 历史背景:信息匮乏与信息过载——一个不断演变的挑战
信息真伪的甄别挑战并非新生事物,它随着信息传播技术的发展而不断演变。
- 古代与信息匮乏:在信息传播手段有限的古代,信息相对匮乏,这可能导致人们更容易轻信。虚假信息无需高超的技巧便能产生效果。例如,中世纪的政治和社会中,就存在基于既有偏见故意传播虚假信息的情况³。
- 印刷术革命:15世纪印刷术的发明,极大地提升了信息复制和传播的速度与规模,但也带来了信息在未经验证前就被广泛传播的问题³。
- 大众传媒的兴起(报纸、广播、电视):17至18世纪的报纸虽一度受国家控制,但启蒙时代对新闻自由的追求也催生了“假新闻”的早期形态³。19世纪的印刷业繁荣和“黄色新闻”的出现,使得真假参半的信息得以广泛传播。20世纪,广播和电视的普及进一步扩大了信息的覆盖范围³。奥森·威尔斯的“世界大战”广播事件,则凸显了媒体影响公众感知的巨大力量³。
- 互联网与移动时代:互联网,特别是移动互联网的普及,导致信息以前所未有的规模泛滥,使得辨别事实与虚构变得日益困难³。信息的传播速度往往远超纠正机制的反应速度³。
历史经验表明,每一种新兴信息技术(从印刷术到广播,再到互联网和如今的AI)都曾被用于更高效或更广泛地传播虚假信息³。这揭示了一个规律:技术本身是中性的,它更多扮演的是放大器的角色,放大了人类制造和相信谎言的固有倾向,而非虚假信息的根本原因¹⁵。因此,应对策略必须同时关注技术媒介和人性因素。
与此同时,信息环境也从古代的“信息匮乏”转变为现代,尤其是AI时代的极端“信息过载”,这导致“信噪比”急剧下降。即便个体具备良好的批判性思维能力,要在海量信息中筛选出可信内容也变得异常困难。巨大的信息量本身就可能造成认知瘫痪,或迫使人们依赖有缺陷的启发式判断。
表1: 认知偏差及其对错误信息易感性的影响
认知偏差/风格 | 简要描述 | 对信息甄别的影响 | (AI生成)错误信息如何利用此偏差/风格 | 相关文献 |
---|---|---|---|---|
真实偏见 (Truth-Default Bias) | 倾向于默认接收到的信息为真,除非有明确的怀疑理由。 | 降低初始怀疑度,更容易接受未经核实的信息,为错误信念的形成打开方便之门。 | AI生成内容的高度自然性和流畅性使其更容易通过真实偏见的初步过滤,迅速植入初始印象。 | 5 |
确认偏误 (Confirmation Bias) | 倾向于寻找、解释、偏爱和回忆证实自己先前存在的信念或假设的信息。 | 一旦形成错误信念,会阻碍对纠正信息的接受,强化已有偏见。 | AI可生成大量符合特定用户偏见的内容,持续强化其已有信念,使其更难接受相反观点。 | 5 |
分析性思维依赖度 (Analytical Thinking Reliance) | 个体依赖系统2(分析、审慎)而非系统1(直觉、快速)进行思考的程度。 | 高分析性思维者通常能更准确地辨别真伪;低分析性思维者更容易受表面线索和启发式判断影响。 | AI生成内容可能通过模仿可信来源的表面特征来欺骗低分析性思维者;其巨大体量也可能使高分析性思维者“疲于分析”。 | 4 |
认知需求 (Need for Cognition) | 个体参与和享受努力思考活动的内在动机。 | 高认知需求者更愿意投入认知资源进行深度信息加工,有助于识别复杂谎言。 | 对于低认知需求者,AI生成内容的“易得性”和“表面合理性”可能使其放弃深度思考。 | 5 |
动机性推理 (Motivated Reasoning) | 利用认知能力来支持个人偏好的结论,而非客观评估证据。 | 即使具备分析能力,也可能因维护既有立场或身份认同而曲解信息,接受符合动机的虚假信息。 | AI可生成高度定制化的、迎合特定动机和身份认同的虚假叙事,从而绕过客观事实的检验。 | 4 |
认知反思能力 (Cognitive Reflection) | 克服直觉冲动,进行审慎思考和评估的能力。 | 高认知反思能力者更能抵制第一印象的误导,进行更准确的判断。 | AI生成内容若能巧妙利用常见认知捷径,可能使低认知反思能力者迅速接受。 | 5 |
II. 人工智能的放大效应:虚假信息的新前沿
人工智能技术的介入,正从根本上改变虚假信息的生态格局。本章节将详细阐述AI生成内容的特性,及其在心理和经济层面如何放大虚假信息的影响。
A. 人工智能生成内容的本质:真实性、规模与速度
生成式AI通过深度学习模型(如基础模型、生成对抗网络GANs、Transformer架构、扩散模型等)在海量数据上进行训练,从而具备创造原创内容的能力,这些内容涵盖文本、图像、视频、音频乃至软件代码¹³。
- 文本生成:大型语言模型(LLM)能够产出连贯且与上下文相关的文本,其应用范围从撰写报告、新闻稿到创作文学作品,语言能力在许多情境下已达到甚至超越人类水平¹³。
- 图像与视频生成(深度伪造):诸如DALL-E、Midjourney和Stable Diffusion等工具能够创造出逼真的图像和艺术作品¹³。深度伪造(Deepfake)技术则利用AI生成高度仿真的合成媒体,常用于将个体的面部或声音嫁接到他人身上,制造出以假乱真的虚假言行¹⁷。生成对抗网络(GANs)是实现这一目标常用技术,其包含一个生成器用以创造合成数据,以及一个判别器用以评估合成数据的真实性,两者在对抗训练中共同提升,直至生成器能够“欺骗”判别器¹³。
- 音频生成:AI能够合成听起来自然的语音和音乐¹³。
这些AI生成内容之所以能显著放大虚假信息的影响,关键在于其具备以下特性:
- 高度真实性:AI的输出成果往往极其令人信服,普通人难以将其与真实内容区分开来¹⁴。先进的AI工具甚至能够模拟声音的生物特征标记,并完善视觉上的微小不一致之处¹⁸。
- 巨大规模:AI极大地便利了对虚构事件进行令人信服的描绘和批量生产¹⁴。大型语言模型能够大规模地个性化定制虚假信息,同时与数百万目标受众进行互动¹⁶。据统计,网络上深度伪造内容的数量曾以每六个月翻一番的速度增长¹⁹。
- 极快速度:AI能够以极低的成本和极快的速度生成内容¹,这使得虚假信息宣传活动得以迅速部署和传播。
- 易获取性:AI工具的广泛普及意味着任何人,无论技术背景如何,都能够以极少的精力、极低的成本制作或修改媒体内容¹。
AI工具显著降低了制造复杂、高仿真度虚假内容的技术和资金门槛¹。这种“欺骗的民主化”意味着,不仅是国家行为体或大型组织,即便是个人或小团体也能大规模生产高质量的虚假信息,从而导致潜在的虚假信息源数量激增,使得信息环境更加混乱,监管难度也随之加大。
更进一步,AI不仅能生成单一模态的虚假内容,更能综合运用文本、图像、音频和视频等多种模态¹³。例如,一个深度伪造的视频,配上AI生成的语音和AI撰写的“新闻报道”,其整体欺骗性和说服力远超单一模态的虚假信息,这种多模态协同效应极大地增强了虚假信息的迷惑性,也使其更难被揭穿。
B. 人工智能对虚假信息的经济学和心理学影响
AI不仅改变了虚假信息的生产方式,也深刻影响了其传播的经济学原理和对受众的心理作用机制。
- 虚假信息生产成本的降低:如前所述,AI极大地削减了生成大量定制化、高仿真度虚假内容的成本与精力投入¹。这彻底改变了虚假信息活动的经济账本,使得以往需要高昂成本才能实施的复杂信息操纵,如今变得廉价易行。
- 个性化与精准靶向:大型语言模型能够实现大规模的个性化虚假信息定制,为不同个体量身打造信息,并能同时与数百万目标进行互动式“对话”¹⁶。AI算法通过分析用户的互动行为、浏览历史、点赞偏好等数据,向其推送符合其兴趣和既有偏见的内容²²,这种能力极易被用于精准投放虚假信息,从而提高其“命中率”。
- 貌似合理与“幻觉”:AI生成的文本通常文理通顺,逻辑看似严密¹⁶,但其中可能包含“幻觉”(hallucinations)——即AI自信地陈述一些完全错误的事实或编造不存在的信源²³。这种高度的貌似合理性使得人们在没有仔细核查的情况下很难发现其中的错误。
- 情绪操纵:AI生成的内容可以被精心设计以激发受众强烈的情绪反应(如愤怒、恐惧、同情等)²⁵,这些情绪反应往往能够绕过个体的理性思考,促使其不加辨别地接受并分享信息。同时,深度伪造内容本身所具有的“恐怖谷效应”(uncanny valley effect),即高度仿真但又略带怪异的人类形象所引发的不安或厌恶感,也是一种特殊的心理影响²⁶。
AI技术在大幅降低高质量虚假内容生产成本的同时¹,并未相应降低检测和揭穿这些内容的成本和难度。这种不对称性为虚假信息传播者创造了显著的优势,使得他们能够以远低于防御方的成本,用海量虚假信息淹没信息空间,这可能导致揭穿和辟谣工作不堪重负。
此外,AI的个性化能力¹⁶ 和情绪调动能力²⁵ 若被恶意利用,可以构建出高度定制化的“信息茧房”。通过持续向个体推送确认其偏见并引发强烈情绪的内容,AI能够比以往任何形式的宣传都更有效地加速个体的极端化和社会群体的极化。
C. 人工智能时代甄别真伪面临的更严峻挑战
AI的介入,使得本已复杂的信息甄别任务雪上加霜,对个体的认知能力和社会整体的信任基础都构成了前所未有的挑战。
- 认知负荷加剧:AI生成内容不仅数量庞大,且往往制作精良、难以分辨,这会给个体在信息处理过程中带来巨大的认知负荷²⁶。个体需要花费更多的认知资源去审视、辨别和筛选信息,长时间处于这种状态容易导致认知疲劳,进而影响判断的准确性和决策效率²⁸。
- 信任的侵蚀(“真相衰退”):精密复杂的伪造内容(尤其是深度伪造)的大量涌现,可能导致公众对所有数字内容的信任度普遍下降,波及对机构、媒体乃至人际沟通的信任¹。这种现象被称为“真相衰退”(Truth Decay),指的是在一个事实和数据可以被轻易扭曲或否认的环境中,客观事实的权威性逐渐削弱³¹。
- “说谎者的红利”:深度伪造和虚假信息的泛滥,催生了“说谎者的红利”(Liar's Dividend)现象。由于公众普遍意识到伪造内容的存在,恶意行为者便可以利用这一点,将真实的证据或丑闻斥为“伪造”,从而逃避责任,混淆公众视听³⁰。这使得公共讨论更加泥沙俱下,真伪难辨³²。
- 模型坍塌(Model Collapse):这是一个长期的潜在风险,指的是AI模型如果持续用自身或其他AI生成的合成数据进行训练,其性能会逐渐退化,输出的内容会变得越来越偏颇、同质化和不准确,如同复印件的不断复印导致质量下降¹。这种情况一旦发生,将进一步用不可靠的AI生成内容污染信息生态系统。
随着AI伪造内容的泛滥导致信息可信度下降(即“真相衰退”)³⁰,个体可能会变得更加犬儒,对批判性评估信息失去动力。这种状态反而可能促使人们增加“认知外包”(cognitive offloading),即更依赖AI或其他简单启发式方法来获取“答案”,以此作为应对信息过载和不信任感的策略。然而,这会进一步削弱其自身的批判性思维能力³⁸,使他们更容易受到更复杂操纵的影响,形成恶性循环。
同时,“说谎者的红利”³⁰ 不仅仅是个人逃避责任的伎俩。在社会层面,如果具有影响力的行为者持续利用此策略攻击可信机构(如新闻媒体、科研机构、司法系统),将系统性地削弱公众对这些民主社会支柱的信任,加剧社会和政治的不稳定。AI技术使得制造这种“噪音”并实现“合理否认”变得更为容易。
III. 技术军备竞赛:人工智能在追求真实性中的对抗
面对AI生成虚假信息的挑战,技术领域也展开了一场持续的“军备竞赛”。一方面,AI被用于制造更逼真的伪造内容;另一方面,AI也被用于开发更智能的检测工具和主动认证技术,以期维护信息的真实性。
A. 检测不可辨识之物:人工智能驱动的检测技术
开发能够有效识别AI生成内容的技术是当前研究的重点。针对不同模态的内容,研究者们提出了多种检测方法。
- 针对AI生成文本(LLM)的检测:
- 基于LLM提示工程与零样本方法:利用一个外部LLM,通过精心设计的提示词(prompt)来判断一段文本是否由AI生成。这类方法准确率中等,且对提示词的设计非常敏感³⁹。
- 语言学与统计学特征分析:传统方法依赖文体学特征(如功能词、句法复杂度、平均短语长度等)。现代方法则更侧重于计算困惑度(perplexity)、对数似然率等,因为LLM生成的文本在概率分布上往往呈现出独特性。如果生成模型的部分信息已知,还可以测量词元(token)的排序³⁹。有研究指出,人类撰写的文本倾向于使用更“实用”的语言⁴⁰。
- 基于监督学习的分类器(训练型):利用标注好的人类与AI文本语料库,对预训练的Transformer模型(如RoBERTa、T5)进行微调,使其能够区分合成文本。例如GPTZero和RADAR等工具即为此类高级监督检测器的代表³⁹。然而,随着新的生成模型架构频繁出现,构建高质量、有代表性的训练数据始终是一个挑战³⁹。一些模型在特定测试中能达到约77.5%的准确率,优于其他工具⁴⁰。
- 针对AI生成图像与视频(深度伪造)的检测:
- 观察与人工检查:人类专家通过寻找光照、阴影、透视、解剖结构等方面的不自然痕迹,或与背景常识不符的细节来判断。这种方法主观性强、耗时,且不适用于大规模检测³⁹。具体的甄别线索包括:图像颜色过于鲜艳、背景与前景不协调、反射效果失真、面部特征或比例不真实、图像中的文字混乱不清;视频中边缘模糊或闪烁、口型与声音不同步等⁴¹。
- 基于模型的伪影分析:算法分析像素级统计数据或频域特征。例如,傅里叶变换可以揭示GAN上采样过程产生的周期性纹理,或扩散模型产生的一致性微小噪声³⁹。白盒策略则利用对生成器流程的了解(如测量逆向扩散过程的可能性)进行检测³⁹。
- 黑箱深度学习分类器:基于大量标注的真实/伪造数据,卷积神经网络(CNN)分类器(如ResNet、EfficientNet)能够学习区分性特征³⁹。集成方法则结合多个模型的输出或特定领域子网络(如专注于人脸与背景的区分)来提高准确性³⁹。例如GenConViT、NPR等模型⁴³。
- 视频深度伪造检测的特性:除了静态帧的伪影,视频深度伪造还可能在面部表情(如眨眼频率)、动作或几何结构上表现出时间上的不一致性³⁹。光流分析或3D几何重建有助于发现不自然的过渡³⁹。
- 行为特征分析:一种新兴的方法是通过分析“对话签名”(如音高、语调、韵律等)来检测合成媒体中的不一致性,这种方法比传统的黑箱模型能提供更具可解释性的衡量指标¹⁸。
- 当前检测方法的优势与局限:
- 学术与现实性能差异:许多检测器在学术数据集上表现出高准确率,但这些基准往往已过时,不能代表真实世界中深度伪造的复杂性⁴³。
- 泛化能力:一个主要局限是泛化能力。针对特定生成技术训练的模型,在面对未见过或全新的生成方法时,性能会显著下降⁴⁵。
- 商业工具的检测准确率:参差不齐。一些工具的“未知”结果率较高⁴⁶。
- “军备竞赛”:生成式AI的飞速进步使得检测方法很快过时,这是一场持续的技术追逐¹⁷。检测技术本身仍是一个活跃且日益复杂的研究领域⁴⁵。
AI检测模型面临一个根本性的困境:高度特化的模型(针对已知生成技术的特定伪影进行训练)可能对这些技术达到高准确率,但在面对新的、未见过的生成方法时则会失效⁴³。反之,试图泛化以应对多种未知技术的模型,可能对任何单一特定技术的检测精度都不够高。这种“检测器的两难”是技术军备竞赛的核心特征。
此外,尽管一些检测方法如行为特征分析¹⁸ 或后续将讨论的XAI增强系统致力于提高透明度,但许多基于深度学习的分类器本质上仍是“黑箱”¹⁷。这种缺乏可解释性的特点,使得人们难以理解为何某项内容被标记,从而影响了用户对检测工具的信任,也让开发者更难诊断和修复检测模型自身的缺陷或偏见。
B. 主动措施:水印、内容溯源与区块链
除了被动检测,研究者和业界也在探索主动的认证技术,旨在从内容生成源头就嵌入可验证的标记。
- 数字水印:在AI生成内容(文本、图像、音频、视频)时,嵌入隐藏的、难以察觉的信号,用以标记其来源⁵⁰。
- 技术手段:例如,在文本中引入微妙的语言模式或变体,在图像中轻微改变像素值或颜色,在音频中进行频移,在视频中进行基于帧的调整等⁵⁰。
- 效果与挑战:数字水印面临着鲁棒性(抵抗内容在压缩、裁剪等操作中被移除或篡改的能力)与不可感知性(水印不应影响内容的正常观感)之间的权衡⁵⁰。缺乏行业标准、潜在的隐私问题(水印可能泄露用户信息)以及检测准确性问题是其主要挑战⁵⁰。简单的图像变换就可能破坏设计粗糙的水印³⁹。尽管并非万能,但水印技术被认为是增强AI安全性的一个有前景的方向⁵¹。
- 内容溯源(例如C2PA、内容凭证):这类技术旨在建立和维护数字媒体的“血统”,记录其来源、创建过程和后续编辑历史¹。
- C2PA(内容来源和真实性联盟):这是一个开放的技术标准,通过将元数据绑定到媒体文件,来验证媒体来源和历史记录²。它整合了内容真实性倡议(CAI,由Adobe、纽约时报、Twitter发起)和起源计划(Project Origin)的成果⁵³。
- 内容凭证(Content Credentials):由创作者添加的、经过加密保护的元数据,包含内容的来源、创作过程和编辑信息¹。其目标是为受众提供决策依据,如同食品的“营养标签”²,并有助于保护个人身份和声誉²。
- 局限性:水印和元数据仍可能被剥离或伪造⁵⁴。例如,C2PA水印在文件格式转换(如JPEG转PNG)时可能丢失,且其审计追踪依赖于Adobe、微软等中心化实体,这些实体自身也可能存在数据泄露风险⁵⁵。
- 区块链技术用于真实性验证:利用区块链的不可篡改性、透明性和去中心化记账特性,来安全地存储媒体内容的溯源元数据⁵⁵。
- 机制:验证节点维护媒体内容的保真度;经济激励机制(如权益证明PoS中的惩罚机制)确保参与者的诚实行为。零知识证明(ZKPs)可以在不泄露敏感信息的前提下验证内容的真实性⁵⁵。
- 相较于传统方法的优势:区块链提供了比简单水印或中心化的C2PA审计追踪更强的不可篡改性和可审计性⁵⁵。Vbrick公司的“Verified Authentic”是一个应用实例⁵⁶。
然而,数字水印和内容溯源系统(如C2PA)在很大程度上依赖于AI模型开发者和内容创作者的自愿采用¹。那些意图欺骗的恶意行为者不太可能主动加入这些系统,这意味着这些措施主要能验证合法内容的真实性,而对于未经认证的内容,其真伪依然难以判断。这限制了它们在对抗蓄意虚假信息传播方面的效力。
同样,虽然区块链技术以其不可篡改性为内容溯源提供了强大支持⁵⁵,但其广泛应用仍面临可扩展性、成本以及潜在的隐私泄露风险(除非精心设计,例如使用零知识证明⁵⁵)。这种永久性记录的特性,在确保真实性的同时,如果记录了敏感(即使是真实的)信息,也可能带来负面影响。
C. 可解释人工智能(XAI)在建立可信检测中的作用
为了克服AI检测工具“黑箱”操作带来的信任问题,可解释人工智能(XAI)应运而生。
- 解决“黑箱”问题:XAI旨在使AI算法的决策过程对人类透明化、可理解化⁵⁷。这对于虚假信息检测系统尤为重要,因为用户需要理解系统做出判断的理由才能信任其结果⁵⁷。
- 增强虚假信息检测的可解释性:诸如SHAP(SHapley Additive exPlanations)和LIME(Local Interpretable Model-agnostic Explanations)等XAI方法,能够高亮显示影响分类器决策的关键性词语或特征,从而帮助开发者和最终用户理解模型行为⁵⁸。这在不牺牲性能的前提下提高了透明度⁵⁸。在深度伪造检测中,可解释性有助于执法人员等用户理解为何某项内容被标记为可疑¹⁷。
- XAI的益处:XAI能够培养用户信任,帮助调试和改进AI模型,识别模型弱点或偏见,并支持满足法规对问责制的要求¹⁷。
有效的AI检测不仅关乎准确率,更关乎人类是否信任并能根据检测器的输出采取行动。XAI⁵⁷ 正是连接技术能力与人类可用性的关键桥梁。缺乏可解释性,即使是高度准确的检测器也可能因其推理过程不透明而未被充分利用或被忽视,尤其是在处理细微复杂或政治敏感内容时。
然而,可解释的检测模型¹⁷ 也可能带来新的风险:如果解释过于详细地暴露了检测器的特定漏洞或可检测特征,恶意行为者可能会利用这些信息来规避检测,这为“军备竞赛”增加了新的维度¹⁷。如何在提供必要解释以建立信任和避免泄露过多信息给对手之间取得平衡,是一个需要仔细权衡的问题。
D. 人工智能辅助事实核查:增强人类能力
AI不仅用于直接检测虚假内容,也被用于辅助和增强传统的人类事实核查工作流程。
- AI在事实核查中的角色:AI可以自动识别文本中的待核查声明,通过交叉引用可信来源来验证其准确性,追踪虚假信息的传播路径,并分析语言模式和情感倾向以发现误导性内容⁵⁹。
- 工具与平台:例如,Full Fact利用AI识别政治演讲和新闻报道中的声明;NewsGuard训练AI识别虚假叙事并对信源进行评级;VERA.ai结合AI与众包力量进行事实核查⁵⁹。Originality.ai公司的事实核查辅助工具在测试中展现出约72%的准确率,并能提供来源和解释⁴⁶。
- 提升效率与准确性:AI能够加速记者的事实核查流程,并为新闻机构提供与人类专家判断高度一致的可信度评级及解释⁵⁹。
- 局限性:AI事实核查工具并非完美无缺,一些模型可能存在较高的“未知”判断率或错误率⁴⁶。因此,人类的监督和最终判断仍然至关重要。
面对AI生成内容带来的海量信息,AI在事实核查中的主要价值在于其提升规模化处理的能力,而非完全取代人类的判断⁵⁹。AI可以显著提高识别和初步评估可疑声明的速度和范围,这对于应对信息洪流至关重要。然而,对于上下文理解、意图判断以及复杂虚假信息的辨析,往往仍需要人类的批判性思维和伦理考量。目前AI事实核查工具的准确率(例如⁴⁶中提到的72.3%)也印证了其尚不能完全独立承担核查任务。因此,将AI视为增强人类专家能力的强大辅助工具更为恰当。
但同时需要警惕一种风险:如果AI辅助事实核查工具得到广泛应用并被高度信任,个体乃至机构可能会过度依赖其结论,而放弃自身的批判性评估。这种“信任外包”可能导致一种新的认知惰性,即“AI事实核查工具说它是真的/假的,那它就是真的/假的”,一旦AI工具本身存在偏见或被攻破,这种外包的信任将成为一个巨大的安全隐患。
表2: 人工智能生成内容检测与真实性技术对比
技术类型 | 工作原理 | 主要优势 | 主要劣势/挑战 | 效果展望 | 相关文献 |
---|---|---|---|---|---|
AI文本检测 | 基于LLM提示、语言学/统计学特征、监督分类器等分析文本,判断是否由AI生成。 | 能够识别一些AI特有的语言模式和统计异常。 | 对抗性攻击(如文本改写)可能使其失效;新模型不断涌现,训练数据难以及时跟上;准确率和泛化能力有待提高。 | 持续的“军备竞赛”,需要不断更新算法和训练数据。 | 39 |
AI图像/视频检测 (Deepfake) | 通过分析伪影(光照、阴影、解剖结构)、时间不一致性、行为特征(对话签名)等识别合成媒体。 | 对已知生成技术的特定伪影检测效果较好;行为特征分析提供可解释性。 | 难以泛化到新的生成技术;“黑箱”模型缺乏透明度;实时检测难度大;高质量伪造品几乎无痕迹。 | 同样处于“军备竞赛”中,对新技术的适应性是关键。 | 18 |
数字水印 | 在AI生成内容时嵌入隐藏的、难以感知的信号作为来源标记。 | 主动嵌入,理论上可追溯来源;有助于区分合法AI生成内容。 | 鲁棒性与不可感知性的权衡;易被恶意移除或篡改;缺乏行业标准;隐私顾虑。 | 对合作的开发者有效,但难以约束恶意行为者;技术仍在发展。 | 39 |
内容溯源 (如C2PA) | 记录数字媒体的创建、编辑历史和元数据,提供“内容凭证”。 | 提高透明度,帮助用户了解内容来源和修改历史;行业联盟推动。 | 元数据易被篡改或丢失(如格式转换);依赖创作者自愿采用;中心化审计追踪存在风险。 | 有助于建立信任链,但对不合作者无效;标准推广和技术鲁棒性是关键。 | 1 |
区块链验证 | 利用区块链的不可篡改性和去中心化特性记录内容溯源信息。 | 高度安全、透明、防篡改;通过经济激励和零知识证明增强可信度。 | 可扩展性、成本、交易速度可能成为大规模应用的瓶颈;隐私保护设计复杂。 | 潜力巨大,但需克服技术和应用门槛;更适用于高价值或高风险内容的认证。 | 55 |
可解释AI (XAI) 检测 | 使AI检测模型的决策过程透明化,解释其判断依据。 | 增强用户对检测结果的信任;帮助调试和改进模型;促进问责。 | 解释的详细程度可能被恶意利用以规避检测;实现复杂模型的完全可解释性仍有挑战。 | 对提升检测系统实用性和可信度至关重要,但需平衡透明度与安全性。 | 17 |
AI辅助事实核查 | AI自动识别待核查声明、交叉验证信息、追踪传播等,辅助人工核查。 | 提高事实核查的效率和规模,应对海量信息。 | AI自身可能存在偏见或“幻觉”;准确率非100%,仍需人工判断复杂案例。 | 作为人类事实核查员的有力助手,而非完全替代者。 | 46 |
IV. 超越字节:构建弹性信息生态系统的非技术策略
技术手段固然重要,但应对AI带来的信息真实性挑战,更需要多维度、系统性的非技术策略。这包括提升个体的信息素养、构建负责任的AI伦理框架、发挥各类社会机构的能动性,以及培育健全的数字公民文化。
A. 赋能个体:媒介与人工智能素养的关键作用
在AI生成内容日益普及的时代,提升公众的媒介素养和AI素养是构建个体层面防御能力的核心。
- AI时代的媒介素养定义:媒介素养是一个综合概念,指个体有效、安全、负责任地获取、使用、理解、创造和分享媒体信息所需要的技术、认知、社会、公民、伦理和创造性能力⁶⁰。在AI背景下,这特别强调了批判性评估AI生成内容、识别深度伪造、验证信息来源以及理解AI对信息生态影响的能力²⁵。
- 识别AI生成伪造内容的教育举措:
- 课程开发:学校和大学应将数字素养和AI素养纳入课程体系³⁴。一些地区已开始在学校强制推行媒介素养教育⁶²。
- 具体技能培养:教育内容应包括识别AI生成内容的迹象(例如,文本中不自然的语言表达、事实错误、虚假引用²³;深度伪造图像/音频中的视觉或听觉不一致性⁴¹),使用验证工具(如反向图像搜索⁴¹),理解算法偏见²⁵,以及进行事实核查⁶²。
- 示例项目与工具:新闻素养项目(如Rumor Guard, Checkology)、BBC的相关倡议(如iReporter游戏)、谷歌的“Be Internet Awesome”项目、国家素养信托基金的资源等,都为媒介素养教育提供了有益的工具和案例⁶¹。
- 培养对AI生成信息的批判性参与:
- 理解AI的局限性:认识到AI虽然可能表现得非常自信,但其输出未必正确,可能产生“幻觉”(即编造信息),并且会反映训练数据中存在的偏见²³。
- 警惕认知外包风险:过度依赖AI工具可能削弱批判性思维能力,尤其是在年轻人群体中,因为这鼓励了“认知外包”(即将思考任务交给外部辅助工具)³⁸。研究表明,对AI的信任度越高,批判性思维水平越低⁶⁷。高等教育可能有助于缓解这一问题³⁸。
- 批判性参与策略:将AI的输出与可靠来源进行交叉验证,对AI过于自信或具体的陈述保持怀疑态度,将AI视为信息获取的起点而非终点,并主动分析其输出中可能存在的偏见²⁴。教师可以将AI定位为探索的资源或讨论的伙伴,而非答案的直接提供者⁶⁷。
- 媒介素养教育的有效性与挑战:尽管媒介素养至关重要,但教育者面临诸多挑战,如对生成式AI缺乏了解、技术发展速度远超课程更新速度,以及公众对媒体信任度下降导致教育难度增加等⁶⁰。仅仅让公众接触AI工具本身,并不一定能减少他们对AI虚假信息的担忧;专门的AI素养干预措施是必要的²¹。研究建议,AI素养运动应侧重于知识构建而非散播恐惧²¹。
AI技术日新月异⁶⁰,这意味着AI素养课程和公众意识宣传活动必须保持动态并持续更新。仅仅教授“如何识别去年的伪造品”的静态知识很快就会过时。因此,教育的重点应放在培养持久的批判性思维原则,使其能够适应AI技术的新表现形式。
同时,信息爆炸带来的高认知负荷(见第二章C节)会阻碍批判性思维技能的运用。有效的AI素养教育不仅应教授如何进行批判性思考,还应包括在AI饱和的环境中管理认知负荷的策略,例如高效的验证技巧,或判断何时值得投入更深层次批判性努力的启发式方法。
一个积极的方面是,AI系统本身,特别是交互式聊天机器人,也可以被用作教授AI素养和批判性思维的工具⁶⁸。通过与AI对话,可以降低人们对阴谋论的相信程度,提高辨别能力,这表明AI可以成为解决其自身所加剧问题的一部分。
B. 社会护栏:伦理准则与负责任的人工智能发展
除了个体赋能,构建稳健的社会“护栏”——即清晰的伦理准则和负责任的AI开发实践——对于从源头上规范AI行为、减少负面影响至关重要。
- 联合国教科文组织《人工智能伦理问题建议书》:这份全球性标准强调以人权和人类尊严为核心,倡导透明度、公平性和人类监督等基本原则⁷¹。其核心价值观包括保障多样性与包容性、促进环境与生态系统的繁荣。关键原则涵盖:相称性与不伤害、安全与安保、隐私权与数据保护、多利益攸关方和适应性治理与协作、责任与问责、透明度与可解释性、人类监督与决定、可持续性、意识与素养、公平与非歧视⁷¹。
- AI内容生成中的伦理考量:
- 偏见与歧视:AI模型可能从训练数据中学习并放大已有的偏见(如性别、种族、宗教偏见),导致内容失实、边缘化特定群体,并强化有害的刻板印象²⁴。
- 劳动剥削:AI训练需要大量人工进行数据标注和结果审查,这些工作往往薪酬低廉,且从业者可能暴露于暴力、自残等创伤性内容⁷²。
- 隐私与数据提取:AI模型常通过网络抓取大量数据进行训练,可能侵犯个人隐私;用户的输入也可能被用于进一步的模型训练⁷²。
- 版权与署名权:AI在未经授权的情况下使用受版权保护的材料进行训练是一个主要问题;同时,AI生成的作品通常因缺乏人类作者身份而难以获得版权保护²⁴。
- 环境成本:训练和运行AI模型需要消耗大量能源和水资源⁷³。
- 合乎伦理的AI内容创作最佳实践:明确内容创作的目的,提供清晰的指令并设置防护边界与约束条件,遵循全球性指导方针和标准,采用多样化的数据输入方法和来源,持续监控和评估输出结果,并由领域专家进行事实核查与人工监督⁷⁴。AI模型训练和使用的透明度至关重要⁷⁶。
AI系统中的偏见等伦理问题⁷² 并非偶然,它们往往是训练数据固有偏见的直接反映。AI不仅会复制这些偏见,更可能将其放大,并赋予其一种客观的、机器生成的光环,使其更具隐蔽性和挑战性。这直接影响了AI生成信息的可信度,形成了“垃圾输入,垃圾输出,再放大”的恶性循环。
全面的伦理准则(如联合国教科文组织的建议书⁷¹)和行业最佳实践⁷⁵ 通常是后续政府监管形成的基础。AI开发社群内部若能形成强有力的伦理共识,将有助于制定出更实用、更有效的法律法规,而非仅仅是被动应付或因缺乏理解而产生粗糙的自上而下的指令。
C. 机构的角色:新闻伦理、非政府组织倡议与公众意识运动
各类社会机构在塑造信息环境、提升公众辨别能力方面扮演着不可或缺的角色。
- AI时代的新闻伦理:
- 核心价值观:坚守真实性、准确性、公正性、独立性、非歧视性和问责制等新闻专业主义核心价值⁷⁷。
- 透明度原则:媒体机构应公开其在内容采集、生产或分发过程中使用AI系统的方式和程度⁷⁷。一些媒体已开始制定内部AI使用指南⁷⁸。
- 人类监督的必要性:记者必须对AI系统进行监督,核实AI生成的内容,并做出最终的发布决定⁷⁴。除非出于特定的伦理原因(如保护受害者),应避免使用AI模仿真实影像或篡改真实媒体素材⁷⁷。
- 面临的挑战:新闻编辑室普遍缺乏对AI的深入了解和技术专长;记者群体对AI的伦理问题广泛关注⁷⁹。目前仅有约20%的媒体机构制定了AI使用指南⁷⁹。
- 非政府组织(NGO)的行动:
- 对抗虚假信息:诸如HATEDEMICS等NGO项目,旨在通过AI工具赋能社会活动家和事实核查员,以检测和反击网络仇恨言论与虚假信息,通常采用“人在回路”(human-in-the-loop)的方法,即AI辅助,人工决策⁸¹。
- 赋权公众与提升媒介素养:“Tech for Truth”等公益项目计划旨在提升不同人群的媒介素养,开发易用的事实核查工具,并促进各方合作⁸²。
- 关注弱势群体:NGO认识到边缘化社区更容易受到虚假信息的影响,且往往缺乏应对资源⁸²。
- 公众意识运动:
- 效果评估:公众意识运动的直接效果往往难以精确衡量⁸³。一些宣传活动(如针对俄罗斯“Doppelganger”运动的揭露)可能对用户与虚假信息的实际互动(如浏览、点赞、分享)影响甚微,但有助于改变网络讨论的整体氛围⁸³。
- 公众的担忧:公众对AI在选举等重大事件中传播虚假信息普遍表示担忧²¹。电视新闻的消费与更高的担忧程度相关,尤其是在老年人群体中²¹。
- 改进建议:宣传活动应侧重于知识普及而非制造恐慌,使用最新的信息材料,并鼓励广泛的社会参与²¹。
尽管新闻业呼吁透明和人工监督⁷⁷,NGO也积极发起各类倡议⁸¹,但这些努力的成效可能会受到公众对媒体和机构整体信任度下降的制约³⁰。如果公众不信任信息的传递者,那么即使是善意的反虚假信息努力也可能收效甚微。
此外,许多机构的应对措施(如新闻编辑室制定AI使用指南⁷⁹)仍处于起步阶段或属于被动反应。鉴于AI发展的迅猛速度,新闻、NGO和教育等机构之间需要更主动、更协调、更广泛地采纳伦理标准和应对策略,以避免在AI驱动的新型虚假信息攻势面前总是处于追赶状态。
D. 在人工智能时代推广数字公民责任
数字公民责任的培育是构建对AI虚假信息具有韧性的社会的基石。
- 核心理念:数字公民责任涉及个体在数字环境中负责任地参与所需的技能、知识和伦理考量⁸⁴。它包括尊重隐私、促进包容与公平、合乎伦理地使用AI、培养数字素养、倡导合乎伦理的AI政策、维护网络安全以及支持可持续的AI发展等多个方面⁸⁵。
- 学校的角色:学校应教育学生如何进行尊重的在线交流、抵制网络欺凌、平衡线上与线下时间、负责任地使用技术(如正确引用AI来源、避免剽窃),以及培养安全的网络浏览习惯⁸⁶。
- 评估数字教育资源:随着AI越来越多地用于生成教育资源,对其质量进行评估变得至关重要,评估重点应放在内容的真实性、准确性、合法性和相关性上⁸⁷。
推广数字公民责任⁸⁵ 不仅仅是提升媒介素养,它更旨在培养一种更广泛的伦理责任感和积极参与构建健康信息生态系统的意识。这种整体性方法至关重要,因为AI的影响不仅限于内容消费,还延伸到数据隐私、偏见和AI的伦理使用等相互关联的领域。
然而,AI工具通常优先考虑便利性和效率(例如快速提供答案、自动生成内容),这可能与数字公民责任所要求的审慎参与(如批判性思考、伦理考量和隐私意识)产生张力。教育项目需要直面这种张力,教导用户如何在享受AI便利的同时,履行其作为数字公民的责任。
表3: 应对人工智能虚假信息的关键非技术策略
策略 | 关键组成/行动 | 主要目标受众 | 预期成果/影响 | 主要挑战/局限性 | 相关文献 |
---|---|---|---|---|---|
媒介与AI素养教育 | 教授识别AI伪造品技能、验证来源、理解算法偏见、批判性思维训练。 | 学生、普通公众、教育工作者。 | 提升个体辨别能力,减少对虚假信息的易感性,培养负责任的信息消费者。 | 技术发展快于课程更新,教育者自身素养待提高,公众信任度下降影响教育效果。 | 23 |
AI伦理准则 (如UNESCO) | 制定并推广AI开发和应用的伦理原则,强调人权、公平、透明、问责。 | AI开发者、政策制定者、企业、研究机构。 | 指导负责任的AI创新,从源头减少偏见和有害内容的产生,建立伦理共识。 | 准则的约束力有限,依赖自愿遵守;全球推广和具体落实存在困难。 | 71 |
新闻伦理调适 | 新闻机构制定AI使用指南,强调人工监督、透明披露、事实核查。 | 新闻从业者、媒体机构。 | 维护新闻的真实性和公信力,确保AI被负责任地用于新闻生产。 | 新闻机构对AI认知和投入不足,指南制定和执行滞后于技术发展。 | 74 |
NGO主导的反虚假信息行动 | 利用技术(包括AI)和社群力量进行监测、辟谣、反制宣传、赋能弱势群体。 | 社会活动家、事实核查员、特定社群、普通公众。 | 快速应对虚假信息传播,提高公众对特定议题的认知,保护易受攻击群体。 | 资源有限,难以应对大规模、跨平台的虚假信息运动;行动效果依赖公众参与和信任。 | 81 |
公众意识运动 | 通过各种渠道向公众普及AI虚假信息的风险和识别方法。 | 普通公众。 | 提高公众警惕性,改变信息消费习惯。 | 效果难以衡量,易产生“狼来了”效应或过度恐慌,信息传递可能被噪音淹没。 | 21 |
数字公民责任推广 | 培养负责任的数字行为,包括尊重隐私、促进包容、合乎伦理地使用AI、参与治理。 | 全体网民,特别是青少年。 | 构建更健康、更负责任的数字信息生态系统,提升整体社会韧性。 | 涉及价值观和行为习惯的深层改变,教育周期长,需社会多方面协同。 | 84 |
V. 治理与监管:为人工智能时代制定框架
随着AI技术的深度融合与广泛应用,对其进行有效的治理与监管,以平衡创新发展与风险防范,成为全球性的紧迫议题。特别是在AI生成内容及其可能被用于传播虚假信息方面,各国政府、国际组织及科技平台都在积极探索和构建相应的规制框架。
A. 政府政策:国家与国际层面的方法
面对AI带来的机遇与挑战,各国政府和国际组织正逐步制定和完善相关政策法规。
- 美国州级立法(2025年及之前):美国各州在AI立法方面表现活跃。据统计,在2025年立法会议期间,至少有45个州和波多黎各提出了超过550项与AI相关的法案⁸⁸。
- 综合性AI监管:科罗拉多州率先通过了全国首个以消费者保护和安全为核心的综合性AI法规。弗吉尼亚州也通过了《高风险AI开发者和部署者法案》⁸⁸。得克萨斯州提出了一项类似的法案,并包含了AI测试的监管沙盒机制⁸⁸。
- 针对深度伪造/合成媒体的规定:
- 选举中的披露要求:阿拉斯加州(S 2)、马里兰州(H 740)、艾奥瓦州(D 1398)等州提出法案,要求在选举相关材料中使用深度伪造时进行披露⁸⁸。
- 禁止或追究选举中欺骗性深度伪造的责任:阿拉斯加州(S 33)、阿肯色州(H 1041)、亚拉巴马州(HB 172)等州的法案,针对选举中恶意使用深度伪造追究法律责任或处以民事处罚⁸⁸。
- 非自愿私密图像(深度伪造):亚拉巴马州(HB161)、加利福尼亚州(SB-926)、佛罗里达州(HB 575)等州立法禁止未经同意制作或传播私密图像的深度伪造品⁸⁹。
- 数字声音/肖像权保护:密歇根州(HB 4762)、田纳西州等州立法保护个人数字声音和肖像权免遭未经授权的复制⁸⁹。
- 机器人账户披露:加利福尼亚州规定,在线使用机器人进行交流时必须披露其非人类身份⁸⁸。
- AI治理机构:许多州提议成立专门的工作组、咨询委员会来研究和监督AI发展⁸⁸。
- 美国联邦立法(提案中):联邦层面的立法努力主要集中在规范政治广告中的生成式AI使用(如《真实政治广告法案》)、限制雇主使用AI监控员工、保护个人声音和肖像权免受AI未经授权的再创作(如《禁止伪造法案草案》)、提高高风险AI系统的透明度和问责制(如《AI研究创新与问责法案》),以及全面的消费者隐私保护(如《美国隐私权法案》)等方面⁹⁰。然而,国会行动相对迟缓,导致出现各州先行先试的“技术联邦主义”现象⁵⁴。
- 欧盟《人工智能法案》(EU AI Act):欧盟采取了横向的、全面的、基于风险的AI监管方法,对高风险AI系统(可能包括用于生成深度伪造的技术)施加更严格的规则⁵⁴。该法案强制要求透明度,例如披露AI生成内容和使用水印⁵⁴。由于其具有域外效力,可能迫使跨国企业采取“最高共同标准”的合规策略⁹⁰。
- 其他国际做法:中国采取了纵向的、迭代的监管方式,针对特定AI应用(如深度合成服务)出台规定,要求进行标签化和用户身份识别⁵⁴。英国的《在线安全法案》要求平台对包括深度伪造在内的有害内容负责⁹¹。澳大利亚则通过其《媒体与传播法》处理诽谤和隐私问题,并计划对新兴技术背景下的媒体监管进行更广泛的审查⁹¹。
- 国际合作:联合国《全球数字契约》、七国集团(G7)AI原则、经合组织(OECD)AI原则等倡议,以及国际电信联盟(ITU)、国际标准化组织(ISO)、国际电工委员会(IEC)等标准制定组织参与的AMAS(AI与多媒体真实性标准合作组织),都反映了国际社会在AI治理与打击虚假信息方面的合作努力⁹⁰。鉴于互联网的无国界特性,国际合作对于有效监管至关重要⁹¹。
美国各州AI法律的激增⁸⁸,以及全球不同国家和地区(如欧盟、中国)各异的监管路径⁵⁴,共同构成了一个复杂且碎片化的监管格局。这种“补丁式问题”可能给跨司法管辖区运营的AI开发者和平台带来巨大的合规负担和不确定性,甚至可能抑制创新或导致对虚假信息执法的宽严不一。
同时,AI技术的发展速度远超立法进程⁶⁰。当法规制定完成时,其针对的特定AI能力可能已经改变或被取代,这使得法律的有效性面临挑战,并凸显了对敏捷和适应性强监管框架的需求。“监管沙盒”机制⁵⁴ 正是应对这一“步调问题”的一种尝试。
B. 平台责任:内容审核与自律努力
科技平台作为AI生成内容的主要传播渠道,其在内容审核和自律方面的努力对于维护信息生态健康至关重要。
- 内容审核实践:平台通常结合人工审核员和AI工具来检测和移除包括虚假信息在内的有害内容⁹⁴。采用“以政策为中心”的审核模式(即依据明确的平台政策违规类型来做出处理决定),有助于提高审核的一致性、效率、透明度,并减少偏见⁹⁵。
- 平台对AI内容的自律措施:
- 标记AI生成内容:许多AI公司和社交媒体平台承诺对AI生成的内容进行标记(例如使用水印)³²。例如,TikTok会对AI生成内容进行标记,并使用“脚注”功能提供上下文信息⁹²。
- 内部指南:媒体机构正在制定自身的AI使用政策,强调透明度、内容核实和人工监督⁷⁸。
- 挑战:仅靠自律可能不足;数字水印等标记也可能被移除或伪造⁵⁴。其有效性依赖于平台执行的一致性和广泛采纳。
- 事实核查伙伴关系:平台与第三方事实核查机构合作,对可疑信息进行核查⁹⁶。然而,一些平台(如Meta)正在从依赖第三方事实核查转向“社群笔记”(community notes)等模式⁹⁷,后者的有效性尚存争议(例如在X平台上被指反应迟缓、不可靠)。
平台商业模式通常依赖于用户参与度,而耸人听闻或情绪化的内容(包括某些虚假信息)往往能放大这种参与度²⁵。这在平台自律监管AI生成虚假信息方面造成了潜在的利益冲突:过于激进的审核可能会降低用户参与度和广告收入。这表明,如果没有外部监督或更强的激励机制,单纯的自律可能难以充分解决问题。
同时,虽然“社群笔记”等社群审核模式⁹⁷ 旨在实现事实核查的民主化,但在处理迅速传播的AI生成伪造内容或高度极化议题时,它们可能反应迟缓,且易受操纵或“网络围攻”(brigading)的影响。其有效性高度依赖于平台的设计和社群本身的诚信度。
C. 平衡创新与危害预防:挑战与机遇
AI治理的核心挑战之一,在于如何在鼓励技术创新的同时,有效预防其可能带来的危害,尤其是在虚假信息领域。
- 核心张力:如何在不扼杀创新的前提下对AI进行监管,是一个关键的平衡问题⁹⁰。过于严苛的法规可能会阻碍有益的AI发展。
- 基于风险的方法:欧盟《人工智能法案》及类似提案,旨在根据AI应用的风险等级进行差异化监管,对高风险系统(如可能用于生成深度伪造的技术)适用更严格的规则⁵⁴。这使得低风险领域的创新得以继续,同时解决了关键领域的担忧。
- 监管沙盒:为AI创新提供受控的测试环境,在监管机构的监督下进行试验,待成熟后再全面推广(例如,美国得克萨斯州AI法案提案中提及⁸⁸;英国亦采用此方法⁵⁴)。这种机制允许规则在实践中学习和调整。
- 多利益攸关方协作:鼓励政府、产业界、学术界和公民社会之间的伙伴关系,共同制定灵活、适应性强的法规⁷¹。
- 伦理准则作为基石:从一开始就倡导合乎伦理的AI开发,将安全和责任嵌入设计之中,可能有助于减少对过度指令性法律的需求⁷¹。
“创新与安全”之间的两难处境,要求治理体系具备动态调整能力。这意味着监管不应是一成不变的,而应能根据技术发展、新出现的风险以及社会反馈进行迭代和优化。
鉴于AI技术的全球化特性,各国在制定监管原则时(如透明度、问责制、公平性等)进行协调,并力求达成一定程度的国际共识,对于避免监管套利、确保全球AI治理的整体有效性至关重要。这不仅有助于企业在全球范围内合规运营,也能更有效地应对跨国虚假信息传播等全球性挑战。
VI. 未来展望:驾驭人工智能信息时代的复杂性
展望未来,AI技术将持续演进,其在信息生态系统中的角色也将日益深化。这既带来了前所未有的机遇,也预示着在维护信息真实性和社会信任方面将面临更为复杂的长期挑战。
A. 人工智能生成内容和虚假信息的未来趋势预测
专家预测,AI生成内容的复杂性和普遍性将持续增长,对信息环境构成深远影响。
- 复杂性与普遍性的提升:预计AI生成文本、图像、音频和视频的能力将不断增强,其产出的逼真度将进一步提高,使得区分真实内容与合成伪造品的难度越来越大³²。
- 对选举和民主进程的冲击:AI生成内容,特别是深度伪造,预计将更多地被用于影响选举结果和民主讨论。通过制造关于候选人的虚假信息、混淆视听,AI可能加剧选民困惑,侵蚀对选举过程的信任,并助长政治极化²¹。女性政治人物尤其可能成为性别化虚假信息和深度伪造的攻击目标⁹⁹。
- AI“模因战”与心理操纵:预计利用AI图像生成器制作极端主义“模因”(memes)和宣传材料,以影响公众舆论、煽动激进情绪的“AI模因战”将愈演愈烈⁹⁹。这种结合了视觉冲击和情感煽动的策略,对个体心理具有强大的操纵潜力。
- 世界经济论坛全球风险报告的警示:世界经济论坛在其2025年全球风险报告中,连续第二年将由AI驱动的错误信息和虚假信息列为全球面临的首要短期风险,并指出其可能加剧社会两极分化、网络间谍活动和国家间武装冲突等其他重大风险¹⁰¹。报告强调,AI工具显著降低了制作和传播误导性内容的门槛,使得各种行为体(包括国家、活动团体和个人)能够大规模自动化和放大虚假信息宣传活动¹⁰¹。
B. 对信息真实性和社会信任的长期影响
AI生成内容的广泛传播,对信息真实性的根基以及社会整体的信任体系构成了长期且深刻的挑战。
- 对媒体和机构信任的侵蚀:随着AI伪造内容(尤其是深度伪造)的泛滥,公众可能对所有数字信息来源(包括传统媒体、政府机构、科研机构等)产生普遍怀疑,导致信任度持续下降³²。这种信任的流失会削弱这些机构在社会中的权威性和引导力。
- “说谎者的红利”的持久挑战:如前所述,“说谎者的红利”现象³² 使得恶意行为者更容易通过声称真实证据为“伪造”来逃避问责。在AI时代,由于高质量伪造品的存在使得这种“合理否认”更具说服力,这一挑战将长期存在,并可能固化为一种破坏公共话语和社会追责机制的常态。
- AI驱动时代科研诚信的未来:AI正在改变科研的方式,但也带来了风险。AI工具可以轻易生成看似符合学术规范的论文,但可能缺乏实质性贡献或包含错误信息,这对科研成果的评估和科学信任构成挑战。开放科学实践(如数据和代码共享)被认为是应对这一挑战的有力措施,同时需要反思科研评价体系,从单纯追求数量转向更注重质量、透明度和可复现性¹⁰⁴。
- 信息完整性与新闻生态系统:新闻业面临着AI生成内容带来的双重影响。一方面,AI可以辅助新闻生产,提高效率;另一方面,AI也可能被用于制造和传播虚假新闻,损害新闻业的公信力。维护新闻的准确性和完整性,确保AI工具的使用不取代而是增强记者的核心价值,成为新闻界面临的关键课题⁹⁸。
C. 人工智能驱动的信息战及其对全球安全的影响
AI技术不仅影响民用信息领域,其在国家间信息对抗和军事领域的应用也日益显现,对全球安全和民主进程构成新的威胁。
- 信息作战中的军事与安全应用:AI被用于增强情报收集、数据分析、网络攻防以及心理操纵等信息作战能力¹⁰⁰。机器学习算法能够进行模式识别、异常检测和预测分析,而自然语言处理(NLP)和计算机视觉则扩展了实时解读和处理海量数据的能力¹⁰⁰。
- 认知战与社会动荡:在认知作战领域,敌对方可能利用AI生成和传播虚假信息,制造社会恐慌,扰乱指挥系统,严重影响军事行动和社会稳定¹⁰⁶。通过精准投放的宣传和心理影响行动,AI可以被用来塑造特定人群的认知,甚至煽动社会分裂和冲突。
D. 综合战略:整合技术、教育、伦理与政策
应对AI时代信息真实性的挑战,单一维度的努力难以奏效,必须采取整合技术、教育、伦理和政策的综合战略。
- 多方面综合应对的必要性:有效的策略需要结合技术创新(如AI检测、内容溯源)、教育赋能(提升媒介与AI素养)、伦理构建(负责任的AI开发与使用准则)以及政策监管(制定适应性法律法规),形成多层次、协同的防御体系⁴⁹。
- 技术检测与媒介素养的协同作用:技术检测工具可以帮助识别潜在的AI生成内容,而媒介素养则能提升个体对这些工具的理解和批判性使用能力,以及在工具不足或失效时依靠自身判断力进行甄别的能力。两者相辅相成,共同增强对虚假信息的抵御力²⁴。
- 持续适应与国际合作的重要性:鉴于AI技术的快速迭代和信息流动的全球化特征,应对策略必须具备持续的适应性和演进能力。同时,加强国际间的政策协调、标准制定、信息共享和联合行动,对于共同应对跨国虚假信息传播和维护全球信息生态的健康至关重要⁹²。
VII. 结论与建议
人工智能生成内容(AIGC)的兴起,无疑为信息传播带来了革命性的变化,但也对人类社会辨别信息真伪的能力构成了前所未有的挑战。AI以其高度的真实性、巨大的生产规模、极快的传播速度以及日益降低的使用门槛,显著放大了虚假信息的潜在危害,加剧了“真相衰退”的趋势,并对个体认知、社会信任和民主制度的稳健运行带来了严峻考验。
A. 总结核心挑战与机遇
核心挑战:
- 认知脆弱性被放大:人类固有的认知偏差(如真实偏见、确认偏误)和认知负荷的局限性,在AI生成的海量、高仿真度信息面前更易被利用和突破。
- “欺骗的民主化”与成本不对称:AI大幅降低了高质量虚假内容的生产成本,使得恶意行为者(包括个人)能以极低代价发动大规模信息操纵,而防御和辟谣的成本依然高昂。
- 技术“军备竞赛”的持续升级:AI生成技术与AI检测技术之间展开了持续的对抗,检测技术往往滞后于生成技术的发展,且面临泛化能力不足、易受对抗性攻击等难题。
- 信任基础的系统性侵蚀:AI伪造内容的泛滥导致公众对数字信息、媒体、机构乃至人际沟通的信任度普遍下降,催生“说谎者的红利”,破坏健康的公共讨论。
- 治理与监管的滞后性与复杂性:法律法规的制定速度远不及AI技术的发展,且面临定义模糊、执行困难、跨国协调不易以及平衡创新与风险的挑战。
潜在机遇:
- AI赋能真实性维护:AI技术不仅能制造虚假,也能被用于检测伪造、辅助事实核查、追踪信息源头,提升信息验证的效率和规模。
- 提升公众素养的契机:AI带来的挑战也凸显了提升全民媒介素养、AI素养和批判性思维能力的紧迫性和重要性,AI本身也可作为创新的教育工具。
- 推动伦理与负责任创新:对AI滥用风险的担忧,正促使全球加强对AI伦理、负责任AI开发和部署的研讨与实践,推动形成更规范的技术生态。
- 催生新型治理模式:AI的挑战正推动治理模式向更敏捷、更具适应性、更多利益攸关方参与的方向发展,如监管沙盒、国际合作框架等。
B. 多层面应对策略框架
应对AI时代的虚假信息挑战,需要一个多层面、协同的应对策略框架:
- 个体层面:强化认知韧性与数字责任
- 普及与深化媒介和AI素养教育:将AI素养(理解AI原理、能力边界、潜在偏见、识别AI生成内容的方法)和批判性思维训练纳入各级教育体系和终身学习计划。强调培养主动质疑、多源验证、识别情感操纵等核心技能⁶¹。
- 推广负责任的数字公民行为:教育公众不仅要辨别信息,更要负责任地分享信息,理解个人行为在信息生态中的涟漪效应,尊重隐私,抵制网络暴力和歧视⁸⁵。
- 鼓励健康的怀疑精神与认知灵活性:培养公众对极端、煽动性或“完美得不真实”的信息保持警惕,同时保持开放心态,愿意根据可靠证据修正自身看法。
- 机构层面:筑牢行业与社会防线
- 新闻媒体与科技平台:
- 严格遵守并持续更新AI使用伦理指南,确保透明度(明确标注AI生成内容)、准确性(加强人工审核与事实核查)和问责制⁷⁷。
- 投入研发和部署更有效的AI内容检测与溯源技术,并与研究机构合作,共享数据与最佳实践⁹⁴。
- 优化推荐算法,避免放大极端或误导性内容,优先展示高质量、经核查的信息。
- 教育与研究机构:
- 开发和提供前沿的AI素养课程与培训资源,培养能够适应未来信息环境的人才³⁴。
- 加强对AI虚假信息产生机制、传播动力学、社会影响及应对策略的跨学科研究。
- 非政府组织(NGOs)与公民社会:
- 继续发挥在独立事实核查、公众意识提升、政策倡导以及保护弱势群体免受虚假信息侵害方面的关键作用⁸¹。
- 利用AI工具赋能自身工作,提高应对虚假信息的效率和覆盖面。
- 新闻媒体与科技平台:
- 技术层面:发展可信的AI与认证工具
- 持续投入AI检测技术研发:重点突破泛化能力、对抗鲁棒性和可解释性(XAI)等瓶颈,开发能适应快速演化生成技术的检测模型¹⁷。
- 推广内容溯源与认证标准:积极推动和采纳如C2PA等内容凭证标准,并探索区块链等更安全的溯源技术,为可信内容提供清晰标记¹。
- 负责任的AI模型开发:AI开发者应从设计之初就融入伦理考量,努力减轻模型偏见,提高输出的准确性和可控性,并为模型生成内容提供负责任的元数据或水印⁷⁵。
- AI辅助工具的优化:进一步发展AI辅助事实核查工具,使其更准确、高效,并能提供更清晰的判断依据,同时明确其辅助角色,强调人工判断的最终决定权⁴⁶。
- 政策与治理层面:构建敏捷且协同的规制体系
- 制定适应性强的法律法规:政府应出台针对AI生成虚假信息(特别是深度伪造)的法律法规,明确平台和内容创作者的责任,重点关注选举、金融、公共安全等高风险领域。法规应具备灵活性,以适应技术快速发展⁸⁸。
- 加强国际合作与标准协调:鉴于AI和信息的跨国流动性,各国政府、国际组织和标准制定机构需加强合作,推动形成AI伦理、数据治理、内容认证等方面的国际共识和通用标准⁹²。
- 鼓励多利益攸关方参与治理:建立政府、产业界、学术界、公民社会共同参与的AI治理框架,通过对话协商形成政策,利用监管沙盒等机制平衡创新与风险⁵⁴。
- 激励负责任的AI创新与应用:通过政策引导、资金支持等方式,鼓励开发和应用有助于提升信息真实性、促进公共利益的AI技术。
C. 未来研究方向与持续努力的必要性
应对AI带来的信息真实性挑战是一个长期而动态的过程,需要持续的研究投入和不懈的社会努力。未来的研究应重点关注:
- AI生成内容对人类认知与行为的深层影响:包括长期暴露于AI虚假信息环境下的心理适应机制、信任模式变迁以及决策行为的改变。
- “模型坍塌”的风险评估与缓解策略:深入研究AI模型依赖合成数据训练可能导致的性能退化问题,并开发有效的预防和纠正方法。
- 新兴AI技术(如通用人工智能AGI)对信息生态的潜在颠覆性影响:前瞻性地研究更高级AI可能带来的全新挑战。
- 不同干预措施(技术、教育、政策)的组合有效性评估:通过实证研究,评估各种应对策略及其组合在不同文化和制度背景下的实际效果。
- 构建全球性的、可信的AI内容监测与预警系统:探索建立能够快速识别和响应大规模、跨国AI虚假信息传播事件的协作机制。
总而言之,驾驭AI时代的信息迷宫,既需要我们提升个体的“导航”技能,也需要我们共同绘制更清晰、更安全的“地图规则”。这不仅是对技术的挑战,更是对人类智慧、伦理自觉和社会协作能力的全面考验。唯有通过持续的警惕、不懈的创新和广泛的合作,我们才能在享受AI带来益处的同时,最大限度地降低其对信息真实性和社会信任的负面冲击,共同塑造一个更加清朗、可信的数字未来。
参考文献
- 1: Preserving integrity in the age of generative AI - NCSC.GOV.UK
- 2: Content Credentials: Strengthening Multimedia Integrity in the ...
- 3: InsightOut: Finding Truth in the Age of Misinformation ...
- 4: air.unimi.it
- 5: Full article: Thinking Hard, Thinking Smart: How News Users ...
- 6: Critical Thinking and Evaluating Information – Academic Literacy
- 7: Evaluating information | Critical thinking - Library | University of Leeds
- 8: Evaluating Sources - Psychology - RDP Library at Red Deer ...
- 9: Evaluating Your Sources - Psychology - LibGuides at University of Lethbridge
- 10: opentextbc.ca
- 11: Reliability vs. Validity in Research | Difference, Types and Examples
- 12: Types of Misinformation - Evaluating Information - Research Guides ...
- 13: What is Generative AI? | IBM
- 14: Moderating Synthetic Content: the Challenge of Generative AI - PMC
- 15: Misinformation in the Middle Ages: Towards understanding conspiracy theories throughout history | The British Academy
- 16: Deception and Manipulation in Generative AI - arXiv
- 17: Generative Artificial Intelligence and the Evolving Challenge of ...
- 18: The Duality of AI and the Growing Challenge of Deepfake Detection - Behavioral Signals
- 19: Deepfakes and Their Impact on Society - CPI OpenFox
- 20: Protecting Society from AI-Generated Misinformation: A Guide for Ethical AI Use | Analytics Magazine - PubsOnLine
- 21: The origin of public concerns over AI supercharging misinformation in the 2024 U.S. presidential election
- 22: The Impact of AI on Information Consumption Habits | Upword
- 23: Generative AI - Media Literacy (Education Outreach) - LibGuides at ...
- 24: Artificial Intelligence (AI) and Media Literacy: AI Concerns - Research Guides
- 25: Effective Ways to Improve Media Literacy in the Classroom - GPTZero
- 26: Why AI-Generated Videos Make Us Uneasy?: A Psychological ...
- 27: Cognitive Load Dynamics in Generative AI-Assistance ... - AIS eLibrary
- 28: Information Overload Wrecks Performance—And How AI Can Help Prevent It - SWIRL
- 29: The spread of synthetic media on X | HKS Misinformation Review
- 30: Truth Decay - AI Singapore
- 31: Trouble with 'truth decay': combating AI and the spread of misinformation
- 32: Gauging the AI Threat to Free and Fair Elections | Brennan Center for Justice
- 33: Effect of Artificial Intelligence on Social Trust in American Institutions - ResearchGate
- 34: Combating AI-Generated Deepfakes and Narrative Attacks ...
- 35: The Liar's Dividend: Can Politicians Claim Misinformation to Evade Accountability? | American Political Science Review - Cambridge University Press & Assessment
- 36: en.wikipedia.org
- 37: Could we see the collapse of generative AI? | Inria
- 38: AI tools may weaken critical thinking skills by encouraging cognitive ...
- 39: A Practical Synthesis of Detecting AI-Generated Textual, Visual, and Audio Content - arXiv
- 40: Detecting AI-Generated Text in Educational Content: Leveraging Machine Learning and Explainable AI for Academic Integrity - arXiv
- 41: Spotting AI: Knowing How to Recognise Real vs AI Images ...
- 42: Lesson plan: AI Unlocked — recognizing AI-generated content | PBS NewsHour Classroom
- 43: A Multi-Modal In-the-Wild Benchmark of Deepfakes Circulated in 2024 - arXiv
- 44: Deepfake Detection via Knowledge Injection - arXiv
- 45: Deepfakes Pose Businesses Risks—Here's What to Know - Booz Allen
- 46: AI Fact Checking Accuracy Study - Originality.ai
- 47: Protecting Our Edge: Trade Secrets and the Global AI Arms Race - CSIS
- 48: Smarter Threats, Smarter Defenses: The AI Arms Race in ...
- 49: Using Responsible AI to combat misinformation - Trilateral Research
- 50: AI Watermarking: How It Works, Applications, Challenges | DataCamp
- 51: SoK: Watermarking for AI-Generated Content - arXiv
- 52: www.techtarget.com
- 53: Glossary: The ABCs of Content Authenticity - Truepic
- 54: What AI Regulation Can Learn from Cybersecurity - | Science and ...
- 55: Blockchain-Enabled Deepfake and Disinformation Defense | The ...
- 56: Vbrick Announces Verified Authentic: A Blockchain-Powered Solution for Media Authentication | Business Wire
- 57: Computational and Explainable Artificial Intelligence Approaches for ...
- 58: Interpretation of Deep Learning Models in Natural Language Processing for Misinformation Detection with the Explainable AI (XAI) Approach - Journal Yayasan Pendidikan Islam Daarut Thufulah
- 59: The use of artificial intelligence in counter-disinformation ... - Frontiers
- 60: Generative AI and Media Literacy Education | Ecorys
- 61: Classroom Media Literacy Tools for ... - Journal of Adventist Education
- 62: Helping Students Spot Misinformation Online | NEA - National Education Association
- 63: Digital Literacy for the Age of Deepfakes: Recognizing ...
- 64: Full article: Rethinking education and training to counter AI-enhanced disinformation and information manipulations in Europe: a Delphi study
- 65: 20 ways to fight disinformation - Civic Nebraska
- 66: How to Combat Misinformation and Find Reputable Sources Online | The Jed Foundation
- 67: To Think or Not to Think: The Impact of AI on Critical-Thinking Skills | NSTA
- 68: Can dialogues with AI systems help humans better discern visual misinformation? - arXiv
- 69: AI: A Force for Good? | Psychology Today
- 70: AI Might Actually Change Minds About Conspiracy Theories—Here's ...
- 71: Ethics of Artificial Intelligence | UNESCO
- 72: Ethics and Costs - Generative AI - Research Guides at Amherst ...
- 73: Ethical Considerations - Using Generative AI - Subject Guides at ...
- 74: Exploring the intersection of AI and journalism—and the implications ...
- 75: Ethical Considerations in AI-Generated Content Creation
- 76: Countering Misinformation in AI Content: Approaches for Reliable Outputs - ResearchGate
- 77: GUIDELINES ON THE RESPONSIBLE USE OF ARTIFICIAL INTELLIGENCE IN THE NEWS MEDIA - https: //rm. coe. int
- 78: Media Self-Regulation in the Use of AI: Limitation of Multimodal ...
- 79: The use and ethical implications of artificial intelligence, collaboration, and participation in local Ibero-American newsrooms - Frontiers
- 80: The use and ethical implications of artificial intelligence ... - Frontiers
- 81: HATEDEMICS: fighting hate speech with the help of AI
- 82: A Sample Grant Proposal on Tech for Truth: Building Resilience Against AI-Driven Disinformation - fundsforNGOs
- 83: Generative propaganda: Evidence of AI's impact from a state-backed disinformation campaign | PNAS Nexus | Oxford Academic
- 84: The Global Impact of AI on Digital Citizenship
- 85: Infographic: How to be a good digital citizen in the age of AI
- 86: 6 Strategies for Teaching Digital Citizenship and Balance in the Era of AI - Share My Lesson
- 87: Evaluating the Quality of AI-Generated Digital Educational Resources for University Teaching and Learning - MDPI
- 88: Artificial Intelligence 2025 Legislation
- 89: What Legislation Protects Against Deepfakes and Synthetic Media?
- 90: AI Watch: Global regulatory tracker - United States | White & Case LLP
- 91: Deepfakes and the Future of AI Legislation: Overcoming the Ethical ...
- 92: Combatting deepfakes with international standards - IEC
- 93: Challenging misinformation in the age of AI: Building a collaborative future
- 94: What is Content Moderation? Pros, Cons, and Best Practices
- 95: Why Your Moderation Strategy Is Failing Users—and How to Fix It ...
- 96: Warning labels from fact checkers work — even if you don't trust them - MIT Sloan
- 97: The End of Fact-Checking Increases the Dangers of Social Media ...
- 98: Journalism, media, and technology trends and predictions 2025 - Reuters Institute
- 99: Can Democracy Survive the Disruptive Power of AI? | Carnegie ...
- 100: Data Dominance in Modern Warfare The Crucial Role of AI and Data Analytics - The Forge
- 101: The World Economic Forum: AI-Powered Narrative Attacks Remain Top Global Risk in 2025
- 102: Global Risks Report 2025: Conflict, Environment and Disinformation Top Threats
- 103: Analyzing the Long-Term Societal Impact of Artificial Intelligence Integration in Public Sector Policy and Governance Systems - ijcsitr
- 104: What experts are saying about the future of research integrity in an AI-driven world
- 105: Combatting Misinformation through News Integrity in the Age of AI - CyberPeace
- 106: Will Artificial Intelligence Change Warfare?-Future battlefield of ...
- 107: Impacts of Adversarial Use of Generative AI on Homeland Security
- 108: Deepfakes: Definition, Types & Key Examples - SentinelOne
- 109: AI in Disinformation Detection
- 110: Truth Decay: An Initial Exploration of the Diminishing Role of Facts and Analysis in American Public Life
- 111: The Rise Of Artificial Intelligence AndThe Importance Of Media Literacy: Decoding AI-Generated News - Digital Commons @ Trinity
- 112: [2505.03435] Robustness in AI-Generated Detection: Enhancing Resistance to Adversarial Attacks - arXiv
- 113: Robustness in AI-Generated Detection: Enhancing Resistance to Adversarial Attacks - arXiv