在数智化时代,生成式人工智能技术(AIGC)的迅猛发展带来了前所未有的信息爆炸。然而,这项技术的双刃剑特性也日益凸显,尤其是AI生成的虚假健康信息,正在对公众健康构成严重威胁。近日,南京大学2025年“挑战杯”全国大学生课外学术科技作品竞赛AI(爱)健伪团队针对AI虚假健康信息问题开展广泛调研,发布调研报告《“健”真辩伪,慧眼识智:人工智能生成虚假健康信息的影响机制及治理策略研究》,揭示了这一问题的严峻性。
随着互联网的普及,虚假健康信息依托网络空间,以制作成本低、传播范围广和精准目标群体为特征,迅速渗透到社会的各个角落。这些虚假信息不仅误导公众健康决策,还对社会公共卫生和健康传播体系带来了严峻挑战。特别是AIGC技术的加入,使得虚假信息的生成更加高效、隐蔽,且影响深远。
调研报告显示,公众对虚假健康信息的信任度普遍较高,不同年龄段人群均存在不同程度的认知盲区。年轻人虽然有一定的信息分辨能力,但因接触内容量大且缺乏时间仔细辨别,容易受到虚假信息的影响。中年人则更容易因权威性信息而相信虚假健康信息,他们往往不会深入核查权威身份的真实性,从而更容易被误导。老年人群体则因认知错误和缺乏AI识别能力而成为虚假信息的最大受害者,他们几乎无法辨别信息的真伪,往往盲目相信并传播虚假健康信息。
各年龄段群体在面对与自身经历重合的信息时更容易选择相信,且对社交媒体中各类传播行为的“很愿意”程度都保持着较高水平。这意味着虚假健康信息一旦在社交媒体上传播开来,其影响范围和速度将非常惊人。此外,虚假健康信息还常常通过权威性包装、科学性包装以及成功案例等手段来提升其可信度,进一步加剧了其对公众的误导作用。
在调查过程中,研究团队通过问卷调查和半结构式访谈相结合的方式,深入了解了不同年龄段群体对AI生成虚假健康信息的态度和认知模式。问卷设计涵盖了受访者基本信息收集、健康虚假信息辨别能力评估等多个方面,旨在全面分析公众对虚假健康信息的认知、信任度及传播行为。访谈则通过开放性问题和自由交谈,深入挖掘了受访者的真实想法和深层次的心理与行为模式。
调研报告认为,面对这一严峻形势,社会各界应广泛参与,共同应对AI虚假健康信息的挑战。政府应发挥主导作用,制定并完善相关政策法规,加大对虚假信息的监管和打击力度。同时,公众也应提高警惕性,增强自身的信息辨别能力,避免被虚假信息所误导。媒体和平台也应承担起社会责任,加强对健康信息的审核和把关,共同营造一个健康、有序的信息传播环境。
此次调研报告不仅揭示了AI虚假健康信息的危害和真相,也提供了应对这一问题的思路和方向。各方携手努力,才能共同守护公众的健康权益。
南京日报/紫金山新闻记者 邢虹