网上的世界充满了疯狂,虚假信息和误导信息以惊人的速度传播。我正在写一本关于假新闻历史的书,因此我深知人们捏造信息并不是新鲜事。然而,新鲜的是,麻烦制造者不论有意还是无意,其影响力都大幅扩大了。社交媒体和更广泛的网络环境改变了捣乱者的游戏规则,同时也让我们其他人在网上更容易被不经意间愚弄(详见本周我为《卫报》撰写的关于“再见 Meta AI”趋势的文章)。
自2022年ChatGPT发布以来,生成式AI的兴起也大幅增加了风险。尽管早期研究表明我们对AI生成深度伪造对选举影响的最大恐惧并没有证据支持,但整体信息环境仍然令人迷惑。眼见为实?从行为洞察团队(BIT)——一个由英国单位衍生出的社会目的组织——收集的信息中可以看出这种困惑。这项对2000名英国成年人的调查强调了当前互联网的混乱程度。
尽管BIT调查的受访者中有59%认为自己能识别假信息,但BIT研究人员发现,只有36%的人对此表示自信,认为他人能够识别假新闻。这是个问题,原因有二。其一是我们对他人识别假新闻能力的信心较低。其二则是我们对自己和公众整体能力之间的认知差距。我怀疑,如果我们实际测量人们区分虚假信息和真相的能力,结果会更偏向较低的数字。简而言之,我们往往高估了自己的智慧。不相信我?
在我为第一本书《YouTubers》进行的调查中,我委托YouGov进行了一项调查,看看公众对平台主要人物的认知度。YouGov团队建议我在真实姓名中加入一个不存在的人物,以此检查有多少人是在虚张声势。结果令人担忧,许多受访者自信地表示他们认识这个虚构人物,并且认识得很清楚。虚假信息的泥沼
这一切都很重要,因为虚假信息问题的规模相当庞大。
在BIT调查中,四分之三的受访者表示他们在过去一周内看到了假新闻,其中推特(自埃隆·马斯克推行的言论绝对自由政策后大幅削减了内容审核团队)和TikTok被认为是最糟糕的。LinkedIn被认为是最不糟糕的(但不完全清楚是否因为许多人避开了这个因被认为无趣的平台)。不管怎样,这些发现让研究者感到不安。BIT消费者和商业市场负责人Eva Kolker说:
“我们的最新研究增加了有关社交媒体用户过于自信于他们识别假信息能力的证据。矛盾的是,这实际上可能让人们更容易受到虚假信息的影响。”简而言之:如果你认为自己比别人更擅长识别假新闻,那么你实际上更容易降低防范,最终在网上遭遇假信息。应该怎么做?首先,应该让用户更加意识到假新闻的风险以及它在社交圈中传播时可能带来的影响。由于社交媒体算法调解的群体心态,事情迅速发酵,如“再见 Meta AI”帖子所示。
因此,考虑两次再进行点击是重要的。(我在这篇文章中概述了更好的应对数据威胁的方法。)
但Kolker并不认为这就足够了。她说:“我们许多提高在线安全的尝试集中在提高个体用户的知识和能力上。虽然重要,但我们的研究表明这种方法效果有限。”“我们不能仅仅依靠个人改变其行为。要真正打击虚假信息,社交媒体平台必须采取行动,监管机构和单位也需介入以平衡局面。”是时候进行干预了吗?
BIT提出了一系列建议,供单位和社交媒体平台参考,以打击虚假信息。首先是尽早标记包含虚假信息的帖子,以便在公众分享之前提醒他们。值得称赞的是,Meta在“再见 Meta AI”趋势中做到这一点,即为帖子添加标签指出信息不正确。BIT还建议平台在显示内容的合法性和有害性上更为严格。阴谋论在腐败的信息环境中滋生,BIT似乎认为标准硅谷方法——阳光是最好的消毒剂——并不奏效。但在一个实例中例外。
他们的第三个建议是定期公布每个平台上虚假或有害内容的公开排名。这些是否奏效很难说。我最近出于多种原因研究科学文章并进行类似的调查,每项积极的干预措施似乎都有其缺陷。但如果“再见 Meta AI”趋势的病毒传播告诉我们什么,那就是我们不能仅仅假设人们能够区分真假信息。克里斯·斯托克尔-沃克的最新著作是《人工智能如何吞噬世界》。他的下一本书关于假新闻的历史,预计在2025年春季出版。