重点论文:论事实:美丽、谎言与ChatGPT作者:胡泳【摘要】事实概念的建构是一个复杂而引人入胜的过程。从16世纪开始,事实一步步变成知识的一般基础和解决争论的最终方法。这带来了新的证据原则和新的调查方式,并导致了历史学家芭芭拉•夏皮罗所说的“事实文化”:事实不断扩张自己的领域,从法律到科学,从历史到新闻,重塑了整个知识的格局。然而,直到互联网的普及才真正侵蚀了知识生产和传播的垂直结构,伴随着人工智能的兴起,曾经由“事实”占据的位置正在被“数据”取代。这意味着我们需要重新思考知识的性质和用途,甚至重新思考作为能够了解自己世界的生物,我们到底是谁。金句积累:1.被称作“后真相政治”的政治文化,也被叫作“后事实政治”,因为在这种文化中,事实和专家意见让位于情感诉求,辩论框架主要出自于对事实反驳置之不理的谈话要点的反复宣称。我们似乎日益走向就像拥有我们的观点一样拥有个人专属的事实。
2.今天,“内部人和外部人”“专业和非专业”“记者和博主”之间的界线已经漫漶不清,而且越来越模糊了。与其认定一条明确的边界线,不如想象一个厚重的、定义不清的“边界区”,它由激增的混合体、不断变化的社会和职业角色以及专业知识网络组成。3.事实的时代被互联网结束了:曾经由“事实”占据的位置正在被“数据”取代。这导致了更多的认知混乱,因为事实的收集和权衡需要调查、辨别和判断,而数据的收集和分析则是外包给机器。事实的土崩瓦解,正是造成后真相时代来临的最大原因。事实本来给我们提供了一个解决分歧的方式。然而,网络化事实却开启了一个充满分歧的网络。4.由此我们进入戴维·温伯格(David Weinberger)所称的“网络化事实”(networked facts)的阶段。网络化事实的一大特点,用温伯格的话来说,是“大到不可知”(too big to know)。有太多的知识,是我们不可能全部知道的。“大到不可知”造成了一系列后果:可用事实激增,得出结论能力消失;混淆事实与观点,强化原本立场;永远不可能达成所有人同意。5.大型语言模型的问题之一是它们能够产生虚假和误导性的内容。它们也不知道什么是事实。它们是通过分析从网络上抓取的大量文本中的数据的模式来训练的。这意味着他们缺乏关于世界上的系统如何运作的硬编码规则,导致他们倾向于产生“流利的废话”。6.GPT-3/4一类的系统并不安全,因为它从互联网文本中学习,而人类的日常语言本质上是有偏见的,甚至往往不乏仇恨言论。人自身有阴影自我,向人学习的机器人也必然会有阴影自我。虽说虚假信息本来在互联网上俯拾皆是,但它们并不是以人工智能的权威性来提供的。很大的危险在于,ChatGPT是错误的或有偏见的,但听起来却像是正确的和权威的。人工智能研究人员有个说法,AI系统会频繁地产生“幻觉”(hallucination),即编造与现实无关的事实。7.人类的思维不是一个用于模式匹配的笨重的统计引擎,在数百兆字节的数据上“大快朵颐”,并推断出最可能的对话反应或最可能的科学问题的答案,而是一个令人惊讶的高效甚至优雅的系统,它利用少量的信息进行操作;它不是为了推断数据点之间的粗暴关联,而是为了创造解释。8.以对政治、意识形态和宗教信仰以及社会人口变量(例如教育、生活方式和阶级)的共同忠诚为基础的分散的社区在数字平台上有无限的交流机会。在这些信念社区中,所有人都更有可能相信确认他们已有意见的“事实”,并驳回那些做不到这一点的“事实”。这是人类另一种根深蒂固的认知偏误也即确认偏误——我们关注、寻找、诠释、记忆信息的方向多半是能确认自己成见的方向,同时我们对不同的可能性只给予不成比例的考虑。由此我们会出现态度极化(不同的各方接触到相同的证据,分歧却由此变得更加极端)、信念坚持(即使被证明为假,依然坚持原来的信念)、不合理的首因效应(更多地依赖在一系列信息中最早接触的信息)等偏颇。9.塞耶诺夫斯基对他有关聊天机器人反映用户的观点进行了文学类比:映射人类需求和智力的语言模型仿佛《哈利·波特与魔法石》一书中的厄里斯魔镜。厄里斯魔镜反映了观察者最深切的渴望,从不产生知识或真理,只反映它认为观者想要看到的东西。聊天机器人的行为与此类似,它愿意歪曲事实而不考虑区分事实和虚构——所有这一切都是为了有效地反映用户。赶紧记在小笔记上!答题都显得高级起来~
02
国际传播
上半年北大新传导师在国际传播专题发文不多,陆地等老师集中研究如何改善和提高我国在东南亚的政治和经济形象,提高国家品牌影响力和国际信任度,张慧瑜老师关注中国式现代化的叙事体系与国际传播策略。