ChatGpt官网入口

ChatGPT启示:大语言模型时代传播学研究新问题

chatgpt2023-07-08 15:46:36142

本刊官方网站:

http://cjjc.ruc.edu.cn/

作者简介


张尔坤、张一潇,北京师范大学新闻传播学院博士研究生。



引言


以ChatGPT为代表的大语言模型应用成为互联网空间新生态,开放域多轮对话与生成式技术的突破带来传播研究的新变化。2023年5月14日,由北京师范大学新闻传播学院主办,清华大学新闻与传播学院新媒体研究中心、《国际新闻界》协办的“ChatGPT启示会”在京成功举办。来自清华大学、北京大学、中国人民大学、北京师范大学等知名院校的二十余名专家学者共聚京师大厦,围绕“大语言模型下信息生产与流通领域的问题”“大语言模型下伦理法规领域的问题”“大语言模型下文化领域的问题”三个议题展开了历时1天的精彩研讨。最终,会议基于平等交流的学术研讨原则,聚焦大语言模型时代的新变化提出了66个传播学研究新问题。





研讨嘉宾

 (上午场)


美国卡耐基梅隆大学计算机系博士候选人戴舒琪

   

北京师范大学新闻传播学院讲师李倩

   

北京师范大学新闻传播学院副教授刘茜

   

北京师范大学新闻传播学院副教授钱忆亲

   

北京大学新闻与传播学院研究员、助理教授苏岩

   

北京师范大学艺术与传媒学院博士后赵蓓

   

清华大学社会科学学院副教授张开平

   

北京师范大学新闻传播学院副院长、教授周敏(主持)

   

中国人民大学新闻学院讲师张伊妍

   

北京师范大学新闻传播学院讲师、助理教授朱毅诚





研讨嘉宾

下午场


北京师范大学新闻传播学院副院长、教授丁汉青

   

北京师范大学新闻传播学院党委书记、研究员方增泉

   

北京大学新闻与传播学院教授胡泳

   

清华大学新闻与传播学院教授、院学术委员会主任金兼斌

   

中国人民大学新闻学院教授、传播系主任刘海龙

   

天津大学新媒体与传播学院院长、讲席教授陆小华

   

中国人民大学新闻学院教授彭兰

   

清华大学新闻与传播学院教授沈阳

   

北京师范大学新闻传播学院教授、计算传播学研究中心主任吴晔

   

北京师范大学新闻传播学院教授喻国明

   

北京师范大学新闻传播学院教授、新媒体研究中心主任张洪忠(主持)

   

中国传媒大学新媒体研究院院长、教授赵子忠


上午场讨论由北京师范大学新闻传播学院周敏教授主持,北京师范大学计算传播学研究中心主任吴晔教授作了“ChatGPT的技术逻辑”的引导发言。吴晔认为ChatGPT的技术原理大致归纳为“四板斧”:首先,第一“板斧”是ChatGPT“文字接龙”式的生成逻辑,即根据给定的输入,预测接下来可能出现的文本。整个过程基于统计学习,这种逻辑下ChatGPT实际并不能真正理解问题的含义。第二“板斧”解决的是答案的引导问题,即人为引导“文字接龙”的方向。第三“板斧”是人类标注答案质量,然后将标注数据反馈给模型进行进一步训练。第四“板斧”是强化学习。强化学习可以理解为模型的微调(fine-tuning)过程,模型在与用户的交互中获得反馈,并根据这些反馈持续进行自我调整和优化,以生成更好的回答。


下午场由北京师范大学新媒体研究中心主任张洪忠教授主持并作引导发言,周敏教授对上午场讨论结果作了汇报。张洪忠教授对ChatGPT的两个技术特点和大语言模型对互联网的影响做了引导发言,认为大语言模型应用ChatGPT目前有两个比较重要的技术突破。一是开放域的多轮对话,突破了对话技术停留在一问一答的瓶颈。这一变化能够更好适配于复杂对话场景,更为未来人机交互带来新的可能。二是生成式文本技术。ChatGPT采用的是生成式路径,就像“接龙游戏”。这两个技术突破推动了人机交往新阶段的到来,使得自然语言技术从简单的信息处理进化到了贴近于人的沟通和交流。更进一步看,ChatGPT这种应用形态仅是大语言模型的冰山之一角,人更需要关注的大语言模型这个技术底座。国内也掀起了大模型热潮,诸如百度、阿里、腾讯、华为、字节等企业以及清华等院校都推出了自己的大语言模型。下一步互联网竞争面临四个转向问题:大模型是竞争的入门门槛吗?大资本的算力竞争是互联网竞争的基本吗云端竞争时代到来了吗?对话即平台会成为现实吗?


大语言模型时代传播学研究新问题讨论


议题一:大语言模型下信息生产与流通领域的问题


清华大学新闻与传播学院教授金兼斌、美国卡耐基梅隆大学博士候选人戴舒琪、中国人民大学新闻学院讲师张伊妍、北京师范大学艺术与传媒学院博士后赵蓓讨论了大语言模型的算力垄断问题。戴博士指出:大语言模型的训练需要消耗巨大的算力资源,更高的门槛在很大程度上限制了学界对大模型的持续探索,未来可能只有少量大型企业和机构能够参与到前沿大语言模型的研发当中。从信息生产的角度来看,算力垄断也可能带来应用市场的垄断,从而削弱信息生产的多元性。张伊妍进一步提出:由于算力垄断,大语言模型的发展可能还会面临价值垄断的风险,尤其是当大语言模型被应用到新闻的生产和流通过程中,其携带的价值偏见和刻板印象会被进一步强化和放大。因此,大模型如果要应用于新闻生产,需要更高的透明性,也需要新闻从业者对技术有足够深刻的理解。赵蓓也就此提出一个关切的问题:随着大语言模型持续迭代,所需求的算力和经济成本越来越高,会不会进一步演变为国家之间的竞争?对此,金兼斌认为大模型的国际竞争无法避免,同时他也强调了先发优势在国际竞争中的重要作用:技术的先发优势在马太效应作用下可能形成“赢者通吃”的局面,因此有必要将大语言模型视作战略性资源提早布局,抢占先机。


其二,北京大学新闻与传播学院研究员、助理教授苏岩和张伊妍就大语言模型与知识鸿沟相关问题展开了对话。每次技术革命之后都会带来类似的问题,即知识生产的鸿沟是被弥合还是进一步扩大?苏岩认为,从生产、包括背后谁有权力来进行知识生产的角度来说,鸿沟其实是扩大了,因为原本信息资本更丰富的群体也将继续占据知识生产的优先权。对此,张伊妍则提出了相反的观点:大语言模型并不一定会加剧知识鸿沟,反而更可能推动知识的民主化。比如,相比搜索引擎,老年人如果通过自然语言获取信息会在很大程度上降低其获知成本。另外,很多人也表示ChatGPT在学习写代码方面能提供很大帮助,所以技术学习层面的鸿沟也是在不断缩小。


其三,中国人民大学新闻学院教授彭兰、天津大学新媒体与传播学院教授陆小华、清华大学社会科学学院副教授张开平、赵蓓、李倩、苏岩都提到大语言模型下虚假信息传播的问题。彭兰指出:AIGC(人工智能生成内容)的发展可能将未来置于一个真假难辨的信息空间,这对个体的生存和整个社会信息环境来讲都是一个很大的挑战。陆小华认为:人工智能涌现现象带来最难的问题是如何判断机器生成的内容是否符合现有的知识体系和知识规则,当前用大模型来检测大模型的思路是否走入了逻辑误区?张开平提出ChatGPT对于虚假信息跨文化语境传播的问题:由于不同文化背景的群体存在不同认知模式,当西方语境下认为是真实的信息置于其它语境下则可能存在很大争议。苏岩表示:虚假信息传播其实涉及到一个媒介素养的问题。如果ChatGPT虚假信息会深化后真相时代的一些结构性难题,那么媒介素养在这个时候就会起作用,它会像一个内化的屏障让人在复杂信息海洋中建立一个比较好的知识体系,而不是被虚假信息所侵蚀。赵蓓基于社交机器人传播角度也提到了类似的担忧,她认为大语言模型可能会生产一些具有极强迷惑性的信息,甚至可能被用于传播虚假信息或进行舆论操纵:当前社交机器人更多停留在一级传播,如果大语言模型和社交机器人相结合,就可能会形成类人的交流能力,带来社交机器人的多级传播,从而强化社交机器人传播虚假信息的负面影响。北京师范大学新闻传播学院讲师李倩也关注了大语言模型时代的社交机器人问题:当社交媒体上人和机器人的行为愈发趋近时,现有的社交机器人识别体系是否还能奏效?吴晔回应了这个问题:社交机器人识别其实是一个“魔高一尺,道高一丈”的过程。机器人识别不仅是在文本层面,还包括其它一些固有的行为特征,所以未来仍有算法可以应对。对此,戴舒琪持保留意见。


其四,北京师范大学新闻传播学院教授喻国明、中国传媒大学新媒体传播研究院教授赵子忠、北京师范大学新闻传播学院研究员方增泉、北京师范大学新闻传播学院副教授刘茜、北京师范大学新闻传播学院助理教授朱毅诚、李倩、赵蓓还谈到了大语言模型在信息生产过程中的潜在影响。喻国明认为,大模型是一个“出道即巅峰”的现象级媒介,对人类社会的影响越来越深刻和全面。赵子忠提出问题:大语言模型如何变革信息聚合和信息分享模式?刘茜指出:在大语言模型的背景下,应当更多去思考技术对于社会公众的自信或者自我效能的影响是怎么样的?尤其是当前正处于过渡阶段,不同群体对技术可能有不同的反应。朱毅诚接着这个话题谈到:我主要考虑了两个方面的问题,第一是ChatGPT作为内容创作过程中的工具、对话对象,这种“联合信息生产”或者说“信息共建”的能力和结果的差异性研究是值得关注的;第二是内容强依赖行业,如新闻、教师、营销等行业的培养和行业组织内部的沟通和关系重构的问题。另外两位学者李倩、赵蓓都提到了信息产生过程中的人机交互问题,李倩更侧重于大语言模型对虚拟现实(VR)人机交互的影响,赵蓓则更关注大语言模型对人机交互(UI)可能带来的改变。最后,北师大新闻传播学院党委书记、研究员方增泉对大模型训练语料不对称、不平等的问题提出了担忧。


议题二:大语言模型下伦理法规领域的问题


随着人与大语言模型创作边界逐渐模糊,模型透明度对受众的影响引起了北京大学新闻与传播学院教授胡泳、张伊妍、赵蓓等学者的关注。胡泳指出:任何机器学习技术的工作原理一定比手工编码系统更不透明,甚至科技公司的工程师也很难确切地说明算法的工作方式,这种不确定性的叠加可能会在未来某个时间节点产生不确定性的“爆炸”。张伊妍基于人机共创背景谈到:当人接到一个创作任务,把创作目的转换为大语言模型的输入指令并对输出结果进行适当修改的过程中,人机已经融合并形成一种赛博格(cyborg)的创作效果,这导致人与大语言模型创作边界的模糊。透明度问题的重点在于将自主权留给受众(keep them informed),通过百分比方式呈现人与大语言模型双方对内容的贡献比例。赵蓓认为可以将透明度问题细化为算法透明度、数据透明度、使用透明度三个组成部分。在算法透明度上,一些大型语言模型如GPT-3的算法已经公开,人们可以通过学习模型的内部机制和参数了解其工作方式,并据此分析模型生成内容的偏见和错误,但GPT-3之后OpenAI、谷歌不再公开算法,透明度的降低可能会影响大语言模型的未来发展;在数据的透明性方面,大语言模型的训练数据通常是不公开的,整个决策过程往往是一个黑箱;在使用透明度上,赵蓓指出在使用大语言模型之前,应先制定规范使用透明度标准,避免陷入被动的“使用—检测”竞争之中。


其二,戴舒琪、苏岩等学者提出ChatGPT使用中的隐私保护的问题。戴舒琪以患者就医为例指出,医生输入患者信息并利用ChatGPT为患者开具自动病历的过程中,患者信息会被传输至美国OpenAI公司的服务器上,如何保护患者个人隐私将成为新的问题。苏岩认为,ChatGPT带给人的即时性便捷是仅仅是一种表象,长此以往的后果可能是“数字利维坦”的出现,届时个人隐私数据变为公开信息。赵蓓提到,目前基于大语言模型开发的聊天机器人已能够根据大量聊天记录合成虚拟用户,这一虚拟用户类似于真人用户的数字化身,与虚拟用户的对话可能导致真人用户的隐私泄露。


其三,喻国明和陆小华两位教授认为大语言模型将对社会治理逻辑产生革命性影响。喻国明指出:从古至今人类社会的政治、经济、文化都属于精英治理模式,而技术对于人类社会最大的颠覆在于人类平等性的增强,拉平人与人之间的差距,打破精英和大众之间的壁垒,削弱精英赋权的基础,这将对未来包括传播在内的整个社会治理、运作产生重大甚至根本性的影响。同时,人类增强可能导致精英治理的“黄昏”。在技术的加持下,人类可以从自然版本的身心结构发展到更聪明、更长寿也更符合人性的后人类结构,这一增强使人的差距骤然缩小,这是技术最重大的社会影响。这一影响可能从两个角度来改变未来的发展趋势,一是将人的体能、智能与领袖能力均值化,精英治理彻底变成所谓的庸众治理,但这种情况发生的可能相对细微。更大的可能在于人类增强技术无法拉平人的差距,精英治理会以弱形式长期存在,形成一种新型的普遍强人治理,将精英治理改头换面保持下去。社会治理机制与逻辑的过渡、转变将是面对未来的重大问题。陆小华认为,大语言模型已经在重构社会规则,第一层表现为法律治理规则的重构,互联网、数字技术等相关法律将被改写;第二层表现为传播主体的重构,大语言模型将成为新兴内容生成主体,让社会进入人机共生时代。


其四,北京师范大学新闻传播学院副教授钱忆亲提出了AI伦理法规制的落地问题。钱忆亲指出:关于AI伦理法规学界已讨论多年,当下相关探讨已度过达成某种标准或共识的阶段,进入到实施阶段,即如何把AI伦理落地的阶段。目前国际社会关于AI伦理的探讨仍然比较抽象化、概念化,中国的AI伦理法规如何落地是学界亟需关注的问题。另外,中国大陆在AI伦理的国际标准制定中处于弱势地位,因为目前所有AI伦理的国际标准制定都没有中国大陆代表参与,长此以往将形成布鲁塞尔效应,对中国人工智能公司、产品出海构成不利。


议题三:大语言模型下文化领域的问题


ChatGPT到底是什么,在传播中扮演了何种角色?这个问题受到北京师范大学新闻传播学院教授丁汉青、中国人民大学新闻学院教授刘海龙两位专家的关注。丁汉青指出:技术是人类为了特定目的而创造出的方法和手段,因此ChatGPT实际可以视为一种技术、一种人造物。丁汉青认为,对ChatGPT的研究可从四个分析单元入手,一单元是人工智能制品的分析,探讨大语言模型在产生关系中的定位,探讨人机共生时代的新常规,侧重互动关系的建构;二单元是技术系统的分析,探讨大语言模型与人类的权力关系,分析大语言模型对人的认知模式、感知比例的影响;三单元是技术与社会的组合分析,探讨大语言模型的形塑方法;四单元是技术文化,主要重新审视人类中心的伦理观念,探讨大语言模型作为决策者的可能性与合理性。


刘海龙认为,ChatGPT一方面是一个技术,但另一方面又是人,因为ChatGPT所有的知识来自于人的知识积累。刘海龙提到,ChatGPT在知识库数据中概率抽取词语回复提问,常输出一些不痛不痒的“外交官式回答”,这些回答实际是一种知识的平均值,是以一种从众的、卸除责任的方式替代人类决策,“平均”“从众”“卸责”类似于海德格尔意义下的“常人”,却比“常人”拥有更多的知识,其回答水准超越“普通”,是全人类的平均值,因此可将ChatGPT视为一种“新常人”。刘海龙认为,ChatGPT同时构成一种大他者,不在场却又随时在场,潜在地影响着人们的思想和行为。


沈阳、刘海龙、金兼斌三位教授都认为大语言模型时代人与机器的共同生存必然影响到人的主体性与独立性。清华大学新闻与传播学院教授沈阳认为人与机器的共生存在三个阶段,第一个阶段是人的能力整体上大于机器,即人类当下所处阶段;第二个阶段是机器与人类能力接近阶段;第三个阶段是机器觉醒为硅基生命的阶段,此时人与机器的差距将被迅速拉大。刘海龙从他者消失的角度探讨了人类的主体性危机。刘海龙指出,人类与机器交流时完全以人为中心,无需顾及机器的意愿与想法,这取消了机器作为他者的可能性,使机器沦为奴隶,然而正如黑格尔所言,当奴隶完全顺从、承认、接受主人的意志时会产生一种颠覆,奴隶本身可能获得比主人更多的智力与能力。金兼斌认为,一方面大语言模型作为新技术具有一种解放功能,把白领从繁琐工作中解放,带来普惠服务(universal service),增强人的生产能力,其普世性与重要性或成为国家重要战略性资源;另一方面,当下人类已经不再处于本雅明所谓的机械复制时代,而是抵达人工智能复制时代,人类在面对人工智能时需要一种抵抗精神。金兼斌提到,电视时代人们需要抵抗沙发土豆(couch potato)的懒散状态;手机时代人们需要抵抗成为低头族;而在人工智能时代,人类应该主动追求美、创造美,保持人的独立性与尊严,拒绝成为智能技术的寄生虫。


胡泳教授则从机器发展的初衷对人机关系进行了反思,指出机器的建造的道路本存有两派观点,一派主张建造根据规则和逻辑进行推理的机器;另一派主张建造深度学习机器,让机器根据实例数据和所需输出生成看法,而这派观点正成为当下人工智能的发展道路。机器学习是一个黑盒,最简单的算法也可以触发不可预测的紧急行为,即便大科技公司的工程师也无法确切说明机器学习算法的工作方式,这必将导致不确定性大爆炸的发生。胡泳将机器中的智能喻为幽灵,他认为机器中的幽灵正逐渐达到难以琢磨和不可控制的地步,尽管人类是机器的创作者,却不是机器的主人。胡泳认为,人类是时候进行自我反思:为何制造大语言模型技术?为何把机器设计成类人的、有意图的样子。


彭兰教授关注AIGC(人工智能生成内容)对日常生活的艺术化影响。彭兰提到,过去的每一轮技术赋权都在某种意义上改变着人和艺术间的关系,例如智能手机使普通人也能完成曾被认为是高门槛的摄影创作。彭兰认为,AIGC艺术创作将在数字世界创造幻象和现实的交融空间,这些创作难分真假,对个体生存与整个社会的信息环境都将构成挑战,艺术领域里的所谓的超现实、超超现实,未来或许会成为生活的日常状态。


陆小华、赵子忠教授讨论了大语言模型时代传播学研究和学科建设将面临挑战。陆小华提到,从知识生产的角度看,人与人工智能共生时代产生新的传播主体,人工智能正在成为内容的生产者,而从政治角度看人工智能成为比一般人更有影响力的新权威,这一权威提高了专家门槛,即便跨学科者也难以辨识,这是新闻传播学过去从未遇见的事情。赵子忠对传播学的学科发展持乐观态度,认为当下新媒体教育的总体方向是正确的,Web1.0、Web2.0的教育仍有价值。赵子忠指出,多元化和多样化是人类社会最重要的方向之一,尽管人工智能潮流会对当下的学科教育产生冲击,但媒体教育一定是动态的、不断发展、不断变化主题的,新闻传播学需要找好角度与人工智能时代完成对接,发挥新闻传播学对人社会的贡献。


研究新问题


启示会结束后,北京师范大学新媒体研究中心团队将会议中所提到的66个研究问题进行了归纳、整理,并按照李克特五分量表制成问卷发放到参与讨论的学者群和计算传播学者群打分。截至2023年5月23日12点,团队共收回有效问卷35份。其中,51.42%(18人次)的应答者为“教授”职称,25.71%(9人次)的应答者为“副教授”职称,8.5%(3人次)的应答者具有“讲师”职称,另外还有2位博士后研究员和3位博士研究生参与填答。


研究团队对收回问卷数据进行因子分析发现,66个问题都呈现为一个因子。进一步研究团队将相关问题输入ChatGPT(GPT-4模型),基于机器理解来归纳、整理大语言模型时代传播研究的探索方向,结果呈现六个研究方向,模型对每个方向还做了简单归纳(见下表)。


表1:ChatGPT归纳的研究方向与学者评分情况

注:ChatGPT(GPT-4)所归纳研究问题较原始问题存在部分细节差异。


原文刊载于《国际新闻界》2023年第6期。

本文链接:https://yunguke.com/chatgpt/229.html

相关文章

网友评论