GPT技术与人文社会科学知识生产:,智能时代的学者与学术研究

时间:2023-08-12 10:55:02 公文范文 来源:网友投稿

高奇琦

(华东政法大学政治学研究院,上海 200042)

自2022年年底发布以来,ChatGPT已经引起了世界范围内的巨大关注。(1)ChatGPT可以看成是GPT3.5版。2023年3月,GPT-4发布。本文为了讨论的方便,将其统称为GPT技术。本文将讨论GPT技术对人文社会科学知识生产的系统性影响。笔者拟从如下几个方面来展开讨论: 首先,讨论人文社会科学在GPT技术影响之下可能产生的一场新的知识革命。其次,用“学者大众化”来概括GPT技术可能产生的平权效果,并对可能出现的知识民粹主义风险加以分析。再次,讨论GPT技术作为研究工具可能会对未来学术科研产生的辅助效果。最后,笔者认为,需要将GPT技术视为研究对象,并从智能人文社会科学的广阔视角来观察未来较长时期内人文社会科学发展的整体性脉络。

GPT技术可能会打破人文社会科学的传统知识生产秩序。传统的知识生产已经形成较为完整的系统。以学者的产生为例: 经过严格的学术训练以及苛刻的学术评价,进入学科最前沿领域的学者,被认为是具有知识权威的人。这样的知识权威是在复杂互动以及传统知识结构的约束下形成的。要成为这样的顶尖学者,个体首先需要在传统的教育体系中胜出(如获得博士学位);还需要在正规的高校或科研院所工作,并通过正式论文的发表表明其学术能力;而后通过职称评定以及社会影响评估等多方面评价,其知识权威的地位才能够确立起来。换言之,传统的知识生产秩序由一整套子系统构成,其中包括教育系统、学术发表系统以及成果评价系统等。这套体系尽管也在不断进行演进,但是其总体是在相对稳定的状况下进行发展。一个真正有社会影响力、在某个专业领域有较高学术地位的学者,不可避免地要受到这些子系统的影响。然而,以GPT技术为代表的通用大模型可能会打破我们传统的知识生产秩序。

GPT技术的本质是通用大模型。其最早是从语言介入的,所以其早期形态表现为语言大模型。GPT-4能够理解图片的内涵,因此其就更多地具备了多模态的特征。通用大模型代表了未来通用人工智能突破的可能性。通用大模型的意义在于,其不再局限于相对的局部领域,而是变成一个全新的、无所不能的知识生产工具。到目前为止,其已经表现出在知识生产方面令人惊叹的能力。同时,人类用户对它不断使用的过程,实际上也是将通用大模型的知识与人类知识对齐的过程,而这种对齐会产生巨大的调优效应。最终,GPT技术可能会成为人们在生活工作过程中都不得不依赖的、重要的知识生产工具。

具体而言,GPT技术对人文社会科学产生的革命性影响主要体现在两个方面。第一,主体转变。传统的知识生产是以人为中心的,而学者是知识生产的中心。整个学术体系也是以对学者的培养为中心。而在新的GPT技术的影响之下,机器的知识生产会变得越来越普遍。当然,在更为严肃的学术活动之中,GPT等在初期往往只能作为辅助性的工具出现。例如,其可以帮助人们更精准地查找资料,或者说在与ChatGPT的对话中引导出人类对话者更多的灵感。或者进一步讲,人类学者直接接受由ChatGPT提供新的可能性作为灵感来源。而伴随着ChatGPT能力的进一步增强,可能会进一步发展出机器直接进行的知识生产行为。这一点在应用领域已经大量出现,如电子商务领域的一些生成类文案。换言之,在一些更为模式化的领域,这样的知识生产工作已经由机器来完成。未来,机器是否会接管更具创造性的、由学者来完成的高端知识生产的工作?这恰恰是需要我们学术界加以警惕的。但是这样的可能性已经存在,因为GPT技术已经表现出极强的知识生产能力,甚至具备较高的创新性。尽管其并不一定理解其中的意义,但通过知识的排列组合确实能生成令人类惊讶的创新性结果。

第二,速度加快。加速主义是近年来许多思想家都较为关注的一个主题。对这一问题进行过深入讨论的学者包括贝尔纳·斯蒂格勒(Bernard Stiegler)、保罗·维利里奥(Paul Virilio)、哈特穆特·罗萨(Hartmut Rosa)等。斯蒂格勒认为,速度作为当前所有技术的根源是最为深刻的问题。(2)Bernard Stiegler, Technics and Time, 1: The Fault of Epimetheus, translated by Richard Beardsworth and George Collins, Stanford: Stanford University Press, 1998, p.135.罗萨在有关现代社会的加速的讨论中提到,社会加速最显而易见和最有影响力的形态就是“目标明确的、技术的,特别是工艺的(或机械的)加速过程”。(3)Hartmut Rosa, Social Acceleration: A New Theory of Modernity, translated by Jonathan Trejo-Mathys, New York: Columbia University Press, 2013, p.71.这一面向的加速同时也是维利里奥的“竞速学”(dromology)理论的核心。(4)Paul Virilio, Polar Inertia, translated by Patrick Camiller, London: SAGE, 2000, p.82.这一点恰恰很好地解释了ChatGPT出现的背景。之前,以人类为中心的知识生产速度是较为缓慢的。例如,一个学者要完成一篇完整的人文社会科学领域的文章,从准备选题到写作,可能会长达几个月的时间。按照维利里奥的说法,当代社会已经发展成为一种新的速度圈(dromos phérique),(5)保罗·维利里奥: 《无边的艺术》,张新木、李露露译,南京: 南京大学出版社,2014年,第61、89页。在这一速度竞争中失败的人们会被淘汰出局。因此,从某种意义上讲,以人类为中心的人文社会科学知识生产的速度已经远远落后于当前日新月异的社会发展速度。例如,如果按照刚刚所讲的知识生产的节奏,再考虑到正常的期刊审稿周期,讨论ChatGPT等的文章正常来讲可能在2024年之后才会出现。而到2024年时,可能GPT-5已经发布。而早期ChatGPT只是GPT3.5版。换言之,目前的知识生产秩序仍然是一种传统秩序。而生产力的发展以及一些较为敏捷的社会应用,则以天为单位来进行迭代和演变。GPT技术与互联网联网之后,就可以做到及时地更新知识,同时可以在提问者的引导之下一键生成内容。

换言之,是否会在未来出现一种新的知识权威,即以机器为中心的知识权威?今天人们在讨论问题时仍然会援引学者的观点,这是因为在传统的知识生产中,学者是人们可以倚重的知识权威。那么在未来,机器是否会替代学者成为新的知识权威?目前通用大模型已经表现出这样的潜质。对于普通大众而言,其往往缺乏与学者直接交流的机会,而通用大模型则是直接面向大众。这是一种“时刻在那里为你服务”的新型知识权威,其便捷性、速度性、全面性都是传统的知识权威所无法达到的。总之,这样的知识革命已经发生,而我们每个参与知识生产的学者或学人都无法置身事外。

黄仁勋(Jensen Huang)在近期的一次活动中谈及了如下的观点: 人人皆可为程序员。(6)来自黄仁勋于2023年3月英伟达(NVIDIA)GTC开发者大会上的演讲,详见“Watch NVIDIA CEO Jensen Huang Share the AI Technologies Affecting Every Industry and Our Everyday Lives,” https://www.nvidia.com/gtc/keynote/?nvid=nv-int-cwmfg-877214, April 27, 2023.GPT技术确实已经展现出这样的巨大能力。因为开发GPT技术的OpenAI与微软结盟,而微软之前收购了GitHub(一个面向开源及私有软件项目的托管平台)。GitHub本身是一个计算机领域的开源社区,即软件工程师在完成了某个软件的编程工作之后,如果希望将这一工作开源,其就可以把他的相关的代码上传到GitHub之上。其他人如果希望延续这样的工作,或在其基础之上进行二次开发,就可以把先行者的代码下载下来,然后再通过调试或二次开发来开发自己的新工具。应该说,近几十年来,人类在信息领域产生的巨大的成就恰恰是在这种开源文化的基础之上形成的。GPT技术之所以表现出令人惊讶的编程能力,实际上是建立在人类之前花了几十年建立的完整知识库的基础上。百度开发的文心一言之所以在编程能力上显著弱于GPT技术,就是因为其无法借助类似于GitHub的开源编程社区。总之,GPT技术会产生一种巨大的平权效应。

人类到目前为止已经产生了巨量的知识,而不同种类的知识都会形成自己的专业壁垒。例如,人文社会科学的研究者往往缺乏足够的编程能力。这是因为在传统的教育培养体系中(按照当时的认知),还没有这方面的教育内容。同时,这类编程学习的门槛较高。例如,对于一个文科学生而言,自学C语言或者R语言都较为困难,除非其有非常强的兴趣,能够持续地学习,并且能够在工作中加以应用。然而,在GPT技术的辅助之下,这一切似乎变得更加可能。当使用者向GPT-4发出一段完成某种编程任务的文字提示时,GPT-4便可以输出一段代码。经过众多使用者的验证,目前GPT-4输出代码的准确性已经非常高,但偶尔也会出现错误。使用者可以直接运行这段代码,并通过实际使用来检测这段代码中可能存在的问题。或者,使用者也可以继续与GPT-4进行对话,增加新的任务要求,并引导GPT-4来完善这段代码。总而言之,黄仁勋所讲的“人人皆可为程序员”并不是一个空洞的说法。目前确实具备了这样的技术可能性。只要使用者有一定的语言能力,并通过不断地引导机器,就可以完成一定程度的程序开发。

从另一角度来讲,这确实会引发学习的革命。之前的人类学习大多数是一种被动学习。例如,本科生进入大学之后,尽管其可以通过选修来表现出自己一定的选择性,然而核心课程都是由原先的知识架构设定好的。在GPT技术的影响之下,人类学习可能会更多进入主动学习的状态。主动学习意味着学习者的主动性被激发出来,(7)主动学习即学生进行有意义的学习活动,并思考自己在做什么。关于主动学习的有效性,详见Michael Prince, “Does Active Learning Work? A Review of the Research,” Journal of Engineering Education,vol. 93, no. 3 (2004), pp.223-231.其可能会产生一种游戏者精神。换言之,其会用打游戏的状态来进行学习,这就会产生寓教于乐的效果。当这样的热情被激发出来之后,持续的知识强化就会产生重要的学习突破。在GPT技术的辅助之下,学习者可以打破传统的知识结构,更容易从应用的角度来切入到学习的过程中,并在应用中激发学习的兴趣。回到上面提及的编程案例,学习者系统地学习编程相关理论的过程,往往是较为枯燥的。如果这一过程较长的话,学习者的学习热情会消失殆尽。但我们可以跳过基础理论,直接进入应用层面。例如,当学习者在应用中看到自己开发的某些软件得到别人的认可时,他或她会感到欣喜,而这种欣喜会激发其反过来探究基础理论。这样的学习会大大提高学习者的主动性和积极性。

对黄仁勋的论点进一步推演,放到人文社会科学知识生产的视域中,我们似乎可以提出“人人皆可为学者”这种较为理想化的图景。这里首先需要对学者的条件加以定义。学者的条件主要有两点,即自由时间和学习机会。学者就是通过大量的时间不断在各自的知识领域攀登知识高峰的人。而GPT技术的出现似乎使得这两者对于大众而言都更加容易得到。第一,GPT可能会使得大众的自由时间增多。目前GPT已经表现出这样的巨大潜能,即人类之前做得最多的重复性工作可能会被机器替代。这就意味着每个个体会有更多的自由时间。第二,每个个体的学习机会也会增加,同时学习成本也会大大降低。传统的学习往往强调正式形式的学习,如获得某种教育的机会更多意味着坐在教室里,在一段时间内完成某种带有资格认定的正式学习。在未来,更多学习会体现为一种非正式学习,包括与GPT技术应用的聊天,甚至浏览短视频都可以看成是学习的形式。然而,这其中的问题是: 人们是否一定会使用这些时间进行学习,还是用于娱乐?例如,视频网站哔哩哔哩中有大量的视频内容,这些视频内容中包含非常丰富的知识类内容,也包含大量的娱乐类内容。这其中的问题是,当人们的自由时间增加时,人们是否一定会将增加的自由时间用于学习?进一步的根本问题是,学习是否会成为人类的基本生存状态,或者学习是否是人之为人的原动力?

因此,在通用大模型等技术的辅助之下,确实出现了“学者大众化”的可能,即人人都可能会通过终身学习,以及自己运用自由时间在不同的领域攀登知识高峰。然而,可能性与现实之间仍然存在鸿沟。从目前的社会发展已经看到一些端倪: 在人们的自由时间增加之后,大量的普通人并不会将这些自由时间用于学习,有可能更多用于休闲和娱乐。从这种意义上讲,学者大众化似乎只是一个理想主义的图景。同时,“学者大众化”还可能会存在知识民粹主义的风险。知识民粹主义可以从近年来微信公众号中一些以流量为中心的知识传播案例中找到端倪,即一些公众号的运营者为了赚取流量,将民粹主义的内容作为其知识传播的“卖点”。

这里需要特别强调的是,我们同样需要认识“真正的学者”的意义。正如芝诺(Zeno of Elea)所表达的圆圈理论: 当圆圈较小时,学习者感受到的外部知识是较少的;当圆圈较大时,学习者会日益感受到外部世界的巨大。换言之,“真正的学者”会认识到知识的限度。例如,初中生往往会确信经典力学所描述的规律,而物理学家则会从量子力学的角度来批评经典力学的不足。换言之,当“学者大众化”的趋势发生后,可能会出现大量的“半瓶子学者”。而这些“半瓶子学者”又会极其笃定地相信某些知识的确定性。又因为大量的知识处在辩证的运动之中,所以这种确信很有可能发展成为一种汉娜·阿伦特(Hannah Arendt)意义上的“平庸之恶”。(8)对于“平庸之恶”,汉娜·阿伦特指出,作恶者并非“一心想做恶人”,他的行为本身没有任何动机且算不上是犯罪。他明白发生过什么,但从未意识到自己在做什么;他并不愚蠢,但他并不思考。详见Hannah Arendt, Eichmann in Jerusalem: A Report on the Banality of Evil (Revised and Enlarged Edition), New York: Penguin Books, 1994, pp.287-288.并且,这种“平庸之恶”加剧的知识民粹主义,最终又可能会使得“真正的学者”处于失语的状态。

马克思曾经深刻地讨论过生产工具对于人类的意义。(9)马克思指出,“自然界没有制造出任何机器……它们是人类劳动的产物,是变成了人类意志驾驭自然的器官或人类在自然界活动的器官的自然物质。它们是人类的手创造出来的人类头脑的器官”。《马克思恩格斯全集》第46卷(下),北京: 人民出版社,1980年,第219页。在当代的思想家中,斯蒂格勒对这一问题有进一步深入的讨论。在斯蒂格勒看来,人类的生存是一种代具性的生存。代具性构成了人类生存的一种本质性属性。(10)Bernard Stiegler, Technics and Time, 1: The Fault of Epimetheus, translated by Richard Beardsworth and George Collins, Stanford: Stanford University Press, 1998, pp.114-116.换言之,如果没有工具,人类都无法生存下去。人类的演进恰恰是以工具和技术为中心的演进。从这一角度来讲,作为新的生产工具,GPT技术一定要引入科学研究中。目前,在自然科学领域已经出现了大量的关于AI for science(人工智能驱动的科学研究)的讨论。(11)近期相关讨论比如,Chris Stokel-Walker, Richard Van Noorden, “What ChatGPT and Generative AI Mean for Science,” Nature, vol.614(February 2023), pp.214-216。中国学者中,鄂维南院士是国际上最早推动AI for Science研究范式的人之一。在他看来,AI for Science给人工智能提供了新的主战场,即传统的科学领域成为人工智能的主战场。详见鄂维南: 《AI for Science: 一场正在发生的科技革命》,2023年2月16日,https://bda.pku.edu.cn/info/1003/2083.htm,2023年4月27日。近期科技部还专门发布了AI for science的具体专项推动方案。(12)参见《科技部启动“人工智能驱动的科学研究”专项部署工作》,2023年3月27日,http: //www.news.cn/politics/2023-03/27/c_1129468666.htm,2023年4月27日。从这一角度讲,AI不仅要为科学服务,同样需要为社会科学服务。因此,我们在这里还应该提出AI for social science(人工智能趋动的社会科学研究)。这里之所以强调使用,是因为不使用所代表的是一种技术保守主义。中华民族在第一次和第二次工业革命中落后的根本原因,就在于当时的统治精英排斥新兴技术的应用。因此,我们不能陷入这种技术保守主义的态度中。先进生产力的根本在于其可以极大地改变社会实践,而这种改变的前提是使用。社会科学研究者同样要掌握这些新的研究工具。不掌握它们,我们便会落后于整个时代。当然,这里需要特别强调的是,使用并不意味着对这一生产工具的全盘接受和毫无批评。对这一点后文会专门讨论。目前已经出现了关于ChatGPT的两类观点。例如,在中国香港,香港科技大学主张学生们使用这样的先进生产工具,而香港大学则禁止学生使用。笔者认为,不能简单地采取一禁了之的做法。即便是反对使用,也要在充分使用之后,再提出反对的意见。如果完全没有使用过,就对这一技术加以反对,这是一种技术保守主义的观点。

笔者认为,在GPT技术应用的影响之下,未来社会科学研究可能会出现如下几个趋势。

第一,定量研究会进一步普及。如前所述,按照黄仁勋的观点,人人皆可为程序员。这一观点的延伸论点是,人人皆可为数据分析者。一方面,人们可以运用GPT技术来帮助编写爬虫工具,从而更容易地从相关网站上抓取相关数据。同时,在GPT技术的辅助下,人们对一些编程工具的使用会更加娴熟。比如,Python中有大量的可视化和数据分析的工具。我们可以在GPT技术的辅助下更好地学习这些工具。换言之,定量研究之前具有较高的研究门槛。学习者在学习的过程中由于缺乏指导,往往会在研究中遭遇诸多困难。而在GPT技术辅助之下,这些困难都会较为容易地克服。另外,GPT技术的进一步发展还可以直接帮助研究者在相应的文本中更为容易地进行文本数据的处理。

第二,GPT可能会成为研究者的新导师。如前所述,GPT会成为新的知识权威,其可能会发挥非常全面的功能。一方面,其可以通过巨大的百科全书式的知识库,提供完全不同的海量知识内容。另一方面,其还可以提供各种方法的学习和引导,帮助我们用编写程序的方法创建一些具体的研究实现工具。换言之,GPT似乎无所不能。同时,与人类导师相比,它似乎又没有那么严厉,而更像一个服务生。从这个意义上讲,GPT可能成为研究者的“谦卑的阿拉丁神灯”。

第三,跨学科变得更加可能。之前的跨学科研究是极为困难的,因为不同的学科会形成相应的知识壁垒。无论是技术理论研究方法,还是话语体系都是完全不同的。例如,一个跨学科研究者在研究时面临的第一个困难,就是如何可以在较短的时间内了解清楚这一学科中的顶尖研究学者与关键研究主题。在传统的研究情境中,跨学科研究者需要对新进入的领域开展大规模的知识学习。例如,其需要阅读大量的文献才能够找到一些端倪,然而仅仅读文献还是无法建立起这一新领域的基本知识架构。所以,在一些成功的跨学科案例中,往往研究者本身的学术背景就是跨学科的。然而,在GPT技术的辅助之下,通过不断的提问就可以较为快速地获取这些知识。换言之,GPT提供了一种全新的学习模式,其可以在对话中激发出学习者的学习潜能。这样就可以较为快速且精准地掌握新领域中的知识。

第四,人类研究者的主要工作将可能从创造转向选择。这一点在自然科学的最新进展中可以发现一些端倪。例如,人工智能用于制药领域的一个重要进展就是,通过人工智能可以找到一些化合物的新型配对方法。人工智能的重大价值在于,其通过运算来进行不同元素之间的排列组合,并运用计算机模拟来观察其实际效果。之前,人类的传统做法是在实验室中进行不同元素之间的配对。人工智能的意义在于其大大缩短了这样的实验时间。因此,在这些领域,自然科学家的重要工作就是,对人工智能产生的一些可能性进行选择,从中选出更有价值的新型合成物。这一逻辑可以用于社会科学领域。目前的GPT-4已经表现出非常强的逻辑推理能力。GPT的基础是一种语言大模型。按照路德维希·维特根斯坦(Ludwig Wittgenstein)的观点,人类的逻辑就隐藏在语言之中。(13)正如维特根斯坦所说,“只要我们的记号语言中一切都得到正确处理,我们也就有了一个正确的逻辑观点”。路德维希·维特根斯坦: 《逻辑哲学论》,贺绍甲译,北京: 商务印书馆,2009年,第50页。换言之,未来我们可以通过机器运算,找到社会科学研究中更多的因果解释。当然,这样的因果解释只是机器根据人类提供的数据所得出的相关因素之间的排列组合及其概率,而人类要通过自己的常识对这些因果解释再加以确认,这就会大大提高人文社会科学因果解释的解释力以及这些新知识产生的效率。

第五,人的智能涌现能力可能会减弱。最后这一点恰恰是对人类使用先进生产工具之后的一种批判性反思。人类的整部历史都可以看成是一部生产工具发展史,但同时我们可以看到的是人类的部分自身能力在不断地弱化。例如,之前人类野外生存的能力很强,但是现代社会的人们却很难适应野外复杂和多变的气候条件。换言之,当人们高度依赖于GPT这样的研究工具时,是否会损失一些相关的核心能力?这里需要特别提及的是吉尔·德勒兹(Gilles Deleuze)的“差异与重复”。差异和重复之间存在辩证关系。在德勒兹看来,“纯粹差异和复杂重复的概念似乎无论在什么情况下都会相互统一、浑然不分。与差异之发散和差异之恒常的去中心化紧密对应的,正是重复当中的置换和伪装”。(14)Gilles Deleuze, Difference and Repetition, translated by Paul Patton, New York: Columbia University Press, 1994, p.xx.只有通过大量的重复,才可能出现真正有价值的差异。在此意义上讲,创新在很大程度上是一种与原先情境不同的事件。如果脱离了原先的情境,人类的创新能力可能会减弱。特别是,当人们在大量应用ChatGPT进行大段内容生成时,人们的文字组织能力不可避免会下降。该能力的下降最终会影响到人类个体自身的智能涌现。换言之,人类的创新是在众多的重复性工作中突然出现的。假如人们完全脱离了这样的重复性工作,那么人类的创新是否会真正出现?这一点也值得我们进一步讨论。因此,使用GPT的前提是,要使其可以增加自己的内生能力。例如,当阿尔法狗(AlphaGo)战胜李世石和柯洁之后,围棋作为人类智力训练的一个工具仍然存在。同时,人类棋手还大量地从与机器的对决中寻找新的灵感,然后再与人类同伴进行对决,从而不断提高自身的智能上限。笔者在这里将其称为“阿尔法狗效应”。

“阿尔法狗效应”的最大价值在于阿尔法狗为人类树立了一个新的他者,其出现并没有终结人类的围棋活动,反而可以大大提高人类棋手的围棋能力。这里提出的一个核心观点是,人类在对新的工具的应用中,不能完全陷入对工具的依赖。同样,我们还需要思考和假设一种“没有工具的生活”,并让这种“没有工具的生活”体现在儿童的教育环境以及应对危机的灾难预想训练之中。换言之,在儿童的基础教育阶段,GPT这类工具的使用一定要有限度。可以让孩子们接触这些先进的工具,但同时还要更加诚恳地告诉孩子们使用这些工具可能导致的不良影响。这样孩童在基础教育阶段的内生语言能力才不会中断。如此,才能够为未来的学术与科研提供充足的人类研究者,而不是走向一种在人工智能主导下的工具化。“阿尔法狗效应”意味着AI要时刻作为一种他者存在,并避免人的堕落。同时,我们也要做出一定程度的最坏情况的打算: 在没有人工智能辅助的情况下,人类个体是否还可以进行正常的学术和科研活动?同时,对于那些极其自律且不屑于使用GPT技术工具的学者,我们要给予加倍的鼓励和尊重,因为完全不使用这些工具而能达到一定研究水平的人,其往往具备更强的内生创新能力。

我们不仅要将GPT当成研究工具,还要把它当成研究对象。GPT可以看成是人工智能的最新进展,其代表了未来通用人工智能突破的可能性。关于通用人工智能可能会出现的时间点,五年之前的研究者往往会给予一个较为宽泛的时间段,如从20年到200年不等。然而,在ChatGPT事件发生之后,预测者调整了其可能出现的时间段。例如,萨姆·奥特曼(Sam Altman)认为OpenAI“开发的系统已经越来越接近通用人工智能”。(15)Sam Altman, “Planning for AGI and Beyond,” February 24, 2023, https://openai.com/blog/planning-for-agi-and-beyond, April 27, 2023.此外, DeepMind的CEO戴密斯·哈萨比斯(Dennis Hassabis)认为,通用人工智能的出现或许只需要几年。(16)Miles Kruppa, “Google DeepMind CEO Says Some Form of AGI Possible in a Few Years,” May 2, 2023, https://www.wsj.com/articles/google-deepmind-ceo-says-some-form-of-agi-possible-in-a-few-years-2705f452, May 2, 2023.总之,我们当前处在一个大转型的前夜。近期大家可以看到一系列大的新闻迭出,例如在2023年3月份,GPT-4的发布、Midjourney的V5发布、Adobe发布人工智能的工具、谷歌发布巴德系统、百度发布文心一言等。简言之,这是一个加速演进的时代。

这里需要对自然科学和人文社会科学的不同功能和职责进行定义。自然科学关注的核心是科学技术本身。对于GPT相关技术而言,自然科学界的通行态度是加速。然而,人文社会科学的功能却与之不同。人文社会科学的研究对象是整个人类社会,其更为关心的是在新的技术条件下人类社会发展的整体走向,以及这种颠覆性技术可能会带来的巨大的“创造性破坏”效应。人类社会是一个复杂的系统,往往处在一种脆弱的平衡状态。从复杂科学的角度来讲,人类社会往往处于在稳态与非稳态之间交替进行的间断均衡过程。从这一意义上讲,先进生产力会对整个经济社会系统产生重构效应。因此,这里会产生一系列新的问题,而社会科学就需要对这一系列新产生的问题进行整体性回应。一个相对通俗的说法是,自然科学负责生产力,而人文社会科学则负责生产关系。

GPT技术拥有巨大的创造性破坏效应,这就使得智能人文社会科学的建设变得极为重要。当然,智能人文社会科学的研究极为困难,因为它更主要是一种未来学研究。未来学源于20世纪70年代阿尔文·托夫勒(Alvin Toffler)等人的推动。然而,尽管未来学极为重要,会对整个社会的发展产生某种引导效应,但是其一直不是一个极为主流的存在。正如托夫勒所说,“如果我们试验的基点不放在过去,而放在明天的技术和社会上,我们就能够把乌托邦主义作为一种有用工具而不是逃避手段”。(17)Alvin Toffler, Future Shock, NewYork: Bantam Books, 1971, p.468.从人类知识产生的历史来看,在人类社会初期,知识分工并未出现,而社会科学知识的中心是哲学。只有在进入近代以来,社会科学知识才出现了进一步的发展。而真正意义的学科分工,许多都是在近200年之内才逐步发展和完成。伴随着学科发展的进一步专业化,实证主义精神越来越成为主导。因此,在社会科学的发展过程中,科学性成为越来越重要的目标。可检验性和可重复性成为实证主义社会科学的基础性要求。然而,这里的问题是,实证主义科学方法并不能很好地对目前GPT可能对未来产生的效应进行有效的分析。因此,人们对未来的讨论,多数往往会介于无厘头的猜想与科幻小说的畅想等形式之间。如何从人类知识传统出发,对未来将要发生的事情作出深刻且逻辑严密的科学研判就会变得至关重要。

在笔者看来,智能人文社会科学的研究有三点是至关重要的。第一,想象力。因为GPT可能产生的影响并没有发生,即并不能通过实证主义所强调的观察来获得,而只能通过头脑风暴式的想象或是猜想。猜想就是要将所有的可能性都列举出来。第二,逻辑力。当这些可能性都列举出来之后,我们需要做的工作是,用符合实证主义精神的方法将其可能产生的社会效果再做进一步的逻辑推演。理论的建构过程实际上就是一种“受约束的想象”(disciplined imagination)过程。(18)Karl E. Weick, “Theory Construction as Disciplined Imagination,” The Academy of Management Review, vol.14, no.4(October 1989), pp.516-531.这里之所以强调实证主义精神,就是希望说明我们要避免天马行空式的绝对想象,而要做符合现实逻辑的可能性想象。第三,思辨力。正如如下观点所强调的,“对规范的过度强调会约束研究者的想象,但无规范的想象又容易导致研究纯粹成为研究者的主观臆想”。(19)井润田、孙璇: 《实证主义vs.诠释主义: 两种经典案例研究范式的比较与启示》,《管理世界》2021年第37卷第3期,第198—216页。我们不仅要采取一种实证主义的态度对未来加以判断,同时还要用一种规范主义的态度对未来可能出现的图景加以约束。换言之,我们的态度应该介于实然和应然之间。因为未来还没有发生,我们要尽可能地按照我们希望出现的结果来勾画未来的图景。

笔者在之前的研究中已经讨论过智能社会科学发展的意义。(20)高奇琦: 《人工智能的学科化: 从智能科学到智能社会科学》,《探索与争鸣》2018年第9期,第84—90页;高奇琦: 《智能社会科学的诞生与发展之路》,《上海交通大学学报(哲学社会科学版)》2020年第28卷第4期,第14—18页。笔者之前的讨论,仅仅提到智能社会科学。在本文的撰写过程中,笔者强烈地意识到人文科学对于智能发展的特殊意义,因此将人文科学也纳入进来,并提出智能人文社会科学的概念。这里所要强调的是,在GPT产生巨大影响的背景之下,智能人文社会科学需要在未来一段时间内逐步发展成为一个自然科学与人文社会科学交叉的新型交叉性学科。在这一新型交叉性学科的建设过程中,应该更加注意如下几点。

第一,打破文理的思维壁垒,实现真正意义的交叉性学科。尽管科技部和教育部等部门都在有力地推动交叉学科的建设,但就目前来讲,这样的交叉还更多地体现在自然科学内部。例如,围绕人工智能目前正在出现一系列工程科学各领域学科与人工智能交叉的图景。而智能人文社会科学是文理的大交叉,要求社会科学各领域同人工智能的新进展进行有效交叉。同时,这种交叉的研究,不仅要研究人工智能在社会科学各领域的应用,同时还要对人工智能发展所产生的一系列社会问题进行系统性研究。我们在热情拥抱数字技术的同时,还要“对技术异化有充分的警惕,积极展开技术批判”。(21)郁振华: 《人文学术如何迎接技术时代》,《探索与争鸣》2019年第4期,第5—7页。这要求我们冲破学术藩篱,进行跨学科的探索。

第二,人文社会科学内部同样要形成交叉效应,对人工智能产生的影响进行全面研究。这样的全面性研究要打破学科壁垒,需要更多采用埃隆·马斯克(Elon Musk)所强调的第一性原理,或者是现象学运动所强调的“回到事物本身”。根据马斯克的观点,其第一性原理即“将事情归结为基本真理并从中推理,而不是类比推理”。(22)该说法来自其2013年的一场TED演讲,详见: Elon Musk, “The Mind behind Tesla, SpaceX, SolarCity ...,” https://www.ted.com/talks/elon_musk_the_mind_behind_tesla_spacex_solarcity,April 27, 2023。这一观点的来源最早可以追溯到亚里士多德,见亚里士多德: 《物理学》,张竹明译,北京: 商务印书馆,1982年,第15—16页。胡塞尔所说的“回到事物本身”则是指,“研究的动力必定不是来自各种哲学,而是来自事实与问题”。(23)胡塞尔: 《哲学作为严格的科学》,倪梁康译,北京: 商务印书馆,2010年,第68页。从GPT目前产生的技术效应来看,一场巨大的智能社会风暴可能会来临。其中就可能包括失业问题、虚假信息泛滥、知识产权冲突、政治冲突、教育系统失效等一系列重大问题。而每一个问题的解决无法由传统社会科学中的单一学科胜任。这就需要社会科学内部更多打破学科壁垒,围绕人工智能相关问题,展开跨学科的交流,形成更多以问题为中心的研究成果。

第三,人文社会科学中各个分支学科同样需要在充分掌握人工智能技术特征的基础之上,开展带有一定预测性的未来学研究。例如,从法学的角度来看,是否可以为未来人工智能可能带来的风险更早地储备一些立法性预案或建议?从经济学的角度来看,GPT很可能会重塑整个数字经济。(24)经济学目前相关研究进展见洪永淼、汪寿阳: 《人工智能新近发展及其对经济学研究范式的影响》,《中国科学院院刊》2023年第38卷第3期,第353—357页。换言之,现有的互联网经济的形态可能会重新打破,这将对中国数字经济的发展产生哪些风险?从社会学的角度来看,GPT带来的劳动替代问题会以何种方式、会在多大程度上对人类社会现有的就业结构形成冲击?(25)社会学已有的数字与智能技术相关影响研究例如,Marion Fourcade, “Ordinal Citizenship,” The British Journal of Sociology, vol.72, no.2(March 2021), pp.154-173; Jenna Burrell, Marion Fourcade, “The Society of Algorithms,” Annual Review of Sociology, vol. 47, no.1( 2021), pp.213-237。从政治学的角度来看,GPT相关的大模型是否会对意识形态竞争产生影响,产生何种影响?大模型的广泛应用是否会对传统的国家治理体系结构形成冲击?(26)政治学目前已有的相关研究包括,高奇琦: 《国家数字能力: 数字革命中的国家治理能力建设》,《中国社会科学》2023年第1期,第44—61页;高奇琦: 《智能革命与国家治理现代化初探》,《中国社会科学》2020年第7期,第81—102页。从教育学的角度来讲,通用大模型的出现是否会颠覆现有的教育系统?我们是否应该允许孩子在基础教育阶段使用GPT技术产品?从心理学的角度来讲,GPT这样的技术是否会使得未来的人们心理更加澄明和圆满,还是会让人变得更加焦虑和颓废?

这些问题都会伴随着GPT等技术的逐步落地而加剧。这里只是列出了部分学科和部分问题。这样的学科问题清单可能会变得非常长,这都需要人文社会科学各学科做出积极性、前瞻性的考虑。否则的话,很可能会使得人类所产生的相关文明成果最后面临颠覆性破坏。目前我们处在一个巨变的前夜,GPT撕开了一道口子,让我们似乎可以看到未来巨变的某些特征。

从目前掌握的一些经验性事实来看,GPT技术确实会颠覆人类的知识生产秩序。或者说,通用大模型本身就可能成为知识秩序。通用大模型已经反映出某种知识权威的特征。在这样的背景之下,学者可能不再成为一个专门的职业分工,而可能会成为人类个体的普遍性状态。这便是笔者在文章中所讨论的“学者大众化”的可能。换言之,在GPT的巨大赋权效应之下,每个个体都可能成为学者。当然,这是一种较为理想化的图景。如果个体在拥有自由时间和学习机会之后并无学习的动机,那么这样的个体也无法成为学者。另外,个体不仅要成为学者,还要力求成为“真正的学者”。“真正的学者”能够认识到知识的限度,这样才能有助于整体社会的理性化,从而避免知识民粹主义风险。GPT是前所未有的最为大众化且高效率的研究工具,其巨大的赋权效应将会大大加强研究者的能力。在GPT的赋权效应之下,人类研究者应该会产生更具创新性、更多跨学科的高质量成果。然而,这其中也蕴含着人类学习能力弱化的风险,这也是我们在使用这一先进工具时要时刻保持警惕的原因。同时,人文社会科学研究更大的价值在于,可以对GPT可能产生的系统性风险加以全面研究,这便是笔者强调智能人文社会科学的初衷所在。

猜你喜欢社会科学学者人文学者介绍管子学刊(2022年2期)2022-05-10学者简介中北大学学报(自然科学版)(2022年2期)2022-05-05《云南社会科学》征稿征订启事云南社会科学(2022年1期)2022-03-16学者介绍管子学刊(2022年1期)2022-02-17《河北农业大学(社会科学版)》2021年喜报河北农业大学学报(社会科学版)(2021年6期)2021-12-29人文绍兴中国三峡(2017年3期)2017-06-09学者介绍影视与戏剧评论(2016年0期)2016-11-23人文社科全国新书目(2016年5期)2016-06-08数学在社会科学中的应用数学理论与应用(2016年1期)2016-02-28谁来教“医学人文”课中国卫生(2015年8期)2015-11-12

推荐访问:学术研究 科学知识 人文