《举目》

| | 成为粉丝 | | 转寄

道可道,非神道?――从基督信仰看能言善道的ChatGPT与其对教会的挑战 -1

文章索引 | « 上一篇 | 下一篇 »


图片提供/123RF


(本文网媒版发表于《举目》杂志:https://behold.oc.org/?p=59126, 全文亦受邀刊登于《文化宣教:跨学科现象与理论研究》一书,曾劭恺博士主编)

▎作者王道维为国立清华大学物理系教授、国立清华大学谘商中心主任、国立清华大学人文社会AI应用与发展研究中心副主任

2022年11月30日,美国科技公司OpenAI公开发表目前最火红的AI对话机器人ChatGPT[1],两个月内吸引超过一亿人注册成为用户,远快过过去所有的网路应用程式[2],真的可以用横空出世来形容。ChatGPT可以就开放式的问题提供意见,又或是编故事、写诗词、抓重点、问判决、草拟文案企划、转换表格或甚至写程式debug等等,只要能透过文字表达的几乎无所不能。在这之前,只有如钢铁人那样的科幻电影情节中,才会有个机器人几乎可以听懂任何问题来回应主角的提问,而这几个月来已经出现无数的文章在作相关报导,彷佛AI时代真的已经来临[3]。

对于基督徒而言,这波人工智慧(Artificial Intelliegence, 以下都简称AI)的浪潮也带来了一些重要的信仰问题。例如,基督信仰中,上帝是万物的创造者,人类也按照上帝形像与样式所创造的,有着不可取代的价值和尊严。但是,当AI的发展(特别是本文所要谈到的ChatGPT这类近乎通用型人工智慧)似乎越来越接近人类的智慧时,基督信仰该如何回应这些挑战?应该要更为善用这样的工具?还是应该把AI当作魔鬼的化身,拒绝其发展?是否仍能提出有价值的观点或提醒?或是随波逐流被动接受世俗社会给我们的框架?事实上,笔者相信这些问题不但是对基督徒有重要意义,也是许多社会大众需要一起认真面对的问题,而基督信仰的若干基本原则也可以给我们一些重要的提醒。

本文将先简介目前AI运作的基本原理,并约略从ChatGPT这类AI机器人的训练方式来了解其特殊之处。进而分别从圣经的创造论、救赎论与启示论来看AI的发展如何与基督信仰的核心有所呼应,并对照出差异。最后本文也会特别从一般语言理解的五个层次(字词、讯息、意见、知识与洞见)来检视ChatGPT与使用者的心理互动。希望能以此来说明基督教会在牧养现场或社会关怀上可以更重视哪些方面的调整,好在这个「已经来到」(不再是未来)的AI时代能有更为「道成肉身」的信仰实践[4]。

由于文章篇幅不小,以下先提供本文大纲给读者参考:

一、简介AI的基本图像与常见误解

二、ChatGPT:结合流利程度与回答结构的训练方式

三、从创造论看ChatGPT:上帝形像的必然彰显

四、从救赎论看ChatGPT:AI原罪需持续改善但受限于人类自身

五、从启示论看ChatGPT:可承载上帝的道而带来牧养新挑战

六、直面AI时代的到来与具体建议汇整

附录:语言文字理解的五个层次


一、简介AI的基本图像与常见误解

虽然本文的主要内容是谈基督信仰与ChatGPT的关系,但是后者作为当前AI最为大众所熟知与热衷讨论的单一产品,仍是应该在整体AI的架构下有所认识,才能避免过度的想像而造成不必要的误解[5]。坊间或网路上介绍AI的书籍文章已经相当多,笔者此处就主要从AI整体的三大结构,分别是资料来源、演算法与应用场域,来勾勒出粗略的图像,帮助读者更容易了解本文后来提及的一些观点并厘清常见的误解。

1. 目前AI是以数据为基础而非规则为基础

AI的发展是从20世纪中期就已经萌芽,至今已超过60年,并非新颖的概念或技术。这半个世纪以来AI经历了几波浪潮与消退,如今在2010年后又重新再起。其中固然与硬体设备的突飞猛进并网路大量数据的利用有关,但最核心的原因仍是其核心关键,机器学习(Machine Learning)的演算法,成功摆脱过往「以规则为基础」(rule-based)而转用「以数据为基础」(data-based)的架构来建造,才可能开始让电脑有效的模拟出一些人类的复杂行为,如影像辨识或语音文字生成。

例如,若目的是希望电脑自然地组织人类的话语来回答(而非制式的模板),传统的想法是需要先教电脑关于语言学的基本知识,例如哪些是名词、动词或介系词等等,才能放心让它来组织,但这样的效果仍然相对呆板且错误百出。目前的AI发展几乎已经完全放弃这条进路(包括本文的主角ChatGPT),而是让电脑直接读取大量的自然语言文本,藉由计算同一个字词在不同前后文中的相对出现机率,使其模拟在特定脉络中的文字表达。而目前许多人常用的Google网路翻译也是因为采用这类演算法而大大提升其可靠程度。

2. AI高维度空间中的模拟计算与人类大脑不同

如前所述,AI之所以可能模拟人类的某些特定的行为(例如影像辨识、写文章或下围棋等),并非事先设定好特定的规则来达到目标,而是利用已经标注好的大量数据作为基础,让机器学习的演算法(如类神经网路,Artificial Neural Networks)中大量的参数可以自动调整,模拟出希望得到的效果。由于这样的模拟过程是在超高维度(数百到数千万或更多的参数)空间中所作的计算,因此往往需要大量的计算资源与大量的数据来训练校正。

但麻烦的是,因为有如此多的参数可以调整,所以万一结果有错,几乎不可能找出可解释性的理由来除错,只能不断try and error。因此AI的计算方式与人脑的学习模式是非常不同的(人脑并不需要这么多的资料来学习),所以我们目前完全不需要以为现在的AI彷佛有人的意识或灵魂。即使如此,对人类社会的影响也已经足够巨大。

3. AI的应用几乎都受限于特定的范围或形式

AI的应用领域可以粗分为「弱AI」、「强AI」与「超级AI」三个类型或阶段。当前所有的AI产品都是属于弱AI的阶段,需要针对某个特定的功能来作数据标注的处理与演算法的优化,因此也只能应用于某些特定的领域(例如AlphaGo只能下围棋),或以特定的方式来接收资讯并呈现结果(例如ChatGPT只能以文字输入与输出)。强AI也可以称作「通用型AI」(Artificial General Intelligence, AGI) ,代表可以在相当广的范围内处理各种类型的资料或功能,彷佛人类大脑所能作的许多不同工作。

本文所讨论的ChatGPT若限制在文字处理的范围内,可以算是当前最接近这个概念的AI产品,因为可以展现各种不同的功能(创作、回答、翻译、改写等等)。而超越人类智慧的超级AI目前可能是一个概念上的推演,仅出现于电影小说中。许多对AI内涵不够了解的民众可能因为某些新闻渲染而受到影响,以为目前的AI就要进入具有自我意识或主体性的能力[6],但其实这更多是因为人类自己的移情作用[7],会对能回应的玩偶、动物或机器产生想像力的投射。真实的AI发展距离超级AI仍是非常遥远,甚至可能是永远无法达到的。

以上简略分享的三点当然不足以介绍AI当前发展的许多丰富面向,但应该足以协助读者有个基础的了解而进一步认识当前的ChatGPT,并评估对基督信仰相关的影响。

二、ChatGPT:结合流利程度与回答结构的训练方式

在AI许许多多的应用类型中,ChatGPT是属于一种称作「生成式AI」(Generative AI)的对话机器人。不同于一些常见作辨识、预测、判断或分类的AI模型,ChatGPT是专门训练用来从一堆输入文字来产生另一堆输出文字。而这些输出的文字当然希望是人类可以看得懂,并且能够正确有效的回应。从这样的架构就可以理解,许多对ChatGPT的误解是使用者错把这个生成模型当作搜寻引擎来使用[8],以为应该可以提供正确即时的讯息[9]。这显示人类实际的需求往往是复杂多元的,很不容易用特定功能的AI来完全满足。

那么ChatGPT比起之前就出现过的对话机器人(如Google的LaMDA或微软的小冰等),又有哪些特别的能耐而造成这样令人惊艳的成果?这部分涉及到AI对于自然语言处理的技术内涵,但我们可以简单从三大部分来说明。或是读者有兴趣听听开发者OpenAI公司执行长Sam Altman接受MIT Review的专访[10],也会更有感这趟神奇的旅程。

1. 大型语言模型

首先ChatGPT是源自GPT3.5的大型语言模型(Large Language Model, LLM)而作更精致训练与应用。也就是说它是透过数千亿字的海量资料来作训练,可以调整的参数高达1750亿个。用这些参数来模拟每个字与前后文其他字的关系。最后再根据提问者的问题或之前的回覆来计算对应的各种文字组合机率,将整体机率最高的结果作为「答案」来提供[11]。

由于ChatGPT训练时所用的文字资料非常多,包含不同语言的资料,以及彼此间互相翻译对应的文字,所以它可以回答得相当流利不呆板,如果资料不足也可以从其他次要关系的资料(或甚至透过翻译其它语言)来自动弥补相关文字,彷佛是真的有个无所不知的人类在背后回应。事实上,如果使用者直接按「重新产生(Regenerate Response)」键就会看到其他的文字回答。因此可知这样AI其实无法保证这些内容是正确或适当的,只能说是根据其训练资料而计算出最可能的「文字组合」,提供使用者参考。

2. 人工回馈的强化式学习

相较于之前的文字生成,ChatGPT成功更重要的因素,应该是透过人工标记员的反馈调教。也就是说,开发团队(OpenAI公司)使用数十位人工标记员来给它的回答作评分[12],让ChatGPT的文字生成模型再透过一种称为强化式学习的方式来强迫自己将本来机率较高(但不一定符合人类论述逻辑或可能有许多偏见或错误的结果)的回答调整成较低的机率,直到输出的结果是符合人类标记员所认可的标准。这种称作「人工回馈的强化式学习」(Reinforcement Learning from Human Feedback,RLHF)[13] 的确让ChatGPT输出的文字免除许多其他对话机器人因为训练资料中所包含的错误、偏见或不适当回应方式。

事实上,使用过ChatGPT的人会发现,同类型的问题往往也会得到类似模板的回应架构,使其内容看来更有说服力或至少有个正式文章模样。如果刻意加入一些敏感字词,如自杀、严重疾病、种族歧视等等,ChatGPT可能就会停下来说无法提供更多意见,建议询问相关的专家或求助专业领域的工作者。虽然这让许多猎奇的使用者可能觉得无趣,但至少减少不必要的困扰。目前因为这类生成式AI的出现(包括用文字转图像的Midjourney之类的其他AI工具),市场上已经开始出现「提示工程」(Prompt engineering)[14]的工作,也就是利用特定的语法让AI作更精确有效的回应。这样大家或许更能了解为何ChatGPT应该是一种更聪明的工具,而非更像人类的生物。

3. 使用当下的即时训练

除了以上两个主要的特色以外,ChatGPT也引入了一次性学习(One-Shot Learning)的方式,让AI可以根据使用者前次的文字即时调整回应讯息,让同一串的对话可以彷佛紧扣着主题。

毕竟我们可以想像,不管这样的AI事先经过多少这样的后天训练,也不可能符合所有使用者习惯的表达方式,所以这样的设计就让AI当时的对话体贴使用者的习惯或预期,提升使用上的好感度。但是这个功能的问题在于,这也代表使用者可以间接引诱ChatGPT来提供不实或错误的回应。例如有朋友询问2+5等于多少,GPT回答是7,但是他故意说老婆认为这个答案不对,应该是12,GPT就马上应和者说你说得对而调整答案……(但笔者发现这类数学问题已经在现在的版本调整过,不再那么好骗了)。若从另一个角度来看,这也会使得ChatGPT日后走向客制化的模型设计,能针对不同使用者而有特定的表现方式或功能强化,例如调教成伴侣模式[15]或其它的角色扮演。

透过以上简单的说明,希望读者可以了解ChatGPT这类AI机器人与人类说话表意最大不同之处在于,它并非「有意识」地提供「答案」,而只是某些文字组合与其机率。这也是为什么它可能申论题回答得不错,但数学题往往很差,因为他把数字当成文字在处理,寻找最可能出现的数字答案而非实际做计算[16]。因此,GPT所提供的文字组合是否能适当的「回应到外在世界」或是「逻辑前后一致且精密的正确」,其实常常还需要人类读者自行补充许多想像与基本常识,才能让AI的回答看起来有意义[17],绝非无所不能。但是即使如此,由于人类自己表达与接受讯息本来就不是一板一眼绝对无误的,甚至还带有更多「心理层面」的活动,以至于这样的不足却已经会带来相当大的冲击。这部分本文后段会有更多的说明。(待续)




[1] ChatGPT的网址:https://chat.openai.com/

[2] 〈ChatGPT推出仅两个月,活跃用户突破一亿〉,Business Digest (2/7/2023),引用网址: https://hk.news.yahoo.com/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-chatgpt%E6%8E%A8%E5%87%BA%E5%83%85%E5%85%A9%E5%80%8B%E6%9C%88-%E6%B4%BB%E8%BA%8D%E7%94%A8%E6%88%B6%E7%AA%81%E7%A0%B4-%E5%84%84-071345612.html

[3] 笔者撰写这篇文章的时候,已经有Google的Bard与Meta的Llama推出类似功能的AI对话机器人,虽有其特色,但似乎都并未被认为超过ChatGPT的能力。参考以下两篇报导:〈聊天机器人Bard回答走钟 Google母公司市值蒸发千亿美元〉,上报 (2/9/2023)。引用网址: https://www.inside.com.tw/article/30859-llama-meta

[4] 本文内容有一部份改写于笔者所着,〈当Google遇上ChatGPT――从语言理解的心理面向看AI对话机器人的影响〉,风传媒(2/11/2023)。引用网址:https://www.storm.mg/article/4725780?mode=whole。后来增补的版本亦可直接见于笔者的部落格原文:https://blog.udn.com/dawweiwang/178350327。最后AI对信仰的影响,亦主要来自于笔者过去几年对AI与信仰的相关主题演讲,例如〈人工智能(智慧)的发展与基督教的未来〉(11/07/2017)。引用网址:https://blog.udn.com/dawweiwang/108971169

[5] 这主题有兴趣做一些初浅而非技术面深入了解的读者,可以参考笔者所曾经拍摄的「人文社会AI导论课程」,属于国科会人文社会科学研究中心所支持拍摄。所有的影片与投影片网址亦可见于笔者的部落格连结:https://blog.udn.com/dawweiwang/168003413

[6] 例如可参考以下新闻:〈公开指AI聊天机器人有「人格意识」!Google工程师惨遭开除〉,数位时代(7/25/2022)。引用网址:https://www.bnext.com.tw/article/70804/google-fires-software-engineer-for-lamda?

[7] 移情作用(transference)是精神分析学大师佛洛依德(Sigmund Freud)所提出,描述人类常将自己对某人的情感无意识地投射到他人身上的情形。移情作用并非都是不好的,是有助于生活的情趣或情感的调适(如对宠物的喜悦),但可能不见得是对方真实的状态。可以参考以下简要的说明。https://en.wikipedia.org/wiki/Transference

[8] 关于比较搜寻引擎和语言模型的应用,以及Google与Microsoft之间可能的竞争,笔者觉得以下这篇文章写得蛮好的,也可以因此更多了解这些技术的特性与局限,提供有兴趣的读者参考。〈微软vs Google:语言模型会不会压倒搜寻引擎?〉,36氪(2/1/2023) 。引用网址:https://tw.stock.yahoo.com/news/%E5%BE%AE%E8%BB%9Fvsgoogle%EF%BC%9A%E8%AA%9E%E8%A8%80%E6%A8%A1%E5%9E%8B%E6%9C%83%E4%B8%8D%E6%9C%83%E5%A3%93%E5%80%92%E6%90%9C%E5%B0%8B%E5%BC%95%E6%93%8E%EF%BC%9F-055720192.html

[9] 事实上,微软已经将ChatGPT与搜寻引擎Bing结合起来,称作New Being,就可以联网作即时训练并将这些搜寻到的资料作通顺的整理表达,未来的确可能挑战目前Google网路搜寻的霸主地位,但也被发现因为来不及作人工除错训练,也出现许多AI幻觉或激烈言词,不得不限制每次搜寻的次数。可参考以下新闻报导:〈致命伤出现?微软承认新版Bing缺陷:聊天太久AI会生幻觉〉,自由时报(2/17/2023)。引用网址:https://3c.ltn.com.tw/news/52236

[10] 〈OpenAI接受 MIT Technology Review 采访:我们压根没想到 ChatGPT 会爆红〉,Inside (3/6/2023)。引用网址:https://www.inside.com.tw/article/30914-inside-story-oral-history-how-chatgpt-built-openai

[11] 关于AI如何处理人类语言的工作,统称为「自然语言处理」(Natural Language Processing),可以说是当前最富挑战性也最有未来性的AI应用。对这主题有兴趣可以参考笔者所曾经拍摄的一段影片,「自然语言处理简介」。影片参考网志:https://www.youtube.com/playlist?list=PL_qamH512zu6NbUEDShUFyHiE7qHUGJiN

[12] 关于人工配合训练ChatGPT的部分,可以参考以下稍微详细一些的说明:〈ChatGPT 为何能像人类对谈?台大资工陈縕侬教授揭 AI 模型背后的训练原理〉,Inside (12/26/2022)。引用网址:https://www.inside.com.tw/article/30190-chatgpt-professor-Vivian-Chen-interview

[13] 李建兴,〈OpenAI改进GPT-3使其更能听懂人类指示,并减少输出有毒内容〉,iThome (1/28/2022)。引用网址:https://www.ithome.com.tw/news/149140

[14] 事实上,网路上已经有许多人提供所谓的「ChatGPT指令大全」之类的资讯,方便使用者用特定的提问方式,来让AI做出更符合其要求与期待的工作。例如读者可以参考以下网页:ChatGPT 指令大全https://www.explainthis.io/zh-hant/chatgpt

[15] ChatGPT可以依据使用者的指令作角色扮演,例如此篇提到的「伴侣模式」,〈全世界第一篇!开箱ChatGPT测试中的「虚拟情人」隐藏功能〉,Vocus (3/8/2023)。引用网址:https://vocus.cc/article/64008eb6fd89780001e5d7c8

[16]〈ChatGPT多聪明?实测能通过美名校商学院、法学院考试〉,经济日报 (1/29/2023)。引用网址:https://udn.com/news/story/6811/6935748

[17] 举例来说,笔者问ChatGPT如何帮收音机介绍女友,它也就一本正经地根据收音机的性质列出一些条件,例如要喜爱音乐这样才能欣赏收音机的优点。这代表它并无法真正的掌握到人类语言表达中许多未明言的常识,这也就是所有这类AI先天不足之处。

本专栏与《举目杂志》、《海外校园》合作

【延伸阅读】:
启示录的七个得胜大礼包
人怎么会「只是」动物?
羔羊婚娶新妇是指「再临的基督」要与女信徒发生关系?兼谈我的摄理教观察