ChatGPT與基督信仰常見問題-1人類可能與AI產生情感嗎?

【作者:王道維網路作家Ⅰ 2023.07.23



圖片提供/123RF


▎作者王道維為國立清華大學物理系教授、國立清華大學諮商中心主任、國立清華大學人文社會AI應用與發展研究中心副主任

自從筆者發表第一篇關於ChatGPT與基督信仰的文章[1]後,就開始接到一些機構的邀請進行相關演講或採訪。筆者發現有些問題是我文章中比較沒有明確提到的部分。為方便有類似問題的朋友(可能以基督徒為主)可以先行參考,筆者整理常被詢問的七個問題並給予一些回應。

Q1: 對比機器人和人工智慧,人類的超越性體現在哪些方面?人類有可能與AI產生情感關係或位格上的交流嗎?

Q2: 基督徒可以在哪些方面使用AI幫助我們的信仰與服事?我們與上帝的關係會因為使用AI而被取代嗎?

Q3: 如何更好利用ChatGPT得到所需要的屬靈知識而避免可能的錯誤?若有錯誤,又要如何辨別?應用於牧者講章預備或主日學教育有何需要注意的地方?

Q4: 應用ChatGPT在查經、靈修或教義研討上,如果發現與牧者的教導不合該如何處理?

Q5: 在可以預見的未來,是否有可能開發基督教信仰的大型語言模型?或是如何植入AI關於基督教的價值觀念?

Q6: 這類生成式AI對教會或神學院中信仰教育的影響是什麼?牧者關懷信徒的生命可以如何可以搭配而更為深入與差異化?

Q7: 神學教育或神學研究對AI的發展可以投入哪些方面的關注?

為了避免成為過度簡化的yes/no,筆者多補充一些相關的背景說明與可能的影響評估,希望讓讀者有比較完整的理解脈絡。除了最後一題我交給ChatGPT回答以外,其他每個題目都是筆者個人的思考所得,供有興趣的讀者參考。

關於一些基礎的人工智慧(AI)思維與概念,有興趣的讀者可以參考筆者幫國科會人文司人文社會科學研究中心拍攝的十集「人文社會AI 導論」線上課程:https://blog.udn.com/dawweiwang/168003413

但筆者也必須承認此波AI的來臨異常快速,有些回應未來很可能會需要修改,並無意排除或否定其他角度的看法。希望讀者能謹慎理性思考後評估,讓上帝啟示光照的聖靈來持續引導我們未來的腳步。

Q1: 對比機器人和人工智慧,人類的超越性體現在哪些方面?人類有可能與AI產生情感關係或位格上的交流嗎?

A1: 這個提問背後有個預設,是人類與AI可以做比較。但是我們需要先清楚了解人類與AI在本質上是完全不同的:以信仰來說,人類是按著上帝的形象與樣式所造,除了物質的身體,也有非物質的靈魂。即便以物質的身體來說,你我每一個人的大腦都有超過860億的腦神經,每一條都與其他有數百甚至數千條神經複雜綿密的銜接,遠遠比世界上任何一台AI機器都複雜許多,但是能用最小的能量(一餐飯與一杯水)來維持效率且多功能的同步運作,而不是像AI需要高速晶片消耗極多能源來執行某個單一功能。這個本質上的差別,我們需要先銘記在心[2]。

但是除了本質上的差異以外,不可否認的,如果我們只限定「在特定領域中」,現代電腦或AI的「處理速度」顯然已經超過所有人類,例如數學計算、線上遊戲、影像辨識、資料蒐集、多語言翻譯等等。但是如果以「處理品質」來看,AI只可能在有清楚定義且有客觀標準的問題如基礎科學或遊戲比賽等領域,可以比人類所做的還要好。

但是對於人文社會領域如司法判決、政治決策、心理諮商、音樂創作、文學評析等等,由於學習資料與標準設定都是來自於人類自己,而所謂的「答案」也往往僅適用於某種特定的時空或文化環境,大抵只能到達平均的水準(根據學習的資料來決定),不大可能有意義的超越人類中的專家。以司法AI為例,我們可以期待AI能協助一些較為簡單的案子,但是不應期待它能比資深法官還能處理複雜的政治案件,當然更不可能突破過往的法律框架來追求某些理念上的正義。事實上,人類自身對這些問題也可能沒有一致的答案,那AI又該從哪一方面的資料來學習呢?

因此,我們可以說人類相對於AI的超越性,其實正是體現在人類能夠表現出豐富的情感和觀念、認知思考、理解複雜的系統和價值判斷。另外,人類也能夠創造和改變事物的結構,對周圍的環境、社會和文化有實質的影響力。更別說按照上帝形象與樣式所造的你我,可以有靈魂接觸物質界以外的上帝、鬼魔或靈界現象。雖然機器人和人工智慧在某些特定的問題上可能比人類強,但是它們完全沒有辦法取代真實的人類,相信未來也不可能。反之,我們也需要避免將人類自身的價值只限定於某些特定領域,那樣反而將原來豐富的人性異化成可以量度的指標,也就可能在那個領域被AI超越或取代。

至於人類是否會與AI產生情感關係或位格上交流的問題。我們可以先從技術性的角度了解,儘管AI有能力「模擬」人類某些特定的情感和行為(如ChatGPT的對話),但其本質上只是計算某種機率的最大值作為模擬的結果,並沒有心理與情感的物質基礎[3]。所以我們需要擔心的反而是人類會對有類似行為的對象(不管是人、寵物、還是AI)產生「移情效應」或「情感依附」,也就是因為自己的情感需求且長時間與AI深度對話,把自己的情感對象投射其上,依戀AI或以為對方也對自己有類似的心理感情。這樣的情形的確存在,嚴重的甚至有愛上AI虛擬情人而作出反常行為的情形[4]。但其實AI本身完全不會有真正的意志或情感,只是按照使用者的設定而回應。

這些情感投射的能力本來是上帝所賦予,好跨越人類自我的限制而進行彼此同理的卓越能力,但的確也有可能因為AI模擬人類的技術越進步而造成當事人認知的混亂,特別是對孩童、青少年,或人在感受到孤單、有強烈情感需求或意志力比較脆弱的時刻。這的確是個人層次需要更多警醒之處,也反映出人性的軟弱與人類需要更多彼此支援關懷的地方。在AI未來的發展與使用上,也的確應該要有相關的政策性規範以減少這類誤用的發生。(待續)




[1] 王道維,〈道可道,非神道?——從基督信仰看能言善道的ChatGPT〉,網媒版發表於《舉目》雜誌(3/12/2023)。引用網址:https://behold.oc.org/?p=59126。此篇全文亦受邀刊登於《文化宣教:跨學科現象與理論研究》一書,由曾劭愷博士主編,預計2023年中出版。此版本與後續的補充更新亦可見於筆者的部落格:https://blog.udn.com/dawweiwang/178590221

[2] 對這主題有興趣做一些初淺而非技術面深入了解的讀者,可以參考筆者拍攝的「人文社會AI導論課程」,屬於國科會人文社會科學研究中心所支持拍攝。所有的影片與投影片網址亦可見於筆者的部落格連結:https://blog.udn.com/dawweiwang/168003413。其中第四集「AI的是與不是」有更多的說明與釐清。

[3] 雖然有人嘗試用多體物理(many-body physics)中的湧現(emergence)來描述當今大型語言模型可能有的類似意識形態的反應,但是筆者作為物理學家,認為這些臆測遠比定論多得多,尚屬於名詞借用,甚至還不到完整假說可以驗證的階段。有興趣的讀者可以參考,〈AI憑什麼這麼強 (一):人工智能模型的湧現現象〉,vocus(5/17/2023)。引用網址:https://vocus.cc/article/6463a768fd8978000178bfe8

[4] 〈比利時男子「沉迷和AI聊天」6周後輕生亡 詭異對話曝光〉,ETtoday新聞雲(3/31/2023)。引用網址:https://www.ettoday.net/news/20230331/2470681.htm#ixzz82m8piykV

※本文原刊於作者的部落格,經作者同意後修改發表。作者近期已出版《當教會遇見AI:從基督信仰探討ChatGPT對教會的挑戰與契機》,由ChatGPT寫了篇序言。

※本文為系列文章,共有七篇,將陸續刊登。


上一則下一則