Hello AI,你也是人嗎?
從心理學角度出發探索人工智能
同「功」同「權」?
1990年代初期參加的一個心理學講座,內容談及人與電腦的互動,講員是一位研究「人工智能」(或稱AI)的專家。在那個時代,AI還是個比較陌生的名詞,專家使用眾所皆知的「電腦」一詞來取代。然而他拋出了一個大家未曾考慮過的問題:如果我們使用電腦作為心理學的研究對象(或作「受試者」),是否應該給予它們與人類研究對象相同的待遇?
在心理學研究中,有一套保護受試者權益的守則,最基本的幾項包括:不違反倫理原則;告知研究目的;自願參加;保障個人資訊和數據的隱私權;避免身心傷害;有權知道研究結果等等。這些適用於人類的原則,如何運用在電腦身上?
當時在座的多是心理學教授、研究生,和相關的專業人士,不少人的第一反應是:「電腦又不是人,不需要這些保護。」講員卻說:「如果電腦能完成和人類受試者相同的工作,就應該得到相同的待遇。」
此話一出,引起聽眾一片爭議,因為講員的說法涉及一個敏感議題:如果有一天一台高功能的電腦能做所有人類會做的事,那它算不算一個「人」?應該賦予它「電腦權」嗎?
創世記裡說,神照著自己的形像用地上的塵土造人,將生命氣息(靈魂)吹在他的鼻孔裡;傳道書裡也說,神把永恆的意識放在人的心裡。成為一個「人」的先決條件是有靈魂。但是AI沒有靈魂,它只是由人創造的機器學習模型,沒有意識或情感。
AI也不同於生物,它缺乏像生物體那樣的主觀體驗、情感和自我意識。無論它的認知或訊息功能多麼先進,機器人都不可能感受或理解自我的存在。它對事物的反應是從計算系統生成的,不是真正經過思考;沒有同理心,無法設身處地從不同角度看事情,因此不具備完整的道德判斷能力。1
人都有個性,機器/機器人卻沒有本身的個性。然而,它可以根據所接收到的輸入和從已有的數據中學到的模式,模擬不同的語氣、風格和態度,與人互動。雖然它沒有真的個性,但可以被設定去模擬不同的個性,將角色扮演得惟妙惟肖。
2023年,我向ChatGPT提出30年前AI專家的問題:「當像你這樣的人工智能參與心理研究時,是否應該給予和人類研究對象相同類型的保護?」它的答案是肯定的。
難道AI真的把自己當成人了?
仔細一看,發現ChatGPT所指的不是AI自身的權益,而是使用時有關的倫理考量。舉例來說,如果研究涉及來自用戶的輸入,研究人員必須確保數據隱私,不透露任何可識別個人身分的信息。研究人員應避免以不當的方式使用人工智能,包括避免濫用、歧視或操縱;避免對用戶身心造成傷害、困擾或不適。總而言之,受保護的對象是AI的人類使用者,而非機器人。
人工智能有甚麼「智能」?
人工智能中的「智能」,指的是機器系統或電腦程序模仿人類智能的能力,這種能力使得機器可以執行一些需要類似人類思考活動的任務,也就是模擬人類的認知活動。到底它能做到甚麼地步呢?
現代教學領域中常使用布魯姆分類法(Bloom’s Taxonomy),來描述和分析不同層次的認知功能,以作為教師在課程和教學活動的設計與評估的參考。所列出的六個層次,代表難度由低到高的漸進過程。人工智能的機器學習模型,如何達成每個層次的要求?
眾所公認,AI在最低的三個層次表現亮眼,甚至可能超過人類:
- 記憶:能儲存大量的事實、名詞、定義及其解釋,隨時供使用者提取。
- 理解:能解釋、比較、舉例說明已有的、儲存在它系統內的概念。
- 應用:能把已有的知識運用在不同的情境中。 對AI在下一個層次的表現,大家評價不一。但不少人認為這就是它認知功能的上限:
- 分析:把一個複雜的概念分解成數個易懂的小觀念,幫助解釋和理解。下面兩個最高層次對AI有難度,它坦承不能完全複製人類的表現:
- 綜合與評估:AI不具有人類的判斷能力,自己不能獨立判斷,只能提供訊息,幫助使用者做抉擇。
- 創造:AI可以根據已有的資訊生成新的內容、觀念、解答、故事情節等。可是不同於我們對「創造」的概念,它其實沒有屬於自己的「新」東西,頂多是混合舊酒,換裝新瓶而已。
智能指的是對周遭事物和環境的適應能力,可以通過學習來加強。智能表現在處理特定的任務上,例如運算、辨識、解答。智能主要關注於有效地運用知識和技術解決問題,不一定需要價值觀和道德判斷。人工智能所模仿的就是這種能力。
智慧則是更深層次的洞察力和理解力,通常包括價值觀、道德判斷、對人生意義的反思。聖經中所講的智慧不是能力,而是道德品質。箴言說智慧是神的禮物,賜給與神有良好關係的人,就是那些敬虔、服從神教訓的人。智慧使人認識甚麼是真實的、正確的、永恆的,並且能從神的角度理解人生。
人工智能或許可以根據搜集到的神學論述,生成一篇看似內容豐富的講章。但是請注意,AI本身沒有意識、情感、價值觀和道德判斷力,它無法真正認識神,與神建立關係。那麼生成的講章又有何意義?所以無論是從世俗的角度或聖經的觀點來看,人工智能都沒有,也無法有智慧。
▲ 若牧師使用AI生成講章,能餵養靈魂嗎?
人工智能的限制與潛力
人工智能沒有個人價值觀和道德規範,但它的反應可以反映它被輸入數據中的意見。我曾請教一位凱斯西儲大學(Case Western Reserve University)的計算機工程學教授:AI有沒有道德標準?
他的回答發人深省:如果AI被輸入的是時下流行的觀念,答案就是「沒有」。
AI是編寫出來的電腦程序,它可以學習,可以重組資料,但不能創造出被輸入的資料以外的知識。如果用來「訓練」的數據中存在某些不適合兒童的意見和態度,它會不加分辨地傳達出來。所以有些AI平台提供家長控制功能,讓家長能過濾或限制AI可以存取和提供兒童的內容。
在社會轉向數位化和人工智能的過程中,很大程度上忽視了人口老齡化。近幾年的研究發現,人工智能對年齡和老年人的類別關注不夠。這種現像被稱為「人工智能年齡歧視」,可以定義為在人工智能領域內的實踐和意識形態,會排除、歧視或忽視老年人口的興趣、經驗和需求。例如數據庫資料的年齡層,角色年齡的設定,所使用的詞彙,都忽視了老年的一代。而老年族群更被排除在人工智能技術、服務和產品的使用者之外。2
AI本身不懂得甚麼是「歧視」,問題出在編程序的人。AI雖有做不到或做不好的領域,卻也有值得開發利用之處。除了糾正上述缺點,控制並減少年齡歧視,在協助老年人日常生活和照顧的層面,AI其實應該可以發揮很大功用。
人的功能隨年齡老化而衰退,AI的功能不會衰退,因此可以補足人的缺陷。記憶是AI的強項,在例行的日常生活細節上,可以擔任提醒和規劃的任務。老人家生活的兩大重心:保健和社交,兩者息息相關。AI在這兩方面足以發揮功用。
年齡越大,服用的藥物越多,AI可以設置並提醒服藥時間。AI可以跟蹤和分析藥物效果,幫助醫療保健專業人員調整處方,以盡量減少副作用。老人家的一個潛在危機是跌倒,AI可以檢測到跌倒或異常行動,及時向醫護或有關人員發出警訊。失智症患者的照護對家人極具挑戰性,AI可以為照顧者提供資源和資訊,提供情感支援,並將他們與支援小組或相關服務聯繫起來,以減輕照顧者的壓力。
然而AI提供的是輔助功能,它不能取代照顧者和專業醫護人員的角色,並且對AI服務的接受程度和需要,也因人而異。
▲ AI可以協助老年人的生活,但不能取代照顧者與醫護人員,更非人際關係的替代。
在社交生活上,由AI驅動的陪伴機器人可以減少孤寂感,聊天機器人可以增加互動機會,都比獨自枯坐電視機前好得多。雖然人工智能看似可以增強社交互動,基督徒倫理學家張立明醫師卻指出:被AI服侍慣了,社交技能會退步,與真人接觸時的應對,會越加困難。3 AI應該被視為一種支援工具,而不是真正人際關係的替代品。
人是照著神的形像造的;AI是照著人的形像造的。人有靈魂,可以進入永恆;AI的存在只限於今世。人是為了神造的;AI是為了人造的。人是主人;AI是僕人。人類使用獸力、火力、風力、電力、核能,來替代人的體力工作,為了獲得更大的成效。使用這些能量都會有一定程度的風險,但我們學會如何管理它們,並制定規則,防止濫用。
現在利用AI來替代一些腦力工作,也是為了取得更大的果效。我們也需要制定一套規則來管理它的發展和使用。在預見的未來,可能是人和AI協同工作,以解決複雜的問題。AI可以補充人的智能,但不可取代人的智慧。
註:
1. Torrance, Steve (2007). Ethics and consciousness in artificial agents. AI & SOCIETY. 22:495-521.
2. Stypinska, Justyna (2023). AI ageism: a critical roadmap for studying age discrimination and exclusion in digitalized societies. AI & SOCIETY.38(2), 655-677.
3. 張立明(2023),美國中西部華人基督徒夏令會專題:「如何以聖經回應時代倫理議題?」
黃琪恩博士,俄亥俄州基督教希達維爾大學(Cedarville University)心理學系榮譽教授。曾任北美華人教育研究策劃協會(Chinese American Educational Research and Development Association)創會理事及會長。先後任教於香港大學,香港浸會大學,德州休士頓大學(University of Houston)。
曾擔任《真愛》家庭雜誌專欄及多期主題企劃主筆。目前為基督教學術期刊擔任評審,並於神學院講授研究方法及老年事工等課程。透過寫作接觸新議題,認識新朋友,使用新技術。