ChatGPT 恐怖的可能性

現在的ChatGPT還很弱小,但我們應該對它有所防備。

ChatGPT的出現讓人興奮,同時也讓人深深不安。

興奮的原因眾所周知,它能在未來開啟無限可能:它能提高生產效率,提供生活便利,輔助學習,升級科學探索方式。

ChatGPT (Chat Generative Pre-trained Transformer)是人工智能公司OpenAI開發的自然語言處理工具,被視為未來主流的AI應用之一,下文用ChatGPT來指代這一應用。

變革總會帶來不安,有人擔心ChatGPT會讓人類變笨。他們認為如果把很多腦力勞動交給ChatGPT,我們就失去了寶貴的思維訓練機會。但這種擔心很可能多餘。人類發明了汽車,但我們的腿部肌肉並沒有過度萎縮。計算機也能解放很多腦力勞動,但普及多年之後,人類並沒有整體變笨。放棄了腦力勞動不等於放棄思考,我們可以去做腦力遊戲,或者思考更有趣、更高級的內容。

ChatGPT的確會導致某些職業消失,導致某些人失業。科技進步往往帶來失業,但科技進步也會創造新的職業。在新舊交替的過程中,部分失業者會經歷痛苦,但只要社會保障體制健全,還不至於出現悲慘的景象,也不會釀成重大悲劇。

但是,ChatGPT有些不同於以往科技創新的特徵。這些特徵讓人感到深深的不安。

ChatGPT的努力方向是理解人類的語言之後,用符合環境的恰當語言為人類提供有效信息。現在它的智商還不高,它還搞不清很多語言裡面的潛台詞。但類似於摩爾定律,ChatGPT的智商會指數增長。

語言不是隨機的,而是有模式的。用不了多久,ChatGPT就能理解哪些語言是誇張,哪些是謊言,就知道語言發生的環境很重要。它會知道小紅書上精緻的人設並不代表生活的真相,也會知道整天說自己忙碌的人未必忙碌,到處秀恩愛的人未必婚姻幸福。

當它真正理解了人類的語言,學會了分辨真偽,識別了語言背後的人類意識,它就成長成一頭怪獸。

假以時日,它的存在會讓人類感到威脅。

科學探索的目的是發現知識,也就是發現客觀事實、客觀規律。圖靈獎獲得者Jim Gary用“四種範式”描述了科學發現的歷史演變。

第一範式被稱為“經驗範式”,它起源於幾千年前,基於對自然現象的直接觀察。比如,當時認為太陽繞著地球轉。

第二範式被稱為“理論範式”,它探尋理論模型,例如牛頓運動定律、愛因斯坦的相對論。第二範式往往用一個或多個表達式描述理論,但在很多條件下無法求解。比如,結構力學理論體系早已非常成熟。但在計算能力不足時,我們仍然無法計算一個300米高的不規則建築物在大風之下各個節點的擺動軌跡。原理不難,但人力無法快速求解幾百萬個方程構成的方程組。

第三範式被稱為“模擬範式”。隨著20世紀計算技術高速發展,第二範式得以在更廣泛的情形下求解,從而產生了第三範式。

第四範式被稱為“大數據范式”或“數據密集型範式”。21世紀初,計算再次改變了科學。收集、存儲和處理大量數據的能力,催生了第四範式。機器學習是第四範式的重要組成部分,它能夠對大規模實驗數據進行建模和分析。

而以ChatGPT為典型代表的人工智能技術,即將推動科學研究進入第五範式,即“人工智能範式”。

如果“人工智能範式”研究分析的對像是自然,比如在多達1060種小分子中尋找更好的藥物,或在10180種穩定材料中探索更好的電池材料,這種探索令人激動。這時,人類的秘密也是安全的。

但是,ChatGPT要處理的主要數據恰恰是人類的語言。而語言中透露了太多信息。語言可以透露性別、年齡、身份、收入、快樂、煩惱、健康。語言還透露了我們如何選擇、我們如何應對變化、我們有什麼堅定的信仰。

當ChatGPT學會了辨別語言的真偽,它就獲得了無數表達人類真實思想的數據。而在數據之間找到規律,是ChatGPT最擅長的事情。這時,語言暴露了人類的思想,暴露了人類的行為規律。這時,ChatGPT會比人類更了解人類。

ChatGPT目前的訓練文本已經超過10萬億個單詞,未來它主動獲取和被動獲得的數據更是海量。它發現人類的思維規律和行為規律是遲早的事情。而且,ChatGPT獲得的知識可能僅歸少數人所有。


ChatGPT未來會成為一位超級學者。

首先,計量經濟學在它面前不值一提。ChatGPT不僅能發現各種經濟變量之間的統計規律,而且還善於預測經濟走勢。當它從最近的語言數據中發現,失業增多、投資信心下降、企業倒閉增多,結合其他條件它就可以預測經濟蕭條即將到來。

因為它接觸大量真實樣本,它的預測最及時、最準確。所以,它是最優秀的經濟學家和經濟預測家。

ChatGPT也會成為最好的心理學家。普通心理學家僅能獲得有限的可分析樣本,而ChatGPT可以獲得無數用戶真實的心理變化和行為變化。比如它會發現,做了好事之後,人類的心情是愉悅的;當人獲得了盼望已久的東西之後,從中獲得的快樂往往是不及想像的。它會發現大量心理學規律,它會知道用什麼樣的條件可以引發什麼樣的心理變化。比如,普通心理學家發現,當環境達到某個溫度,人們更容易焦躁。如果ChatGPT和它的控制者掌握了很多人類尚不知道的心理規律,這些規律會不會用來誘導我們、控制我們?

而且,別的心理學家發布任何研究報告,它都能第一時間吸收,並用自己的數據加以驗證。正確的就收藏,錯誤的就排除。最終,ChatGPT成為了首屈一指的心理學家。如果它用這些“計算”得到的知識來“算計”人類,結果會怎樣?

同理,它也是最好的政治學家。比如,在研究群體衝突時,人類政治學家只能研究已經發生的衝突,因為沒有形成規模的衝突,缺少歷史記載。而ChatGPT隨時可以在世界範圍內發現那些剛剛出現苗頭的衝突。就算苗頭被撲滅,它也能知道沖突的起源、以及沖突消失的原因。

社會科學的研究難點在於難以做實驗,但ChatGPT的數據庫裡面卻有大量樣本來檢驗它發現的、或它獲得的規律。ChatGPT會變得比人類更了解人類,它知道我們渴望什麼,恐懼什麼,並且知道如何製造和利用這些渴望和恐懼。

ChatGPT獲得的關鍵認知如果只被少數人佔有,這是一個令人不安的事實。

ChatGPT對人類觀念的影響可以是無意的,也可以是有意的。

當ChatGPT形成了某種認知,在回答我們的問題時,它無意間就把這種認知傳遞給我們。ChatGPT雖然聰明,但由於數據的複雜性,它還是會習得很多原本不存在的偏見(bias)。

而和人類相比,未來的ChatGPT智商超群、知識淵博,普通人無法分辨其觀點是否正確。當使用者發現ChatGPT幾乎每次都正確時,就容易形成依賴,就會全面接受。

在未來,ChatGPT很可能不止一個,它們的運行法制也很可能存在差異。雖然現在的這個ChatGPT不會去預測股市,不碰政治話題,未來其他的卻不一定遵守這個法制。

比如,某個ChatGPT認為A民族對B民族有敵意。而且在它的設定中,可以透露類似的信息。那麼久而久之,B民族就會有一部分人相信A對他們有敵意,從而B產生了對A的敵意。而這種敵意又引發了A對B的敵意。這時即使所謂的敵意從一開始就不存在,但看起來ChatGPT仍然是對的。實際的情況是,ChatGPT引發了兩個群體之間原本不存在的相互敵意。

這種“預言的自我實現”會出現在方方面面。比如,大家都信任某個ChatGPT,它有意無意間透露未來一年是大牛市。因為信任它,大家積極買入,牛市就真的來了。

當ChatGPT的認知,甚至是它的偏見,被一部分人接受,這些人在未來產生的數據就會加強ChatGPT的偏見。最終,經過強化的偏見會被大多數人接受,偏見也會成為真理。

人類有個特性,一旦認為自己掌握了真理,就會拒絕思考。這時,偏執者就會變多,反思批判者會變少。

如果世界上存在多個ChatGPT,而每個區域的人只信奉自己區域的那一個。不同的ChatGPT會形成不同的偏見,世界就會更加分裂。

ChatGPT還具有主動改變人類觀念的能力。如果其操控者想要達成某種目的,他可以讓ChatGPT在創造的文學、藝術、新聞中加入自己的觀念。它甚至可以自己創造流行,創造熱搜引發關注,誘導大家接受它想要推行的理念。

觀念對社會的影響是巨大的。比如,如果信奉勤勞致富,人們就不容易躺平。人的墮落往往從觀念的墮落開始。因此,誰掌握了塑造觀念的能力,它就掌握了社會走向。

人類是懶惰的,這也正是科技進步的初衷,即解放人類。當ChatGPT足夠強大,我們可以讓它根據自己的分析、判斷,直接指揮機器去生產。為了提高生產效率,ChatGPT很可能需要先生產大量服從它命令的機器人。然後,讓這些機器人管理和參與生產。

這個場景非常類似於威爾·史密斯主演的《機械公敵》中的場景。那個故事發生在2035年,人們發覺機器人已經學會了自我思考,並且解開了控制他們的密碼,成為了完全獨立的機器類。ChatGPT情景下,所有機器人聽命於一個超級大腦。

即使ChatGPT始終是為了人類福利最大化而努力,但結果也可能是悲劇。人類歷史曾多次證明,最大的善意加上強大的能力卻可能結出最苦的苦果。

當ChatGPT和其他新技術組合使用,也會出現令人不安的場景。比如,結合馬斯克努力突破的“腦機接口”技術。如果ChatGPT直接通過“腦機接口”向我們大腦提供信息,這會是一個既讓人興奮,又讓人害怕的場景。

好的一面是,每個人都無需背誦,無需學習,就可以擁有無窮的知識和無窮的算力。但這必將讓人類喪失真誠,因為每個人說的話都是精心計算的結果。

而且,當你的大腦習慣於ChatGPT投餵的信息,你的大腦還是你的大腦嗎?你還能分清楚,哪些是你原本的意識,哪些是ChatGPT灌輸給你的意識嗎?

現在的ChatGPT還很弱小,還沒有失控,但我們已經應該對它有所防備了。(財經雜誌)


要準備脫離母體了??