在當今科技飛速發展的時代,人工智慧無疑是最受矚目的領域之一。
然而,隨著生成式人工智慧的興起,一系列問題也逐漸浮出水面,引發了人們對其未來發展的擔憂與思考。
生成式人工智慧在過去幾年中取得了巨大的突破,為人們的生活和工作帶來了諸多便利。
但如今,一些人工智慧的預言者與新聞傳播者開始預測生成式人工智慧炒作的落幕,並談及可能出現的“模型崩潰”現象。那麼,什麼是模型崩潰呢?
簡單來說,它指的是未來人工智慧系統由於網際網路上人工智慧生成資料的增多,而逐漸失去其智能性,變得愚笨。
現代人工智慧系統主要依靠機器學習建構,其真正的“智能”來源於對資料中模式的模仿。當前的生成式人工智慧系統需要大量高品質的資料來進行訓練。
像 OpenAI、Google、Meta 和輝達等大型科技公司一直在網際網路上搜尋大量資料,為其人工智慧系統提供支援。
然而,自生成式人工智慧系統廣泛應用以來,人們上傳和分享的人工智慧製作內容也越來越多。這就引發了一個問題:能否僅依靠人工智慧建立的資料進行訓練呢?
研究人員發現,如果沒有高品質的人類資料,僅用人工智慧製造的資料訓練的人工智慧系統會變得越來越笨。
這就如同近親繁殖問題,每個模型都從前一個模型中學習,導致模型行為的質量和多樣性降低。
一方面,品質會下降,即不再具備樂於助人、無害和誠實等特點;
另一方面,多樣性減少,意味著人們的文化和社會觀點在人工智慧輸出中難以得到充分體現。大型科技公司能否過濾掉人工智慧生成的內容呢?
實際上這非常困難。科技公司已經投入了大量時間和金錢清理和過濾資料,但效果並不理想。隨著移除人工智慧生成內容的需求增加,這項工作將變得更加艱難。
而且從長遠來看,區分人工智慧內容會越來越難,這使得過濾和刪除合成資料成為一場收益遞減的遊戲。
因此,我們不能完全放棄人類資料,它是人工智慧中“我”的重要來源。那麼,我們是否正在走向一場災難呢?、
雖然有跡象表明開發人員需要更加努力地獲取高品質資料,比如 GPT - 4 版本的開發就投入了大量人力。同時,也有人估計人類生成的文字資料池可能會在 2026 年耗盡。但這並不意味著必然會出現災難性的模型崩潰。
實際上,未來更有可能出現的是一個由不同生成式人工智慧平台組成的生態系統,而非單一模型,這將增加抗崩潰的穩健性。
監管機構也應通過限制人工智慧領域的壟斷來促進健康競爭,並為公益技術開發提供資金。然而,過多的人工智慧製作內容也帶來了其他風險。
例如,在 ChatGPT 發佈一年後,編碼網站 StackOverflow 的活躍度下降了 16%,這表明人工智慧的幫助可能減少了一些線上社區中人與人之間的互動。
此外,由人工智慧驅動的內容農場超級生產,使得找到高品質內容變得更加困難。為瞭解決這些問題,一方面可以對人工智慧生成的內容進行水印或標記,就像澳大利亞政府的臨時立法所做的那樣;另一方面,我們迫切需要對人工智慧系統帶來的社會和文化挑戰進行跨學科研究。
從經濟角度看,人工智慧的發展可能會引發新的產業格局變化。隨著人工智慧生成內容的增加,一些傳統的內容創作行業可能會受到衝擊,但同時也會催生新的商業模式和就業機會。
例如,專門針對人工智慧生成內容進行稽核和最佳化的服務行業可能會興起,為企業提供更加可靠的人工智慧內容解決方案。
從教育領域出發,人工智慧生成內容的普及要求教育體系更加注重培養學生的創新思維和批判性思維能力。
學生需要學會辨別人工智慧生成的資訊與真實的人類知識,避免過度依賴人工智慧而失去獨立思考的能力。在社會文化方面,我們要警惕人工智慧生成內容帶來的同質化風險。
保護社會文化多樣性是我們的重要任務,應鼓勵人類創作者發揮獨特的創造力,與人工智慧共同建構豐富多彩的文化生態。
同時,加強公眾對人工智慧的認知和理解,提高公眾參與監督人工智慧發展的意識和能力。
總之,人工智慧的未來充滿了挑戰與機遇。
我們需要在充分發揮其優勢的同時,密切關注其可能帶來的風險,並採取有效的措施加以應對,以實現人工智慧與人類社會的和諧發展。( AI光子社 )