(資料圖片僅供參考)
ChatGPT在經歷了最初的一波火爆之后,如今正在面臨一個新的麻煩,就是引發了全球性的擔憂與危機感,這種全球性的擔憂與危機感可能會讓ChatGPT的前景不妙,很有可能會走入克隆技術的結局。
馬斯克此前發起的暫停訓練比GPT-4更強大的AI系統的公開信響應人數仍在不斷增加,截至發稿,已有超1.8萬人簽名。一周之內,意大利、德國、法國、愛爾蘭等8國相繼“出手”監管。
意大利個人數據保護局早已經宣布禁止使用ChatGPT。
意大利已經要禁了,德國也要跟,不久前,德國聯邦政府數據保護專員烏爾里希·凱爾伯表示,德國可能跟隨意大利的腳步,因數據安全問題“封殺”ChatGPT。在英國,1000多名人工智能專家和行業高管聯名發布公開信,呼吁暫停開發最先進的人工智能系統,以便制定安全政策。
而聯合國教科文組織也號召各國立即執行其《人工智能倫理問題建議書》。這一規范性全球框架由教科文組織193個成員國一致通過,旨在“提供所有必要保障”。
據媒體最新報道,拜登政府已開始研究是否需要對ChatGPT等人工智能工具進行審查。
目前飛象網創始人項立剛也表示,美國自己最終也有可能禁掉ChatGPT。
對于ChatGPT,馬斯克曾經也發表過很多觀點。在一開始,馬斯克也對ChatGPT頗為推崇,但后來,馬斯克表示它好得有點可怕了。我們距離危險的強人工智能不遠了。于是,他馬上行動做出應對,取消了 OpenAI 對推特數據庫的訪問。
目前來看,雖然ChatGPT這樣的生成式AI對提高工作效率很有幫助,但它的負面效應正在大于它的正面效應,引發了很多國家、行業的擔憂與警惕。
從飯碗、隱私到版權,ChatGPT引發越來越多的危機感
從原理來看,ChatGPT的本質是深度學習,這種生成式AI的模型進化是需要依賴大數據來訓練,通過感應器采集數據,進行信息存儲、加工,通過算力進行計算,最后形成決策機制,進行反饋。
在這種模式下,它能產生多種負面效應,它一方面會采集用戶數據進行訓練,這將導致大規模的隱私數據泄露,無論是對于個人的隱私還是商業公司的機密與數據、文件隱私,甚至一個國家政府層面的數據隱私都有可能被ChatGPT采集到,從而被大規模的擴散,這種隱私安全的威脅,從個人到公司到國家,都不想看到它出現的。
事實上,三星已經驗證了這種威脅。早在不久前,三星引入ChatGPT之后就出事了。據《economist》報道,三星DS部門的A職員,在執行半導體設備測量資料庫(DB)下載程序的源代碼時出現了錯誤,便復制出有問題的原始代碼到ChatGPT,并詢問了解決方法。另外,三星DS部門的C職員則將手機錄制的會議內容轉換為文件后輸入到ChatGPT,要求其制作會議紀錄。
最終三星半導體設備測量資料、產品良率等內容或已被存入ChatGPT學習資料庫中。這些是非常關鍵的機密數據資料。目前,三星也已經禁用了ChatGPT。
因此,如果大型企業接入ChatGPT之后,一方面可以為公司員工辦公的效率帶來幫助,但很可能公司內部的很多機密資料被輸入到ChatGPT數據庫,導致商業機密與產品專利、技術等方面的機密資料外泄。因為員工會通過ChatGPT咨詢什么問題,公司可能并不知情,也很難追蹤。
另一方面ChatGPT會輸出價值觀、文化、思想,這就不能被各國政府所能接受。因為對于一個國家來說,有著其固有的共同的文化與價值觀,這是一個國家文化共同體的重要文化組成部分,從這個角度來看,ChatGPT有文化滲透的風險。
其三是,剽竊。如前所述,它需要采集大量的用戶數據進行訓練,這導致很多版權內容、包括文章、新聞與文獻、論文資料全部被它所用,它免費的幫助用戶去剽竊整個互聯網的版權內容。美國語言學家諾姆·喬姆斯基認為,ChatGPT是一個高科技剽竊系統,從海量數據中發現規律,并依照規則將數據串連在一起,形成像人寫的文章和內容。在教育界,已經引發了“ChatGPT讓剽竊變得更加容易”的擔憂。
其四:如果全球都對它開放數據庫,那么ChatGPT有龐大的數據來訓練,可以快速進化,那么它真的可能砸掉很多人的飯碗。隨著它的進化與升級,無論是技術人才還是企業高管、律師、作家、畫家、程序員、設計師、工程師等等,都有可能被ChatGPT取代。
ChatGPT來了,我會失業嗎?這是自這個AI發布后,全球很多人都在問的問題。
有人說,一個新技術總會有好的和不好的方面,不能說因為有不好的地方就把它禁掉。但這其實要看負面效應大還是正面意義大,風險是可控的還是不可控的。
如果它給人類本身帶來了更多的難題與危機,負面效應大于正面效應,可能就會被考慮禁用。事實上,克隆技術就是如此,事實上,從克隆技術的走向來看,似乎預示了ChatGPT的結局。
ChatGPT會不會走向克隆技術的結局?
在國內,科技向善曾經是一個很流行的詞,這可能是科技創新與技術創新的最終目的,如果科技創新與技術創新違背了“向善”這個方向,而是走向相反的方向,那么它可能會遭遇全球性的禁用,結局可能就不會太好。
其實在科技界一個典型的例子是克隆技術。現在克隆技術沒有多少人提了。
但在過去,克隆技術曾經被全球所關注。提到克隆生物,我們首先想到的是克隆羊多莉。但其實克隆羊多莉并不是唯一被克隆的動物,科學家們利用克隆技術還克隆出了老鼠,牛,豬等23中哺乳動物。后來我國科學家還克隆出了難度非常高的靈長類動物猴。
賽馬Aiken Cura是贏得過5次馬球比賽的冠軍,為了延續它的基因,美國Crestview Genetics公司提取了它的體細胞,并提取出體細胞的細胞核,將其放入到去掉細胞核的卵母細胞中,然后克隆出了8匹優秀的賽馬。
既然克隆生物看起來是很強大的科技與技術,那為什么各國要禁止克隆技術的使用呢?
這有多方面原因,首先是克隆技術并不完善,其次是它是逆大自然的產物,用來克隆的生物并沒有想象中健康與完美,克隆羊多莉4、5年后患上了老年病,在出生后6年就因肺部感染而死亡,克隆技術帶來的還有生物資源的搶奪與繁衍的混亂。
而如果克隆人技術作用于人,會給人帶來恐慌,克隆人對人的取代其實就類似于ChatGPT的能力對人的取代,人們為什么要制造一個人來取代自己?這會帶來很多不安定的混亂因素以及個人生物識別的難題。
克隆技術如果是應用到動物身上,克隆出無限多的個體,但是這些個體的基因與原來的沒有任何變化,反而會搶占其他動物的生存空間,導致物種基因多樣性減少,從而引發滅絕危機。
如果應用到人身上,那更加不得了,每個人都可以克隆多個個體,毫無疑問會引發倫理危機,你怎么證明你是你,如果有多個你存在,無疑給社會以及個人的人身安全、治安、社會穩定帶來嚴重的隱患與危害。因此,克隆技術并沒有做到“科技向善”,而是走向了相反的方向,它沒有給人類以及動物界的生存繁衍帶來好處,甚至給人的生存帶來了更大的危險與制造了更多的混亂。
因此,克隆技術被禁用,因為它沒有做到科技向善。
從目前ChatGPT來看,其實有類似的一面,我們需要一項技術為己作用,是可以自己掌控的,如果人類無法掌控他的風險走向,那么它就是危險的。
本質上,如果開放數據庫給它,相當于打開潘多拉魔盒,正如馬斯克所說的:“當你參加派對時,我研究了 ChatGPT。當你為了追求虛榮而在健身房浪費時間訓練時,我正在訓練機器學習模型。現在全世界都要完犢子了,AGI 都到眼跟前了,你好意思來找我幫忙了?”
這種生成式AI有它積極性的一面,就是提高你的工作效率,但是比產生意識更可怕的是,AI模型自己不停地學習,而這個過程又在人類的監控之外,因為AI的終極目標是實現AGI(通用人工智能),讓AI模型表現得像人一樣,那么這很有可能給人類本身帶來危機,也會危及到一個國家層面的數據與機密安全。
因此,從這個角度來看,就看ChatGPT未來如何優化與改善,彌補它的短板,但從目前來看,各國正在考慮出臺制度與采取行動來禁用它,它進化的越快,被禁用的概率越大,按照目前的走勢,ChatGPT要么可能會在特定的企業與圈子范圍內被小范圍使用與研究,要么有可能被更多國家在政策上限制,束之高閣被禁用,逐漸走向克隆技術的結局。(本文首發鈦媒體APP)
關鍵詞: