即使距離最早發布已經過去了五個月,但 ChatGPT 至今仍然是最炙手可熱的話題之一:作為黃仁勛口中的「AI 的 iPhone 時刻」、周鴻祎口中「領先國內 2-3 年」的 ChatGPT 以及背后的 OpenAI,被普遍認為是本次生成式人工智能浪潮中的最大贏家。
但近期在短短一周之內,ChatGPT 就接連遭遇兩次重大事件,分別是 ChatGPT 付費版本 ChatGPT Plus 暫停付費,以及意大利監管機構禁止 ChatGPT 使用。
(相關資料圖)
首先是第一個問題,雖然截至目前,ChatGPT Plus 訂閱已經正常恢復,但這件事所折射出的,是 OpenAI 對于當下 AI 開發階段的重點所在:對于 OpenAI 來說,來自 ChatGPT Plus 訂閱用戶每月20美元的訂閱費,比起微軟近期向 OpenAI 投資的一百億美元來講更是不值一提。
相比賺眼前用戶的這些蠅頭小利,或許將在今年年內發布、仍需大量算力培育的 GPT-5,才是當下 OpenAI 的重點。
對于 OpenAI 來講,ChatGPT Plus 本質上更像是一種用付費,來快速篩選用戶的一種方式:付費用戶能獲得優先使用權,同時也代表著非付費用戶只能排隊,面對 GPT-4 帶來的各種新功能被拒之門外。也會在新功能發布等高負載時段拒絕免費用戶的訪問請求,優先確保 ChatGPT Plus 的正常訪問。
只是可能連 OpenAI 都沒能預計到,如今的 ChatGPT Plus 也已經產生了越來越多的濫用問題,導致 OpenAI 引以為傲的算力資源也出現了缺口。以至于 OpenAI 都不得不在 4 月 5 日關閉 ChatGPT Plus 的付費渠道,給出的理由就是「需求量過大」。
此前在今年三月,ChatGPT 已經出現過數次大范圍宕機事件,雖然原因并不全是「算力不足」,但卻側面反應出目前供給普通用戶的 ChatGPT 服務其實并不穩定。盡管 OpenAI 從來沒有披露過具體的付費用戶數據,但從近一個月出現的各種狀況來看,OpenAI 的算力已經無法完善支持 ChatGPT 的用戶數量進一步增長。
但眼下 ChatGPT 所要面臨的問題顯然不只是算力不足導致的服務問題:在最初的震撼逐漸平息之后,伴隨 ChatGPT 一同誕生的數據隱私問題也逐漸被更多人所察覺:所謂的生成式人工智能,目前最常見的使用場景在于將網絡中的相關信息快速聚合并有機總結。因此取代搜索引擎是目前被討論最多的應用場景之一,更一直讓 Google 緊張不已。
但在關鍵的「信息聚合」中,自然也誕生了各種信息所涉及到的隱私問題,尤其是 OpenAI 已經明確表示用戶的所有回復內容都有成為 ChatGPT 訓練語料的可能性,同時建議用戶不要在對話中分享個人信息,但在許多用戶眼里,ChatGPT 似乎已經成為了一個可以咨詢任何問題的老師,因此失去防備,將自己乃至工作上的各種隱私數據和盤托出,交予 ChatGPT 尋求幫助。
據《Economist》報導,近期三星半導體員工疑似因使用 ChatGPT,導致在三起不同事件中泄露公司機密。調查原因皆因員工將公司機密資訊輸入 ChatGPT 而導致。
在三起信息泄露事件發生之后,三星在三月發布了 ChatGPT 使用禁令,并開啟內部調查,由于用戶與 ChatGPT 的對話都會上傳至 ChatGPT 數據庫,因此很多員工在將自己的問題輸入 ChatGPT 時,實際上就已經產生了數據泄露。
報道中提到,外泄的信息包括半導體設備量測資料庫、生產設備相關軟件,以及一份內部會議語音轉錄的文字紀錄摘要。甚至還出現了經典的「ChatGPT 改代碼」:報導稱一名軟件工程師在開發中將整份程式碼復制到 ChatGPT 中修復 Bug。
3 月 31 日,意大利當地數據監管機構 —— 個人數據保護局宣布,將暫時禁止意大利境內用戶訪問 ChatGPT,并借此審查 ChatGPT 存在的「非法收集用戶數據」的證據。成為迄今為止第一個官方開出對生成式人工智能禁令的國家:當地用戶很快就發現,所有從意大利境內訪問 ChatGPT 的請求都已經被阻斷。
雖然 OpenAI 創始人 Sam Altman 對此表示相當無辜,發推表示「我們遵守了所有隱私法規」言下之意表示「ChatGPT 沒做錯什么」,同時表示期待 ChatGPT 重新在意大利開放訪問;但 Twitter 上也有從事數據安全領域的專家提醒 Altman:這并非只是結束,很可能是一波歐盟乃至世界各國禁止 ChatGPT 的開始。
在很多人看來,意大利監管機構的這一舉動等同于因噎廢食,甚至被許多海外 ChatGPT 用戶被認為是試圖阻擋 AI 發展大潮的絕望之舉。但世界各地的數據監管機構確實已經蠢蠢欲動,越來越多國家的監管部門注意到其中的問題 —— 只是此時終于有人打響了對人工智能隱私數據監管的「第一槍」。
據路透社報道,包括法國、愛爾蘭、德國等地的監管機構已經在與意大利個人數據保護局進行接觸,以獲得更多 ChatGPT 泄露用戶個人數據的證據,或許為推動當地版本的 ChatGPT 禁制令做準備。此前曾令各大科技巨頭多次吃虧的通用數據保護條例 (GDPR),同樣也可以適用于迅速興起的大模型人工智能公司。
在 ChatGPT 在意大利被禁止訪問一周之后的 4 月 6 日凌晨,OpenAI 發布了一份博客文章 —— 在這篇文章中,OpenAI 雖然沒有正面回應外界對于 ChatGPT 安全性的質疑,但幾乎全篇都在闡述 OpenAI 如何確保用戶數據被安全地使用,以及改進保障措施的努力。
但這并沒能回避生成式人工智能原理上與使用用戶數據的直接沖突:作為數據隱私保護的最前線,歐盟的行動很大程度上代表了監管機構對于生成式人工智能對于用戶數據被濫用的擔憂,而意大利的行動更像是一次對 OpenAI 的測試:意大利個人數據保護局給了 OpenAI 20 天的時間,要求在此期限內解決用戶數據被濫用的問題。
因此 OpenAI 的這篇博客,很大程度上也是代表人工智能研發機構,在面向監管部門「喊話」:在數據保護層面上,技術發展與政府監管之間需要新的「邊界」,來解決生成式人工智能在利用個人信息訓練下一代產品時伴隨而來誕生的隱私問題。
在 OpenAI 發布的公告中:關于法規的看法,其中有這樣一句話:
(ChatGPT)在現實中越來越多地運用,不僅促使著法規逐漸完善,同時也仍然需要允許技術帶來許多有益用途。
用戶隱私數據在伴隨技術發展的這一過程中,注定要經歷很長一段時間的互相博弈,才能獲得逐漸完善的法規。但對于 ChatGPT 來講,如今已經駛過最受矚目的發展階段,伴隨而來的各種現實問題,對于后來者來講,或許也會成為各種轉折的契機。
關鍵詞: