真·順著網線抓你,OpenAI深夜上線防沉迷,GPT直連警局

avatar
36氪
01-22

ChatGPT也推出「防沉迷系統」了?如果你習慣用縮寫、語氣太嫩,或者僅僅是作息不規律,都可能被判定為未成年!想恢復成人權限,代價是上傳你的臉部3D掃描數據。不需要等到未來,歡迎來到2026年的「行為算命」時代。

凌晨,剛打開ChatGPT,敲下一行「老闆明天要,真服了,幫我寫個彙報模板」。

得到的回答是:

監測到未成年特徵,為了保護您的健康,已自動開啟額外安全設置,部分敏感內容受限,請在早晨8點後繼續使用。

這感覺似曾相識,很像——

這就是OpenAI強推的「未成年防沉迷系統」。

一夜之間,互聯網成了一座數字幼兒園。

實名制已死,算法定義的「數字成年」

OpenAI在其官方技術文檔中,展示了這套「行為生物識別」技術的底層邏輯。

Open AI部署了一套實時年齡預測分類器,它能無視你註冊時填寫的出生日期,只信奉生物識別算法捕捉到的「行為指紋」。

詞彙量匱乏、句法邏輯破碎、濫用網絡黑話或情緒宣洩——這些原本屬於個人風格的表達,現在成了算法眼中的「幼稚病特徵」。

一旦觸發閾值,系統將直接把你的心智年齡歸零。

儘管Open AI極力強調隱私,但其分類器核心邏輯是基於用戶交互內容的模式識別。

在下午三點高頻提問,或是在凌晨無規律瀏覽娛樂內容——這些成年人的摸魚與失眠時刻,算法模型會直接判定為「無監管的學齡期行為」。

也就是說,在ChatGPT的神經網絡看來,一個習慣深夜發瘋、濫用表情包的社畜,與一名15歲的叛逆期中學生相同。

在如此嚴苛的識別條件下,Reddit上哀鴻遍野。

由於算法遵循寧殺錯不放過的邏輯,大量使用Broken English的非母語用戶,因語法結構簡單,被系統批量打上了未成年的標籤。

OpenAI在官方公告中承認,他們寧願誤傷成年人,也不願漏下一個孩子:

即使是最先進的系統也難以完美預測年齡……如果不確定,我們將默認採用更安全的體驗(即未成年模式)。

這像是一場對所有成年用戶的行為規訓。想被當成大人?那你得先學會像個標準大人一樣說話。

要麼裸奔,要麼「降智」

這是一場針對全球用戶的服從性測試:要麼證明你是成年人,要麼你別用。

傳統法理講究「疑罪從無」,算法世界直接執行「疑罪從幼」。

當你被系統「降級」後,你不能寫代碼,不能討論酒精,甚至不能深夜登陸網站。

想解封?那就提交政府ID與實時動態人臉掃描數據。

為了向AI問一個成人話題,你必須允許第三方服務商Persona掃描你的面部3D深度信息與骨骼幾何特徵。

OpenAI雖然承諾驗證完成後會刪除數據,但同時也承認數據會被第三方處理者保留一段時間。

這形成了完美的商業閉環:算法先做「有罪推定」,將你的賬戶降級為「寶寶巴士」;若想贖回完整的數字公民權,你必須遞出你的生物特徵數據。

你以為你是用戶,但在Persona和OpenAI的數據交易中,你只是那個待掃描的條形碼。

聊天框直通警局

如果你覺得以上要求還能勉強接受,那麼接下來的功能你可能想問候OpenAI全家。

OpenAI上線了「危機實時干預」協議。披著「防自殺」的道德外衣,實際上是在你的聊天框裡,安裝了一個監控。

一旦檢測到特定的情緒關鍵詞或意圖,它將不再回復你的指令,直接觸發干預程序。這一機制有兩個層級:

拒絕與引導:屏蔽原始對話,強行推送心理健康熱線或安全提示。

執法介入:在「迫在眉睫的生命威脅」下,OpenAI保留將用戶信息(IP地址、對話記錄、位置數據)直接移交給執法部門的權利。

這徹底改變了人機交互的性質。

曾經,我們將AI視為絕對中立、沒有道德審判的「樹洞」;現在,這個樹洞裡裝上了監控,還直連警局的警報器。

下一秒響起的可能不是AI的回覆提示音,而是警察的敲門聲。

服務提供商與監控者的界限被模糊,就在你點擊「同意」的那一刻。

迴旋鏢:硅谷特色的「社會信用體系」

硅谷版「社會信用體系」已然閉環。諷刺的是,西方媒體這次沒有驚呼「監控噩夢」,而是貼心地奉上了一個政治正確的標籤:Trust&Safety。

幾年前,當東亞某國推行網絡遊戲防沉迷系統,限制未成年人深夜登錄、並引入面部識別進行強制驗證時,西方科技評論界一致驚呼這是「數字全景監獄」的開端。

然而,2026年的今天,迴旋鏢精準地砸在了硅谷的腦門上。

OpenAI的這套新政,與他們曾經批評的體系在邏輯上驚人的一致:以「保護」的名義,通過讓渡部分隱私,來換取有限的數字權利。

輿論的反噬已經開始。在X上,OpenAI的官方公告評論區已經淪陷。

互聯網從此摺疊。

上層是「生物認證貴族」——以上交人臉為投名狀,換取談論代碼與政治的自由;

下層是「算法平民」——因拒絕讓渡隱私,被圈養在低幼化的「安全沙箱」裡,僅配使用閹割版算力。

當你要為了證明自己是成年人,而不得不向一家AI公司上傳視網膜數據時,圖靈測試的含義已經徹底反轉了。

七十年前,人類測試機器是否像人;2026年,機器測試人類是否像個「合格的標品」。

想保住你的賬號權限?立刻去清洗你的對話記錄,刪掉情緒宣洩,矯正語法結構,戒掉深夜提問。

畢竟在2026年,「成年」不再是一個自然生理狀態,而是一場需要你時刻緊繃神經的算法表演。

參考資料:

https://openai.com/index/our-approach-to-age-prediction/

https://x.com/OpenAI/status/2013688237772898532

本文來自微信公眾號“新智元”,作者:新智元,36氪經授權發佈。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論