OpenAI 的 ChatGPT 健康計劃引發了人們對數據安全的擔憂

本文為機器翻譯
展示原文

週三,OpenAI 宣佈 ChatGPT 新增一項功能,允許用戶連接醫療記錄和健康數據,這引起了一些專家和倡導團體對個人數據使用的擔憂。

這家總部位於加州舊金山的AI巨頭表示,這款名為ChatGPT Health的工具是與醫生共同開發的,旨在輔助醫療保健,而非診斷或治療疾病。該公司將其定位為幫助用戶更好地瞭解自身健康狀況的一種方式。

對於許多用戶來說,ChatGPT 已經成為他們諮詢醫療保健和心理健康問題的首選平臺。

OpenAI 告訴Decrypt ,ChatGPT Health 只分享一般的“事實性健康信息”,不提供“個性化或不安全的醫療建議”。

對於風險較高的問題,它將提供高層次的信息,標記潛在風險,並鼓勵人們與瞭解其具體情況的藥劑師或醫療保健提供者交談。

此前不久,該公司在10月份發佈報告稱,每週有超過100萬用戶與聊天機器人討論自殺問題。當時,這約佔ChatGPT所有用戶的0.15%。

專家表示,雖然這些數字僅佔用戶總數的一小部分,但大多數用戶仍需解決安全和數據隱私問題。

“即使公司聲稱有隱私保護措施,消費者往往也缺乏對自身數據如何使用、保留或再利用的有效同意、透明度或控制權,”公共公民組織(Public Citizen)的大型科技公司問責倡導者JB Branch告訴Decrypt。 “健康數據具有獨特的敏感性,如果沒有明確的法律限制和可執行的監督,僅靠自我監管的保護措施不足以保護人們免受濫用、重新識別或後續傷害。”

OpenAI 在聲明中表示,ChatGPT Health 中的健康數據默認加密,與其他聊天記錄分開存儲,並且不會用於訓練其基礎模型。

據民主與技術中心高級政策顧問安德魯·克勞福德稱,許多用戶錯誤地認為,健康數據受到保護是基於其敏感性,而不是基於誰持有它。

克勞福德告訴Decrypt :“當你的健康數據由你的醫生或保險公司持有時,HIPAA隱私規則適用。但對於不受HIPAA約束的實體,例如健康應用程序、可穿戴健康追蹤器或人工智能公司的開發商,情況則並非如此。”

克勞福德表示,ChatGPT Health 的推出也凸顯了在缺乏全面的聯邦隱私法來管理科技公司持有的健康數據的情況下,責任的重擔落在了消費者身上。

他說:“令人遺憾的是,我們目前的聯邦法律法規將分析自身是否能夠接受日常使用的技術如何處理和共享其數據的責任,推給了個人消費者。”

OpenAI表示,ChatGPT Health將首先面向一小部分用戶推出。

目前,ChatGPT 的候補名單已向歐盟和英國以外的用戶開放,未來幾周內,網頁版和 iOS 版的用戶也將陸續獲得訪問權限。OpenAI 的公告並未提及谷歌或安卓設備。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
55
收藏
15
評論