早在2022年數億使用者在短短几周內使ChatGPT成為全球最受歡迎的應用程式之前,我們就一直在討論AI有潛力讓我們更健康、生命更長。
20世紀70年代,斯坦福大學的一個團隊開發了MYCIN,這是最早的旨在輔助醫療診斷的AI系統之一。MYCIN使用了約600條規則的知識庫來識別導致感染的細菌並推薦抗生素。
儘管在試驗中MYCIN的表現優於人類專家,但它從未在臨床實踐中使用過——部分原因是由於機器主導診斷的倫理和法律問題。
五十年後的今天,AI正準備以MYCIN時代看起來像科幻小說的方式改變醫療保健。如今,現代AI可以自學識別醫學影像中的疾病,與人類臨床醫生一樣出色,而且無需大量訓練資料。一項哈佛研究表明,AI輔助癌症診斷的準確率達到96%。
在英國,一個AI系統發現了11個人類臨床醫生遺漏的乳腺癌跡象。來自微軟和帝國理工學院的兩項獨立研究都發現了放射科醫生未發現的更多乳腺癌病例。類似的結果也出現在AI檢測前列腺癌、皮膚癌和其他疾病方面。
我們獲取資料的渠道從未如此廣泛。例如,英國國民健康服務體系——歐洲最大的僱主——可以訪問價值每年96億英鎊(123億美元)的6500萬患者數字化資料。
這代表了一個前所未有的機會,讓AI可以識別模式併產生見解,從而大幅改善診斷、治療和藥物發現。
AI在龐大資料集中發現細微模式是其在醫療保健領域最大的優勢之一。這些系統不僅可以分析醫學影像,還可以分析基因組資料、電子健康記錄、臨床筆記等,發現可能逃逸經驗豐富的人類臨床醫生的相關性和風險因素。
有些人可能會覺得由AI代理處理他們的醫療資料比由不直接參與其護理的人處理更舒服。但問題不僅僅在於誰看到了資料,還在於資料的可移植性。
在可信的醫療機構外構建的AI模型帶來了新的風險。雖然醫院可能已經保護了患者資料,但信任外部AI系統需要更強大的隱私保護措施,以防止濫用並確保資料安全。
值得注意的是,潛力伴隨著重大的隱私和倫理問題。
醫療資料可能是最敏感的個人資訊。它不僅可以揭示我們的醫療狀況,還可以揭示我們的行為、習慣和遺傳傾向。
人們擔心,AI在醫療保健中的廣泛應用可能會導致隱私侵犯、資料洩露或濫用親密個人資訊。
即使是匿名化的資料也不是自動安全的。先進的AI模型已經表現出令人擔憂的去匿名化受保護資料集的能力,透過與其他資訊交叉引用。還有"模型反轉"攻擊的風險,惡意行為者可能透過重複查詢AI模型來重建私密訓練資料。
這些擔憂並非假設性的。它們代表了AI在醫療保健中應用的真正障礙,可能會阻礙拯救生命的創新。如果患者不信任隱私保護措施,他們可能會不願意分享資料。
儘管標準和法規要求在訓練AI模型的資料中包含地理和人口多樣性,但在醫療機構之間共享資料需要保密,因為資料不僅高度敏感,還包含醫療機構關於診斷和治療的見解。
這導致了機構出於監管、智慧財產權和濫用的擔憂而對共享資料持謹慎態度。
幸運的是,一種新的注重隱私的AI開發正在出現,以解決這些挑戰。去中心化的AI方法,如聯邦學習,允許在不集中敏感資訊的情況下訓練AI模型。
這意味著醫院和研究機構可以在不直接共享患者資料的情況下合作開發AI。
其他有前景的技術包括差分隱私(透過新增統計噪聲來保護個人身份)和同態加密(允許在加密資料上進行計算而無需解密)。
另一個有趣的發展是我們的Runtime Off-chain Logic (ROFL)框架,它使AI模型能夠在不損害隱私或安全性的情況下在鏈下執行計算。這可以讓更復雜的AI醫療應用程式利用外部資料來源或處理能力,而不會損害隱私或安全。
注重隱私的技術仍處於初級階段,但它們都指向一個未來,在這個未來我們可以在不犧牲患者隱私的情況下充分利用AI在醫療保健中的力量。
我們應該努力實現一個AI可以分析您的完整病史、基因概況,甚至來自可穿戴裝置的實時健康資料,同時保持這些敏感資訊加密和安全的世界。
這將允許提供高度個性化的健康見解,而不需要任何單一實體訪問原始患者資料。
這種注重隱私的AI醫療保健願景不僅關乎保護個人權利(儘管這當然很重要),還關乎釋放AI改善人類健康的全部潛力,並以贏得被治療患者尊重的方式實現。
透過構建患者和醫療服務提供者可以信任的系統,我們可以鼓勵更多的資料共享和合作,從而開發出更強大和更準確的AI模型。
挑戰是巨大的,但潛在回報也是巨大的。注重隱私的AI可以幫助我們更早發現疾病、開發更有效的治療方法,並最終拯救無數生命,釋放一股信任的泉源。
它還可以透過允許在不損害個人隱私的情況下開發基於多樣化、具有代表性資料集的AI模型,來解決醫療保健差異問題。
隨著AI模型變得更加先進,AI驅動的診斷變得更快更準確,使用它們的衝動將變得無法忽視。重要的是,我們要教會它們保守秘密。