早在2022年数亿用户在短短几周内使ChatGPT成为全球最受欢迎的应用程序之前,我们就一直在讨论AI有潜力让我们更健康、生命更长。
20世纪70年代,斯坦福大学的一个团队开发了MYCIN,这是最早的旨在辅助医疗诊断的AI系统之一。MYCIN使用了约600条规则的知识库来识别导致感染的细菌并推荐抗生素。
尽管在试验中MYCIN的表现优于人类专家,但它从未在临床实践中使用过——部分原因是由于机器主导诊断的伦理和法律问题。
五十年后的今天,AI正准备以MYCIN时代看起来像科幻小说的方式改变医疗保健。如今,现代AI可以自学识别医学影像中的疾病,与人类临床医生一样出色,而且无需大量训练数据。一项哈佛研究表明,AI辅助癌症诊断的准确率达到96%。
在英国,一个AI系统发现了11个人类临床医生遗漏的乳腺癌迹象。来自微软和帝国理工学院的两项独立研究都发现了放射科医生未发现的更多乳腺癌病例。类似的结果也出现在AI检测前列腺癌、皮肤癌和其他疾病方面。
我们获取数据的渠道从未如此广泛。例如,英国国民健康服务体系——欧洲最大的雇主——可以访问价值每年96亿英镑(123亿美元)的6500万患者数字化数据。
这代表了一个前所未有的机会,让AI可以识别模式并产生见解,从而大幅改善诊断、治疗和药物发现。
AI在庞大数据集中发现细微模式是其在医疗保健领域最大的优势之一。这些系统不仅可以分析医学影像,还可以分析基因组数据、电子健康记录、临床笔记等,发现可能逃逸经验丰富的人类临床医生的相关性和风险因素。
有些人可能会觉得由AI代理处理他们的医疗数据比由不直接参与其护理的人处理更舒服。但问题不仅仅在于谁看到了数据,还在于数据的可移植性。
在可信的医疗机构外构建的AI模型带来了新的风险。虽然医院可能已经保护了患者数据,但信任外部AI系统需要更强大的隐私保护措施,以防止滥用并确保数据安全。
值得注意的是,潜力伴随着重大的隐私和伦理问题。
医疗数据可能是最敏感的个人信息。它不仅可以揭示我们的医疗状况,还可以揭示我们的行为、习惯和遗传倾向。
人们担心,AI在医疗保健中的广泛应用可能会导致隐私侵犯、数据泄露或滥用亲密个人信息。
即使是匿名化的数据也不是自动安全的。先进的AI模型已经表现出令人担忧的去匿名化受保护数据集的能力,通过与其他信息交叉引用。还有"模型反转"攻击的风险,恶意行为者可能通过重复查询AI模型来重建私密训练数据。
这些担忧并非假设性的。它们代表了AI在医疗保健中应用的真正障碍,可能会阻碍拯救生命的创新。如果患者不信任隐私保护措施,他们可能会不愿意分享数据。
尽管标准和法规要求在训练AI模型的数据中包含地理和人口多样性,但在医疗机构之间共享数据需要保密,因为数据不仅高度敏感,还包含医疗机构关于诊断和治疗的见解。
这导致了机构出于监管、知识产权和滥用的担忧而对共享数据持谨慎态度。
幸运的是,一种新的注重隐私的AI开发正在出现,以解决这些挑战。去中心化的AI方法,如联邦学习,允许在不集中敏感信息的情况下训练AI模型。
这意味着医院和研究机构可以在不直接共享患者数据的情况下合作开发AI。
其他有前景的技术包括差分隐私(通过添加统计噪声来保护个人身份)和同态加密(允许在加密数据上进行计算而无需解密)。
另一个有趣的发展是我们的Runtime Off-chain Logic (ROFL)框架,它使AI模型能够在不损害隐私或安全性的情况下在链下执行计算。这可以让更复杂的AI医疗应用程序利用外部数据源或处理能力,而不会损害隐私或安全。
注重隐私的技术仍处于初级阶段,但它们都指向一个未来,在这个未来我们可以在不牺牲患者隐私的情况下充分利用AI在医疗保健中的力量。
我们应该努力实现一个AI可以分析您的完整病史、基因概况,甚至来自可穿戴设备的实时健康数据,同时保持这些敏感信息加密和安全的世界。
这将允许提供高度个性化的健康见解,而不需要任何单一实体访问原始患者数据。
这种注重隐私的AI医疗保健愿景不仅关乎保护个人权利(尽管这当然很重要),还关乎释放AI改善人类健康的全部潜力,并以赢得被治疗患者尊重的方式实现。
通过构建患者和医疗服务提供者可以信任的系统,我们可以鼓励更多的数据共享和合作,从而开发出更强大和更准确的AI模型。
挑战是巨大的,但潜在回报也是巨大的。注重隐私的AI可以帮助我们更早发现疾病、开发更有效的治疗方法,并最终拯救无数生命,释放一股信任的泉源。
它还可以通过允许在不损害个人隐私的情况下开发基于多样化、具有代表性数据集的AI模型,来解决医疗保健差异问题。
随着AI模型变得更加先进,AI驱动的诊断变得更快更准确,使用它们的冲动将变得无法忽视。重要的是,我们要教会它们保守秘密。