수백만 명의 사용자들이 2022년 단 몇 주 만에 ChatGPT를 세계에서 가장 인기 있는 앱 중 하나로 만들기 훨씬 전부터, 우리는 AI가 우리를 더 건강하게 만들고 수명을 늘릴 수 있는 잠재력에 대해 이야기해왔습니다.
1970년대, 스탠퍼드 대학의 팀은 의료 진단을 돕기 위해 설계된 최초의 AI 시스템 중 하나인 MYCIN을 개발했습니다. MYCIN은 약 600개의 규칙 지식베이스를 사용하여 감염을 일으키는 박테리아를 식별하고 항생제를 권장했습니다.
MYCIN은 실험에서 인간 전문가를 능가했지만, 기계 주도 진단에 대한 윤리적 및 법적 우려로 인해 임상 실무에서 사용되지 않았습니다.
5십년이 지난 지금, AI는 MYCIN 시대에는 SF 같아 보였던 방식으로 의료를 변화시킬 준비가 되어 있습니다. 오늘날 현대 AI는 많은 훈련 데이터 없이도 의료 영상에서 질병을 감지하는 데 인간 임상의만큼 능숙해질 수 있습니다. 하버드 연구에 따르면 AI 지원 암 진단의 정확도는 96%입니다.
영국에서는 AI 시스템이 인간 임상의가 놓친 11개의 유방암 징후를 발견했습니다. 마이크로소프트와 임페리얼 칼리지의 별도 연구에서도 방사선과 의사보다 더 많은 유방암 사례를 발견했습니다. 전립선암, 피부암 등 다른 질병에서도 유사한 결과가 나왔습니다.
우리가 접근할 수 있는 데이터는 그 어느 때보다 많습니다. 영국 국민보건서비스(NHS)는 6,500만 명 이상의 환자 데이터에 접근할 수 있으며, 이는 연간 96억 파운드(123억 달러)의 가치가 있습니다.
이는 AI가 진단, 치료, 신약 개발을 획기적으로 개선할 수 있는 전례 없는 기회를 나타냅니다.
방대한 데이터 세트에서 미묘한 패턴을 감지할 수 있는 AI의 능력은 의료 분야에서 가장 큰 강점 중 하나입니다. 이러한 시스템은 의료 영상뿐만 아니라 유전체 데이터, 전자 건강 기록, 임상 노트 등도 분석할 수 있어 경험 많은 임상의가 놓칠 수 있는 상관관계와 위험 요인을 발견할 수 있습니다.
어떤 사람들은 AI 에이전트가 자신의 의료 데이터를 다루는 것이 인간 임상의보다 더 편안할 수 있습니다. 하지만 문제는 단순히 누가 데이터를 보느냐가 아니라 데이터가 얼마나 이동할 수 있느냐입니다.
신뢰할 수 있는 의료 기관 외부에서 구축된 AI 모델은 새로운 위험을 초래합니다. 병원은 이미 환자 데이터를 보호하지만, 외부 AI 시스템을 신뢰하려면 오용 방지와 데이터 보안을 위한 더 강력한 프라이버시 보호가 필요합니다.
잠재력에는 상당한 프라이버시 및 윤리적 우려가 따릅니다.
의료 데이터는 가장 민감한 개인 정보일 수 있습니다. 이를 통해 우리의 의료 상태뿐만 아니라 행동, 습관, 유전적 소질까지 드러날 수 있습니다.
AI의 의료 분야 광범위한 채택이 프라이버시 침해, 데이터 유출 또는 친밀한 개인 정보 오용으로 이어질 수 있다는 우려가 있습니다.
익명화된 데이터도 안전하지 않습니다. 고급 AI 모델은 다른 정보와 교차 참조하여 보호된 데이터 세트를 역추적할 수 있는 놀라운 능력을 보여왔습니다. '모델 역전' 공격의 위험도 있는데, 악의적 행위자가 AI 모델을 반복적으로 쿼리하여 비공개 학습 데이터를 재구성할 수 있습니다.
이러한 우려는 가설이 아닙니다. 이는 생명을 구할 수 있는 혁신을 저해할 수 있는 의료 AI 채택의 실제 장벽을 나타냅니다. 환자들은 프라이버시 보호를 신뢰하지 않으면 데이터를 공유하기 꺼려할 수 있습니다.
규정과 규제는 AI 모델 학습에 사용되는 데이터의 지리적 및 인구통계학적 다양성을 요구하지만, 의료 기관 간 데이터 공유에는 기밀성이 필요합니다. 데이터는 매우 민감할 뿐만 아니라 진단 및 치료에 대한 의료 기관의 통찰력도 포함하고 있기 때문입니다.
이로 인해 규제, 지적 재산권, 부당 전용 우려로 인해 기관들이 데이터 공유에 신중해지고 있습니다.
다행히도 이러한 과제를 해결하기 위한 새로운 프라이버시 보호 AI 개발이 등장하고 있습니다. 연합 학습과 같은 분산 AI 접근 방식을 통해 민감한 정보를 중앙 집중화하지 않고도 AI 모델을 학습시킬 수 있습니다.
이를 통해 병원과 연구 기관이 환자 데이터를 직접 공유하지 않고도 AI 개발에 협력할 수 있습니다.
차별적 프라이버시와 동형 암호화와 같은 다른 유망한 기술도 있습니다. 이를 통해 데이터를 암호화한 상태에서도 계산을 수행할 수 있습니다.
또 다른 흥미로운 발전은 ROFL 프레임워크로, AI 모델이 오프체인에서 계산을 수행하면서도 검증 가능성을 유지할 수 있습니다. 이를 통해 더 복잡한 AI 의료 애플리케이션이 프라이버시나 보안을 저해하지 않고 외부 데이터 소스 또는 처리 능력에 액세스할 수 있습니다.
프라이버시 보호 기술은 아직 초기 단계이지만, 환자 프라이버시를 희생하지 않고도 의료 분야에서 AI의 전체 잠재력을 활용할 수 있는 미래를 가리키고 있습니다.
우리는 AI가 전체 의료 기록, 유전 프로필, 웨어러블 기기의 실시간 건강 데이터까지 분석할 수 있지만, 이 민감한 정보는 암호화되고 안전하게 유지되는 세상을 목표로 해야 합니다.
이를 통해 어떤 단일 기관도 원시 환자 데이터에 액세스하지 않고도 매우 개인화된 건강 통찰력을 얻을 수 있습니다.
이러한 프라이버시 보호 AI 의료 비전은 개인의 권리를 보호하는 것뿐만 아니라 AI를 통해 인간 건강을 개선하는 잠재력을 완전히 실현하는 것입니다. 환자와 의료 제공자가 신뢰할 수 있는 시스템을 구축함으로써 더 많은 데이터 공유와 협력을 장려할 수 있습니다.
과제는 상당하지만 잠재적 보상도 막대합니다. 프라이버시 보호 AI는 질병을 더 빨리 감지하고, 더 효과적인 치료법을 개발하며, 수많은 생명을 구하고 신뢰의 원천을 열어줄 수 있습니다.
또한 다양하고 대표적인 데이터 세트를 기반으로 AI 모델을 개발할 수 있게 함으로써 의료 격차 해소에도 도움이 될 수 있습니다.
AI 모델이 더 발전하고 AI 주도 진단이 더 빠르고 정확해질수록 이를 사용하려는 충동은 무시할 수 없게 될 것입니다. 중요한 것은 이들에게 비밀을 지키도록 가르치는 것입니다.