OpenAI의 ChatGPT를 활용한 건강 관련 사업 추진은 데이터 보안에 대한 의문을 제기합니다.

이 기사는 기계로 번역되었습니다
원문 표시

수요일, 오픈아이(OpenAI)는 챗GPT(ChatGPT)에 의료 기록과 건강 데이터를 연결할 수 있는 새로운 기능을 발표했는데, 이는 일부 전문가와 시민단체들 사이에서 개인 데이터 사용에 대한 우려를 불러일으켰습니다.

캘리포니아주 샌프란시스코에 본사를 둔 AI 기업 애플은 의사들과 공동 개발한 '챗GPT 헬스(ChatGPT Health)'라는 도구가 질병을 진단하거나 치료하기보다는 건강 관리를 지원하도록 설계되었다고 밝혔습니다 . 애플은 이 도구를 통해 사용자들이 자신의 건강 상태를 더 잘 이해할 수 있도록 돕고자 합니다.

많은 사용자에게 ChatGPT는 이미 의료 및 정신 건강 관련 질문을 위한 주요 플랫폼으로 자리 잡았습니다.

OpenAI는 디크립트(Decrypt) 에 ChatGPT Health는 일반적인 "사실 기반 건강 정보"만 제공하며 "개인 맞춤형 또는 안전하지 않은 의료 조언"은 제공하지 않는다고 밝혔습니다.

위험도가 높은 질문의 경우, 기본적인 정보를 제공하고 잠재적 위험을 알려주며, 사용자의 구체적인 상황을 잘 아는 약사나 의료 전문가와 상담하도록 권장합니다.

이번 조치는 회사가 지난 10월 100 만 명이 넘는 사용자가 매주 챗봇을 통해 자살에 대해 상담한다고 발표한 직후에 나온 것입니다. 당시 이는 전체 ChatGPT 사용자 중 약 0.15%에 해당합니다.

전문가들은 이러한 수치가 전체 사용자 인구에서 차지하는 비중은 상대적으로 작지만, 대부분의 사용자는 보안 및 데이터 개인정보 보호 문제를 해결해야 할 것이라고 말합니다.

시민단체 퍼블릭 시티즌의 빅테크 기업 책임 옹호자인 JB 브랜치는 디크립트(Decrypt) 의 인터뷰에서 “기업들이 개인정보 보호 장치를 마련했다고 주장하더라도, 소비자들은 자신의 데이터가 어떻게 사용, 보관, 재활용되는지에 대해 실질적인 동의, 투명성, 또는 통제권을 갖지 못하는 경우가 많다”고 말했습니다. “건강 데이터는 특히 민감한 정보이며, 명확한 법적 제한과 강제력 있는 감독이 없다면, 자체적인 안전장치만으로는 오용, 재식별, 또는 파급 효과로부터 개인을 보호하기에 충분하지 않습니다.”

OpenAI는 성명에서 ChatGPT Health의 건강 데이터는 기본적으로 암호화되어 다른 채팅 데이터와 별도로 저장되며, 자체 기반 모델 학습에 사용되지 않는다고 밝혔습니다.

민주주의 및 기술 센터의 선임 정책 고문인 앤드류 크로퍼드에 따르면, 많은 사용자는 건강 데이터가 누가 보유하고 있는지보다는 데이터의 민감도에 따라 보호된다고 잘못 생각하고 있습니다.

크로포드는 디크립트(Decrypt) 의 인터뷰에서 "의사나 보험 회사가 의료 데이터를 보유하고 있는 경우 HIPAA 개인정보 보호 규정이 적용됩니다."라고 말했습니다. "하지만 건강 앱 개발사, 웨어러블 건강 추적기 개발자, AI 회사처럼 HIPAA 적용 대상이 아닌 업체에는 해당되지 않습니다."

크로포드는 챗GPT 헬스의 출시가 기술 기업이 보유한 건강 데이터에 대한 포괄적인 연방 개인정보 보호법이 없는 상황에서 소비자에게 책임이 전가된다는 점을 분명히 보여준다고 말했습니다.

그는 "현재 연방 법률 및 규정이 소비자 개개인에게 매일 사용하는 기술이 자신의 데이터를 처리하고 공유하는 방식에 대해 스스로 판단해야 하는 부담을 지우고 있다는 점은 유감스러운 일이다"라고 말했다.

OpenAI는 ChatGPT Health가 우선 소수의 사용자 그룹을 대상으로 출시될 것이라고 밝혔습니다.

대기자 명단은 유럽 연합과 영국 이외 지역의 ChatGPT 사용자에게 열려 있으며, 향후 몇 주 안에 웹과 iOS에서 더 많은 사용자가 이용할 수 있도록 확대될 예정입니다. OpenAI의 발표에는 구글이나 안드로이드 기기에 대한 언급은 없었습니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
55
즐겨찾기에 추가
15
코멘트