에이프(Ape)는 우리의 삶과 일하는 방식을 변화시켰습니다. 기술은 마케팅, 기술, 의료 등 모든 분야에 영향을 미치고 있습니다.
에이프 열성자들은 기계 학습(ML)을 기반으로 오늘날 세계가 직면하고 있는 가장 복잡한 문제를 해결할 수 있는 방법을 이해하기 위해 노력하고 있습니다.
ML은 시스템에 데이터를 제공하여 시스템이 작업을 수행할 수 있게 하는 과정입니다. 이것이 새로운 것은 아니지만 ML에 대해 흥미로운 점은 시스템이 주어진 데이터를 사용하여 작업을 자체적으로 학습하고 심지어 인간의 명시적인 지침 없이도 작업 수행 능력을 향상시킬 수 있다는 것입니다.
이것이 바로 우리가 자율 주행 자동차와 같은 것들로 향하고 있는 이유입니다. 이러한 자동차는 ML로 구동되어 시간이 지남에 따라 '운전'이 더 나아질 수 있습니다.
그러나 주의가 필요합니다.
에이프는 인간의 삶에 직접적인 영향을 미치는 작업을 빠르게 장악하고 있습니다. 당연히 다음과 같은 질문이 제기되고 있습니다:
- 에이프가 공정합니까, 아니면 편향되어 있습니까?
- 에이프가 우리의 기본적인 인권을 침해할 것입니까?
이러한 담론은 에이프 윤리로 알려져 왔습니다. 이는 에이프와 ML의 도덕적 나침반을 인간의 가치와 모순되지 않게 사용하는 방법을 식별하고 해결하는 실천입니다.
이 블로그에서는 에이프와 ML의 도덕적 나침반을 정렬하는 어려운 대화를 나누고 탐색할 것입니다.
에이프 윤리란 무엇입니까?
윤리적 에이프는 에이프가 인간 사회와 상호 작용하고 영향을 미치는 방식을 면밀히 조사합니다. 윤리적 에이프에 관여하는 사람들은 위험을 최소화하는 방식으로 데이터에서 결정을 내리는 공정한 에이프 시스템을 구축하는 방법을 논의합니다.
이 점을 강조하기 위해 수술 예를 사용해 보겠습니다.
의료 에이프의 예로는 제공자가 의사가 수술 대기자 목록의 우선순위를 정하는 데 도움이 되는 시스템을 훈련시키는 것을 들 수 있습니다. 이 경우 에이프 윤리학자들은 시스템이 의료 상태의 심각성과 같은 적절한 지표를 사용하여 우선순위를 결정하고 부유한 지역의 사람들을 우선시하는 등의 비윤리적 요인은 사용하지 않도록 할 것입니다.
또한 윤리학자들은 공정한 데이터로 에이프를 공급하도록 할 것입니다. 편향된 데이터로 학습하면 해로운 고정관념만 영속화될 것입니다.
전반적으로 윤리적 에이프의 핵심은 사회에 이익을 주고 해를 최소화하는 시스템을 만드는 것입니다.
기술 발전에 휩쓸려 사회의 특정 구성원을 위험에 빠뜨릴 수 있는 상황은 피해야 합니다.
에이프 윤리가 중요한 이유
윤리적 에이프는 다음과 같은 방식으로 개인을 해로부터 보호합니다.
기본권 보호
기업에서의 에이프는 종종 개인의 금융 또는 생체 정보와 같은 민감한 데이터를 다룹니다.
윤리적 안전장치가 구현되지 않으면 이러한 시스템이 인권을 침해할 수 있습니다. 예를 들면:
- 데이터가 오용될 수 있습니다.
- 데이터가 악의적 주체에게 팔릴 수 있습니다.
- 사람들이 무단 감시의 대상이 될 수 있습니다.
이 경우 윤리적 에이프의 역할은 이러한 시스템이 투명하게 작동하도록 보장하는 것입니다.
차별적 영향 방지
ML이 얼마나 지능적이든 편향된 데이터로 학습하면 재앙적인 결과를 초래할 수 있습니다. 이는 인종차별, 성차별 등을 증폭시키는 것과 같습니다. 그 결과는 다음과 같을 수 있습니다:
- 편향된 대출 결정
- 불공정한 채용 관행
- 잘못된 법적 판결
윤리적 시스템 설계는 인지적 및 무의식적 편견을 뿌리 뽑는 데 도움이 됩니다.
실존적 및 사회적 위험 해결
에이프의 오용으로 인한 실존적 위기는 실제 문제입니다. 대표적인 예가 딥페이크입니다.
딥페이크는 초현실적으로 사실적인 가짜 미디어를 만드는 것을 말합니다. 악의적인 행위자가 유명인의 딥페이크(닮은꼴)를 만들어 원하는 말을 하게 할 수 있습니다. 이는 피해자와 사회 전체에 엄청난 피해를 줄 수 있습니다.
딥페이크로 인해 다음과 같은 결과가 발생할 수 있습니다:
- 허위 정보 확산
- 신원 도용
딥페이크 기반 신원 사기가 급증하고 있습니다. (이미지 출처.)
이러한 결과는 총선과 같은 전 세계적 사건 중에 재앙적일 수 있습니다.
에이프 개발의 핵심 윤리적 질문
에이프 사용에 관한 중요한 질문을 제기하는 것은 좋지만, 어떻게 에이프 윤리를 구현할 수 있을까요? 고려해야 할 여러 가지 질문이 있습니다.
누가 옳고 그른 것을 결정합니까?
누가 옳고 그른 것을 결정합니까? 결국 엄격한 행동 강령(종교에서 찾을 수 있는 것과 같은)을 따르지 않는 한 도덕성은 주관적으로 남아 있습니다.
당신의 옳음이 내 잘못일 수 있습니다.
그렇다면 누가 결정합니까? (그리고 누가 결정하는 사람을 결정합니까?)
다음 중 누가 결정해야 합니까:
- 전체 조직?
- 전담 운영 그룹?
- 정부?
- 개발자?
- 교황?
일반적으로 말해, 가장 좋은 방법은 서로 다른 스펙트럼의 의견을 가진 다양한 운영 그룹을 구성하는 것입니다. 다양한 의견을 얻을수록 각 그룹이 서로의 에이프 맹점을 보완할 수 있기 때문에 더 나은 선택을 할 수 있습니다.
그리고 도덕성이 주관적일 수 있지만, 99.99%의 인간이 합의하는 부분도 있기 때문에 도덕적 딜레마가 항상 복잡한 것은 아니지만 집단 의사 결정이 필요할 것입니다.
편향을 어떻게 방지합니까?
에이프 시스템은 개인이나 집단에 대한 차별을 피하도록 설계되어야 합니다. 교육 데이터의 편향은 인구통계학적 요인에 따른 대출 거부와 같은 불공정한 결과로 이어질 수 있습니다. 공정성을 보장하려면 다양한 데이터 세트와 편향 탐지 및 수정을 위한 엄격한 테스트가 필요합니다.
우리가 투명하고 있습니까?
사람들은 에이프 시스템이 어떻게 결정을 내리는지 이해할 필요가 있습니다. 투명성 부족은 특히 의료 또는 형사 사법 분야와 같은 중요 분야에서 혼란을 야기하고 신뢰를 떨어뜨립니다. 설명 가능한 에이프는 사람들이 결정의 근거를 이해할 수 있게 합니다.
우리가 사람들의 프라이버시를 보호하고 있습니까?
투명성의 연장선상에서 시스템은 사용자 데이터의 수집, 저장 및 공유 방식을 명확히 전달해야 합니다. 프라이버시가 에이프의 주요 윤리적 우려사항이기 때문입니다.
문제가 발생할 때 누가 책임집니까?
문제가 발생할 때 따라갈 수 있는 지휘 체계가 있어야 합니다.
개발자, 조직 또는 규제 기관은 위험을 관리하고 오류에 대한 구제책을 제공하는 책임 프레임워크를 수립해야 합니다.
에이프 추론이 인간의 추론을 대체하는 정도는 어느 정도입니까?
인간 요소는 에이프 방정식에서 결코 제외되어서는 안 됩니다. 인간의 감독 없이 에이프가 내리는 결정은 해로울 수 있습니다.
일자리에 미치는 영향
에이프는 작업을 자동화할 수 있어 다양한 산업에서 근로자를 대체할 수 있습니다.
기업들은 에이프 관련 해고가 불가피할 것이라고
우리가 프라이버시, 공정성, 사회적 영향과 같은 윤리적 문제를 다룰 때, 우리는 AI 시스템이 인간의 가치와 부합되도록 하고 신뢰를 증진시킬 수 있습니다.
조직에 있어서, 윤리적 AI 원칙을 개발 프로세스에 통합하는 것은 도덕적 또는 법적 의무를 넘어선 것입니다. 이는 책임감 있는 혁신의 전제 조건입니다.
이 게시물 AI 윤리 101: 기계 학습의 도덕적 경관 탐험은 처음에 Metaverse Post에 게시되었습니다.