코드와 양심의 연결: 윤리적이고 포괄적인 AI를 위한 UMD의 탐구

avatar
AI News
10-08
이 기사는 기계로 번역되었습니다
원문 표시

인공 지능 시스템이 우리 일상 생활에서 중요한 의사 결정 프로세스에 점점 더 스며들면서 윤리적 프레임워크를 AI 개발에 통합하는 것이 연구 우선순위가 되고 있습니다. University of Maryland(UMD)에서 학제간 팀은 규범적 추론, 머신 러닝 알고리즘, 사회 기술적 시스템 간의 복잡한 상호 작용을 해결합니다.

최근 Artificial Intelligence News 와의 인터뷰에서 박사후 연구원인 일라리아 카나보토바이슈나브 카메스와란은 철학, 컴퓨터 과학, 인간-컴퓨터 상호작용 분야의 전문 지식을 결합하여 AI 윤리의 시급한 과제를 해결합니다 . 그들의 작업은 윤리적 원칙을 AI 아키텍처에 내장하는 이론적 기초와 고용과 같은 고위험 도메인에 AI를 배포하는 것의 실질적인 의미에 걸쳐 있습니다.

AI 시스템에 대한 규범적 이해

UMD의 Values-Centered Artificial Intelligence(VCAI) 이니셔티브의 연구원인 일라리아 카나보토는 Institute for Advanced Computer Studies와 철학과에 소속되어 있습니다. 그녀는 근본적인 질문을 다루고 있습니다. AI 시스템에 규범적 이해를 어떻게 주입할 수 있을까요? AI가 인권과 웰빙에 영향을 미치는 결정에 점점 더 많은 영향을 미치면서 시스템은 윤리적, 법적 규범을 이해해야 합니다.

"제가 조사하는 질문은, 이런 종류의 정보, 세상에 대한 규범적 이해를 로봇, 챗봇, 그런 것과 같은 기계에 어떻게 넣을 수 있을까 하는 것입니다." 카나보토가 말했습니다.

그녀의 연구는 두 가지 접근 방식을 결합합니다.

탑다운 방식 : 이 전통적인 방법은 규칙과 규범을 시스템에 명시적으로 프로그래밍하는 것을 포함합니다. 그러나 Canavotto는 "이를 쉽게 적어내는 것은 불가능합니다. 항상 새로운 상황이 발생합니다."라고 지적합니다.

하향식 접근법 : 머신 러닝을 사용하여 데이터에서 규칙을 추출하는 새로운 방법입니다. 더 유연하지만 투명성이 부족합니다. "이 접근법의 문제점은 시스템이 무엇을 배우는지 실제로 알 수 없고, 그 결정을 설명하는 것이 매우 어렵다는 것입니다."라고 카나보토는 말합니다.

Canavotto와 그녀의 동료인 Jeff Horty와 Eric Pacuit은 두 접근 방식의 장점을 결합하는 하이브리드 접근 방식을 개발하고 있습니다. 그들은 법적 및 규범적 추론에 기반한 설명 가능한 의사 결정 프로세스를 유지하면서 데이터에서 규칙을 학습할 수 있는 AI 시스템을 만드는 것을 목표로 합니다.

“[저희의] 접근 방식은 […] 인공지능과 법률이라는 분야에 기반을 두고 있습니다. 그래서 이 분야에서 그들은 데이터에서 정보를 추출하는 알고리즘을 개발했습니다. 그래서 저희는 이러한 알고리즘 중 일부를 일반화하고 법적 추론과 규범적 추론에 근거한 정보를 보다 일반적으로 추출할 수 있는 시스템을 갖고 싶습니다.”라고 그녀는 설명합니다.

고용 관행과 장애인 포용에 대한 AI의 영향

카나보토가 이론적 토대에 초점을 맞추는 반면, UMD의 신뢰할 수 있는 AI 및 법률과 사회 연구소에 소속된 바이슈나브 카메스와란은 AI의 현실 세계에 미치는 영향, 특히 장애인에게 미치는 영향을 조사합니다.

카메스와란의 연구는 채용 프로세스에서 AI의 사용을 조사하여 시스템이 어떻게 장애인 후보자를 부주의하게 차별할 수 있는지 밝혀냈습니다. 그는 "우리는 블랙박스를 조금 열어서 이 알고리즘이 백엔드에서 무엇을 하는지, 그리고 후보자를 어떻게 평가하기 시작하는지 이해하기 위해 노력해 왔습니다."라고 설명합니다.

그의 연구 결과에 따르면 많은 AI 기반 채용 플랫폼은 눈맞춤과 얼굴 표정과 같은 규범적 행동적 단서에 크게 의존하여 후보자를 평가합니다. 이러한 접근 방식은 특정 장애가 있는 개인에게 상당한 불이익을 줄 수 있습니다. 예를 들어 시각 장애가 있는 후보자는 눈맞춤을 유지하는 데 어려움을 겪을 수 있으며, 이는 AI 시스템이 종종 참여 부족으로 해석하는 신호입니다.

"이러한 자질 중 일부에 초점을 맞추고 이러한 자질에 따라 후보자를 평가함으로써 이러한 플랫폼은 기존의 사회적 불평등을 악화시키는 경향이 있습니다." 카메스와란은 경고합니다. 그는 이러한 추세가 이미 상당한 고용 문제에 직면해 있는 장애인을 직장에서 더욱 소외시킬 수 있다고 주장합니다.

더 넓은 윤리적 풍경

두 연구자는 모두 AI를 둘러싼 윤리적 우려가 자신의 연구 분야를 훨씬 넘어선다고 강조합니다. 그들은 몇 가지 핵심 이슈를 다룹니다.

  1. 데이터 프라이버시 및 동의: 연구자들은 특히 AI 훈련을 위한 데이터 수집과 관련하여 현재 동의 메커니즘의 부적절성을 강조합니다. 카메스와란은 인도에서 수행한 작업에서 COVID-19 팬데믹 동안 취약 계층이 모르게 광범위한 개인 데이터를 AI 기반 대출 플랫폼에 넘긴 사례를 인용합니다.
  2. 투명성과 설명 가능성: 두 연구자는 모두 AI 시스템이 어떻게 결정을 내리는지 이해하는 것이 중요하다고 강조하며, 특히 이러한 결정이 사람들의 삶에 큰 영향을 미칠 때 더욱 그렇다고 말했습니다.
  3. 사회적 태도와 편견: 카메스와란은 기술적 솔루션만으로는 차별 문제를 해결할 수 없다고 지적합니다. 장애인을 포함한 소외 계층에 대한 태도에 더 광범위한 사회적 변화가 필요합니다.
  4. 학제간 협업 : UMD 연구자들의 연구는 AI 윤리를 해결하는 데 있어 철학, 컴퓨터 과학 및 기타 학문 간 협력의 중요성을 잘 보여줍니다.

미래를 내다보며: 솔루션과 과제

과제가 상당함에도 불구하고 두 연구자는 해결책을 찾기 위해 노력하고 있습니다.

  • 카나보토의 규범적 AI에 대한 하이브리드적 접근 방식은 더욱 윤리적으로 인식되고 설명 가능한 AI 시스템으로 이어질 수 있습니다.
  • 카메스와란은 옹호 단체가 AI 채용 플랫폼의 잠재적 차별을 평가할 수 있도록 감사 도구를 개발할 것을 제안했습니다.
  • 두 사람 모두 AI 관련 차별을 해결하기 위해 장애인법을 개정하는 등 정책 변화가 필요하다고 강조했습니다.

그러나 그들은 또한 문제의 복잡성을 인정합니다. 카메스와란이 지적했듯이, "불행히도, 특정 종류의 데이터와 감사 도구로 AI를 훈련하는 기술적 솔루션이 그 자체로 문제를 해결할 것이라고 생각하지 않습니다. 따라서 다각적인 접근 방식이 필요합니다."

연구자들의 작업에서 얻은 중요한 요점은 AI가 우리 삶에 미치는 영향에 대한 대중의 인식을 높여야 한다는 것입니다. 사람들은 자신이 얼마나 많은 데이터를 공유하는지 또는 어떻게 사용되고 있는지 알아야 합니다. Canavotto가 지적했듯이, 회사는 종종 이 정보를 모호하게 만들려는 동기를 가지고 있으며, "데이터를 제공하면 내 서비스가 더 좋을 것이라고 말하려는 회사"로 정의합니다.

연구자들은 대중을 교육하고 기업의 책임을 묻기 위해 훨씬 더 많은 노력이 필요하다고 주장합니다. 궁극적으로, 철학적 탐구와 실제적 적용을 결합한 Canavotto와 Kameswaran의 학제간 접근 방식은 올바른 방향으로 나아가는 길로, AI 시스템이 강력하면서도 윤리적이고 공평하도록 보장합니다.

또한 참조: 도움이 되거나 방해가 되는 규정: Cloudflare의 견해

업계 리더로부터 AI와 빅데이터에 대해 더 알아보고 싶으신가요? 캘리포니아 암스테르담과 런던에서 열리는 AI & Big Data Expo를 확인해 보세요. 이 포괄적인 이벤트는 Intelligent Automation Conference , BlockX , Digital Transformation Week , Cyber Security & Cloud Expo 를 포함한 다른 주요 이벤트와 함께 진행됩니다.

여기에서 TechForge가 제공하는 다른 기업 기술 이벤트와 웨비나를 확인해 보세요.

코드와 양심의 가교: 윤리적이고 포용적인 AI를 향한 UMD의 탐구라는 제목의 게시물이 AI News 에 처음 게재되었습니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트