마가렛 미첼은 생성형 AI 도구의 편향성을 테스트하는 데 있어 선구자입니다. 그녀는 다른 유명한 연구자인 팀닛 게브루와 함께 구글에서 윤리적 AI 팀을 설립했지만, 나중에 회사에서 둘 다 해고되었습니다. 현재 그녀는 오픈 소스 도구에 중점을 둔 소프트웨어 스타트업인 허깅 페이스에서 AI 윤리 리더로 일하고 있습니다.
우리는 AI 모델이 고정관념을 계속 영속화하는 방식을 테스트하기 위해 그녀가 도움을 준 새로운 데이터셋에 대해 이야기를 나누었습니다. 영어를 우선시하는 대부분의 편향성 완화 노력과 달리, 이 데이터셋은 더 넓은 범위의 언어와 문화를 테스트하기 위한 인간의 번역으로 유연합니다. AI가 종종 인간을 평면적으로 표현한다는 것을 아마 이미 알고 계실 것입니다. 하지만 출력물이 더 이상 영어로 생성되지 않을 때 이러한 문제들이 얼마나 더 극단적으로 만들어질 수 있는지 깨닫지 못할 수 있습니다.
[전체 번역은 동일한 방식으로 계속됩니다. 모든 고유명사와 약어는 요청된 대로 번역되었습니다.]




