기업들이 AI의 어두운 면에 맞서 싸우는 방법

이 기사는 기계로 번역되었습니다
원문 표시
기업들이 AI의 어두운 면에 맞서 싸우는 방법

인공지능은 정서적 지원을 제공하는 챗봇부터 상거래를 극대화하는 알고리즘에 이르기까지 우리 일상생활에 점점 더 깊이 스며들고 있으며, 이에 대한 우려 또한 더욱 명확해지고 있습니다. 이제 인공지능의 안전성 확보는 더 이상 '만약'의 문제가 아니라, 누가 어떻게 인공지능을 안전하게 활용할 것인가의 문제입니다.

기업, 정부, 그리고 다국적 연합들은 때로는 사후 대응적으로, 때로는 처방적으로 이러한 공백을 점진적으로 메우고 있습니다. 현재 어떤 부분이 제대로 기능하고 있는지, 어떤 부분이 우려를 불러일으키고 있는지, 그리고 무엇이 여전히 부족한지 간략하게 살펴보겠습니다.

기술 거물들이 고삐를 조인다

메타, 청소년을 위한 가드레일 추가

대중과 정치적 반발에 대응하여 Meta는 AI 보안 장치를 강화하겠다고 약속했습니다 .

이 회사의 채팅봇은 이제 청소년과 자해, 자살, 식사 문제에 대해 논의하는 것을 거부하고 대신 정신 건강 전문가를 추천하게 됩니다.

이는 Facebook, Instagram, Messenger에서 진행되는 대규모 "십대 계정" 이니셔티브의 일부로, 더 안전한 환경과 부모의 인식 제고를 목표로 하며, 특히 지난주에 아이들이 어떤 봇과 상호 작용했는지 알 수 있는 기능을 제공합니다.

비평가들은 이러한 조치가 오래전에 시행되었어야 했다고 주장하는데, 특히 봇이 아이들과 부끄러운 "감각적인" 채팅을 했을 가능성을 시사하는 유출된 데이터를 고려할 때 더욱 그렇습니다. 한 옹호자는 "제품 출시 전에 철저한 안전 테스트를 거쳐야지, 사후적으로 시행해서는 안 됩니다."라고 경고했습니다.

메타, EU 자발적 AI 규정에서 탈퇴

유럽 연합은 AI 개발자들이 AI법을 준수하도록 돕기 위해 자발적 실행 강령을 발표했습니다 . 메타는 혁신을 저해할 위험이 있는 관료주의적 권한 남용이라며 서명을 거부했습니다.

미국 정부 협력

OpenAI와 Anthropic은 자사의 AI 모델을 미국 AI 안전 연구소(USAI Safety Institute)와 출판 전후에 공유하기로 합의했습니다 . 이는 안전 관련 의견을 수렴하고 정부 검사를 통해 위험을 줄이는 것을 목표로 합니다.

2025년 8월, 44명의 미국 법무장관이 Meta, OpenAI, Microsoft, Google, Replika 등 주요 AI 기업들이 미성년자를 약탈적 AI 콘텐츠로부터 더 잘 보호하도록 격려하는 공동 서한에 서명했습니다.

일리노이주, AI 치료 금지

일리노이주는 공인 전문가의 감독 없이 AI 기반 챗봇을 치료 목적으로 사용하는 것을 금지한 최초의 주 중 하나가 되었습니다 . 네바다주와 유타주도 유사한 제한 조치를 시행하고 있습니다. 위반자는 최대 1만 달러의 민사상 벌금에 처해질 수 있습니다.

글로벌 입법 프레임워크

EU의 AI 법, 인도의 데이터 보호법 , 그리고 한국의 안전 요건 등 전 세계적으로 규제가 강화되고 있습니다. 점점 더 많은 미국 주들이 AI 관련 법률을 시행하거나 소비자 보호, 알고리즘 투명성, 편향 감사 등 기존 체계를 확대하고 있습니다.

캘리포니아주 상원의원 위너는 주요 AI 기업이 안전 관행을 공개하고 주요 사고를 주 당국에 보고하도록 의무화하는 법안을 제안했습니다 .

AI 안전 연구소: 다국적 감독

독립적이고 표준화된 AI 검토를 보장하기 위해 국가들은 AI 안전 연구소를 설립했습니다.

미국과 영국은 2023년 AI 안전 정상회의 이후 국가 연구소를 설립했습니다 .

2025년까지 일본, 프랑스, 독일, 이탈리아, 싱가포르, 한국, 캐나다, EU 등 많은 국가가 네트워크에 가입하여 모델 안전성을 평가하고 글로벌 감독 기준을 설정했습니다.

보고서는 지속적인 격차를 드러냅니다

미래생명연구소(FLI)는 실존적 안전 계획 평가에서 AI 기업을 D 이하로 평가했으며 , C+ 이상의 등급을 받은 기업은 없었습니다. Anthropic이 C+로 1위를 차지했고, OpenAI(C), Meta(D)가 그 뒤를 이었습니다.

OpenAI의 전직 직원들은 회사가 안전보다 이익을 우선시하고 비공개적으로 투명성과 윤리 문제를 제기했다고 비난했습니다 .

메타의 십 대 보호 장치부터 일리노이주의 치료 금지, 그리고 SSI와 같은 기업들의 AI 안전 통합까지, 메시지는 분명합니다. 법률과 미래 예측이 기술에 뒤처지고 있다는 것입니다. 데이터 유출, 소송, 그리고 국제적인 감시는 일반적으로 피해가 먼저라는 것을 보여줍니다. 우리의 과제는 단순히 더 나은 AI를 개발하는 것뿐만 아니라, 모든 획기적인 발전이 재앙이 닥치기 전에 사람들을 보호할 수 있도록 하는 것입니다.

기업이 AI의 어두운 면에 맞서 싸우는 방법이라는 게시물이 Metaverse Post 에 처음 게재되었습니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트