이 기사는 기계로 번역되었습니다
원문 표시

Anthropic과 전쟁성의 문제는 Google과 OpenAI에 크게 파급되고 있습니다. *** AI 업계, 군사 이용의 '윤리'를 둘러싸고 채용 전선이 대폭 변화가. 새로운 싸움이 시작되었습니다.
 Google과 OpenAI 내부에서 AI의 군사이용(대량 감시, 비인도적인 자율무기)에 반대하는 청원 “We Will Not Be Divided”에 대한 서명이 급증하고 있습니다. (2/28 시점: Google 578명 + OpenAI 93명 = 총 671명 초과) notdivided.org 특필해야 할 것은 인원수보다 '서명자의 질'이다. ■ 「지능의 핵심」을 담당하는 서명자들 • Google 측 • Tom Schaul : 강화 학습의 세계적 권위. DQN 개선의 주요 저자. • Rif A. Saurous: Gemini의 스케일링 기반을 지원하는 최상급 연구직. • OpenAI 측 • Karl Cobbe: 최신 추론 모형 (o1)의 "생각 과정 보상" 공헌자. • Leo Gao: AI의 블랙박스를 폭로하는 "해석 가능성" 전문가.
 이것은 젊은이의 이상론이 아닙니다. AI의 '뇌'를 설계하고 있는 핵심층에 의한 실존적인 저항이다.
 ■ 한편, xAI에서는 서명 제로.
 이 대비는 잔인할 만큼 명확하다. xAI는 「관료주의 제로」 「wartime speed(전시 속도)」를 내걸고, 군사 이용을 「lawful use(합법 용도)」라고 나누는 인재가 집결하고 있다. Google/OpenAI의 '안전회의의 많음'에 혐오한 초실력파들이 윤리적 브레이크를 벗어나 '가장 빠른 구현'으로 흐르고 있다.
 ■ 2026년, 인재 시장은 「삼극화」에 이 윤리적 대립은 그대로 'AI 인재의 민족대 이동'을 일으키고 있다. 1. 【윤리의 요새: Anthropic】 정부의 압력을 「공급망 리스크」의 지정 각오로 거부. Google/OpenAI의 서명 멤버와 같은 「안전성 중시층」이 양심을 요구해 집결. 2. 【국가의 모순:xAI / 국방AI】 「기술은 중립. 이기는 것이 정의」라고 생각하는 가속주의층이 집결. 군사자금을 연료로 압도적인 계산자원으로 지능을 도약시킨다. 3. 【판 사이의 거인 : Google / OpenAI】 국가 안보의 압력과 직원의 저항 사이에 편류. 톱층이 「사상의 합치」를 요구해 양극에 유출해, 조직의 공동화 리스크에 직면하고 있다. 구글은 AI를 이끄는 데미스 하사비스가 '군사협력'을 용인하는 입장으로 조타를 끊은 경영측(추진측)의 키맨이 되어 있으므로 판 사이의 느낌은 특히 힘들다고 생각한다. ■ 결론 AI는 더 이상 단순한 기술 경쟁이 아닙니다.
 「국가사상×기업문화×윤리」의 충돌이 어느 회사에 어떤 재능을 할당할지를 결정하는 필터가 되었다. 우리는 지금 AI가 '평화의 도구'가 되는지 '승리의 무기'가 될지 결정적인 분기점을 만나고 있다.

Twitter에서
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트