인공지능(AI)은 지난 주말 임원 사임, 국방부 갈등, 로봇 공학 혁신, 기업 모델 출시, 새로운 보안 도구 등 여러 가지 급변하는 소식을 전하며 업계가 거의 모든 분야에서 빠르게 발전하고 있음을 보여주었습니다.
국방 계약, 사임, 그리고 펜타곤 내 갈등
가장 주목할 만한 사건 중 하나는 3월 7일 오픈AI의 로봇 및 소비자 하드웨어 책임자인 케이틀린 칼리노스키가 회사를 떠난 것입니다. 칼리노스키는 오픈AI가 국방부의 기밀 정부 시스템에 AI를 배치하는 계약을 추진하는 과정에서 우려를 제기한 것으로 알려졌습니다. 그녀는 해당 제안이 국내 감시 용도 및 자율 살상 무기 개발 가능성에 대한 충분한 안전장치를 갖추지 못했다고 경고한 것으로 전해집니다.
오픈AI는 이에 대해 특정 군사적 응용 분야와 관련하여 엄격한 "레드라인"을 유지하고 있다고 재차 강조했습니다. 하지만 이번 인사이동은 실리콘밸리의 AI 야망과 워싱턴의 국가 안보 우선순위 사이의 긴장이 고조되고 있음을 보여줍니다. 특히 국방 기관들이 민감한 작전에 첨단 AI 시스템을 활용하는 방안을 점점 더 적극적으로 모색하고 있는 상황에서 이러한 긴장은 더욱 심화되고 있습니다.
국방부가 3월 5일 앤트로픽사를 공식적으로 "공급망 위험 기업"으로 지정하면서 이러한 긴장은 더욱 고조되었습니다. 이 지정으로 인해 방위산업체는 정부 프로젝트에서 앤트로픽사의 클로드 AI 모델 특정 버전을 사용할 수 없게 되었습니다. 국내 기술 기업에 이러한 이례적인 조치가 내려진 것은 AI 안전 및 군사적 활용에 대한 의견 차이가 국가 방위 계획과 얼마나 심각하게 충돌하고 있는지를 보여줍니다.
인공지능 분야에서 거버넌스와 윤리가 주목받고 있다
이러한 논쟁 속에서 기술 전문가와 정책 입안자 연합은 인공지능 개발의 다음 단계를 이끌어갈 새로운 거버넌스 제안을 발표했습니다. 3월 7일, MIT 물리학자 맥스 테그마크와 초당파적인 연구자 및 정책 옹호자 그룹은 인공지능 개발이 인간의 감독과 시민의 자유에 부합하도록 보장하는 프레임워크인 "인간 존중 선언"을 발표했습니다.
이 선언문은 인간이 첨단 AI 시스템에 대한 궁극적인 통제권을 유지하도록 하고, 소수의 기업에 권력이 과도하게 집중되는 것을 방지하며, 엄격한 안전성 테스트를 시행하고, 시민의 권리를 보호하고, 스스로 발전하는 초지능에 엄격한 제한을 두는 등 다섯 가지 핵심 원칙을 제시합니다. 작성자들은 이 제안을 점점 더 복잡해지는 AI 정책 논쟁에 직면한 입법자들을 위한 로드맵으로 제시했습니다.
포기하지 않는 로봇들
정책 입안자들이 거버넌스 체계를 논의하는 동안, 연구진들은 인공지능 기반 로봇 공학이 얼마나 빠르게 발전하고 있는지를 보여주었습니다. 노스웨스턴 대학교의 과학자들은 인공지능으로 설계된 새로운 종류의 "다족형 메타머신"을 공개했는데, 이 모듈형 로봇은 형태를 변형할 수 있고 심각한 물리적 손상 후에도 계속 작동할 수 있습니다.

미국 국립과학원회보(Proceedings of the National Academy of Sciences)에 발표된 이 연구는 다양한 형태로 조립되어 울퉁불퉁한 지형을 이동할 수 있는 로봇을 보여줍니다. 실험에서 일부 로봇은 절단된 후에도 남은 부품들을 재배열하여 이동성을 회복하는 데 성공했습니다. 연구진은 이러한 행동이 재난 지역, 탐사 임무 또는 기타 예측 불가능한 환경에서 유용할 수 있다고 말합니다.
첨단 모델, 기업 AI 역량 확대
소프트웨어 측면에서 OpenAI는 3월 5일 전문가 및 기업용 워크로드에 특화된 시스템인 GPT-5.4 제품군을 출시했습니다. 이번 릴리스에는 추론 능력 향상, 복잡한 코딩 작업, 직접적인 컴퓨터 제어가 가능한 특수 Pro 및 Thinking 변형 모델이 포함되어 있습니다.
GPT-5.4의 특정 버전은 백만 개에 가까운 토큰 규모의 컨텍스트 창을 지원하여 사용자가 단일 프롬프트에서 방대한 문서나 데이터 세트를 분석할 수 있도록 합니다. 오픈아이언은 새로운 모델이 데이터 분석, 엔지니어링 및 자동화된 워크플로와 같은 비즈니스 애플리케이션에서 신뢰성을 향상시키면서 오류 발생 가능성을 줄이는 것을 목표로 한다고 밝혔습니다.
AI가 사이버 보안 버그 헌터로 부상하고 있으며, Openclaw의 새로운 릴리스가 출시되었습니다.
인공지능은 사이버 보안 방어 작업에도 유용한 것으로 입증되고 있습니다. 앤트로픽은 3월 6일, 자사의 AI 모델인 클로드(Claude)가 모질라와의 2주간의 테스트 협업을 통해 모질라 파이어폭스 브라우저에서 22개의 취약점을 발견했다고 발표했습니다.
이러한 문제 중 14개는 심각도가 높은 것으로 평가되었습니다. 이번 조사 결과는 첨단 AI 시스템이 취약점 발견을 지원하는 데 점점 더 많이 사용되고 있으며, 보안 팀이 기존의 수동 감사 방식보다 훨씬 빠르게 결함을 식별하고 패치할 수 있도록 돕고 있음을 보여줍니다.
Openclaw의 최신 릴리스인 버전 2026.3.7이 일요일에 출시되었으며, 이번 릴리스에는 거의 모든 플랫폼에서 로컬로 실행되는 인기 있는 오픈 소스 자율 AI 에이전트 프레임워크의 확장성과 안정성이 크게 향상되었습니다.
핵심 기능은 완전한 라이프사이클 후크(부트스트랩, 수집, 압축, 하위 에이전트 관리 등)를 갖춘 새로운 ContextEngine 플러그인 시스템으로, 개발자와 더 넓은 커뮤니티가 lossless-claw와 같은 사용자 지정 컨텍스트 관리 플러그인을 자유롭게 제작하여 핵심 동작을 확장하거나 재정의하면서도 이전 버전과의 완벽한 호환성을 유지할 수 있도록 합니다.
AI 에이전트, 의료 및 사무 업무 분야로 진출
주요 기술 기업들도 인공지능 에이전트를 실제 산업 분야에 접목하기 위해 경쟁하고 있습니다. 아마존 웹 서비스(AWS)는 3월 5일 의료 운영 전반에 걸쳐 인공지능 에이전트를 배포하도록 설계된 HIPAA(미국 의료정보 보호법) 준수 플랫폼인 아마존 커넥트 헬스(Amazon Connect Health)를 출시했습니다.
이 플랫폼은 환자 예약 자동화, 문서 작성 지원, 보험 정보 확인, 행정 업무 처리 등을 지원하는 동시에 전자 건강 기록 시스템과 통합됩니다. AWS는 이 시스템이 의료 서비스 제공자의 행정 부담을 줄이고 환자 관리 효율성을 높이는 것을 목표로 한다고 밝혔습니다.
OpenAI는 소프트웨어 코드베이스를 스캔하고 취약점을 식별하며 발견 사항을 검증하고 수정 사항을 제안할 수 있는 AI 에이전트인 Codex Security를 출시하며 또 다른 기업용 도구를 선보였습니다. 연구용 프리뷰로 처음 공개된 이 도구는 AI가 소프트웨어 감사 및 개발 보안 분야로 점점 더 많이 진출하고 있음을 보여줍니다.
또한, 이 회사는 마이크로소프트 엑셀용 ChatGPT 베타 추가 기능을 출시하여 사용자가 스프레드시트 내에서 GPT-5.4와 직접 상호 작용할 수 있도록 했습니다. 이 통합을 통해 분석가와 비즈니스 팀은 엑셀을 벗어나지 않고 시나리오 모델을 실행하고, 데이터 세트를 분석하고, 재무 예측을 생성할 수 있어 AI를 일상적인 비즈니스 워크플로에 더욱 깊숙이 통합할 수 있습니다.
지난 48시간 동안의 최신 AI 동향은 로봇공학, 사이버 보안, 의료 자동화, 그리고 국가 안보에서 AI의 역할에 대한 지정학적 논쟁에 이르기까지 여러 방면에서 동시에 발전하고 있는 산업의 모습을 보여줍니다. 이러한 동향은 또한 혁신과 감독 사이의 갈등이 심화되고 있음을 드러냅니다. 정부, 연구자, 그리고 거대 기술 기업들은 기술 발전 속도가 정책이 따라잡기 어려울 정도로 빠른 가운데, 안전장치를 마련하기 위해 고심하고 있습니다.
자주 묻는 질문(FAQ) 🔎
- 지난 48시간 동안 가장 큰 AI 관련 소식은 무엇이었나요?
주요 성과로는 OpenAI의 GPT-5.4 출시, 노스웨스턴 대학교의 로봇 공학 분야 획기적인 발전, Anthropic의 Firefox 취약점 발견, 그리고 AWS의 의료 AI 에이전트 출시 등이 있습니다. - 오픈AI의 로봇공학 부문 책임자는 왜 사임했을까요?
케이틀린 칼리노스키는 국방부의 인공지능 계약 추진과 감시 및 자율 무기 관련 안전장치 미흡에 대한 우려를 이유로 사임했다. - AI "다발형 메타머신"이란 무엇일까요?
이 로봇들은 인공지능으로 설계된 모듈형 로봇으로, 구조를 변형할 수 있고 심각한 물리적 손상을 입은 후에도 계속 움직일 수 있습니다. - 인공지능은 사이버 보안을 어떻게 향상시키고 있습니까?
앤트로픽의 클로드와 같은 고급 AI 시스템은 소프트웨어 코드베이스를 분석하고 인간 팀이 놓칠 수 있는 취약점을 신속하게 감지할 수 있습니다.



