이 기사는 기계로 번역되었습니다
원문 표시

OpenAI는 이번 주 금요일, 애플리케이션 보안을 향상시키도록 설계된 인공지능 에이전트인 Codex Security를 출시했다고 발표했습니다. 이 도구는 개발팀이 흔히 겪는 문제, 즉 과도한 오탐(false positive) 문제를 해결하는 것을 목표로 합니다. 이러한 불필요한 경고는 보안팀에 과부하를 초래하고 소프트웨어 출시를 지연시키는 경우가 많습니다. OpenAI에 따르면 Codex Security는 단순히 취약점을 식별하는 데 그치지 않습니다. 각 프로젝트에 대한 특정 위협 모델을 생성하고 코드 컨텍스트를 분석하여 시스템 무결성을 손상시키지 않고 수정 사항을 제안하거나 자동으로 적용할 수 있습니다. 기존 도구와의 또 다른 차이점은 검증 방식입니다. 단순히 의심스러운 코드 라인을 지적하는 대신, 에이전트는 격리된 환경(샌드박스)에서 결함을 테스트하여 문제가 실제로 존재하는지 확인한 후 경고를 생성합니다. 아직 Aardvark라는 이름으로 진행 중인 이 프로젝트의 베타 단계에서 OpenAI는 시스템이 보안 분석의 "노이즈"를 크게 줄이고 OpenSSH, PHP, Chromium과 같은 유명 프로젝트에서 중요한 결함을 식별했다고 밝혔습니다. 이번 출시는 인공지능 분야의 활발한 움직임이 한창인 시기에 이루어졌습니다. 최근 몇 주 동안 OpenAI와 Anthropic의 경쟁은 새로운 국면을 맞았습니다. 두 회사는 첨단 AI 모델 개발 분야뿐 아니라 정부 및 대기업과의 관계에서도 경쟁을 벌여왔습니다. 이러한 긴장감은 미국 국방부 관련 협상 과정에서 더욱 두드러졌습니다. Anthropic은 대규모 국내 감시 및 자율 무기에 자사 시스템을 사용하는 데 제한을 두려 했지만, OpenAI는 결국 미국 정부와 인공지능 기술 제공 계약을 체결했습니다. 이 사건은 전략적 환경에서 AI의 역할에 대한 논쟁을 확대하며 기술의 안보, 윤리, 거버넌스에 대한 질문을 제기했습니다. 이러한 기술 경쟁 속에서 Codex Security와 같은 이니셔티브는 AI가 디지털 보안 인프라에서도 점점 더 큰 비중을 차지하기 시작했음을 보여줍니다. 기업과 정부 간의 이러한 갈등이 인공지능의 미래를 어떻게 바꿀지는 아직 알 수 없습니다. 하지만 한 가지 질문이 점점 더 자주 제기되고 있습니다. 이러한 기술이 더욱 강력해지고 전략적으로 활용될수록 안보와 사용자 이익이 의사 결정의 중심에 남아 있을까요? 주목할 만한 움직임입니다. 이 움직임에 대해 어떻게 생각하시나요? 출처: The Verge | Olhar Digital #CtbrWeb3 #AI

Twitter에서
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트