Meta, 새로운 Llama 도구로 AI 보안 강화

avatar
AI News
04-30
이 기사는 기계로 번역되었습니다
원문 표시

AI를 이용해 개발 중이거나 기술의 덜 만족스러운 측면으로부터 방어하려는 경우, Meta에서 새로운 Llama 보안 도구를 출시했습니다.

Llama AI 모델을 위한 향상된 보안 도구는 사이버 보안 팀이 AI를 방어에 활용할 수 있도록 설계된 Meta의 최신 리소스와 함께 제공됩니다. 이는 모든 관계자를 위해 AI 개발 및 사용을 비트(Bit) 안전하게 만들기 위한 Meta의 노력의 일환입니다.

Llama 모델 계열을 사용하는 개발자들은 이제 업그레이드된 키트를 사용할 수 있습니다. 최신 Llama Protection 도구는 Meta의 Llama Protections 페이지에서 직접 다운로드하거나, 많은 개발자들이 사용하는 Hugging Face 및 GitHub에서 찾아볼 수 있습니다.

먼저 Llama Guard 4입니다. 메타(Meta)의 AI용 맞춤형 안전 필터가 진화한 버전이라고 생각하면 됩니다. 가장 큰 변화는 이제 멀티모달 기능을 지원하여 텍스트뿐만 아니라 이미지에도 안전 규칙을 이해하고 적용할 수 있다는 것입니다. AI 애플리케이션이 점점 더 시각적으로 변화함에 따라 이는 매우 중요합니다. 이 새로운 버전은 현재 제한적인 프리뷰 버전인 메타의 새로운 Llama API에도 통합됩니다.

LlamaFirewall도 있습니다. 메타(Meta)의 새로운 퍼즐 조각으로, AI 시스템의 보안 제어 센터 역할을 하도록 설계되었습니다. 다양한 보안 모델이 연동되도록 관리하고 메타의 다른 보안 도구들과 연동됩니다. LlamaFirewall의 역할은 무엇일까요? AI 개발자들을 밤잠 설치게 하는 위험 요소들을 발견하고 블록 것입니다. AI를 속이기 위해 고안된 교묘한 '즉각 주입' 공격, 잠재적으로 위조 가능한 코드 생성, 또는 AI 플러그인의 위험한 동작 등이 그 예입니다.

메타는 라마 프롬프트 가드(Llama Prompt Guard)에도 튜닝을 적용했습니다. 메인 모델인 프롬프트 가드 2(86M)는 이제 성가신 탈옥 시도와 프롬프트 주입을 감지하는 데 더욱 효과적입니다. 더 흥미로운 점은 프롬프트 가드 2 22M의 출시입니다.

Prompt Guard 2 22M은 훨씬 작고 날렵한 버전입니다. Meta는 이 버전이 탐지 성능은 크게 저하시키지 않으면서도 더 큰 모델에 비해 지연 시간과 컴퓨팅 비용을 최대 75%까지 줄일 수 있다고 추정합니다. 더 빠른 대응이 필요하거나 예산이 빠듯한 사용자에게는 환영할 만한 추가 기능입니다.

하지만 메타는 AI 개발자들뿐만 아니라 디지털 보안 최전선에서 활약하는 사이버 방어자들도 주목하고 있습니다. 사이버 공격에 맞서 싸우는 데 도움이 되는 더 나은 AI 기반 도구에 대한 요구가 높아지자, 메타는 바로 이러한 요구에 맞춰 몇 가지 업데이트를 공개했습니다.

CyberSec Eval 4 벤치마크 스위트가 업데이트되었습니다. 이 오픈소스 툴킷은 조직이 AI 시스템의 보안 작업 성능을 실제로 얼마나 잘 파악할 수 있도록 도와줍니다. 이 최신 버전에는 두 가지 새로운 도구가 포함되어 있습니다.

  • CyberSOC 평가: 사이버 보안 전문가 CrowdStrike의 도움을 받아 개발된 이 프레임워크는 실제 보안 운영 센터(SOC) 환경에서 AI의 성능을 측정합니다. 위협 탐지 및 대응에 있어 AI의 효율성을 더욱 명확하게 보여주도록 설계되었습니다. 벤치마크 자체도 곧 공개될 예정입니다.
  • AutoPatchBench: 이 벤치마크는 Llama와 다른 AI가 악의적인 사람이 악용하기 전에 코드의 보안 취약점을 자동으로 찾아 수정하는 능력이 얼마나 뛰어난지 테스트합니다.

이러한 도구를 필요로 하는 사람들에게 이러한 도구를 제공하기 위해 Meta는 Llama Defenders Program을 시작합니다. 이 프로그램은 파트너 기업과 개발자에게 다양한 AI 솔루션(일부는 오픈소스, 일부는 조기 액세스, 일부는 독점)에 대한 특별 접근 권한을 제공하는 것으로 보이며, 모두 다양한 보안 과제 에 맞춰 설계되었습니다.

이러한 노력의 일환으로 Meta는 내부적으로 사용하는 AI 보안 도구인 자동 민감 문서 분류 도구(Automated Sensitive Doc Classification Tool)를 공유합니다. 이 도구는 조직 내 문서에 자동으로 보안 라벨을 부착합니다. 이유는 무엇일까요? 민감한 정보가 유출되는 것을 막거나, (RAG 설정처럼) AI 시스템에 실수로 입력되어 유출되는 것을 방지하기 위해서입니다.

또한 사기에 점점 더 많이 사용되는 AI 기반 가짜 오디오 문제도 해결하고 있습니다. Llama Generated Audio Detector와 Llama Audio Watermark Detector는 잠재적인 피싱 전화나 사기 시도에서 AI가 생성한 음성을 감지하는 데 도움이 되도록 파트너들과 공유되고 있습니다. ZenDesk, Bell Canada, AT&T와 같은 기업들은 이미 이러한 기술을 통합하기 위해 협력하고 있습니다.

마지막으로, Meta는 사용자 개인 정보 보호에 큰 영향을 미칠 수 있는 기능인 '개인 정보 처리(Private Processing)'를 살짝 공개했습니다. 이는 WhatsApp용으로 개발 중인 새로운 기술입니다. 이 기술의 핵심은 AI가 읽지 않은 메시지를 요약하거나 답글 작성을 돕는 등 유용한 기능을 수행하도록 하는 것입니다. 하지만 Meta나 WhatsApp은 해당 메시지의 내용을 읽을 수 없습니다.

메타는 보안 측면에 대해 매우 개방적인 태도를 보이고 있으며, 자체 위협 모델을 공개하고 보안 연구원들이 아키텍처에 취약점을 파고들도록 유도하기도 합니다. 이는 메타가 개인정보 보호 측면을 제대로 다루어야 한다는 것을 인지하고 있음을 보여주는 신호입니다.

전반적으로 메타가 발표한 AI 보안 관련 발표는 매우 광범위합니다. 메타는 자신들이 개발한 AI 보안에 상당한 노력을 기울이는 동시에, 더 넓은 기술 커뮤니티에 안전하게 개발하고 효과적으로 방어할 수 있는 더 나은 도구를 제공하고자 하는 것이 분명합니다.

또한 참조: AI 기반 사기의 놀라운 증가: Microsoft가 저지한 40억 달러 사기를 공개

업계 리더들로부터 AI와 빅데이터에 대해 더 자세히 알아보고 싶으신가요? 캘리포니아 암스테르담과 런던에서 열리는 AI & 빅데이터 엑스포를 확인해 보세요. 이 종합적인 행사는 Intelligent Automation Conference , BlockX , Digital Transformation Week , Cyber ​​Security & Cloud Expo 등 다른 주요 행사와 함께 개최됩니다.

여기에서 TechForge가 제공하는 다른 엔터프라이즈 기술 이벤트와 웨비나를 살펴보세요.

Meta가 새로운 Llama 도구로 AI 보안을 강화한다는 게시물이 AI News 에 처음 게재되었습니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
2
즐겨찾기에 추가
2
코멘트