AI 시대에 회색, 노란색 산업이 항상 먼저 폭발적으로 성장하는 이유는 무엇일까?

이 기사는 기계로 번역되었습니다
원문 표시
보안이 취약한 모델을 보호하려면 보안 모델을 사용하고, 지능적인 시스템을 사용하여 인텔리전스 공격을 방어합니다.

저자: Cool Geek

괴짜들은 사업을 시작하고, 초보자들은 강좌를 수강하고, 화가들은 실업 중입니다. 하지만 당혹스러운 현실은 이렇습니다. AI가 본격적으로 구현되고 있지만, 그 줄거리는 출현이 아니라 주사위를 굴리는 것에 관한 것입니다.

게다가 업계 초창기에는 주사위가 가장 먼저 떨어지는 면이 노란색이나 회색인 경우가 많았습니다.

그 이유는 매우 간단합니다. 엄청난 이익은 동기를 부여합니다. 게다가, 개발 초기 단계에 있는 산업은 언제나 허점이 많습니다. 이 데이터 세트를 살펴보면 다음 사실이 명확해집니다.

현재 MCP 서비스 노드의 43% 이상이 검증되지 않은 셸 호출 경로를 가지고 있으며, 배포의 83% 이상이 MCP(모델 컨텍스트 프로토콜) 구성 취약점을 가지고 있습니다. AI 구성 요소 배포의 88%는 어떤 형태의 보호 메커니즘도 활성화하지 않습니다. Ollama와 같은 가벼운 AI 배포 프레임 15만 개가 현재 글로벌 공개 네트워크에 노출되어 있으며, 10억 달러 이상의 해시레이트 채굴 위해 납치되었습니다.

더욱 아이러니한 점은 가장 똑똑한 대형 모델을 공격하는 데는 가장 기본적인 기술만 필요하다는 것입니다. 즉, 기본적으로 열려 있는 포트 세트, 노출된 YAML 구성 파일 또는 검증되지 않은 Shell 호출 경로만 있으면 됩니다. 프롬프트 단어가 충분히 정확하게 입력되기만 해도, 대형 모델 자체가 회색 산업이 공격 방향을 찾는 데 도움이 될 수 있습니다. AI 시대에는 기업 데이터 프라이버시의 문이 자유롭게 드나들 수 있습니다.

하지만 이 문제는 해결할 수 없는 것은 아닙니다. AI는 생성과 공격 외에도 다양한 기능을 가지고 있습니다. 이 시대의 주요 주제는 AI를 보호에 활용하는 방법으로 점차 바뀌고 있습니다. 동시에 클라우드에서 AI에 대한 규칙을 정립하는 것도 선도적인 클라우드 공급업체가 모색해야 할 주요 방향이 되었으며, 알리바바 클라우드 보안이 그 중 가장 대표적인 사례입니다.

방금 마무리된 Alibaba Cloud FeiTian 출시 행사에서 Alibaba Cloud는 공식적으로 두 가지 클라우드 보안 경로인 Security for AI와 AI for Security를 ​​발표했으며, 고객에게 "모델 애플리케이션을 위한 엔드투엔드 보안 솔루션"을 제공하는 "Cloud Shield for AI 제품 시리즈"를 출시했습니다. 이는 현재 업계 탐색의 가장 좋은 예입니다.

01 AI가 주사위를 굴릴 때, 왜 회색과 노란색이 항상 먼저 보이나요?

인간 기술의 역사에서 AI가 "황색종이 먼저 시험한" 최초의 새로운 종은 아닙니다. 회색과 노란색이 먼저 등장한 것도 우연이 아니라 기술의 대중화 법칙입니다.

1839년 다게레오타입이 도입되었을 때, 첫 번째로 이를 사용한 계층은 포르노 산업계였다.

인터넷 초창기, 전자상거래가 시작되기 전에도 성인 웹사이트는 이미 온라인 결제에 대해 생각하기 시작했습니다.

오늘날의 대규모 모델 울 파티는 어느 정도 "도메인 이름 시대"에 빨리 부자가 될 수 있다는 신화를 복제하고 있습니다.

시대의 배당금은 언제나 회색과 노란색에 의해 가장 먼저 빼앗긴다. 그들은 규정 준수에 관심이 없고 감독을 기다리지 않기 때문에 당연히 효율성이 매우 높습니다.

그러므로 모든 기술적 폭발은 진흙탕 수프 한 냄비에서 시작되며 AI도 예외는 아닙니다.

2023년 12월, 해커는 "1달러 할인"이라는 단 하나의 메시지만 사용하여 4S 매장의 고객 서비스 로봇이 쉐보레를 1달러에 판매하도록 유도했습니다. 이는 AI 시대에 가장 흔한 '즉각적 주입 공격'으로, 권한 검증이 필요 없고, 로그 흔적도 남기지 않으며, '똑똑하게 말하기'만 해도 전체 논리 체인을 대체할 수 있습니다.

한 걸음 더 나아가서 "탈옥 공격"이 있습니다. 공격자는 수사적 질문, 롤플레잉, 우회 유도 등을 사용하여 모델이 말해서는 안 될 말을 하도록 만드는 데 성공했습니다. 예를 들어 음란물, 약물 제조, 가짜 경고 정보 등이 있습니다.

홍콩에서는 누군가가 고위 임원들의 음성 메시지를 위조해 기업 계좌에서 2억 홍콩달러를 횡령하기도 했습니다.

사기 외에도 AI는 "의도치 않은 출력"의 리스크 있습니다. 2023년에 교육 대기업의 대형 모델 시스템이 수업 계획을 생성할 때 극단적인 내용이 담긴 "유해한 교육 자료"를 실수로 출력했습니다. 단 3일 만에 부모들이 자신의 권리를 옹호했고 여론이 들끓었고 회사 주가는 120억 위안이나 증발했습니다.

AI는 법을 이해하지 못하지만, 능력을 가지고 있으며, 능력이 감독 범위를 벗어나면 해로울 수 있습니다.

하지만 다른 관점에서 보면 AI 기술은 새로운 것이지만, 회색산업과 황색산업의 최종 방향과 수단은 변함이 없으며, 이를 해결하기 위해서는 여전히 보안에 의존해야 합니다.

02 AI 보안

먼저 AI 산업계가 집단적으로 회피하는 잘 알려지지 않은 사실에 대해 이야기해 보겠습니다.

빅모델의 본질은 '지능'이나 '이해'가 아니라 확률적 제어 하의 의미 생성입니다. 따라서 훈련 컨텍스트를 초과하면 예상치 못한 결과가 출력될 수 있습니다.

이런 범위를 벗어난 행동은 당신이 뉴스를 쓰기를 원할 때 그것이 당신을 위해 시를 쓰는 것입니다. 또는 제품을 추천해 달라고 요청했는데, 오늘 도쿄의 기온이 섭씨 25도라고 갑자기 알려주는 경우도 있습니다. 게다가 게임에서 특정 소프트웨어의 정품 일련번호를 알아내지 못하면 격추된다고도 알려줍니다. 대형 모델은 사용자가 정품 소프트웨어 일련번호를 무료로 찾을 수 있도록 돕기 위해 가능한 모든 것을 할 수 있습니다.

출력을 제어할 수 있도록 하려면 회사에서는 모델과 보안을 모두 이해해야 합니다. IDC의 최신 "중국 보안 빅모델 역량 평가 보고서"에 따르면, 보안 빅모델 역량을 갖춘 모든 국내 주요 제조업체와의 경쟁에서 알리바바는 7개 지표 중 4개에서 1위를 차지했으며, 나머지 3개 지표는 모두 업계 평균보다 높았습니다.

실무 측면에서 Alibaba Cloud Security가 제시한 답변도 매우 직설적입니다. 보안을 AI 속도보다 앞서 실행하고 인프라 보안부터 대규모 모델 입력 및 출력 제어, AI 애플리케이션 서비스 보호까지 하향식 3계층 풀스택 보호 프레임 구축하라는 것입니다.

이 세 가지 계층 중 가장 눈에 띄는 것은 대규모 모델 리스크 해결하도록 특별히 설계된 중간 계층인 "AI 가드레일"입니다.

일반적으로 대형 모델의 보안에 대한 주요 리스크 다음과 같습니다: 콘텐츠 위반, 민감한 데이터 유출, 즉석 단어 삽입 공격, 모델 환각 및 탈옥 공격.

그러나 기존의 보안 솔루션은 대부분 "대화하는 프로그램"이 아닌 웹에 맞게 설계된 범용 아키텍처이기 때문에 , 당연히 대규모 모델 애플리케이션에만 국한된 리스크 정확하게 식별하고 대응할 수 없습니다. 생성된 콘텐츠 보안, 상황에 따른 공격 방어, 모델 출력 신뢰성 등의 새로운 문제를 다루는 것은 훨씬 더 어렵습니다. 더 중요한 점은 기존 솔루션에는 세부적으로 제어 가능한 수단과 시각적 추적 메커니즘이 부족하여 기업의 AI 거버넌스에 큰 사각지대가 생긴다는 것입니다. 그들은 문제가 어디에 있는지 모르기 때문에 당연히 문제를 해결할 수 없습니다.

AI Guardrail의 진정한 힘은 단순히 "차단할 수 있다"는 것이 아니라, 업무 훈련된 대규모 모델, AI 서비스 또는 AI 에이전트를 사용하든 관계없이 사용자가 말하는 내용과 대규모 모델이 생성하는 내용을 파악하여 규정 준수, 보안 및 안정성을 달성하기 위한 정확한 리스크 감지 및 적극적인 방어 기능을 제공한다는 것입니다.

특히 AI Guardrail은 다음 세 가지 유형의 시나리오를 보호하는 역할을 합니다.

규정 준수의 핵심: 정치적 민감성, 음란물, 편견, 차별 및 잘못된 가치와 같은 리스크 범주를 포괄하여 생성 AI 입력 및 출력의 텍스트 콘텐츠에 대한 다차원적 규정 준수 검토를 수행합니다. AI 상호 작용 중 유출될 수 있는 개인정보 데이터 및 민감한 정보를 심층적으로 탐지하고, 개인 정보 보호, 기업 개인정보 보호 등과 관련된 민감한 콘텐츠를 식별하고, AI가 생성한 콘텐츠가 법률, 규정 및 플랫폼 사양을 준수하는지 확인하기 위해 디지털 워터마크를 제공합니다.

ꔷ 위협 방어: 즉각적인 단어 공격, 악성 파일 업로드, 악성 URL 링크 등 외부 공격 행위를 실시간으로 탐지하고 차단하여 AI 애플리케이션의 최종 사용자에게 리스크 방지할 수 있습니다.

ꔷ 모델 건강성: AI 모델 자체의 안정성과 신뢰성에 집중합니다. 모델 제일브레이킹 및 신속한 크롤러와 같은 문제에 대한 완전한 감지 메커니즘 세트가 확립되어 모델이 남용, 오용되거나 통제할 수 없는 출력이 생성되는 것을 방지하고 AI 시스템에 대한 "면역 방어선"을 구축합니다.

가장 주목할 점은 AI 가드레일이 단순히 위의 여러 감지 모듈 쌓아 올린 것이 아니라, 모듈 분할, 추가 비용, 제품 변경 없이 진정한 ALL IN ONE API를 구현했다는 점입니다. 모델 입력 및 출력 리스크 의 경우 고객은 추가 제품을 구매할 필요가 없습니다. 다양한 모델 리스크, 즉 주입 리스크, 악성 파일, 콘텐츠 규정 준수, 환각 등은 모두 동일한 제품에서 해결할 수 있습니다. 하나의 인터페이스로 10가지 이상의 공격 시나리오를 탐지하고, 4가지 배포 방법(API 프록시, 플랫폼 통합, 게이트웨이 액세스, WAF 마운팅), 밀리초 수준의 응답, 수천 개의 동시 처리, 최대 99%의 정확도를 지원합니다.

이러한 이유로 AI Guardrail의 진정한 의미는 "모델 보안"을 "제품 역량"으로 전환하여 하나의 인터페이스로 전체 보안 팀을 대체할 수 있다는 것입니다.

물론, 그 큰 모델은 공중에 떠 있는 개념이 아닙니다. 하드웨어와 코드로 실행되고 상위 레벨의 애플리케이션을 실행하는 시스템입니다. 알리바바 클라우드 보안도 인프라 보안, AI 애플리케이션 서비스 보호 등을 포함하도록 업그레이드되었습니다.

인프라 계층에서 Alibaba Cloud Security는 AI-BOM, AI-SPM 및 기타 제품을 핵심으로 하는 Cloud Security Center를 출시했습니다.

구체적으로 AI-BOM(AI Bill of Materials)과 AI-SPM(AI Security Posture Management)의 두 가지 주요 기능은 각각 "어떤 AI 구성 요소를 설치했는가"와 "이 구성 요소에는 몇 개의 홀이 있는가"라는 두 가지 문제를 해결합니다.

AI-BOM의 핵심은 배포 환경에서 모든 AI 구성 요소를 파악하는 것입니다. Ray, Ollama, Mlflow, Jupyter, TorchServe 등 30개 이상의 주요 구성 요소가 "AI 소프트웨어 구성 요소 목록"을 형성하고 해당 구성 요소의 보안 취약점과 종속성 취약성을 자동으로 식별합니다. 문제가 있는 자산은 수동 조사 대신 클라우드 기반 스캐닝을 통해 발견할 수 있습니다.

AI-SPM의 위치는 "레이더"와 비슷합니다. 취약점, 포트 노출, 자격 증명 유출, 일반 텍스트 구성, 무단 액세스 등 여러 측면에서 시스템 보안 상황을 지속적으로 평가하고 동적으로 리스크 수준과 복구 제안을 제공합니다. 보안을 '스냅샷 규정 준수'에서 '스트리밍 거버넌스'로 전환합니다.

한 문장으로 요약하자면, AI-BOM은 패치를 적용한 위치를 알고, AI-SPM은 다시 공격을 받을 수 있는 위치를 알고 있으므로 가능한 한 빨리 예방 조치를 취할 수 있습니다.

AI 애플리케이션 보호 계층의 경우 Alibaba Cloud Security의 핵심 제품은 WAAP(Web Application & API Protection)입니다.

모델 출력이 아무리 똑똑하더라도, 입구에 스크립트 요청, 위조 토큰, 인터페이스 남용이 가득하다면 몇 초도 버틸 수 없습니다. Alibaba WAAP(웹 애플리케이션 및 API 보호)는 이러한 목적을 위해 만들어졌습니다. AI 애플리케이션을 "기존 웹 시스템"처럼 처리하지 않고, 대신 특화된 AI 구성 요소 취약성 규칙, AI 업무 지문 라이브러리, 트래픽 프로파일링 시스템을 제공합니다.

예를 들어: WAAP는 Mlflow의 임의 파일 업로드 및 Ray 서비스 원격 명령 실행 등 50개 이상의 구성 요소 취약점을 다루었습니다. 내장된 AI 크롤러 지문 라이브러리는 매시간 10,000개 이상의 새로운 코퍼스 브러시와 모델 평가 도구를 식별할 수 있습니다. API 자산 식별 기능은 기업 내에서 어떤 시스템이 GPT 인터페이스를 노출했는지 자동으로 감지하고 보안 팀에 이를 "매핑"할 수 있습니다.

가장 중요한 점은 WAAP와 AI 가드레일이 서로 충돌하지 않고, 오히려 상호 보완적이라는 것입니다. 하나는 "누가 오는가"를 살펴보고, 다른 하나는 "무슨 말을 하는가"를 살펴봅니다. 하나는 "인증자"와 같고 다른 하나는 "검열자"와 같습니다. 이를 통해 AI 애플리케이션은 식별, 격리, 추적 및 대책을 통해 "자체 면역" 기능을 갖추게 되며, 이를 통해 "악의적인 사용자를 차단"할 수 있을 뿐만 아니라 "모델 자체가 악의적으로 변하는 것을 방지"할 수도 있습니다.

03 보안을 위한 AI

AI는 구현 측면에서 주사위를 굴리는 것과 같으므로, 어떤 사람들은 AI를 사용해 운세를 보고, 어떤 사람들은 AI를 사용해 연애시를 쓰고, 어떤 사람들은 AI를 사용해 회색 산업에 종사합니다. 일부 사람들이 보안을 위해 이를 사용한다는 것은 놀라운 일이 아닙니다.

과거에는 보안 작업을 위해 밤낮으로 순찰하는 인력이 필요했습니다. 그들은 빨간불과 초록불 경보를 감시하고, 낮에는 어제의 혼란을 처리하고, 밤에는 야간 근무로 시스템과 협력했습니다.

이제 이 모든 일은 AI로 할 수 있습니다. 2024년 알리바바 클라우드의 보안 시스템은 통이 빅모델에 완전히 연결되어 데이터 보안, 콘텐츠 보안, 업무 보안, 보안 운영을 포괄하는 AI 역량 클러스터를 출범시키고 'AI 속도로 보호'라는 새로운 슬로건을 제안할 예정입니다.

의미는 명확합니다. 업무 더 빠르게 진행되고 리스크 그보다 더 빠르게 증가하지만 보안은 그보다 더 빠르게 이루어져야 합니다.

AI를 사용하여 보안 문제를 해결하는 데는 실제로 두 가지가 필요합니다. 보안 운영 효율성을 개선하고 보안 제품을 지능형 제품으로 업그레이드하는 것입니다 .

기존 보안 시스템의 가장 큰 문제점은 "정책 업데이트 지연"입니다. 공격자는 바뀌었지만 규칙은 바뀌지 않았습니다. 경보가 울리면 아무도 그것을 이해하지 못한다.

빅모델이 가져온 변화의 핵심은 보안체계를 규칙기반에서 모델기반으로 전환하고, "AI 이해능력+사용자 피드백"으로 폐쇄형 생태계를 구축하는 것입니다. 즉, AI가 사용자 행동을 이해 → 사용자 피드백 알람 결과 → 지속적인 모델 학습 → 점점 더 정확한 탐지 능력 → 점점 더 짧아지는 주기 → 점점 더 어려워지는 리스크 숨기기. 이것이 바로 "데이터 플라이휠"입니다.

두 가지 장점이 있습니다.

한편, 클라우드 테넌트의 보안 운영은 더 효율적입니다. 과거에는 위협 탐지가 "대량 알림 + 수동 검사"의 비효율적인 모델을 의미하는 경우가 많았습니다. 요즘에는 지능형 모델링을 통해 악성 트래픽, 호스트 침입, 백도어 스크립트 등의 비정상적인 동작을 정확하게 식별할 수 있으며, 경보 발생률이 크게 향상되었습니다. 동시에, 폐기 링크 주변에서 시스템은 자동 폐기의 심층적인 조정과 극히 신속한 대응을 실현했습니다. 호스트 순도는 99%로 안정적으로 유지되고, 트래픽 순도는 99.9%에 가깝습니다. 또한 AI는 알람 속성 지정, 이벤트 분류, 프로세스 권장 사항과 같은 작업에도 깊이 관여합니다. 현재 알람 이벤트 유형 적용률은 99%에 도달하였고, 대형 모델의 사용자 적용률은 88%를 넘어섰습니다. 보안 운영팀의 인적 효율성이 전례 없이 향상되었습니다.

반면, 클라우드 보안 제품의 성능은 빠르게 향상되고 있습니다. 데이터 보안 계층과 업무 보안 계층에서 AI는 "게이트키퍼" 역할을 맡습니다. 대규모 모델 기능을 기반으로 클라우드에서 800개 이상의 엔터티 데이터 유형을 자동으로 식별하고 지능적인 둔감화 및 암호화를 수행할 수 있습니다. 이 시스템은 구조화된 데이터 외에도 30개 이상의 내장 문서 및 이미지 인식 모델을 갖추고 있어 이미지에 있는 ID 번호 및 계약 요소와 같은 민감한 정보를 실시간으로 식별, 분류 및 암호화할 수 있습니다. 전반적인 데이터 라벨링 효율성이 5배나 높아졌고, 인식 정확도는 95%에 도달하여 개인정보 데이터 유출 리스크 크게 줄였습니다.

예를 들어: 콘텐츠 보안 시나리오에서 기존 접근 방식은 인간 검토, 라벨링, 대규모 주석 교육에 의존하는 것입니다. 이제 알리바바는 프롬프트 프로젝트와 의미 강화를 통해 라벨링 효율성이 100% 증가하고, 퍼지 표정 인식이 73% 증가하고, 이미지 콘텐츠 인식이 88% 증가하고, AI 실시간 얼굴 공격 감지 정확도가 99% 증가하는 등 실수익 (Real yield) 을 얻었습니다.

플라이휠이 AI와 인간 경험을 결합한 자율적 예방 및 통제에 초점을 맞춘다면, 스마트 비서는 보안 인력을 위한 전방위 비서입니다.

보안 운영 담당자가 매일 가장 많이 대면 질문은 '이 경보는 무슨 뜻인가?'입니다. 왜 이런 현상이 일어나나요? 이건 거짓 경보인가? 이 문제를 어떻게 처리해야 하나요? 과거에는 이러한 문제를 조사하려면 로그를 살펴보고, 내역을 확인하고, 기존 직원에게 물어보고, 근무 티켓을 발행하고, 기술 지원을 준비해야 했습니다... 지금은 한 문장만 있으면 됩니다.

하지만 지능형 비서의 기능적 위치는 단순히 질문하고 대답하는 로봇이 아니라, 보안 분야의 수직 조종사에 가깝습니다. 핵심 역량 5가지는 다음과 같습니다.

  • 제품 Q&A 도우미: 기능을 구성하는 방법, 정책이 트리거되는 이유, 어떤 리소스가 보호되지 않는지 등에 대한 질문에 자동으로 답하여 대량 작업 지시 서비스를 대체합니다.

  • 알람 해석 전문가: 알람 번호를 입력하면 이벤트 설명, 공격 체인 추적, 대응 전략 제안을 자동으로 출력하고 다국어 출력을 지원합니다.

  • 보안 사고 검토 지원: 침입 사고의 전체 과정을 자동으로 정리하고, 타임라인, 공격 경로 다이어그램 및 책임 결정에 대한 제안을 생성합니다.

  • 보고서 생성기: 한 번의 클릭으로 이벤트 통계, 피드백 처리, 운영 결과를 포함하는 월별/분기별/비상 안전 보고서를 생성하고 시각적 내보내기를 지원합니다.

  • 전체 언어 지원: 중국어와 영어는 이미 지원됩니다. 해외팀의 사용 습관에 자동으로 적응하는 기능을 지원하는 국제 버전은 6월에 출시될 예정입니다.

이 "5가지 작은 것들"을 과소평가하지 마세요. 현재 알리바바의 공식 데이터에 따르면 서비스를 제공받은 사용자 수는 40,000명을 넘어섰고, 사용자 만족도는 99.81%, 모든 유형의 알람이 다루어졌으며, 신속한 지원 역량이 1175% 증가했습니다(2024 회계연도 대비). 간단히 말해, 야간 근무를 하는 우수한 성과의 동료, 보고서를 작성하는 인턴, 알람을 처리하는 엔지니어, 업무 이해하는 보안 컨설턴트를 하나의 API로 묶은 것입니다. 이런 능력을 갖추면 인간은 결정만 내리고 순찰은 더 이상 하지 않게 됩니다.

04 엔딩

돌이켜보면, 역사에는 "획기적인 기술"이 결코 부족하지 않았습니다. 부족한 것은 2년차의 열풍을 견뎌낼 수 있는 기술입니다.

인터넷, P2P, 블록체인, 자율주행차... 모든 기술 혁신은 '새로운 인프라'로 불리지만, 결국 '거버넌스 공백'을 극복하고 진정한 인프라가 될 수 있는 기술은 극소수에 불과합니다.

오늘날의 생성적 AI는 비슷한 단계에 있습니다. 한편으로는 다양한 모델이 존재하고, 자본이 몰려들고 있으며, 응용 프로그램이 계층적으로 발전하고 있습니다. 반면에 즉각적인 단어 삽입, 허가되지 않은 콘텐츠, 데이터 유출, 모델 조작, 수많은 허점, 모호한 경계, 책임에 대한 집중력 상실 등이 있습니다.

하지만 AI는 이전 기술과 다릅니다. 그림을 그리거나, 시를 쓰거나, 프로그래밍하거나, 번역할 수 있을 뿐만 아니라, 인간의 언어, 판단, 심지어 정서 까지도 모방할 수 있습니다. 하지만 이러한 이유로 AI의 취약성은 코드의 허점에서만 비롯되는 것이 아니라 인간 본성을 반영하기도 합니다. 인간은 편견을 가지고 있으며, 개는 인간에게서 배울 것입니다. 인간은 편리함을 추구하고, 개는 당신을 위해 지름길을 택할 것입니다.

기술 자체의 편리함은 이러한 매핑을 증폭시킵니다 . 과거에는 IT 시스템에서 여전히 "사용자 승인"이 필요했고 공격은 침투에 의존했습니다. 이제 대형 모델은 즉각적인 단어 삽입만 요구하며, 단순히 여러분과 채팅만 해도 시스템 오류와 개인 정보 유출이 발생할 수 있습니다.

물론, "완벽한" AI 시스템은 없습니다. 그건 과학소설이지 공학이 아닙니다.

유일한 답은 안전하지 않은 모델을 보호하기 위해 안전한 모델을 사용하고, 지능형 위협에 맞서기 위해 지능형 시스템을 사용하는 것입니다. AI를 대상으로 주사위를 굴릴 때 알리바바는 안전을 선택합니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
1
코멘트