AI는 비즈니스 시스템과 IT 생태계 전반에 빠르게 보편화되고 있으며, 누구도 예상하지 못했던 속도로 도입과 개발이 진행되고 있습니다. 오늘날 우리가 어디를 가든 소프트웨어 엔지니어가 맞춤형 모델을 구축하고 제품에 AI를 통합하고 있으며, 비즈니스 리더가 업무 환경에 AI 기반 솔루션을 통합하고 있습니다.
그러나 AI를 구현하는 가장 좋은 방법에 대한 불확실성으로 인해 일부 회사는 조치를 취하지 못하고 있습니다. Boston Consulting Group의 최신 Digital Acceleration Index(다이(Dai))는 2,700명의 임원을 대상으로 한 글로벌 설문 조사로, 조직이 새로운 AI 규제에 완전히 대비되었다고 응답한 사람은 28%에 불과했습니다 .
그들의 불확실성은 빠르게 도래하는 AI 규정으로 인해 더욱 심화되었습니다. EU AI 법이 진행 중이고 , 아르헨티나는 AI 계획 초안을 발표했으며, 캐나다는 AI 및 데이터 법을 가지고 있고, 중국은 수많은 AI 규정을 제정했으며, G7 국가들은 "히로시마 AI 프로세스"를 시작했습니다. OECD가 AI 원칙을 개발하고, UN이 새로운 UN AI 자문 기구를 제안했으며, 바이든 행정부가 AI 권리장전에 대한 청사진을 발표하면서(하지만 이는 두 번째 트럼프 행정부에서 빠르게 바뀔 수 있음) 지침이 풍부합니다.
개별 미국 주에서도 입법이 이루어지고 있으며, 많은 산업 프레임워크에 등장하고 있습니다. 지금까지 21개 주가 콜로라도 AI법과 캘리포니아 CCPA 조항을 포함하여 어떤 방식으로든 AI 사용을 규제하는 법률을 제정했으며, 추가로 14개 주가 승인을 기다리는 법률을 가지고 있습니다.
한편, AI 규제 논쟁의 양측에는 큰 목소리가 있습니다. SolarWinds의 새로운 설문 조사에 따르면 IT 전문가의 88%가 더 강력한 규제를 옹호하고 있으며, 별도의 연구에 따르면 영국인의 91%가 정부가 기업의 AI 시스템에 대한 책임을 묻기 위해 더 많은 노력을 기울여야 한다고 밝혔습니다. 반면, 50개가 넘는 기술 회사의 리더들은 최근 EU의 엄격한 AI 규제를 긴급하게 개혁할 것을 촉구하는 공개 서한을 작성하여 이러한 규제가 혁신을 저해한다고 주장했습니다.
규제 기관이 기술을 따라잡기 위해 애쓰고 있기 때문에 기업 리더와 소프트웨어 개발자에게는 확실히 까다로운 시기입니다. 물론 AI가 제공할 수 있는 이점을 활용하고 싶을 것입니다. 어떤 규제 요건이든 준수할 수 있도록 설정하고 경쟁자가 앞서 나가는 동안 불필요하게 AI 사용을 방해하지 않는 방식으로 활용할 수 있습니다.
우리는 수정 구슬이 없으므로 미래를 예측할 수 없습니다. 하지만 AI 규제 준수를 위한 토대를 마련할 시스템과 절차를 설정하기 위한 몇 가지 모범 사례를 공유할 수 있습니다.
더 넓은 생태계에서 AI 사용을 계획하세요
팀의 AI 사용을 알고 있지 않으면 관리할 수 없지만, 그것만으로도 상당한 과제가 될 수 있습니다. 섀도우 IT는 이미 사이버 보안 팀의 재앙입니다. 직원들이 IT 부서의 지식 없이 SaaS 도구에 가입하여 알려지지 않은 수의 솔루션과 플랫폼이 비즈니스 데이터 및/또는 시스템에 액세스할 수 있게 합니다.
이제 보안팀도 섀도우 AI와 씨름해야 합니다. 많은 앱, 챗봇 및 기타 도구는 AI, 머신 러닝(ML) 또는 자연어 프로그래밍(NLP)을 통합하지만 이러한 솔루션은 반드시 명백한 AI 솔루션이 아닙니다. 직원이 공식 승인 없이 이러한 솔루션에 로그인하면 귀하의 지식 없이 AI를 귀하의 시스템에 가져옵니다.
Opice Blum의 데이터 프라이버시 전문가인 Henrique Fabretti Moraes가 설명했듯이 , "사용 중인 도구(또는 사용하려는 도구)를 매핑하는 것은 허용 가능한 사용 정책과 잠재적인 완화 조치를 이해하고 세부 조정하여 사용과 관련된 위험을 줄이는 데 매우 중요합니다."
일부 규정은 공급업체의 AI 사용에 대한 책임을 묻습니다. 상황을 완전히 제어하려면 귀하와 파트너 조직의 환경에 있는 모든 AI를 매핑해야 합니다. 이와 관련하여 Harmonic 과 같은 도구를 사용하면 공급망 전체에서 AI 사용을 감지하는 데 도움이 될 수 있습니다.
데이터 거버넌스 검증
데이터 개인정보 보호와 보안은 모든 AI 규정, 즉 이미 시행 중인 규정과 승인을 앞둔 규정 모두의 핵심 관심사입니다.
AI를 사용하려면 GDPR과 CCPR과 같은 기존 개인정보 보호법을 준수해야 합니다. 이 법률에 따라 AI가 액세스할 수 있는 데이터와 AI가 해당 데이터를 어떻게 사용하는지 알아야 하며, AI가 사용하는 데이터를 보호하기 위한 보호 장치를 입증해야 합니다.
규정 준수를 보장하려면 조직에 강력한 데이터 거버넌스 규칙을 도입하고, 정의된 팀이 관리하고, 정기 감사로 뒷받침해야 합니다. 정책에는 데이터 보안과 AI를 사용하는 도구를 포함한 모든 도구의 출처를 평가하여 잠재적인 편향 및 개인 정보 보호 위험 영역을 파악하기 위한 실사가 포함되어야 합니다.
SolarWinds의 솔루션 엔지니어링 부문 부사장 겸 글로벌 책임자인 롭 존슨은 "조직은 데이터 위생을 강화하고, 견고한 AI 윤리를 시행하고, 이러한 노력을 이끌 적합한 팀을 구성하여 사전 조치를 취하는 것이 의무입니다."라고 말했습니다 . "이러한 사전 조치는 진화하는 규정을 준수하는 데 도움이 될 뿐만 아니라 AI의 잠재력을 극대화합니다."
AI 시스템에 대한 지속적인 모니터링을 구축하세요
효과적인 모니터링은 비즈니스의 모든 영역을 관리하는 데 필수적입니다. AI의 경우 다른 사이버 보안 영역과 마찬가지로 AI 도구가 무엇을 하는지, 어떻게 동작하는지, 어떤 데이터에 액세스하는지 파악하기 위해 지속적인 모니터링이 필요합니다. 또한 조직에서 AI 사용을 파악하기 위해 정기적으로 감사해야 합니다.
소프트웨어 개발 회사 Zibtek의 설립자인 캐시 메릴은 "AI를 사용하여 다른 AI 시스템을 모니터링하고 규제한다는 아이디어는 이러한 시스템이 효과적이고 윤리적임을 보장하는 데 중요한 발전입니다."라고 말했습니다 . "현재 다른 모델의 행동을 예측하는 머신 러닝 모델(메타 모델)과 같은 기술이 AI를 모니터링하는 데 사용됩니다. 이 시스템은 운영 AI의 패턴과 출력을 분석하여 이상, 편향 또는 잠재적 실패를 심각해지기 전에 감지합니다."
Cyber GRC 자동화 플랫폼 Cypago 를 사용하면 백그라운드에서 지속적인 모니터링과 규제 감사 증거 수집을 실행할 수 있습니다. 무코드 자동화를 통해 기술 전문 지식 없이도 사용자 정의 워크플로 기능을 설정할 수 있으므로 설정한 제어 및 임계값에 따라 경고 및 완화 조치가 즉시 트리거됩니다.
Cypago는 다양한 디지털 플랫폼과 연결하고, 사실상 모든 규제 프레임워크와 동기화하고, 모든 관련 제어를 자동화된 워크플로로 전환할 수 있습니다. 통합 및 규제 프레임워크가 설정되면 플랫폼에서 사용자 정의 워크플로를 만드는 것은 스프레드시트를 업로드하는 것만큼 간단합니다.
위험 평가를 지침으로 사용하세요
외부 규정 준수, 내부 비즈니스 위험 관리, 소프트웨어 개발 워크플로 개선을 위해 어떤 AI 도구가 고위험, 미디엄(Medium) 험, 저위험인지 아는 것이 중요합니다. 고위험 사용 사례는 배포 전에 더 많은 보호 조치와 평가가 필요합니다.
Holistic AI의 AI 정책 전문가인 아이샤 굴리는 "AI 위험 관리를 프로젝트 개발의 어느 시점에서나 시작할 수 있지만, 위험 관리 프레임워크를 늦기 전에 구현하면 기업이 신뢰를 높이고 자신감을 가지고 확장하는 데 도움이 될 수 있습니다." 라고 말했습니다 .
다양한 AI 솔루션으로 인해 발생하는 위험을 알고 있으면 해당 솔루션에 데이터와 중요한 비즈니스 시스템에 대한 액세스 권한을 부여할 수준을 선택할 수 있습니다.
규정 측면에서, EU AI법은 이미 다양한 위험 수준을 가진 AI 시스템을 구분하고 있으며, NIST는 신뢰성, 사회적 영향, 인간이 시스템과 상호 작용하는 방식을 기준으로 AI 도구를 평가할 것을 권장합니다.
AI 윤리 거버넌스를 사전에 설정하세요
AI 규정이 윤리적 AI 정책을 수립할 때까지 기다릴 필요가 없습니다. 윤리적 AI 고려 사항에 대한 책임을 할당하고, 팀을 구성하고, 사이버 보안, 모델 검증, 투명성, 데이터 프라이버시, 사고 보고를 포함하는 윤리적 AI 사용에 대한 정책을 수립하세요.
NIST의 AI RMF와 ISO/IEC 42001과 같은 기존 프레임워크 중에는 정책에 통합할 수 있는 AI 모범 사례를 권장하는 프레임워크가 많이 있습니다.
"AI 규제는 윤리적이고 책임감 있는 사용을 보장하기 위해 필요하고 불가피합니다. 이는 복잡성을 초래할 수 있지만 혁신을 방해할 필요는 없습니다." Cypago의 CEO 겸 공동 설립자인 Arik Solomon이 말했습니다 . "규정 준수를 내부 프레임워크에 통합하고 규제 원칙에 맞춰 정책과 프로세스를 개발함으로써 규제 산업의 기업은 지속적으로 성장하고 효과적으로 혁신할 수 있습니다."
윤리적 AI에 대한 선제적 접근 방식을 보여줄 수 있는 회사는 규정 준수에 더 나은 입장을 취할 수 있습니다. AI 규정은 투명성과 데이터 프라이버시를 보장하는 것을 목표로 하므로 목표가 이러한 원칙과 일치하면 향후 규정을 준수하는 정책을 수립할 가능성이 더 높습니다. FairNow 플랫폼은 단일 위치에서 AI 거버넌스, 편향 검사 및 위험 평가를 관리하기 위한 도구를 제공하여 이 프로세스를 도울 수 있습니다.
AI 규제에 대한 두려움이 당신을 억제하지 않도록 하세요
AI 규정은 여전히 진화하고 부상하고 있어 기업과 개발자에게 불확실성을 안겨줍니다. 하지만 유동적인 상황이 AI의 혜택을 누리는 것을 막지 않도록 하세요. 데이터 프라이버시, 투명성, 윤리적 사용의 원칙에 부합하는 정책, 워크플로, 도구를 사전에 구현함으로써 AI 규정에 대비하고 AI 기반 가능성을 활용할 수 있습니다.
내일의 AI 규정을 위한 오늘의 준비라는 게시물이 AI News 에 처음 게재되었습니다.