Igor Jablokov, Pryon: 책임감 있는 AI 미래 구축

avatar
AI News
04-25
이 기사는 기계로 번역되었습니다
원문 표시

인공지능이 계속해서 빠르게 발전함에 따라, 세상을 변화시키는 이러한 혁신의 개발 및 배포에 대한 윤리적 우려가 더욱 날카로워지고 있습니다.

AI & Big Data Expo North America 에 앞서 진행된 인터뷰에서 AI 회사 Pryon 의 CEO이자 창립자인 Igor Jablokov는 이러한 시급한 문제를 정면으로 다루었습니다.

AI의 중요한 윤리적 과제

가장 중요한 윤리적 문제에 대한 질문에 Jablokov는 "한 개도 없습니다. 아마도 거의 20개 이상 있을 것입니다"라고 말했습니다. 그는 AI 환각과 허위 유출부터 데이터 개인 정보 보호 위반, 독점 정보 교육으로 인한 지적 재산권(IP) 유출에 이르기까지 신중하게 탐색해야 할 잠재적인 함정에 대해 간략히 설명했습니다.

Jablokov에 따르면 훈련 데이터에 스며드는 편견과 적대적인 콘텐츠는 또 다른 주요 걱정거리입니다. 내장된 에이전트 및 즉각적인 주입 공격과 같은 보안 취약성 또한 그의 우려 사항 목록에서 높은 순위를 차지했으며 대규모 언어 모델의 극단적인 에너지 소비 및 기후 영향도 마찬가지입니다.

프라이온의 기원은 20여년 전 현대 AI의 초기 움직임으로 거슬러 올라갑니다. Jablokov는 이전에 IBM에서 고급 AI 팀을 이끌었고 나중에 Watson이 될 기본 버전을 설계했습니다. “그들은 승인하지 않았습니다. 그래서 좌절감에 빠져 떠나 마지막 회사를 세웠습니다.”라고 그는 말했습니다. 당시 Pryon이라고도 불리는 이 회사는 Amazon의 첫 번째 AI 관련 인수 기업이 되어 현재의 Alexa를 탄생시켰습니다.

현재 Pryon의 화신은 중요한 인프라와 고부담 사용 사례에 초점을 맞춘 책임감 있는 설계를 통해 AI의 윤리적 난관에 맞서는 것을 목표로 삼았습니다. "[우리는] 더 중요한 인프라, 필수 작업자 및 더 심각한 작업을 위해 의도적으로 강화된 무언가를 만들고 싶었습니다."라고 Jablokov는 설명했습니다.

핵심 요소는 기업에 데이터 환경에 대한 유연성과 제어권을 제공하는 것입니다. Jablokov는 "우리는 다중 테넌트 퍼블릭 클라우드, 프라이빗 클라우드, 온프레미스에 이르기까지 플랫폼을 사용하는 방식에 대한 선택권을 제공합니다."라고 말했습니다. 이를 통해 조직은 필요할 때 자체 방화벽 뒤에 매우 민감한 데이터를 링펜싱할 수 있습니다.

Pryon은 또한 설명 가능한 AI와 지식 소스의 검증 가능한 속성을 강조합니다. Jablokov는 "우리 플랫폼에서 답변이 표시되면 이를 탭하면 항상 기본 페이지로 이동하여 정보를 배운 위치를 정확하게 강조표시합니다."라고 설명했습니다. 이를 통해 지식 출처를 인간이 검증할 수 있습니다.

에너지, 제조, 의료와 같은 일부 영역에서 Pryon은 AI 생성 지침이 일선 직원에게 전달되기 전에 인간 참여형 감독을 구현했습니다. Jablokov는 정보가 기술자에게 전달되기 전에 "감독자가 결과를 다시 확인하고 본질적으로 승인 배지를 제공할 수 있는" 한 가지 예를 지적했습니다.

책임감 있는 AI 개발 보장

Jablokov는 책임감 있는 AI 개발 및 배포를 보장하기 위해 새로운 규제 프레임워크를 강력히 옹호합니다. 그는 최근 백악관의 행정 명령을 시작으로 환영하면서 환각, 정적 훈련 데이터, 데이터 유출 취약성, 액세스 제어 부족, 저작권 문제 등과 같은 생성 AI와 관련된 위험에 대한 우려를 표명했습니다.

Pryon은 이러한 규제 논의에 적극적으로 참여해 왔습니다. Jablokov는 “우리는 혼란스러운 정부 기관에 역채널링을 하고 있습니다.”라고 말했습니다. "우리는 규제 환경이 출시됨에 따라 규제 환경에 대한 우리의 관점을 제공하는 데 적극적으로 참여하고 있습니다...우리는 생성 AI 사용과 관련된 일부 위험을 표현하면서 나타나고 있습니다."

일부 AI 리더들이 경고한 바와 같이 통제되지 않는 실존적 "AI 위험"의 가능성에 대해 Jablokov는 Pryon의 통제된 접근 방식에 대해 상대적으로 낙관적인 어조를 보였습니다. "우리는 항상 검증 가능한 귀속을 위해 노력해 왔습니다.… 솔루션이 어디에서 나오는지 이해하고 그 내용으로 결정을 내릴지 여부를 결정합니다.”

CEO는 환각에 대한 논란을 불러일으키고 윤리적 제약이 부족한 신흥 개방형 대화형 AI 비서와 Pryon의 사명을 확고히 거리를 두었습니다.

“우리는 광대 대학이 아닙니다. 우리 제품은 지구상의 더 심각한 환경에 사용되도록 설계되었습니다.”라고 Jablokov는 솔직하게 말했습니다. "내 생각엔 여러분 중 어느 누구도 응급실에 가서 그곳의 의료인이 ChatGPT, Bing, Bard에 질문을 입력하는 것을 불편하게 여기지 않을 것입니다…"

그는 고위험의 실제 의사 결정에 있어 주제 전문 지식과 감성 지능의 중요성을 강조했습니다. “당신은 현재 겪고 있는 질병과 유사한 질병을 치료한 다년간의 경험을 가진 사람을 원합니다. 그리고 무엇을 추측합니까? 당신은 그들이 당신을 더 좋게 만드는 데 관심을 갖는 감정적 특성이 있다는 사실을 좋아합니다.”

다가오는 AI & 빅 데이터 엑스포 에서 Pryon은 에너지, 반도체, 제약, 정부 등 산업 전반에 걸쳐 플랫폼을 선보이는 새로운 기업 사용 사례를 공개할 예정입니다. Jablokov는 개발자를 위한 잠재적으로 낮은 수준의 액세스를 포함하여 엔드투엔드 엔터프라이즈 제품을 넘어서 "Pryon 플랫폼을 사용하는 다양한 방법"도 공개할 것이라고 말했습니다.

AI의 영역이 좁은 응용 프로그램에서 보다 일반적인 기능으로 빠르게 확장됨에 따라 윤리적 위험을 해결하는 것이 더욱 중요해질 것입니다. 거버넌스, 검증 가능한 지식 소스, 인간 감독 및 규제 기관과의 협력에 대한 Pryon의 지속적인 초점은 산업 전반에 걸쳐 보다 책임감 있는 AI 개발을 위한 템플릿을 제공할 수 있습니다.

아래에서 Igor Jablokov와의 전체 인터뷰를 시청할 수 있습니다.

업계 리더로부터 AI 및 빅데이터에 대해 자세히 알아보고 싶으십니까? 암스테르담, 캘리포니아, 런던에서 열리는 AI & 빅데이터 엑스포를 확인해보세요. 종합 이벤트는 BlockX , Digital Transformation Week , Cyber ​​Security & Cloud Expo 를 포함한 다른 주요 이벤트와 함께 개최됩니다.

여기에서 TechForge가 제공하는 기타 향후 엔터프라이즈 기술 이벤트와 웹 세미나를 살펴보세요.

Igor Jablokov, Pryon: 책임 있는 AI 미래 구축 게시물이 AI News 에 처음 게재되었습니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
13
즐겨찾기에 추가
4
코멘트