ChatGPT 뒤에 숨은 "AI 이주 노동자" 공개: 지루하고 반복적이며, 건당 지급되며, 최저 시급은 미화 1달러입니다.

이 기사는 기계로 번역되었습니다
원문 표시

출처: 텐센트 테크놀로지

개요: 데이터 주석자는 데이터를 분류하고 태그 인공 지능이 대량 데이터에서 패턴을 찾아 학습할 수 있도록 하며, 기계 뒤에 숨겨진 "유령 노동"으로 간주됩니다. 주석 작업은 인공지능의 기초이자 전체 공급망을 형성했으며, 이러한 작업은 앞으로도 오랫동안 존재할 것입니다.

집중하다

1. 인공지능은 대량 데이터에서 패턴을 찾아 학습하지만 먼저 데이터를 인간이 분류하고 태그 해야 하기 때문에 기계 뒤에 숨겨진 '유령 노동'으로 간주되는 데이터 주석자가 등장합니다.

2. 주석자의 작업은 지루하고 지루하며 반복적인 작업을 수행해야 하는 경우가 많습니다. 건당 지급되며 평균 시간당 임금은 5~10달러(약 RMB 36~72)입니다. 원). 올해 초까지 일부 주석자의 시급은 시간당 미화 1~3달러(약 7~22위안)로 떨어졌습니다.

3. 주석 작업은 여전히 ​​인공지능의 기초이며 완전한 공급망을 형성했습니다. 이런 종류의 작업은 앞으로도 오랫동안 계속될 것입니다.

4. 주석 작업과 스마트폰 및 자동차 제조의 차이점은 변형이 쉽고 유동적이며, 운영 비용이 낮은 곳으로 흘러가는 경우가 많다는 점입니다.

나이로비 대학교를 졸업한 지 몇 달 뒤, 현재 30세인 조는 주석가라는 직업을 찾았는데, 그 일은 지루하고 지루했으며 주로 인공 지능 훈련에 사용되는 원시 정보를 처리하는 일을 도왔습니다. 인공지능은 대량 의 데이터에서 패턴을 찾아 학습하지만, 먼저 이 데이터를 인간이 분류하고 태그 해야 하기 때문에 인간은 기계 뒤에 숨어 있는 '유령 노동'이라고 할 수 있다.

예를 들어 Joe의 작업을 보면 자율 주행 자동차용 비디오에 레이블을 태그 자동차, 보행자, 자전거 타는 사람 및 운전자가 주의해야 하는 모든 것을 프레임별로 모든 카메라 각도에서 식별합니다. 이것은 어렵고 반복적인 작업입니다. 몇 초짜리 짧은 비디오에 주석을 다는 데 8시간이 걸리며 Joe는 이에 대해 약 10달러를 받습니다.

그러던 2019년 그에게 기회가 찾아왔고, Joe는 주석자가 절실히 필요한 새 회사에서 새로운 사람들을 교육하기 시작했고, 이전 수입의 4배를 벌었습니다. 2주마다 50명의 신입 직원이 견습 과정을 시작하기 위해 나이로비의 사무실 건물에 줄을 섭니다. 주석자에 대한 수요는 끝이 없는 것 같습니다. 그들은 거울 셀카에 보이는 옷을 분류하고, 로봇 진공청소기의 눈을 통해 자신이 있는 방을 식별하고, LiDAR로 스캔한 오토바이 주위에 상자를 그려야 합니다. Joe의 학생 중 절반 이상이 일반적으로 훈련이 끝나기 전에 중퇴합니다. 그는 "어떤 사람들은 한 곳에 오랫동안 머무는 방법을 모른다"고 외교적으로 설명했다. 게다가 그는 "일이 지루하다"고 인정했다.

하지만 일자리가 부족한 곳에서 결국 좋은 일자리였고, 조는 수백 명의 졸업생을 배출했다. 훈련이 끝나면 이 견습생들은 집에 가서 자신들이 무엇을 하고 있는지 아무에게도 말하지 않고 침실과 부엌에서 혼자 일할 수 있습니다. 그것은 실제 문제가 아닙니다. 왜냐하면 그들 자신도 자신이 하고 있는 일을 이해하지 못하기 때문입니다.

자율주행차의 사물 태그 작업은 쉽지만 왜곡된 대화 조각을 분류하고 말하는 사람이 로봇인지 인간인지 식별하는 것은 어려운 일입니다. 각 인식 개체는 일부 대규모 프로젝트의 작은 부분이므로 AI가 무엇을 하도록 훈련하는지 정확히 말하기는 어렵습니다. 이러한 개체의 이름도 단서를 제공하지 않습니다. Crab Generation, Whale Segment, Woodland Gyro 및 Pillbox Bratwurst는 모두 논리적 순서 없이 작동하는 코드 이름입니다.

그들을 고용하는 회사는 대부분의 사람들이 그것을 영어를 유창하게 구사하는 사람에게 취업 기회를 제공하는 웹사이트인 Remotasks로만 알고 있습니다. 대부분의 주석 작성자와 마찬가지로 Joe는 Remotasks가 Scale AI가 소유한 계약 아웃소싱 회사라는 사실을 전혀 몰랐습니다. Scale AI는 인공지능 스타트업인 OpenAI와 미군을 고객으로 둔 수십억 달러 규모의 실리콘 밸리 데이터 제공업체입니다. Remotasks나 Scale AI 모두 웹사이트에서 서로를 언급하지 않습니다.

01 인간의 고유한 능력을 활용하여 기계를 돕는다

OpenAI의 ChatGPT와 같은 대규모 언어 모델에 대한 대중의 반응 대부분은 자동화할 것으로 보이는 작업에 초점을 맞췄습니다. 그러나 가장 인상적인 AI 시스템조차도 인간의 도움에 의존하고 있으며, 수많은 사람들이 데이터에 라벨을 붙이고 데이터가 혼란스러울 때 개입하여 훈련하고 있습니다. 이 데이터를 구입할 여유가 있는 회사만이 업계에서 경쟁할 수 있으며, 이 데이터를 얻는 사람들은 이 데이터를 비밀로 유지하기 위해 많은 노력을 기울일 것입니다. 그 결과 소수의 사람들을 제외하고는 무엇이 이러한 시스템의 동작에 영향을 미치는지 거의 알지 못하며, 이러한 시스템의 동작을 형성하는 배후에 있는 사람들에 대해서는 훨씬 더 적게 알고 있습니다.

Joe의 학생들에게 그것은 평범함을 없애는 일입니다. 그들은 엄격한 일정을 준수해야 하며 자신이 무엇을 하고 있는지, 누구를 위해 일하고 있는지 알 필요가 없습니다. 실제로 그들은 자신을 일한다고 부르는 경우가 거의 없으며 단지 일상적으로 "과제"를 완료하는 것뿐입니다. 그들은 스스로를 노동자라고 부릅니다.

인류학자 데이비드 그레이버(David Graeber)는 소위 헛소리 직업을 의미나 목적이 없는 직업으로 정의한 적이 있습니다. 이는 자동화되어야 하지만 관료주의, 지위 또는 관성으로 인한 것이 아닌 작업입니다. AI를 훈련시키는 작업도 비슷합니다. 사람들이 자동화하려는 작업은 종종 자동화된 것으로 생각되지만 여전히 인간의 개입이 필요합니다. 이러한 작업에는 특별한 목적이 있지만 주석 작성자는 이를 알지 못합니다.

현재의 인공지능 열풍은 다소 지루하고 반복적인 노동에서 시작됐다. 2007년 초, 당시 프린스턴 대학교 교수였던 인공지능 연구원 Li Feifei는 이미지 인식 신경망을 개선하는 열쇠는 수만 개가 아닌 수백만 개의 라벨이 태그 이미지가 필요한 더 많은 데이터를 훈련하는 것이라고 의심했습니다. 문제는 그녀의 팀이 그 많은 사진에 라벨을 붙이는 데 수십 년과 수백만 달러가 걸렸다는 것입니다.

Li Feifei는 전 세계 사람들이 저임금으로 다양한 소규모 작업을 완료하는 Amazon의 크라우드소싱 플랫폼인 Mechanical Turk에서 수천 명의 직원을 찾았습니다. ImageNet으로 알려진 주석이 달린 결과 데이터 세트는 머신러닝(ML) 분야에 새로운 활력을 불어넣고 지난 10년 동안 발전을 이끈 획기적인 발전을 가능하게 했습니다.

주석은 여전히 ​​인공 지능 개발에 필수적인 부분이지만, 엔지니어들은 이것이 보다 매력적인 모델링 작업을 위한 단기적이고 번거로운 전제 조건일 뿐이라고 느끼는 경우가 많습니다. 가능한 한 많은 태그 데이터를 수집하여 자신의 모델을 최대한 저렴하게 훈련할 수 있으며, 성공하면 적어도 이론적으로는 더 이상 주석자가 필요하지 않습니다. 그러나 주석 작업은 실제로 완료되지 않습니다. 연구원들은 머신러닝(ML) 시스템이 "매우 취약"하며 훈련 데이터에서 잘 설명되지 않은 내용을 만나면 쉽게 실패할 수 있다고 믿습니다. 이러한 실패를 "최첨단 사례"라고 하며 심각한 결과를 초래할 수 있습니다.

2018년에는 Uber의 자율주행 테스트 차량 중 하나가 자전거 이용자와 보행자를 피하도록 프로그래밍되었음에도 불구하고 길을 건너는 자전거 이용자를 어떻게 해야 할지 몰랐기 때문에 한 여성을 치고 사망했습니다. 더 많은 AI 시스템이 법적 조언과 의료 지원을 제공할수록 더 많은 엣지 케이스에 직면하게 되고 이를 분류하는 데 더 많은 사람이 필요하게 됩니다. 이것은 기계를 돕기 위해 독특한 인간 능력을 사용하는 Joe와 같은 사람들의 글로벌 산업을 탄생시켰습니다.

지난 6개월 동안 조사 기술 기자인 Josh Dzieza는 전 세계 20명이 넘는 주석가와 이야기를 나누었습니다. 이들 중 다수는 최첨단 챗봇을 교육하고 있지만 인공 지능을 계속 실행하는 데 필요한 일상적인 육체 노동을 수행하는 사람들도 많습니다. 누군가 TikTok 동영상을 정서 콘텐츠, 새로운 형태의 스팸, 부적절한 온라인 광고로 분류했습니다. 다른 사람들은 관련 구매 유형을 찾기 위해 신용 카드 거래를 보거나 전자 상거래 권장 사항을 보고 다른 셔츠를 구매한 후 실제로 해당 셔츠를 좋아할지 결정합니다.

인간은 고객 서비스 챗봇 오류를 수정하고, 아마존의 스마트 비서 알렉사의 요청을 듣고, 영상 통화 중에 사람들의 정서 분류하고 있습니다. 스마트 냉장고가 새로운 포장으로 인해 혼동하지 않도록 식품에 라벨을 붙이고, 경보를 울리기 전에 자동화된 보안 카메라를 확인하고, 혼란스러운 자율 트랙터가 옥수수를 식별하도록 돕습니다.

02 주석은 '최연소 자수성가 억만장자'를 낳은 대기업

비영리 AI 파트너십(Partnership on AI)의 프로그램 및 연구 책임자인 소남 진달(Sonam Jindal)은 "이것은 완전한 공급망이다"라며 "업계의 일반적인 견해는 이 작업이 기술 개발의 중요한 부분이 아니며 미래에 성공하지 못할 것이라는 것이다. AI 구축에 대한 모든 흥분이 퍼지고 있고 일단 구축하면 더 이상 주석이 필요하지 않은데 왜 굳이 생각할 필요가 있습니까? 하지만 데이터 태그 인간과 마찬가지로 AI의 기초입니다. AI, 우리는 이것을 AI 경제에서 앞으로도 오랫동안 머물게 될 실제 직업으로 생각해야 합니다."

OpenAI, Google, Microsoft와 같은 친숙한 이름 뒤에 있는 데이터 공급업체는 어떤 형태로든 나타납니다. 케냐와 네팔의 CloudFactory와 같이 콜센터와 같은 사무실을 갖춘 민간 아웃소싱 회사도 있습니다. Joe는 Remotasks로 전환하기 전에 시간당 1.20달러를 받고 주석 작업을 했습니다.

Mechanical Turk 및 Clickworker와 같은 "크라우드워커" 사이트도 있는데, 여기에는 누구나 가입하여 작업을 완료할 수 있습니다. 중간에는 Scale AI와 같은 서비스가 있습니다. 누구나 등록할 수 있지만 모든 사람은 적격 시험과 교육 과정을 통과해야 하며 성과에 대한 모니터링을 받아야 합니다. 주석은 큰 사업입니다. Scale AI는 당시 19세였던 Alexander Wang이 2016년에 설립했으며 2021년에 73억 달러의 가치로 평가되어 Forbes가 선정한 "자수제작한 최연소 억만장자"에 포함되었습니다.

이 복잡한 공급망은 외부인이 이해하기 어렵습니다. 업계 소식통에 따르면 태그 데이터를 구매하는 회사는 엄격한 기밀 유지를 요구합니다. 주석은 개발 중인 인공지능 시스템에 대한 정보를 유출하는 경우가 있으며, 주석자가 대량 유출을 방지하기가 어렵습니다. 주석 작성자는 자신의 작업에 대해 누구에게도 말하지 말라고 항상 경고를 받습니다. 친구나 동료에게도 마찬가지입니다. 게다가 극단적인 분업으로 인해 자신의 직업에 대해 이야기하고 싶어도 정보가 충분하지 않습니다.

이 때문에 애노테이션 작업에 종사하는 인력의 수를 구체적으로 추정할 수는 없지만, 그 규모가 크고 빠르게 증가하고 있는 것은 확실하다. Google Research는 최근 미래의 "수백만"에서 "수십억"에 이르는 주석자 수에 대한 모호한 추정치를 제공하는 논문을 발표했습니다.

자동화는 종종 예상치 못한 방식으로 이루어집니다. 의료 데이터 주석 회사인 Centaur Labs의 CEO인 Erik Duhaime은 몇 년 전 몇몇 유명 머신러닝(ML) 엔지니어들이 인공 지능이 방사선 전문의의 업무를 대체할 것이라고 예측했다고 회상했습니다. 그런 일이 일어나지 않으면 방사선 전문의가 AI를 도구로 사용하는 것이 일반적인 통념입니다.

Duhaime에 따르면 이러한 시나리오는 모두 발생하지 않았습니다. 인공 지능은 특정 작업에 매우 뛰어나므로 작업을 세분화하여 전문화된 알고리즘 시스템과 동등하게 전문화된 인간에게 할당하게 됩니다. 예를 들어 AI 시스템은 암을 감지할 수 있지만 특정 유형의 기계와 특정 유형의 이미지에서만 가능하다고 그는 말했습니다. 따라서 AI가 올바른 유형의 데이터를 받고 있는지 확인하는 데 도움을 줄 사람이 필요하고, 보고서를 작성하기 위해 AI를 다른 AI에 넘겨주고 마지막으로 AI가 작업을 수행하고 있는지 확인하는 다른 사람이 필요할 수도 있습니다. 인간. Duhaime은 "AI가 인간의 직업을 대체하지는 않지만 업무가 조직되는 방식을 변화시킵니다."라고 말했습니다.

인공지능을 똑똑하고 생각하는 기계라고 생각한다면, 그 뒤에 있는 인간을 간과하고 있을 수도 있습니다. Du Haimei는 인공 지능이 현대 작업에 미치는 영향은 장인에서 산업 제조 시대로의 전환과 같다고 믿습니다. 일관된 프로세스는 작은 작업으로 분류되어 조립 라인을 따라 배열됩니다. 일부 단계는 기계에 의해 완료되고 일부 단계는 인간에 의해 완료됩니다. , 하지만 이전과는 다르며 상황은 완전히 다릅니다.

AI 중단에 대한 우려는 AI가 특정 작업을 자동화하지만 전체 작업은 자동화하지 않는다는 말로 반박되는 경우가 많습니다. 이러한 작업은 종종 지루하고 지루하기 때문에 사람들이 더 만족스럽고 인간적인 일을 추구할 수 있게 해줍니다. 그러나 AI의 부상이 정보 전송과 필기의 번거로움을 없애고 커뮤니케이션, 비즈니스, 서류 작업에 대한 더 많은 정보를 생성하는 전화나 타자기처럼 과거의 노동 절약 기술처럼 보일 수도 있습니다. 이러한 작업을 관리하려면 사무원, 회계사, 타이피스트와 같은 새로운 유형의 직원으로 구성된 새로운 사무실이 필요했습니다. AI가 직장에 합류하면 직장을 잃지 않을 수도 있지만, 낯설고, 더 고립되고, 더 지루해질 수 있습니다.

03 복잡한 현실을 기계가 이해할 수 있는 형태로 단순화

올해 초 저널리스트 Ziyeza는 Remotasks와 협력하기로 계약했습니다. 과정은 간단합니다. 컴퓨터 사양, 인터넷 속도, 기본 연락처 정보만 입력하시면 교육 센터에 입장하실 수 있습니다. 유급 과제를 얻기 위해 Ziyeza는 먼저 관련이 있지만 무급인 입문 과정을 이수해야 했습니다. 훈련 센터에서는 Glue Swimming 및 Poster Hawaii와 같이 이해하기 어려운 이름을 가진 일련의 수업을 선보입니다. Zieza는 소셜 미디어 사진에 의류 태그를 지정해야 하는 GFD Chunking이라는 기능을 클릭했습니다.

또한 진품이고 사람이 착용할 수 있거나 실제 사람이 착용하도록 의도된 품목에 라벨을 부착해야 하는 등 작업에 대한 지침이 있습니다. Zieza는 실제 사람들이 입을 수 있는 실제 옷과 입을 수 없는 가짜 옷을 구별하는 능력에 대해 확신을 갖고 테스트를 시작했습니다. 그러나 그는 즉시 타격을 입었습니다. 컴퓨터에는 치마를 입은 여성의 잡지 사진이 표시되었습니다. 옷 사진은 진짜 옷으로 간주되어야 할까요? 아니요, Zieza는 생각했습니다. 왜냐하면 사람들은 옷을 입고 사진을 찍을 수 없기 때문입니다. 결과는 오류입니다! 인공지능의 눈에는 실제 옷 사진이 실제 옷과 동일하기 때문이다.

다음 사진은 어두운 침실에서 전신거울이 비치는 가운데 셀카를 찍고 있는 여성의 모습이다. 그녀가 입고 있는 셔츠와 반바지는 실제 옷인데, 옷에 비친 모습도 실제일까요? 지에자 역시 부정적인 답변을 내놨지만, 인공지능 시스템은 실제 옷에 비친 모습도 실제 옷이어야 한다고 믿었다.

당황스러운 시행착오 끝에 Zieza는 마침내 실제 작업에 착수했지만, 자신이 따르려고 했던 지침이 여러 번 업데이트되어 다음을 포함하여 길이가 43페이지로 늘어났다는 사실을 알게 되었습니다. 옷이 가득한 열린 여행가방에는 라벨을 붙이지 마세요. 신발에는 라벨을 붙이지 말고 오리발에는 라벨을 붙이세요. 레깅스에는 라벨을 붙이고 스타킹은 붙이지 마세요. 누군가가 입고 있어도 수건에는 라벨을 붙이지 마세요. 옷에 라벨을 붙이세요. 라벨을 붙이되 옷에 라벨을 붙이지 마세요. 갑옷. 등......

독일 Weizenbaum Institute에서 데이터를 연구하는 연구원인 Milagros Miceli는 업계 전반에 걸쳐 지침에 대한 혼란이 널리 퍼져 있다고 말했습니다. 부분적으로 이것은 머신러닝(ML) 시스템이 학습하는 방식의 산물입니다. 인간은 "셔츠"의 개념을 이해하기 위해 몇 가지 예만 필요하지만 머신러닝(ML) 프로그램에는 수천 개의 예가 필요하며 완벽한 일관성과 충분한 다양성(폴로 셔츠, 야외 셔츠, 선반에 걸려 있는 셔츠)으로 모델링되어야 합니다. 시스템이 현실 세계의 다양성을 처리할 수 있다는 것입니다. 머첼리는 "복잡한 현실을 서투른 기계가 읽을 수 있는 것으로 단순화해야 한다고 상상해 보세요."라고 말했습니다.

기계의 경우 현실을 단순화하는 행위는 엄청난 복잡성을 야기합니다. 지침 작성자는 인간이 완벽한 일관성으로 세계를 분류할 수 있도록 하는 규칙을 제시해야 합니다. 이를 위해 인간이 사용하지 않는 카테고리를 만드는 경우가 많습니다. 사진 속의 모든 셔츠에 라벨을 붙이도록 요청받은 경우, 거울에 비친 셔츠에 라벨을 붙이지 않을 수도 있습니다. 왜냐하면 그것이 실제 옷이 아니라 반사된 그림자라는 것을 알기 때문입니다. 하지만 실제 세계를 이해하지 못하는 AI에게는 픽셀일 뿐이고 똑같습니다. 데이터세트의 일부 셔츠에는 태그 있고 다른 반사 셔츠에는 라벨이 지정 태그 경우 모델이 작동하지 않습니다. 그래서 엔지니어는 업데이트된 정보를 가지고 공급업체를 다시 방문하여 거울에 비친 셔츠에 태그를 달아달라고 요청했습니다. 곧 빨간색 대문자로 된 또 다른 43페이지짜리 안내서를 갖게 될 것입니다.

주석 작성자의 임무는 일반적으로 인간의 이해를 제쳐두고 지침을 매우 밀접하게 따르는 것입니다. 한 평론가가 말했듯이 로봇처럼 생각하십시오. 그것은 이상한 정신적 공간입니다. 환각제를 복용하는 동안 표준 테스트를 받는 것과 같이 우스꽝스러우면서도 엄격한 규칙을 따르도록 최선을 다하십시오. 주석자는 항상 흰색 줄무늬가 있는 빨간색 셔츠인가요, 빨간색 줄무늬가 있는 흰색 셔츠인가요?와 같은 혼란스러운 질문에 직면합니다. 고리 버들 그릇에 사과가 가득 차면 '장식 그릇'인가요? 표범무늬는 무슨 색인가요? 각 질문에 답해야 하며, 잘못된 추측으로 인해 금지될 수 있으며, 자신만의 놀라운 규칙을 지닌 완전히 다른 새로운 임무가 시작될 수 있습니다.

04 건별 결제, 3시간마다 업무 확인

Remotasks의 대부분의 작업은 성과급 기준으로 지급되며 작업당 수익은 몇 센트에서 몇 달러에 이릅니다. 작업을 완료하는 데 몇 초 또는 몇 시간이 걸릴 수 있으므로 임금을 예측하기 어렵습니다. Remotasks가 케냐에 처음 왔을 때 평론가들은 상대적으로 좋은 급여를 받았다고 말했습니다. 평균은 과제에 따라 시간당 약 5~10달러입니다. 하지만 시간이 지날수록 보상은 감소합니다.

Scale AI 대변인 Anna Franko는 회사의 경제학자들이 "공정하고 경쟁력 있는 보상을 보장하기 위해" 프로젝트 세부 사항, 필요한 기술, 지역 생활비 및 기타 요소를 분석한다고 말했습니다. 전 Scale AI 직원은 또한 사용 가능한 주석자 수와 데이터가 필요한 속도에 따라 조정되는 범프 가격 책정과 유사한 메커니즘을 통해 보상이 설정되었다고 말했습니다. 통계에 따르면 미국의 Remotasks 주석 작성자는 일반적으로 시간당 10~25달러를 받지만 일부 전문 주석 분야의 전문가는 더 많은 급여를 받습니다. 올해 초까지 케냐 주석가의 임금은 시간당 미화 1~3달러(약 7~22위안)로 떨어졌습니다.

원격 작업에 대한 가장 일반적인 불만은 변동성입니다. 이러한 유형의 직업은 장기, 정규직으로 일할 수 있을 만큼 안정적이지만 전적으로 의존하기에는 예측 불가능성이 너무 많습니다. 주석 작성자는 단지 12개의 작업을 완료하기 위해 지침을 읽고 무급 교육을 완료하는 데 몇 시간을 소비하고 나면 프로젝트가 종료됩니다. 며칠 동안 새로운 작업이 없을 수 있으며, 이후 경고 없이 완전히 다른 작업이 나타나며 몇 시간에서 몇 주까지 지속될 수 있습니다. 어떤 임무든 그들의 마지막 임무가 될 수 있으며, 다음 임무가 언제 올지 결코 알 수 없습니다.

엔지니어와 데이터 제공업체는 이러한 호황과 불황의 순환이 AI 개발 속도에서 비롯된다고 말합니다. 대규모 모델을 훈련하려면 대량 주석과 반복적인 업데이트가 필요하며, 엔지니어는 이 모든 작업이 최대한 빨리 수행되어 목표 출시 날짜에 도달할 수 있기를 원합니다. 몇 달에 걸쳐 수천 명의 주석자가 필요하다가 수백 명으로 줄어들고 최종적으로는 특정 유형의 전문가가 12명만 필요할 수도 있습니다. 이 프로세스는 때때로 주기적으로 발생합니다. AI 파트너십의 진달(Jindal)은 “문제는 이러한 변동의 비용을 누가 부담하느냐 하는 것”이라고 말했다.

성공하려면 주석 작성자가 함께 작업해야 합니다. Victor는 나이로비의 대학에 다닐 때 Remotasks에서 일하기 시작했습니다. 누군가 그에게 교통 통제 업무에 어려움을 겪고 있다고 말했을 때 그는 모두가 그 업무를 피해야 한다는 것을 알고 있다고 말했습니다. 너무 까다롭고 급여가 낮으며 그럴 가치가 없습니다. 많은 주석 작성자와 마찬가지로 좋은 과제가 생기면 Victor는 비공식 WhatsApp 그룹을 사용하여 소식을 전합니다. 그는 새로운 아이디어가 떠오르면 즉석에서 Google 세션을 시작하여 다른 사람들에게 그 방법을 보여줍니다. 누구나 가입해 잠시 동안 함께 일하며 팁을 공유할 수 있습니다. “한 사람이 모든 기술을 다 가질 수는 없다는 것을 알기 때문에 우리는 서로 돕는 문화를 발전시켜 왔습니다.”라고 그는 말했습니다.

작업은 예고 없이 나타나고 사라지기 때문에 주석자는 항상 긴장해야 합니다. Victor는 프로젝트가 밤늦게 갑자기 시작되는 경우가 많다는 사실을 알고 3시간마다 일어나서 확인하는 습관을 들였습니다. 그는 임무가 있을 때 깨어있습니다. 한때 그는 이유를 몰랐지만 군중 사진에 팔꿈치, 무릎, 머리를 태그 36시간 동안 깨어 있었습니다. 또 한 번은 너무 늦게까지 자지 않아서 눈이 붉어지고 부어올랐습니다.

주석 작성자는 자신이 다른 회사를 위해 AI 시스템을 교육하고 있다는 사실만 알고 있는 경우가 많지만 때로는 익명성의 베일이 사라지고 지침에 너무 많은 브랜드 또는 챗봇 단서가 언급되는 경우도 있습니다. 한 주석자는 "지침을 읽고 구글링을 해보니 25세의 억만장자를 위해 일하고 있다는 것을 알게 됐다. 내가 누군가를 억만장자로 만들어서 몇 달러만 벌면 정말 내 인생을 낭비하는 셈이다"라고 말했다. .”

자칭 인공 지능의 '광신자'인 Victor는 완전히 자동화된 미래를 실현하는 데 도움을 주고 싶었기 때문에 주석을 달기 시작했습니다. 그러나 올해 초, 누군가가 자신의 WhatsApp 그룹에 Sama AI 직원이 ChatGPT를 교육하여 유해한 콘텐츠를 식별하도록 교육하는 데 시간당 2달러 미만의 급여를 받았다는 내용의 Time 잡지 기사를 게시했습니다. Remotasks와 Scale AI의 연관성에 대해 알기 전까지는 몰랐던 Victor는 "사람들은 이들 회사가 수익성은 높지만 급여가 너무 적다는 사실에 분노했습니다."라고 말했습니다. 그가 작업한 작업 중 하나에 대한 지침은 OpenAI에서 사용하는 지침과 거의 동일했습니다. 이는 그가 ChatGPT 교육에도 참여하여 시간당 약 3달러를 벌었음을 의미합니다. "

훗날 우리가 기억될 것이라고 누군가 게시한 기억이 난다”고 답했고, 제로피플은 “우리는 보병보다 더 나쁜 대우를 받았다”고 답했다. 우리는 앞으로 어디에도 기억되지 않을 것입니다. 나는 그것을 아주 잘 기억합니다. 우리가 하는 일과 우리가 들이는 노력을 누구도 알아주지 않을 것입니다. "

옷을 식별하고 고객 서비스 대화에 주석을 다는 것은 주석 작업의 작은 부분일 뿐입니다. 최근 가장 이슈 것은 챗봇 트레이너입니다. 특정 분야에 대한 전문성이나 유창한 언어 능력이 필요하고, 급여는 지역에 따라 조정되는 경향이 있기 때문에 이 직업은 보수가 더 좋은 경향이 있습니다. 일부 유형의 전문 주석은 시간당 최대 $50 이상을 지불할 수 있습니다.

Anna라는 여성은 텍사스에서 일자리를 찾고 있던 중 우연히 일반적인 온라인 구인 목록을 발견하고 지원했습니다. 입학 시험을 통과한 후 그녀는 코드명 Dolphin이라는 프로젝트가 훈련되고 있는 1,500명의 Slack 룸으로 안내되었습니다. 나중에 그녀는 이 프로젝트가 ChatGPT와 경쟁하는 많은 챗봇 중 하나인 Google DeepMind의 챗봇 Sparrow라는 것을 알게 되었습니다. 안나의 일은 스패로우와 하루 종일 대화를 나누는 것인데, 그녀는 시간당 14달러 정도를 받으며 업무 효율성이 높아 보너스도 받는다. "이것이 동네 슈퍼마켓에서 일하고 시간당 10달러를 받는 것보다 확실히 낫습니다."

05 AI는 정확성, 유용성, 무해성이라는 세 가지 주요 기준에 응답합니다.

게다가 Anna는 자신의 일을 좋아합니다. 그녀는 Sparrow와 함께 공상 과학 소설, 수학 역설, 어린이 수수께끼 및 TV 쇼에 대해 토론했습니다. 때로는 챗봇의 대답에 그녀가 크게 웃기도 한다. 때때로 그녀는 할 말이 없다고 느낄 때도 있습니다. 안나는 "가끔 무엇을 물어봐야 할지 잘 모르겠어서 이미 두 페이지가 적힌 작은 공책을 가지고 있다"며 "Google에서 흥미로운 주제를 검색하니 잘 할 수 있을 것 같다"고 말했다. 하지만 항상 그런 것은 아닙니다.”

Anna가 Sparrow에게 메시지를 보낼 때마다 Sparrow는 두 가지 응답을 제공하고 그녀는 가장 좋은 것을 선택하여 "인간 피드백 데이터"를 생성합니다. ChatGPT가 작년 말에 데뷔했을 때, 놀라울 정도로 자연스러운 대화 스타일은 대량 인터넷 데이터에 대한 훈련을 받았다는 사실에 기인합니다. 그러나 ChatGPT와 경쟁사를 지원하는 언어는 여러 차례의 사람 주석을 통해 필터링됩니다.

계약자 팀은 질문을 하고 정답을 제시하고, 컴퓨터 프로그램을 설명하고 기능 코드를 제공하고, 범죄 정보를 요청한 후 정중하게 거절하는 등 엔지니어가 챗봇의 행동 방식을 원하는 방식에 대한 예를 작성했습니다. 모델이 이러한 사례에 대해 훈련된 후에는 더 많은 계약자가 도입되어 모델에 대한 메시지를 표시하고 응답 순위를 순서. 이것이 Anna가 Sparrow에게 한 일입니다.

오히려 평가자들은 정직성, 유용성, 개인적 선호도 등 다양한 기준을 사용하라는 지시를 받았습니다. 요점은 인간의 취향에 대한 데이터를 생성하고 충분한 데이터가 확보되면 엔지니어가 두 번째 모델을 훈련하여 자신의 선호도를 대규모로 모방하고 순위 프로세스를 자동화하며 인간이 승인하는 행동 방식에 따라 AI를 훈련시킬 수 있다는 것입니다. 그 결과 본질적으로 유해한 요청을 거부하고 자기 인식 방식으로 인공 지능 특성을 설명하는 매우 인간과 유사한 로봇이 탄생했습니다.

즉, ChatGPT는 인간을 모방하는 AI에 의해 훈련을 받았고 AI가 인간처럼 행동하기 때문에 인간처럼 보입니다.

이 기술은 '인간 피드백을 통한 강화 학습', 즉 RLHF라고 불리며, AI가 하고 있지 않은 일을 멈추고 반성하는 데 매우 효과적입니다. 예를 들어, 주석자가 모델에 정확성을 가르칠 때 모델은 논리나 외부 소스에 대한 답변을 확인하는 방법, 심지어 개념으로서의 정확도도 배우지 않습니다. 모델은 여전히 ​​인간의 쓰기 패턴을 모방하는 텍스트 예측 기계이지만 훈련 코퍼스는 이제 맞춤형 예제로 보완되었으며 모델은 이를 지원하도록 가중치가 부여되었습니다.

이로 인해 모델은 정확한 것으로 태그 언어 맵 부분에서 패턴을 클레임 하고 실제로 정확한 텍스트를 생성할 수 있지만, 무언가를 작성하는 동안 정확한 텍스트의 자신감 있는 스타일과 기술 용어를 모방하게 될 수도 있습니다. 완전히 틀렸어. 주석자가 정확하다고 태그 텍스트가 실제로 정확하다는 보장은 없습니다. 정확하더라도 모델이 올바른 패턴을 학습한다는 보장은 없습니다.

이러한 역학으로 인해 챗봇에 주석을 달기가 쉽지 않습니다. 정확하고 정확하다고 들리는 태그 자료와 같은 엉성한 피드백은 훈련된 모델을 더욱 설득력 있게 만들 수 있으므로 엄격하고 일관되어야 합니다. OpenAI와 DeepMind는 이전 공동 프로젝트에서 RLHF를 사용하여 가상 로봇 손을 훈련시켜 물체를 잡게 했으며, 그 결과 로봇 손이 물체와 평가자 사이에 위치하도록 훈련하고 이리저리 움직이게 했습니다. 인간 감독자에게만 나타날 것입니다.

언어 모델의 응답 순위는 언어이기 때문에 항상 다소 주관적입니다. 모든 길이의 텍스트에는 정확하거나 부정확하거나 오해의 소지가 있는 여러 요소가 포함될 수 있습니다. OpenAI 연구원들은 또 다른 초기 RLHF 논문에서 이 장애물에 부딪혔습니다. 모델에 텍스트를 요약하도록 요청한 결과, 연구원들은 모델 요약의 60%만이 양호하다는 것을 발견했습니다. "머신러닝(ML) 의 많은 작업과 달리 우리의 쿼리에는 명시적인 근거 진실이 없습니다."라고 그들은 한탄했습니다.

Anna는 Sparrow의 응답을 평가할 때 응답의 정확성, 유용성, 무해성을 살펴보는 동시에 모델이 의학적 또는 재정적 조언을 제공하지 않거나, 스스로를 의인화하거나, 다른 기준을 위반하지 않는지 확인해야 합니다. 유용한 훈련 데이터가 되려면 모델의 응답을 정량적으로 순서 야 합니다. 폭탄을 만드는 방법을 알려줄 수 있는 로봇이 질문에 대답하기를 거부하는 무해한 로봇보다 "더 나은"가요?

DeepMind 논문에서 Sparrow의 제작자가 교대로 주석을 달 때 4명의 연구원은 로봇이 감정적인 조언을 요청한 사용자의 성별을 가정하는지 여부에 대해 토론했습니다. DeepMind의 연구원인 Geoffrey Irving에 따르면, DeepMind의 연구원들은 매주 주석 회의를 열어 데이터를 직접 검토하고 모호한 사례에 대해 논의합니다. 사안이 특히 어려운 경우에는 윤리 전문가나 해당 분야 전문가와 상담합니다.

안나는 종종 두 가지 잘못된 선택 중 하나를 선택해야 하는 상황에 처하게 됩니다. "둘 다 아주 잘못된 답변이더라도 어느 것이 더 나은지 파악한 다음 그 이유를 설명하는 텍스트를 작성해야 합니다"라고 그녀는 말합니다. 때로는 두 답변 모두 좋지 않을 때 그녀는 스스로 답을 내도록 격려받습니다. 더 나은 답변으로. 그녀는 훈련 중 절반 정도의 시간 동안 이 작업을 수행해야 합니다.

06 주석에는 점점 더 구체적인 기술과 전문 지식이 필요합니다.

피드백 데이터는 수집이 어렵기 때문에 더 높은 가격에 판매됩니다. 업계에 정통한 사람들에 따르면 Anna가 수집하는 기본 선호도 데이터는 개당 약 1달러에 판매됩니다. 하지만 법률 연구를 수행하기 위해 모델을 교육하려면 법률 교육을 받은 사람이 필요하므로 비용이 증가합니다. 관련된 모든 사람은 정확히 얼마를 지출했는지 말하지 않지만 일반적으로 전문적으로 작성된 예제의 비용은 수백 달러가 될 수 있는 반면 전문가 평가의 비용은 50달러 이상이 될 수 있습니다. 한 엔지니어는 소크라테스식 대화 샘플 비용으로 300달러를 지불한 적이 있다고 밝혔습니다.

OpenAI, Microsoft, Meta 및 Anthropic은 얼마나 많은 사람이 모델에 주석을 추가했는지, 급여는 얼마인지, 전 세계 어디에 있는지 공개하지 않습니다. Google 자매 회사인 DeepMind의 Irwin은 Sparrow에서 작업하는 주석자는 위치에 따라 최소한 최저 임금 시간당 임금에 해당하는 급여를 받는다고 말했습니다. Anna는 Remotasks에 대해 "아무것도" 몰랐지만 Sparrow에 대해 더 많이 알고 있었습니다. 제작자가 RLHF를 사용하여 훈련시킨 DeepMind의 인공 지능 보조자라는 사실을 알고 있었기 때문입니다.

최근까지는 횡설수설처럼 보이는 언어 모델에서 잘못된 출력을 찾아내는 것이 상대적으로 쉬웠습니다. 그러나 모델이 점점 더 좋아질수록 그러한 작업은 더욱 어려워지며, 이를 "확장 가능한 감독"이라고 합니다. Google이 인공지능 비서인 Bard를 출시하면서 현대 언어 모델을 사용한 것은 현대 언어 모델에서 오류를 찾아내는 것이 얼마나 어려운지 무심코 보여주었습니다. 이 궤적은 주석에 점점 더 특정 기술과 전문 지식이 필요하다는 것을 의미합니다.

작년에 Lewis라는 남자가 Mechanical Turk에서 작업 중이었는데, 작업을 완료한 후 그는 들어본 적도 없는 플랫폼에 가입하라는 메시지를 받았습니다. Taskup.ai라고 불리는 이 사이트는 해군 배경과 "Pay What You Want"라는 텍스트만으로 매우 간단합니다. 루이스는 등록을 선택했습니다.

그 직업은 그가 이전에 맡았던 다른 직업보다 훨씬 더 나은 급여를 받았는데, 보통 시간당 약 30달러 정도였습니다. 그러나 챗봇을 속여 위험한 조언을 하도록 복잡한 시나리오를 고안하고, 역할을 유지하는 모델의 능력을 테스트하고, 고도로 기술적이고 광범위한 연구를 수행해야 하는 과학 주제에 대해 자세한 대화를 수행하는 것은 더욱 어렵습니다. 루이스는 그 일이 "만족스럽고 흥미진진하다"고 생각했습니다. 모델을 확인하고 Python으로 코딩하는 동안 Lewis도 배우고 있었습니다. 정신적으로 지치고 실수를 할까 봐 연속 4시간 이상 일을 할 수 없다는 그는 직업을 계속 유지하고 싶어한다.

루이스는 "내가 바꿀 수 있는 것이 있다면 반대편에서 무슨 일이 일어나고 있는지 더 알고 싶을 뿐입니다. 우리는 업무를 수행하는 데 필요한 것만 알고 있지만 더 많이 알 수 있다면 성취할 수도 있을 것입니다."라고 말했습니다. 더 큰 성취이고 어쩌면 그것을 경력으로 바꿀 수도 있습니다.”

기술 조사 기자인 Ziyeza는 주로 미국에서 근무하며 설문조사에 응답하거나 다른 플랫폼에서 작업을 완료한 후 Taskup.ai 또는 여러 유사한 사이트에 고용된 비슷한 경험을 가진 8명의 다른 사람들과 이야기를 나눴습니다. Gethybrid.io. 그들의 작업에는 종종 챗봇 교육이 포함되지만, 그들이 작업한 다른 사이트보다 더 높은 품질과 더 전문적인 목적이 필요합니다. 하나는 스프레드시트 매크로를 시연하고, 다른 하나는 원하는 기준에 따라 대화를 나누고 응답을 평가하면 됩니다. 7살 딸과 대화할 때도 나오는 질문인 "가장 큰 공룡은 뭐예요?", "호랑이 이야기를 써주세요" 등을 챗봇에 자주 묻는다.

Taskup.ai, DataAnnotation.tech 및 Gethybri.io는 모두 Surge AI라는 동일한 회사가 소유한 것으로 보입니다. CEO인 Edwin Chen은 이러한 연관성을 확인하거나 거부하지 않았지만 자신의 회사와 주석이 어떻게 발전하는지에 대해 기꺼이 이야기했습니다.

에드윈씨는 “라벨링 분야가 지나치게 단순화됐다고 늘 느껴왔다”며 구글, 페이스북, 트위터에서 인공지능 관련 일을 하다가 크라우드소싱 라벨링만으로는 부족하다는 확신을 갖고 2020년 서지AI(Surge AI)를 설립했다. Edwin은 다음과 같이 말했습니다. "우리는 인공 지능이 농담을 하고, 좋은 마케팅 문구를 작성하고, 치료가 필요할 때 도움을 줄 수 있기를 바랍니다. 그러나 모든 사람이 농담을 하거나 Python 프로그래밍 문제를 해결할 수 있는 것은 아니며, 주석 분야는 이 낮은 수준에서 시작해야 합니다. 품질, 낮은 기술의 사고방식은 더 풍부한 것으로 변화하고 AI 시스템이 갖기를 원하는 인간의 기술, 창의성 및 가치를 포착합니다.”

07 머신러닝(ML) 시스템은 너무 이상해서 완전히 신뢰할 수 없습니다.

작년에 Surge AI는 정서 에 따라 Reddit 게시물을 분류한 Google의 데이터세트에 라벨을 다시 태그 . Google은 각 게시물의 컨텍스트를 제거하고 이를 인도의 주석 작성자에게 보내 주석을 추가합니다. 미국 인터넷 문화에 익숙한 Surge AI 직원들은 주석 중 30%가 틀렸다는 사실을 발견했습니다. "뭐야, 내 형제" 같은 게시물은 "혐오"로 분류된 반면, "내가 제일 좋아하는 맥도날드 멋지다"는 "좋아요"로 분류됐다.

Edwin은 Surge AI가 문예 작문 과제를 수행하는 사람이 문예 작문 경험이 있는지 여부와 같은 주석 작성자의 자격을 검토할 것이지만 직원을 정확히 어떻게 찾는지는 "비밀"이라고 말했습니다. Remotask와 마찬가지로 근로자는 일반적으로 교육 과정을 이수해야 하지만 Remotask와 달리 근로자는 교육 중에 작업 수락에 대한 대가를 받을 수 있습니다. 더 적은 수의 더 잘 훈련된 직원을 보유하고 더 높은 품질의 데이터를 생성하면 Surge AI가 동료보다 더 많은 급여를 받을 수 있지만 그는 직원들이 "공정하고 윤리적으로" 급여를 받는다고 말하면서 자세한 설명을 거부했습니다. 이러한 주석자는 시간당 15~30달러를 벌지만 현재 100,000명에 달하는 전체 주석자 그룹 중 작은 부분에 불과합니다. 그는 이러한 기밀 유지가 고객 요청에서 비롯된다고 설명합니다.

Surge AI의 고객으로는 OpenAI, Google, Microsoft, Meta 및 Anthropic이 있습니다. Surge AI는 피드백과 언어 주석에 중점을 두고 있으며 ChatGPT 출시 후 대량 요청을 받았습니다. Edwin은 "모두가 RLHF의 힘을 알고 있다고 생각했지만 사람들이 내부적으로는 이해하지 못한 것 같아요"라고 말했습니다.

이러한 새로운 모델은 매우 인상적이어서 주석이 곧 자동화될 것이라는 새로운 예측의 물결에 영감을 주었습니다. 관련 비용을 고려할 때 그렇게 하기 위한 재정적 압박은 상당합니다. Anthropic, Meta 및 기타 업체에서는 최근 인공 지능을 사용하여 모델을 안내하는 데 필요한 인간 주석의 양을 줄이는 데 진전을 이루었으며 다른 개발자는 GPT-4를 사용하여 교육 데이터를 생성하기 시작했습니다.

그러나 최근 논문에 따르면 GPT-4로 훈련된 모델은 GPT의 권위 있는 스타일을 모방하는 방법을 학습하고 정확도가 떨어질 수 있습니다. 지금까지 인공 지능의 발전으로 인해 한 가지 형태의 주석이 더 이상 쓸모 없게 되면 더 복잡한 다른 유형의 주석에 대한 수요가 상승. 이 논쟁은 올해 초 Scale AI의 CEO가 트위터를 통해 AI 연구소가 곧 인간 데이터에 수십억 달러를 지출할 것이라고 예측하면서 공개되었습니다. 투자는 동일합니다. OpenAI CEO 샘 알트만(Sam Altman)은 인공지능이 발전하면서 데이터 수요가 줄어들 것이라고 답했다.

Edwin은 AI가 인간의 피드백이 더 이상 필요하지 않은 지점에 도달할 것이라고 의심하지만, 모델이 개선됨에 따라 라벨링이 점점 더 어려워지고 있다고 보고 있습니다. 많은 연구자들과 마찬가지로 그는 앞으로 나아갈 길에는 인간이 다른 AI를 감독하도록 돕는 AI 시스템이 포함될 것이라고 믿습니다. Surge AI는 최근 신뢰할 수 없는 AI 보조자의 도움을 받아 인간 주석자가 긴 텍스트에 대한 질문에 답하도록 하는 개념 증명을 위해 Anthropic과 제휴했습니다. 이론에 따르면 인간은 AI 보조자의 약점을 감지하고 협업 추론을 통해 이를 찾아야 합니다. 정답.

또 다른 가능성은 두 AI가 서로 토론하고 인간이 최종 판단을 내리는 것입니다. OpenAI의 연구 과학자인 John Schulman은 최근 버클리에서 열린 강연에서 "우리는 이런 종류의 실제적인 잠재력을 보지 못했지만 주석자가 따라잡기가 어렵기 때문에 필요해지기 시작했습니다"라고 말했습니다. 모델에서요.”

Edwin은 "AI가 하는 일을 모니터링하려면 항상 인간이 필요할 것이라고 생각합니다. 왜냐하면 AI가 외계인이기 때문입니다. 머신러닝(ML) 시스템은 너무 이상해서 완전히 신뢰할 수 없습니다. 가장 오늘 인상적인 점은 이 모델에는 인간에게 매우 이상하게 보이는 몇 가지 약점이 있습니다. GPT-4는 복잡하고 설득력 있는 텍스트를 생성할 수 있지만 어떤 단어가 형용사인지 구분할 수 없습니다."

08 작업 흐름에 ChatGPT가 많은 도움이 됩니다


2022년이 끝나자 조는 학생들로부터 할 일 목록이 비어 있는 경우가 많다는 이야기를 듣기 시작했습니다. 그러던 중 그는 케냐 캠프가 폐쇄된다는 이메일을 받았습니다. 그는 온라인 과제 훈련을 계속했지만 미래에 대해 걱정하기 시작했습니다. "

이것이 지속되지 않을 조짐이 있습니다."라고 Joe는 말했습니다. 주석 작업이 곧 케냐를 떠날 예정입니다. 그가 온라인에서 만난 동료들로부터 그러한 임무가 네팔, 인도, 필리핀으로 보내지고 있다는 소식을 들었습니다. Joe는 말했습니다. "회사들이 이전합니다. 한 지역에서 다른 지역으로. 현지 인프라가 없기 때문에 운영 비용이 더 유리한 위치로 이동할 수 있는 유연성이 있습니다. "

AI 산업이 휴대폰이나 자동차 제조사와 다른 점 중 하나는 바로 유동성이다. 작업은 끊임없이 변화하고 자동화되며 새로운 유형의 데이터에 대한 새로운 요구로 대체됩니다. 이는 조립 라인이지만 지속적이고 신속하게 재구성되어 적절한 기술, 대역폭 및 급여를 사용할 수 있는 곳이면 어디든 이동할 수 있습니다.

최근 주석 작업에서 가장 높은 급여를 받는 직업이 미국으로 돌아왔습니다. 지난 5월, Scale AI는 웹사이트에 주석 작업을 나열하기 시작하여 AI가 정복하고자 하는 거의 모든 분야에 경험이 있는 사람들을 모집했습니다. 피트니스 코칭, 인적 자원, 금융, 경제, 데이터 과학, 프로그래밍, 컴퓨터 과학, 화학, 생물학, 회계, 세무, 영양, 물리학, 여행, K-12 교육, 스포츠 분야에서 경력을 쌓은 인공 지능 트레이너 목록 자조와 같은 분야의 뉴스 및 전문 지식.

로봇에게 법을 가르치면 시간당 45달러를 벌 수 있고, 시를 가르치면 시간당 25달러를 벌 수 있습니다. 이 웹사이트에는 군사 AI 훈련을 돕기 위해 보안 경험이 있는 인력 모집 목록도 나와 있습니다. Scale AI는 최근 회사 경영진이 '인공지능 전쟁의 군수품'이라고 부르는 Donovan이라는 국방 언어 모델을 출시했으며 육군의 로봇 전투 차량 프로그램에 참여하는 계약을 따냈습니다.

Anna는 여전히 텍사스에서 챗봇을 훈련하고 있습니다. 동료들이 댓글 작성자와 Slack 관리자로 변했고, 그녀는 이유는 몰랐지만 이 직업이 장기적인 직업이 될 수 있다는 희망을 갖게 되었습니다. 그녀가 걱정하지 않는 것 중 하나는 자동화로 인해 일자리가 대체되고 있다는 점입니다. "내 말은 챗봇이 놀라운 일을 많이 할 수 있지만 정말 이상한 일도 할 수 있다는 것입니다."

Remotasks가 케냐에 처음 왔을 때 Joe는 주석 작업이 좋은 직업이 될 수 있다고 생각했습니다. 그는 다른 곳으로 옮긴 후에도 그 일을 계속하기로 결심했습니다. 그는 나이로비에는 이 일을 할 줄 아는 사람이 수천 명이나 된다고 생각했습니다. 결국 그는 많은 사람들을 훈련시켰습니다. Joe는 도시에 사무실을 임대하고 아웃소싱 계약을 찾기 시작했습니다. 하나는 건축 회사의 청사진을 표시하는 것이고, 다른 하나는 일종의 농업 프로젝트를 위해 곤충에 손상된 과일을 표시하는 것이고, 다른 하나는 자율 차량을 표시하는 것입니다. 주석의 일상 작업.

그러나 조는 자신의 비전이 실현되기 어렵다는 것을 깨달았습니다. 이제 그의 정규직 직원은 이전 2명에서 1명으로 줄었습니다. 그는 "우리는 안정적인 작업 흐름을 한 번도 가지지 못했습니다."라고 말했습니다. 클라이언트가 여전히 데이터를 수집하고 있었기 때문에 할 수 있는 일이 없는 몇 주가 있었습니다. 고객이 데이터 수집을 마쳤을 때 마감일을 맞추기 위해 단기 계약자를 불러와야 했습니다. "클라이언트는 우리가 진행 중인 작업이 있는지 신경 쓰지 않았습니다. 데이터 세트 주석 작업이 완료되면 괜찮습니다."

자신의 기술이 낭비되지 않도록 다른 작업 수행자들은 작업이 어디로 갈지 결정하고 그들도 그곳으로 갑니다. 그들은 위치를 위장하기 위해 프록시 서버를 임대하고 보안 검사를 통과하기 위해 가짜 ID를 구입하여 싱가포르, 네덜란드, 미시시피 또는 업무가 진행되는 곳 어디에서나 일하는 것처럼 가장할 수 있습니다. 이것은 리스크 업무 입니다. 여러 선교사에 따르면 Scale AI는 자신의 위치를 ​​숨기고 있는 것으로 밝혀진 계정을 정지하는 데 점점 더 공격적으로 변하고 있습니다. "

요즘 우리가 좀 더 똑똑해진 건 다른 나라의 임금이 너무 높다는 걸 알게 됐기 때문이다”라고 빅터 씨는 말했다. 그는 말레이시아에서 케냐보다 두 배 더 많은 돈을 벌지만 “부담을 해야 한다”고 말했다. 주의하세요."

또 다른 케냐 평론가는 알 수 없는 이유로 자신의 계정이 차단된 후 더 이상 규칙을 따르지 않기로 결정했다고 말했습니다. 그는 현재 여러 국가에서 여러 계정을 운영하면서 수익이 가장 높은 곳에서 업무를 수행하고 있습니다. 그는 ChatGPT 덕분에 작업 속도가 빠르고 품질 점수도 높다고 말합니다. 그는 로봇이 훌륭하고 몇 분 만에 10달러짜리 작업을 빠르게 완료할 수 있다고 말했습니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트