이 기사는 기계로 번역되었습니다
원문 표시
Devin의 개발사 Cognition을 담당하는 Walden도 멀티 에이전트에 대한 글을 게시했습니다. 그는 사람들에게 멀티 에이전트를 구축하지 말라고 경고하고, 특히 멀티 에이전트 아키텍처의 단점을 포함하여 흔하지만 효과적이지 않은 몇 가지 방법을 지적했습니다. 그래서 저는 두 회사가 멀티 에이전트 문제에 어떻게 대면 하고 해결했는지 비교했습니다.

歸藏(guizang.ai)
@op7418
06-14
Anthropic 这篇文章值得看看
详细阐述了构建多个智能体来更高效地探索复杂课题所面临的工程挑战,包括代理协调、评估和可靠性。
让 Notebooklm 总结了一下主要内容 x.com/AnthropicAI/st…


해당 기사는 다음과 같습니다.

Walden
@walden_yan
06-13
I see a lot of people make the same mistakes building agents. So we shared a few of the principles we use
https://cognition.ai/blog/dont-build-multi-agents…
상황 공유 및 충돌 결정에 대하여
Cognition의 관점:
자식 지능체는 원시 작업 상황을 공유하더라도, 다른 자식 지능체가 무엇을 하고 있는지 볼 수 없어 서로 상충되는 미리 설정된 가정에 기반한 행동으로 인해 작업이 일관되지 않을 수 있습니다. 그들은 원칙 1은 "완전한 상황과 완전한 지능체 추적을 공유하는 것"이며, 원칙 2는 "행동에는 암시적 결정이 있으며, 충돌하는 결정은 나쁜 결과를 초래한다"는 것을 강조합니다.
Anthropic은 먼저 이러한 제한을 인정했습니다:
"일부 영역에서는 모든 지능체가 동일한 상황을 공유하거나 지능체 간 많은 의존성이 관련되어 현재 다중 지능체 시스템에 적합하지 않습니다". 그들은 특히 "대부분의 코딩 작업에 진정으로 병렬화할 수 있는 작업이 연구 작업보다 적으며, 현재 LLM 지능체는 실시간 조정 및 다른 지능체에 위임하는 데 능숙하지 않다"고 언급했습니다. 이는 에서 언급된 Claude Code 자식 지능체가 코드를 병렬로 작성하지 않고, "편집 애플리케이션 모델"에서 소형 모델이 지시를 잘못 이해하는 문제와 일맥상통합니다.
그다음 Anthropic이 이러한 제한을 어떻게 극복하는지 살펴보겠습니다:
조정 패턴: Anthropic의 시스템은 "조정자-작업자" 패턴을 채택하여, 주 지능체가 전체 과정을 조정하고 병렬 전문 자식 지능체에 작업을 위임합니다. 주 지능체는 쿼리를 분석하고, 전략을 수립하며, 자식 지능체가 동시에 다른 측면을 탐색하도록 합니다. 자식 지능체는 결과를 주 지능체에 반환하여 종합합니다.
명시적 위임: 그들은 "조정자에게 위임하는 방법 교육"을 강조하며, 주 지능체는 자식 지능체에게 목표, 출력 형식, 사용할 도구와 소스 지침, 그리고 작업 중복, 누락 또는 작업 오해를 방지하기 위한 명확한 작업 경계를 포함한 자세한 작업 설명을 제공해야 합니다. 예를 들어, 자세한 설명이 없으면 자식 지능체가 동일한 검색을 반복하거나 작업을 다르게 해석할 수 있습니다.
상황 관리: 장기 실행 작업 및 상황 창 오버플로 문제의 경우, Anthropic의 해결책은 주 지능체가 계획을 "메모리"에 저장하여 상황을 지속하고 상황 창이 너무 커질 때 잘리는 것을 방지하는 것입니다. 그들은 또한 지능체가 작업 단계 후 핵심 정보를 요약하여 외부 메모리에 저장하고, 상황이 제한에 가까워지면 새로운 자식 지능체를 생성하여 신중한 인계를 통해 연속성을 유지합니다.
"전화 게임" 최소화: 그들은 모든 정보를 주 조정자를 통해 전달하는 대신 자식 지능체가 출력을 직접 파일 시스템에 저장하여 "전화 게임"을 "최소화"합니다. 이는 충실도와 성능을 높이고, 대화 기록을 통해 대량의 출력을 복제하는 데 필요한 토큰 비용을 줄여 정보 손실을 방지하는 데 도움이 됩니다.
단일 스레드 선형 에이전트 및 다중 에이전트 병렬 처리에 관하여
인지의 관점:
가장 간단한 원칙적인 접근법은 맥락이 연속적인 "단일 스레드 선형 에이전트"를 사용하는 것입니다. 그들은 현재 에이전트가 장기 맥락, 선제적 의사소통에서 인간만큼 신뢰할 수 없으며, 따라서 다중 에이전트 협업은 취약한 시스템만 초래할 것이라고 주장합니다.
인류학적 관점:
Anthropic은 다중 에이전트 병렬 처리를 "성능을 확장하는 핵심 방법"으로 보고 이를 수용합니다.
그들은 연구와 같이 끝이 없고 예측 불가능한 문제에는 다중 에이전트 시스템이 특히 적합하다고 생각합니다. 다중 에이전트 시스템은 결과에 따라 방법을 조정할 수 있는 유연성을 제공하고 하위 에이전트가 병렬로 작동하여 "압축"과 "관심사 분리"를 달성할 수 있기 때문입니다. 내부 평가를 통해 다중 에이전트 연구 시스템이 너비 우선 질의에서 단일 에이전트 시스템보다 90.2% 더 우수한 성능을 보였다는 것을 확인했습니다.
속도 향상: Anthropic은 두 가지 유형의 병렬화를 도입하여 연구 시간을 크게 개선했습니다. 메인 에이전트가 3~5개의 하위 에이전트를 병렬로 실행하고, 하위 에이전트가 3개 이상의 도구를 병렬로 사용하여 복잡한 쿼리의 연구 시간을 90% 단축했습니다.
토큰 소비: 그러나 Anthropic은 이것이 "단점"이라고 인정합니다. "이러한 아키텍처는 실제로 토큰을 빠르게 소모합니다." 그리고 다중 에이전트 시스템은 일반적으로 채팅 상호작용보다 약 15배 더 많은 토큰을 사용합니다. 따라서 다중 에이전트 시스템은 "작업의 가치가 성능 향상에 따른 비용을 충분히 감당할 만큼 높은" 경우에만 적합합니다.
조정 병목 현상: Anthropic의 현재 메인 에이전트는 "하위 에이전트의 동기 실행"으로, 각 하위 에이전트 그룹이 완료될 때까지 기다린 후 작업을 계속 진행합니다. 이는 조정을 간소화하지만 정보 흐름에 병목 현상을 발생시킵니다. Anthropic은 비동기 실행이 병렬 처리 성능을 향상시키지만, 결과 조정, 상태 일관성 및 오류 전파의 어려움을 가중시킬 것이라고 언급했습니다. 또한, 향후 모델이 더 길고 복잡한 연구 작업을 처리할 수 있게 되면 성능 향상을 통해 복잡성을 감수할 만한 가치가 있음을 입증할 수 있을 것으로 기대합니다.
Twitter에서
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트
공유



