[오늘의 IT뉴스]Claude Code 업데이트: AI 에이전트의 효율성을 극대화하는 '도구 검색' 기능

반응형

<aside> 🌐 🔗 참조 기사 읽기

</aside>

1. 핵심 요약

  • Anthropic의 Claude Code가 AI 도구 사용 시 발생하는 '컨텍스트 창' 낭비 문제를 해결하는 'MCP Tool Search' 기능을 출시했습니다.
  • 이 기능은 필요한 도구 정의만 동적으로 로드하는 'lazy loading' 방식을 도입하여, 에이전트의 성능과 효율성을 크게 향상시킵니다.
  • '도구 검색' 기능은 AI 에이전트 개발 생태계의 확장성을 높이고, 더 복잡하고 강력한 에이전트 구축을 가능하게 합니다.

2. 기사 상세 번역

Claude Code의 진화: MCP Tool Search 출시

Anthropic은 AI 모델과 에이전트를 외부 도구에 연결하는 개방형 표준인 Model Context Protocol (MCP)을 2024년 말에 발표했습니다. 이 MCP는 Anthropic의 AI 에이전트 프로그래밍 도구인 Claude Code의 핵심 엔진 역할을 하며, 웹 브라우징 및 파일 생성과 같은 다양한 기능을 요청 즉시 사용할 수 있도록 지원합니다.

'스타트업 세금' 문제

하지만 기존 Claude Code는 사용 가능한 컨텍스트 창을 효율적으로 사용하지 못하는 문제가 있었습니다. 모든 사용 가능한 도구의 사용 설명서를 '읽어야' 했기 때문입니다. 이는 즉각적인 작업에 필요하지 않은 정보로 컨텍스트 창을 채워, 사용자 프롬프트나 에이전트 응답에 할당할 수 있는 공간을 줄이는 결과를 초래했습니다.

이러한 문제를 해결하기 위해 Claude Code 팀은 지난밤에 획기적인 업데이트를 출시했습니다. 'MCP Tool Search'라는 이름의 이 기능은 AI 도구에 대한 'lazy loading'을 도입하여, 에이전트가 필요한 경우에만 도구 정의를 동적으로 가져오도록 합니다.

이는 AI 에이전트 아키텍처를 무차별 대입 방식에서 현대적인 소프트웨어 엔지니어링 방식과 유사하게 변화시키는 것으로 평가받고 있으며, 초기 데이터에 따르면 생태계를 위협하던 'bloat' 문제를 효과적으로 해결합니다.

에이전트의 '초기 비용'

MCP는 2024년 Anthropic에 의해 개방형 표준으로 출시되어 AI 모델을 데이터 소스 및 도구(GitHub 저장소, 로컬 파일 시스템 등)에 연결하는 범용 표준으로 설계되었습니다. 하지만 생태계가 성장함에 따라 '초기 비용' 문제가 발생했습니다.

Anthropic의 기술 스태프인 Thariq Shihipar는 이 문제의 규모를 다음과 같이 설명했습니다. "MCP 서버에는 최대 50개 이상의 도구가 있을 수 있습니다. 사용자들은 7개 이상의 서버를 사용하는 설정을 문서화했으며, 67,000개 이상의 토큰을 소비했습니다."

실제로, 다양한 도구를 사용하는 개발자는 200,000 토큰의 컨텍스트 창 제한의 33% 이상을 프롬프트를 입력하기도 전에 희생해야 했습니다. AI 뉴스레터 저자인 Aakash Gupta는 모델이 실제로 사용하지 않을 수도 있는 도구에 대한 수백 페이지의 기술 문서를 '읽고' 있었다고 지적했습니다.

커뮤니티 분석 결과는 더욱 심각한 사례를 보여주었습니다. Gupta는 단일 Docker MCP 서버가 135개의 도구를 정의하는 데만 125,000개의 토큰을 소비할 수 있다고 언급했습니다. "기존 제약은 가혹한 절충안을 강요했습니다. 2~3개의 핵심 도구로 MCP 서버를 제한하거나, 작업 시작 전에 컨텍스트 예산의 절반을 포기해야 했습니다."

Tool Search 작동 방식

Anthropic이 출시한 솔루션은 절제된 우아함을 보여줍니다. Shihipar가 "GitHub에서 가장 많이 요청된 기능 중 하나"라고 언급한 이 기능은 모든 정의를 미리 로드하는 대신 컨텍스트 사용량을 모니터링합니다.

출시 노트에 따르면 시스템은 도구 설명이 사용 가능한 컨텍스트의 10% 이상을 소비할 때 자동으로 전략을 전환합니다. 즉, 프롬프트에 원시 문서를 덤프하는 대신 경량 검색 인덱스를 로드합니다.

사용자가 특정 작업을 요청하면(예: "이 컨테이너를 배포") Claude Code는 200개의 명령이 미리 로드된 방대한 목록을 스캔하는 대신 인덱스를 쿼리하여 관련 도구 정의를 찾고 해당 특정 도구만 컨텍스트에 가져옵니다.

Gupta는 "Tool Search는 아키텍처를 뒤집습니다. 토큰 절감 효과는 극적입니다. Anthropic의 내부 테스트에서 약 134,000개에서 5,000개로 감소했습니다. 이는 85%의 감소이며, 전체 도구 접근성을 유지하면서 가능합니다."라고 분석했습니다.

MCP 서버를 유지 관리하는 개발자의 경우, 최적화 전략이 변경됩니다. Shihipar는 MCP 정의의 server instructions 필드가 이전에는 "선택 사항"이었지만 이제는 Claude가 "도구를 검색할 시기를 알 수 있도록 하는 기술과 유사한 메타데이터"로서 중요하다고 강조했습니다.

'Lazy Loading'과 정확도 향상

토큰 절감 효과는 중요한 지표이지만, 이 업데이트의 부가적인 효과는 더욱 중요할 수 있습니다. 바로 '집중력' 향상입니다.

LLM은 '방해'에 매우 민감합니다. 모델의 컨텍스트 창이 관련 없는 도구 정의 수천 줄로 채워지면 추론 능력이 저하됩니다. 이는 모델이 notification-send-user와 notification-send-channel과 같이 유사한 명령을 구별하는 데 어려움을 겪는 "건초 속의 바늘" 문제를 야기합니다.

Claude Code 책임자인 Boris Cherny는 X(구 트위터)에서 이 기능을 출시하면서 "모든 Claude Code 사용자가 더 많은 컨텍스트, 더 나은 지침 따르기, 더 많은 도구를 플러그인할 수 있게 되었습니다."라고 강조했습니다.

커뮤니티에서 공유한 내부 벤치마크는 Tool Search를 활성화하면 Opus 4 모델의 MCP 평가 정확도가 49%에서 74%로 향상되었음을 보여줍니다. 최신 Opus 4.5 모델의 경우 정확도는 79.5%에서 88.1%로 증가했습니다.

수많은 사용하지 않은 도구의 노이즈를 제거함으로써 모델은 '주의' 메커니즘을 사용자 쿼리 및 관련 활성 도구에 집중할 수 있습니다.

성숙하는 스택

이 업데이트는 AI 인프라를 다루는 방식의 성숙을 의미합니다. 모든 소프트웨어 패러다임의 초기 단계에서는 무차별 대입이 일반적이지만, 시스템이 확장됨에 따라 효율성이 주요 엔지니어링 과제가 됩니다.

Aakash Gupta는 통합 개발 환경(IDE)인 VSCode 또는 JetBrains의 진화와 유사점을 지적했습니다. "병목 현상은 '너무 많은 도구'가 아니었습니다. 2020년대 초기의 정적 임포트 대신 2024년대의 lazy loading과 같이 도구 정의를 로드하는 방식이었습니다. VSCode는 시작 시 모든 확장을 로드하지 않습니다. JetBrains는 메모리에 모든 플러그인의 문서를 주입하지 않습니다."

Anthropic은 'lazy loading'이라는 웹 및 소프트웨어 개발의 표준적인 모범 사례를 채택함으로써 AI 에이전트가 더 이상 단순한 신기함이 아니라, 아키텍처적 규율이 필요한 복잡한 소프트웨어 플랫폼임을 인정하고 있습니다.

생태계에 미치는 영향

이 업데이트는 최종 사용자에게는 원활하게 느껴지지만, Claude Code가 더 '똑똑하게' 느껴지고 대화의 기억을 더 잘 유지하게 됩니다. 하지만 개발자 생태계에게는 확장 가능성의 문을 열어줍니다.

이전에는 에이전트의 기능에 '상한선'이 있었습니다. 개발자는 모델을 마비시키지 않기 위해 도구 세트를 신중하게 관리해야 했습니다. Tool Search를 통해 해당 상한선은 효과적으로 제거되었습니다. 에이전트는 데이터베이스 커넥터, 클라우드 배포 스크립트, API 래퍼, 로컬 파일 조작기와 같은 수천 개의 도구에 액세스할 수 있으며, 실제로 해당 도구를 사용하기 전까지는 페널티를 지불하지 않습니다.

이는 '컨텍스트 경제'를 희소성 모델에서 액세스 모델로 전환합니다. Gupta가 요약했듯이 "그들은 컨텍스트 사용량을 최적화하는 것뿐만 아니라 '도구 기반 에이전트'가 무엇을 의미할 수 있는지를 변화시키고 있습니다."

이 업데이트는 Claude Code 사용자에게 즉시 적용됩니다. MCP 클라이언트를 구축하는 개발자의 경우 Anthropic은 이 동적 로드를 지원하기 위해 ToolSearchTool을 구현할 것을 권장합니다. 에이전트 기반의 미래가 도래하더라도 메모리가 부족해지기 전에 인사를 건넬 수 있도록 말입니다.

3. 기술 용어 해설

  • Model Context Protocol (MCP): AI 모델과 외부 도구를 연결하는 개방형 표준 프로토콜입니다. AI 모델이 다양한 도구와 데이터를 활용할 수 있도록 인터페이스를 제공합니다.
  • Agentic AI: 스스로 목표를 설정하고, 도구를 활용하여 문제를 해결하는 AI 에이전트를 의미합니다. Claude Code는 이러한 에이전트를 구축하고 실행할 수 있는 플랫폼입니다.
  • Lazy Loading: 필요할 때만 데이터를 로드하는 방식입니다. 불필요한 데이터 로딩을 줄여 성능을 향상시킵니다.
  • Token: LLM(Large Language Model)에서 텍스트를 처리하는 기본 단위입니다. 컨텍스트 창의 크기는 모델이 처리할 수 있는 토큰의 수를 제한합니다.
  • Context Window: LLM이 한 번에 처리할 수 있는 텍스트의 양을 의미합니다. 컨텍스트 창이 클수록 모델은 더 많은 정보를 기억하고 활용할 수 있습니다.

4. 수석 분석가의 Insight

Claude Code의 '도구 검색' 기능은 AI 에이전트 개발의 중요한 전환점을 의미합니다. 컨텍스트 창 관리의 효율성을 높여, 더 복잡하고 강력한 에이전트 구축을 가능하게 할 것입니다. 국내 IT 업계는 이 기술을 활용하여 AI 기반 서비스의 성능을 향상시키고, 새로운 비즈니스 모델을 창출할 수 있는 기회를 모색해야 합니다. 특히, LLM 기반의 자동화 솔루션 개발에 집중하는 기업들에게는 필수적인 기술이 될 것으로 예상됩니다.

 

 

 

AI검색 기반 자료입니다. 중요한 정보인 경우 다시 확인해주세요.
댓글, 공감 버튼 한 번씩 누르고 가주시면 큰 힘이 됩니다
반응형