loading...

Agentic AI, 기업이 직면한 구조적 한계와 성공 조건

이 글은 IDG의 아티클을 전재하여 제공합니다.
[원문보기]

핵심 인사이트


  • 에이전틱 AI의 성패는 단순한 기술 도입이 아니라 비즈니스 성과를 입증하는 실질적인 ROI 확보에 있습니다. 기존 생성형 AI를 에이전트로 재포장하는 '에이전트 워싱'을 경계하고, 복잡한 추론 단계에서 발생하는 토큰 비용과 운영 효율성을 정밀하게 산정하는 것이 필수적입니다.
  • 자율 시스템의 신뢰성을 담보하기 위해 '휴먼 인 더 루프(Human-in-the-Loop)'를 포함한 고도화된 거버넌스 체계 구축이 요구됩니다. AI가 내리는 의사결정 과정의 가시성을 확보하고, 예외 상황 발생 시 인간이 개입하여 리스크와 법적 책임을 제어할 수 있는 통제 설계를 선행해야 합니다.
  • 범용적인 자율성보다 특정 업무 중심의 '내로우 에이전트(Narrow Agent)' 전략이 프로젝트의 지속 가능성을 결정합니다. 실제 운영 환경의 복잡성을 고려하여 명확한 KPI 설정이 가능한 영역부터 단계적으로 확장함으로써 비용 변동성을 관리하고 기술적 완성도를 높여야 합니다.

에이전틱 AI(Agentic AI)는 단순한 지원 도구를 넘어 스스로 의사결정과 실행을 수행하는 기술로 주목받고 있습니다. 기존 생성형 AI(Generative AI)가 콘텐츠 생성 중심이었다면, AI 에이전트(AI Agent)는 실제 업무를 수행하고 행동하는 단계로 진화하고 있습니다. 기업들은 이를 통해 생산성 향상을 넘어 실질적인 비즈니스 성과와 ROI(Return on Investment) 창출을 기대하고 있습니다.

그러나 현실은 기대와 다릅니다. 가트너(Gartner)는 2027년까지 에이전틱 AI 프로젝트의 40% 이상이 중단될 것으로 전망하고 있습니다. 이는 기술 자체의 실패라기보다, 과도한 기대와 실제 운영 환경 간의 괴리에서 비롯된 구조적 문제입니다. 특히 일부 기업들이 기존 챗봇이나 생성형 AI를 ‘AI 에이전트’로 재포장하는, 이른바 ‘에이전트 워싱(Agent Washing)’ 현상은 시장 혼란을 가중시키고 있습니다. 이러한 상황 속에서 기업들은 점점 더 AI ROI를 입증하지 못한 프로젝트를 재검토하고 있으며, 에이전틱 AI 도입 전략 역시 보다 현실적인 방향으로 재정립되고 있습니다.

파일럿과 실제 운영 간의 간극

초기 파일럿 단계에서 에이전틱 AI는 매우 높은 성과를 보이는 것처럼 보입니다. 제한된 데이터, 통제된 환경, 그리고 사람의 적극적인 개입이 결합되기 때문입니다. 그러나 실제 운영 환경에서는 상황이 크게 달라집니다. 데이터 구조는 다양해지고, 예외 상황은 증가하며, 사용자 행동 역시 예측하기 어려워집니다. 이 과정에서 시스템의 일관성과 신뢰성이 급격히 저하됩니다.

또한 에이전틱 AI가 의사결정을 내리는 과정이 불투명할 경우, 문제가 발생했을 때 원인을 추적하고 복구하는 것이 매우 어려워집니다. 자율 프로세스가 일관되지 않은 결과를 낼 경우, 기업은 단순히 무엇이 잘못됐는지에 그치지 않고 시스템이 어떤 추론 과정을 거쳐 그 결론에 도달했는지까지 파악해야 하는데, 의사결정 과정의 가시성(Explainability)이 확보되지 않으면 롤백은 위험해지고 시간도 오래 걸립니다. 이러한 특성은 기업의 리스크를 크게 증가시키는 요소로 작용합니다.

비용 구조의 복잡성과 불확실성

에이전틱 AI의 확산을 가로막는 또 다른 핵심 요인은 비용입니다. 파일럿 프로젝트에서 가치를 확인하더라도, 확장 단계에서는 경제성이 발목을 잡는 경우가 많습니다. 기존 소프트웨어와 달리, 에이전틱 AI는 작업 단위마다 복잡한 연산 과정을 수행합니다. 하나의 작업에서도 여러 단계의 추론(reasoning), 도구 호출(tool use), 재시도(retry), 검증(validation)이 반복되며, 이는 토큰 소비 증가로 이어집니다. 워크플로우가 복잡해질수록 처리 과정에서 더 많은 토큰이 소모되고, 에이전틱 워크플로우로 갈수록 독립적인 작업을 수행하는 데 더 많은 자원을 소비하게 됩니다.

또한 다중 에이전트 구조(multi-agent architecture)와 거버넌스 계층이 추가되면서 비용은 더욱 빠르게 증가합니다. 사용량에 따라 자원 소비가 급격히 바뀌는 구조로 인해 비용 변동성은 커지고 예측은 어려워집니다. 토큰 기반 과금은 인프라 용량이 아니라 실제 사용량에 따라 요금이 달라지기 때문입니다. 이러한 특성은 기존의 예측 가능한 IT 투자 모델과 충돌하며, 재무 부서와 경영진의 부담을 가중시키고 있습니다.

현재 많은 기업들은 에이전틱 AI에 기존 생성형 AI의 비용 가정을 그대로 적용하고 있는 실정입니다. 전문가들은 현재 기업들이 에이전틱 AI에 대한 비용 산정을 단순한 LLM 비용 기준에 의존하고 있지만, 에이전트 기반 시스템은 다르다고 지적합니다. 오케스트레이터와 거버넌스 계층, 여러 개의 AI 에이전트가 추가되면 비용은 매우 빠르게 증가하기 때문입니다. 결과적으로 일부 기업들은 적용 범위를 의도적으로 축소하거나, 비용 통제 체계가 자리 잡을 때까지 확장을 전면 중단하고 있습니다.

경영진의 논의 사항이 된 에이전틱 AI, 그 책임과 리스크

에이전틱 AI는 더 이상 IT 부서만의 문제가 아닙니다. 프로젝트 규모와 영향력이 커지면서, 의사결정은 경영진으로 확대되고 있습니다. 일반적인 자동화와는 달리, 에이전틱 AI는 하위 조직에 위임하기 어려운 리스크가 존재합니다. 자율 시스템이 의사결정을 내리고, 실제로 행동하며, 고객이나 재무 시스템과 직접 상호작용하기 때문입니다. 즉, 기업의 법적 책임과 리스크와도 직결될 수 있다는 의미입니다. 자율 시스템이 고객, 재무, 운영 영역에 직접적인 영향을 미치면서 기업의 법적 책임과 리스크가 증가하고 있기 때문입니다. 이제 기업은 단순히 시스템이 작동하는지를 넘어, 그 행동을 설명하고 책임질 수 있는지까지 점검해야 합니다.

현재의 AI 거버넌스(AI Governance)와 리스크 통제 체계는 에이전틱 AI에 맞춰 정교하게 설계돼 있지 않습니다. 특히 여러 에이전트가 서로 상호작용하고 다양한 애플리케이션에 접근하는 환경에서는 통제가 더 복잡해집니다. 자율성이 높아질수록 누가 어떤 조건에서 해당 행동을 승인했는지, 어떤 안전장치가 적용됐는지 같은 기본적인 거버넌스 질문에 답하기가 더 어려워집니다.

이제 기업들은 에이전틱 AI를 실험적 혁신이 아니라, 재무 시스템이나 사이버보안 통제와 같은 수준의 검증과 통제를 요구받는 핵심 인프라로 다뤄야 하는 상황입니다. 이러한 변화로 인해 많은 조직이 전환점을 맞고 있습니다. 작동 원리를 명확히 설명하지 못하거나 경제적 타당성을 입증하지 못하는 프로젝트는 더 이상 관성적으로 유지되기 어려워졌으며, 경영진의 공식 검토를 거치면서 상당수 프로젝트가 중단되고 있습니다.

실제 환경의 복잡성과 인간 개입의 필요성

에이전틱 AI의 가장 큰 도전은 모델 성능이 아니라 실제 환경의 복잡성입니다. 기업 시스템은 다양한 예외 상황과 불완전한 데이터, 지연된 통합 구조로 구성되어 있습니다. 에이전틱 AI가 이런 환경에서 작동할 경우 작은 변수도 빠르게 누적되며 복잡성이 커집니다.

사람은 경험과 직관을 통해 이러한 상황에 대응하지만, AI 에이전트는 그렇지 못합니다. 에이전트가 한 번도 접해보지 못한 상황에 놓일 경우에는 오류나 환각(hallucination)이 발생할 가능성이 높아집니다. 사람이 개입하는 ‘휴먼 인 더 루프(Human-in-the-Loop)’ 설계가 중요한 이유도 여기에 있습니다. 자율성은 시스템이 일상적인 업무를 처리하고 예외 상황을 식별해 알리는 방식으로 작동할 때 가장 효과적이며, 중대한 결정을 시스템이 독립적으로 내리도록 하는 구조는 아직 위험 부담이 크기 때문입니다. 이 때문에 대부분의 성공적인 AI 에이전트 구현 사례에서는 ‘Human-in-the-loop’ 구조가 필수적으로 적용됩니다. 즉, 반복적인 작업은 자동화하되, 중요한 의사결정은 인간이 개입하는 방식입니다.

실제 병목이 된 거버넌스

에이전틱 AI가 운영 단계에 가까워질수록, 제약 요인은 AI 자체가 아니라 거버넌스로 옮겨가고 있습니다. 전문가들은 거버넌스를 사람, 프로세스, 기술로 나누어 설명합니다. 먼저 기술 측면에서 기업들은 확률적으로 작동하는 시스템(LLM 기반 AI)에 접근 통제와 가드레일을 적용하는 데 어려움을 겪고 있습니다. 환각 가능성이 있는 LLM에 각종 도구 사용 권한까지 부여된다는 점에서 아무리 구조화된 시스템이라 하더라도 접근 통제를 설계하는 일이 쉽지 않기 때문입니다.

프로세스 거버넌스도 마찬가지로 복잡합니다. 수작업 워크플로우에는 암묵적인 점검 절차가 포함되는 경우가 많지만, 자동화는 그렇지 않습니다. 재설계 없이 자동화만 진행할 경우, 오류를 줄이기보다 오히려 더 빠르게 확산시킬 위험도 있습니다. 여기에 사람과 관련된 거버넌스도 쉽지 않습니다. 직원 교육, 책임 범위의 재정의, 새로운 실패 유형에 대한 조직 차원의 대비가 모두 요구되고 있는 상황입니다.

성공하는 에이전틱 AI의 조건

중단되는 프로젝트가 늘고 있지만, 에이전틱 AI 자체가 후퇴하는 것은 아닙니다. 대신 적용 범위가 좁아지고 있습니다. 실제로 살아남는 프로젝트에는 몇 가지 공통점을 가지고 있습니다.



  • 첫째, 범용 자율성이 아니라 특정 업무 중심의 AI 에이전트에 집중합니다.
  • 둘째, 명확한 KPI와 비즈니스 성과 및 AI ROI에 기반하여 가치를 측정합니다.
  • 셋째, 점진적인 확장을 통해 자율성을 단계적으로 확보합니다.
  • 넷째, AI 거버넌스와 통제 체계를 사전에 설계합니다.

결국, 성공하는 프로젝트는 개인의 효율성 향상에 머무르지 않고 조직 차원의 실질적인 성과를 만들어내는 사례입니다. 핵심은 시간을 얼마나 절약했느냐가 아니라 비즈니스에 어떤 성과를 가져오는지이기 때문입니다.

에이전틱 AI 도입의 다음 단계는 이전보다 조용하게 전개될 가능성이 큽니다. 대대적인 발표는 줄어들고, 일시 중단되는 프로젝트는 늘어나며, 재무 조직과 경영진의 검토는 한층 더 엄격해질 전망입니다. 그러나 부정적으로만 해석할 필요는 없습니다. 에이전틱 AI가 실험 단계를 지나, 책임이 수반되는 영역으로 이동하고 있음을 보여주는 변화이기 때문입니다.

결국 에이전틱 AI의 성공은 기술 자체가 아니라, 이를 관리하고 통제할 수 있는 조직의 역량에 달려 있습니다. 이제 기업들은 실험 단계를 넘어 책임성과 지속 가능성을 중심으로 AI 전략을 재정립하고 있습니다.

FAQ

Q. 가트너가 에이전틱 AI 프로젝트의 40%가 중단될 것이라고 예측한 이유는 무엇인가요?

A. 기술 자체의 결함보다는 과도한 기대와 실제 운영 환경 간의 괴리 때문입니다. 파일럿 단계의 통제된 환경과 달리, 실제 운영에서는 데이터의 복잡성, 예측 불가능한 사용자 행동, 그리고 기하급수적으로 증가하는 토큰 비용(비용 구조의 불확실성)이 발생하며 경영진이 요구하는 실질적인 ROI를 증명하지 못하기 때문입니다.
Q. '에이전트 워싱(Agent Washing)'이란 무엇이며 왜 위험한가요?

A. 기존의 단순 생성형 AI나 챗봇 서비스를 마치 스스로 판단하고 행동하는 '에이전틱 AI'인 것처럼 마케팅하는 현상을 말합니다. 이는 기업들로 하여금 잘못된 기술 가정을 하게 만들어 비용 산정 오류와 거버넌스 공백을 초래하며, 결국 프로젝트 실패와 AI 기술에 대한 조직 내 불신을 야기합니다.
Q. 에이전틱 AI 운영에서 '휴먼 인 더 루프(Human-in-the-Loop)'가 왜 중요한가요?

A. AI 모델은 접해보지 못한 예외 상황에서 환각(Hallucination)이나 논리적 오류를 범할 수 있습니다. 특히 재무나 고객 상호작용처럼 법적 책임이 따르는 영역에서는 시스템이 자율적으로 판단하되, 최종 승인이나 고위험 판단 단계에 인간이 개입함으로써 리스크를 통제하고 시스템의 신뢰도를 유지할 수 있습니다.
Q. 성공적인 에이전틱 AI 도입을 위해 기업이 우선순위로 두어야 할 조건은 무엇인가요?

A. 크게 네 가지입니다. ① 모든 업무가 아닌 특정 도메인 및 업무에 집중할 것, ② 명확한 비즈니스 KPI를 설정할 것, ③ 자율성을 한꺼번에 부여하기보다 단계적으로 확장할 것, ④ 기술 도입 전 거버넌스와 통제 체계를 사전에 설계할 것입니다.
Q. 에이전틱 AI의 비용 구조가 기존 LLM 서비스와 다른 점은 무엇인가요?

A. 단순 질의응답과 달리 에이전틱 AI는 하나의 목표를 달성하기 위해 다단계 추론, 반복적인 도구 호출(Tool Call), 자기 검증 과정을 거칩니다. 이 과정에서 발생하는 토큰 소모량이 훨씬 많으며, 여러 에이전트가 상호작용하는 '멀티 에이전트' 구조에서는 오케스트레이션 비용이 추가되어 비용 변동성과 예측 불확실성이 매우 높습니다.
IDG logo

▶   해당 콘텐츠는 저작권법에 의하여 보호받는 저작물로 기고자에게 저작권이 있습니다.
▶   해당 콘텐츠는 사전 동의 없이 2차 가공 및 영리적인 이용을 금하고 있습니다.


이 글이 좋으셨다면 구독&좋아요

여러분의 “구독”과 “좋아요”는
저자에게 큰 힘이 됩니다.

subscribe

구독하기

subscribe

Pat Brans
Pat Brans
Grenoble Ècole de Management의 Affiliated Professor

공유하기