이 글은 IDG의 아티클을 전재하여 제공합니다.
[원문보기]
최근 글로벌 산업계의 화두는 단연 AX(AI Transformation)입니다. 하지만 기업들이 앞다투어 자율형 에이전트와 생성형 AI를 업무 프로세스에 통합하는 사이, 리스크 관리의 최전선인 보험 시장에서는 심상치 않은 기류가 감지되고 있습니다. 한때 AI를 새로운 기회로 보았던 보험사들이 이제는 ‘보장 제외’와 ‘인수 거절’이라는 카드를 꺼내 들며 방어적 태세로 전환하고 있습니다.
보험 산업의 근간은 통계에 기반한 ‘예측 가능성’과 사고의 ‘재현성’에 있습니다. 과거의 데이터를 통해 미래의 발생 확률을 계산하고 그에 맞는 보험료(Premium)를 책정하는 방식입니다. 그러나 AI, 특히 생성형 AI와 자율형 에이전트의 등장은 이러한 수백 년 된 보험의 방정식을 무너뜨리고 있습니다.
AI는 동일한 데이터를 입력하더라도 매번 미세하게 다른 결과를 도출할 수 있습니다. 특히 최근 주목받는 ‘바이브 코딩(Vibe Coding)’이나 자율형 에이전트 기반 솔루션은 내부 로직이 극도로 복잡하여, 오류가 발생했을 때 그것이 알고리즘의 결함인지, 학습 데이터의 편향성인지, 아니면 일시적인 환각(Hallucination) 현상인지 명확히 규명하기 어렵습니다.
전통적인 E&O(Errors and Omissions, 오류 및 누락) 보험은 담당 직원의 과실이나 시스템의 명확한 버그를 전제로 합니다. 하지만 AI가 내린 결정으로 인해 대규모 금융 손실이나 개인정보 유출이 발생했을 때, 그 책임의 소재는 어디에 있을까요? 소프트웨어 개발사입니까, 데이터를 제공한 기업입니까, 아니면 이를 제대로 감독하지 못한 사용자 기업입니까? 이 ‘책임 소재의 불투명성’이 보험사들로 하여금 리스크 평가 자체를 포기하게 만드는 핵심 요인입니다.
2025년 말부터 글로벌 주요 보험사들을 중심으로 AI 관련 리스크를 표준 약관에서 배제하려는 움직임이 가속화되고 있습니다. AIG, 그레이트 아메리칸(Great American), W.R. 버클리 등 시장 리더들은 이미 규제 당국에 AI 관련 책임을 보장에서 제외할 수 있는 권한을 요청하며 신속하게 움직이고 있습니다.
이제 시장에서는 AI로 인해 발생한 사업 중단(Business Interruption)이나 제3자 손해배상 책임을 아예 담보하지 않는 상품이 늘어나고 있습니다. 설령 가입이 가능하더라도, AI 리스크가 포함될 경우 보험료는 이전 대비 수 배 이상 가파르게 인상되는 추세입니다.
보험사들은 이제 고객을 두 부류로 엄격히 구분합니다.
보험사들의 이러한 까다로운 접근은 역설적으로 기업들에게 새로운 표준을 제시하고 있습니다. 이제 기업은 "우리가 어떤 놀라운 AI를 쓰는가"가 아니라 "우리가 이 AI를 얼마나 안전하게 통제하고 있는가"를 대외적으로 입증해야 합니다.
보험 인수의 당락을 결정하는 핵심 분기점은 ‘통제력’입니다. 보험사가 상대적으로 우호적인 태도를 보이는 영역은 ‘인간과 AI의 협업 체계’가 명확히 구축된 환경입니다. 흔히 Human-in-the-loop(HITL)라 불리는 이 구조는 AI가 제안을 하더라도 최종 승인과 실행의 주체는 반드시 인간이어야 한다는 원칙을 고수합니다.
이 환경에서는 모든 데이터의 입출력이 엄격한 필터링 과정을 거칩니다. 예를 들어, 금융 상담에 AI를 도입하더라도 최종 답변이 고객에게 전달되기 전 시스템이 정해진 가이드라인(Guardrails) 내에 있는지 검증하고, 이상 징후가 발견되면 즉시 인간 관리자가 개입할 수 있는 구조입니다. 보험사는 이러한 ‘예측 가능한 통제권’이 확보되었을 때 비로소 사고 발생 가능성을 산출 가능한 범위로 간주하며, 이는 낮은 보험료나 원활한 인수 결정으로 이어집니다.
반면, 최근 기업들이 주목하는 자율형 에이전트(Autonomous Agents)나 검증되지 않은 오픈소스 모델을 업무 핵심 프로세스에 그대로 투입하는 경우는 보험업계에서 ‘통제 불능의 고위험군’으로 분류됩니다. 자율적 AI는 스스로 목표를 설정하고 하위 과업을 수행하며 외부 도구와 상호작용합니다.
이 과정에서 발생하는 의사결정의 연쇄 작용은 인간이 실시간으로 모니터링하기 매우 어렵습니다. 특히 오픈소스 모델을 커스터마이징 없이 사용하거나, ‘바이브 코딩’처럼 논리적 검증보다 직관적 구현에 의존한 솔루션들은 사고 발생 시 어디서부터 잘못되었는지 파악하는 ‘사후 추적성’이 결여되어 있습니다. 보험사는 사고의 원인을 규명할 수 없는 상품에 보증을 설 수 없습니다. 따라서 AI가 스스로 판단하고 행동하는 비중이 높을수록, 보험사는 이를 통계적 산출이 불가능한 ‘미지의 영역’으로 보고 보장 범위에서 즉각 제외하거나 가입 자체를 거절하는 강경한 입장을 취하게 됩니다.
많은 기업이 자율형 AI를 24시간 가동되는 ‘디지털 직원’으로 간주하고 중요한 업무 프로세스를 맡기려 합니다. 그러나 현재의 AI 수준은 자신의 오류를 스스로 인지하고 교정하는 능력이 부족합니다. 보험사들은 이 간극을 ‘리스크의 폭발적 증가’로 해석하며, 기업의 운영 성숙도가 확보되지 않은 상태에서의 성급한 AI 도입에 경고등을 켜고 있습니다.
보험은 기업 리스크 관리의 최후 보루입니다. 만약 기업이 보험 가입 과정에서 AI 활용 사실을 누락하거나 투명하게 공개하지 않는다면, 사고 발생 시 보험금 지급 거절은 물론 고의적 기망에 따른 법적 책임까지 질 수 있습니다. 이제 AI 도입은 기술 부서만의 숙제가 아닙니다. 법무, 리스크 관리, 재무 부서가 원팀이 되어 우리 회사가 사용하는 AI의 위험 수준을 정량화하고 이를 보험사 및 투자자 등 외부 이해관계자에게 투명하게 소통해야 합니다.
전문가들은 지금의 상황을 AI 보험 시장의 몰락이 아닌 ‘건전한 재편(Re-organization)’의 과정으로 보고 있습니다. 과거 닷컴 버블 이후 IT 보안 보험이 체계화되었듯, AI 보험 역시 현재의 진통을 거쳐 더욱 정교한 평가 기준과 특화된 담보 조건을 갖춘 형태로 진화할 것입니다.
AI는 기업의 생산성을 비약적으로 높여줄 강력한 도구임이 분명합니다. 하지만 보험 시장의 차가운 시선은 우리가 기술적 낙관론에 빠져 간과했던 '책임'의 무게를 일깨워 줍니다.
기업은 다음과 같은 세 가지 전략적 질문에 답할 수 있어야 합니다.
이제 AI 도입의 성공 여부는 ‘얼마나 똑똑한 모델을 쓰는가’가 아니라, 그 기술을 감당할 수 있는 ‘조직의 관리 역량’에 달려 있습니다. 보험사가 기꺼이 보증할 수 있을 만큼 투명하고 통제된 AI 환경을 구축하는 것, 그것이 진정한 의미의 AX(AI Transformation)로 가는 지름길입니다.
가장 큰 이유는 ‘설명 불가능성’ 때문입니다. AI의 의사결정 과정이 불투명하여 사고 시 책임 소재를 가리기 어렵고, 전통적인 보험 모델이 중시하는 리스크의 예측 가능성과 재현성을 확보할 수 없기 때문입니다.
아닙니다. 보험사들은 ‘통제된 환경’에서 운영되는 AI와 ‘실험적·자율적 AI’를 구분합니다. 인간이 최종 결정권을 갖는 Human-in-the-loop(HITL) 체계가 갖춰진 관리형 시스템은 상대적으로 보험 가입이 수월합니다.
네, 매우 다릅니다. AI 기술을 직접 제공하는 공급업체는 기술적 결함으로 인한 대규모 손배소 위험으로 인해 가입 거절 사례가 늘고 있으며, 사용 기업은 내부적인 통제 절차와 보안 관리 수준에 따라 보험료와 인수 조건이 결정됩니다.
단순한 기술 도입을 넘어선 ‘AI 거버넌스 체계’ 증명이 핵심입니다. AI 활용 방식, 입력/출력 필터링 절차, 보안 관리 수준 등을 문서화하고, 사고 발생 시 사후 추적이 가능한 시스템을 갖추고 있음을 보험사에 입증해야 합니다.
이는 ‘고지 의무 위반’에 해당할 가능성이 높습니다. 사고 발생 시 AI 관련성이 확인되면 보험금 지급이 거절될 수 있을 뿐만 아니라, 계약 자체가 무효화되어 기업의 리스크 관리에 치명적인 공백이 생길 수 있습니다.
▶ 해당 콘텐츠는 저작권법에 의하여 보호받는 저작물로 기고자에게 저작권이 있습니다.
▶ 해당 콘텐츠는 사전 동의 없이 2차 가공 및 영리적인 이용을 금하고 있습니다.
![]()
CIO의 Contributor Writer