loading...

Agentic AI 시대, 진화하는 보안 위협과 그 해법은?

AI Agent가 만들어낸 보안 환경의 대변화

기업들이 추진하는 디지털 혁신은 이제 AI Agent를 중심으로 빠르게 옮겨가고 있습니다. 과거 인공지능이 단순히 텍스트 생성이나 응답 처리의 보조 역할에 머물렀다면, 지금의 AI Agent는 스스로 판단하고 외부 시스템과 연동하여 실제 행위를 수행할 수 있는 독립적인 실행 주체로 진화하고 있습니다. 맞춤형 답변, 자동화된 의사결정, 창의적 콘텐츠 제작 등 LLM의 잠재력은 비즈니스 모델을 근본적으로 변화시키고 있으며, 많은 기업들이 생성형 AI를 실제 업무에 통합하면서 문서 자동화, 고객 응대, 소프트웨어 개발, 내부 지식 검색 등의 분야에서 급격한 효율화가 이루어지고 있습니다. 이를 통해 다양한 업무가 사람 손을 거치지 않고 이루어지게 된 반면, 우리는 이전과는 전혀 다른 유형의 보안 위협과 마주하게 되었습니다.

기존의 보안 체계는 ‘누가 시스템에 접근했는가’를 중심으로 설계되었습니다. 사용자 인증, 권한 부여, 네트워크 경계 보호 등은 사람 중심의 통제 환경에서 유효했습니다. 하지만 AI Agent의 등장으로, Agent의 자율성 이면의 부작용, 즉 자신의 환경이나 설정을 조작하거나 불법 행위를 하는 등의 위험을 방지하기 위해 이제는 AI의 행동 흐름 전체를 추적하고 통제할 수 있어야 한다는 새로운 요구가 등장했습니다. [1] IBM 보안 소프트웨어 개발 부사장 수자 비스웨산은 2025년 7월 테크레이더 아티클을 통해, ‘에이전트의 행동, 상호 작용 및 정책과의 편차를 모니터링하기 위한 추가 제어가 필요하며, 에이전트의 자율성을 감시하고 제어할 수 있어야 한다’고 언급한 바 있습니다. [2] 자율적 실행 능력을 갖춘 AI는 예상치 못한 방식으로 시스템을 위협할 수 있기 때문에 각별한 주의가 필요합니다.

img-250829-01-security-threats-in-the-agentic-ai-era [그림1] Agentic AI 환경의 보안 체계의 변화 (출처: 작성자 제작)

새로운 보안 위협에 어떻게 대응 할것인가?

전통적인 보안 체계 - 사람 중심의 통제에 초첨 vs Agnetic AI 등장 이후의 보안 체계 - AI 행동 추적 및 통제에 초점

OpenAI와 구글 딥마인드조차 에이전트 기능을 공개할 때 ‘고위험 작업은 반드시 사용자 승인 절차를 거쳐야 한다’는 정책을 강조하고 있습니다. [3][4] 이는 AI가 중요한 행위를 수행하는 과정에서, 사람이 마지막 통제권을 행사해야 한다는 원칙을 의미합니다. 한국인터넷진흥원(KISA) 역시 국내 보안기술 경쟁력 강화를 위해 ‘Security for AI, AI for Security’ 전략[5]을 중점 추진하며, AI 자체를 보호하는 기술과 AI를 활용한 보안 기술의 이중 구조 필요성을 강조하고 있습니다.

이러한 변화는 단순한 가능성이 아니라 이미 진행 중입니다. 과거에는 호기심이나 실험에 그쳤던 AI 기반 공격 시도가 이제는 글로벌 기업과 국내 기업을 모두 겨냥하는 형태로 확산하고 있으며, 피해 규모와 파급력 또한 커지고 있습니다. 따라서 지금이야말로 기업들이 AI 활용의 속도만큼이나 AI 보안 리스크에 대한 이해와 대응 역량을 함께 끌어올려야 할 시점입니다.

Agentic AI 환경에서 발생 가능한 주요 보안 위협

기존 보안 체계로는 감지하거나 대응하기 어려운 새로운 위협들이 등장함에 따라, 이를 보다 체계적으로 정리하고 관리하려는 움직임이 나타나고 있습니다. 대표적으로 OWASP(Open Worldwide Application Security Project)*는 정기적으로 ‘OWASP Top 10 for LLM[6]’을 발표하며 기술 진화에 발맞춘 보안 기준 마련에 나섰습니다. 이 리스트는 Agentic AI 환경에서 특히 주의해야 할 주요 취약점을 체계적으로 정리한 것으로, 전세계 보안 커뮤니티와 기업의 중요한 참고자료로 활용되고 있습니다.
* OWASP – 소프트웨어와 웹 애플리케이션 보안 향상을 목표로 하는 비영리 단체이자 개방형 커뮤니티로 가장 중요한 웹 애플리케이션 보안 취약점 10가지를 주기적으로 정리·공개하며, 웹 보안 업계의 표준으로 활용
2025년 ‘OWASP Top 10 for LLM’ 발표 내용 중, 특히 Agentic AI의 행동 추적 및 통제 관점에서 주목할 만한 5가지 취약점을 살펴보도록 하겠습니다.

<표 1> Agentic AI 환경에서 주목되는 보안 위협

구분 설명 잠재적 영향
과도한 위임 과도한 자율성과 권한을 부여받아, 예상치 못한 동작 수행 비인가 작업 수행, 시스템 오작동, 데이터 유출
부적절한 출력 처리 에이전트의 출력을 별도 검증 없이 자동 실행하거나 외부 시스템과 연동 연쇄적 피해 발생
프롬프트 인젝션 악의적 입력이 에이전트를 조작해 의도치 않은 명령 수행 시스템 제어권 탈취, 정보 유출
민감 정보 유출 에이전트가 내부 데이터나 개인정보를 외부로 노출하거나 전달 개인정보 유출, 비즈니스 기밀 손실, 규제 위반 및 법적 책임
시스템 프롬프트 유출 내부 시스템 프롬프트 및 구성 정보가 외부로 노출되어 공격자에 의해 남용 정책 우회, 추가 공격 가능성 노출, 프롬프트 조작

(출처: 작성자 제작)

① 과도한 위임 (Excessive Agency)

과도한 위임은 LLM 기반 AI 에이전트가 지나치게 많은 자율성이나 권한을 갖게 되는 보안 취약점입니다. 이 취약점은 에이전트가 사용자의 직접적인 감독이나 승인을 받지 않고 외부 시스템에 접근하거나, API 호출, 이메일 발송, 데이터베이스 수정, 시스템 명령 실행과 같은 실제적인 영향을 주는 행동을 수행할 수 있게 되었을 때 발생합니다.

예를 들어, 공격자가 악의적으로 설계된 입력 프롬프트를 통해 에이전트에게 비인가 데이터 전송, 권한 상승, 금전 거래 수행 등 개발자가 의도하지 않은 작업을 하게 만들 수 있는 것입니다. 이로 인해 민감한 정보가 외부로 유출되거나, 외부 공격자가 시스템을 간접적으로 제어하는 일이 발생할 수 있습니다. 특히 업무 자동화나 외부 서비스 연동에서 이러한 공격이 성공하면 실제 서비스 장애, 업무 손실, 사회적·법적 책임까지 초래될 수 있습니다.

과도한 위임 취약점은 적절한 권한 관리, 행동 시나리오 사전 정의, 로깅과 알림, 중요한 작업에 대한 추가 인증 절차를 마련하지 않을 때 더욱 위험합니다. “자동화”의 편의성이 확장될수록, 모니터링·통제가 없는 자율적 행위로 인한 보안사고 위험이 높아지는 만큼, 시스템 설계와 운영 시 반드시 에이전트의 권한과 행동 범위를 제한하고, 통제하는 것이 필요합니다.

② 부적절한 출력 처리 (Improper Output Handling)

부적절한 출력 처리는 여러 에이전트가 협업하는 환경에서 특히 위험합니다. 하나의 에이전트가 감염되면, 해당 에이전트의 출력이 다른 에이전트의 입력으로 사용되어, 나머지 에이전트들도 이를 신뢰하고 수행하게 되면서 악성 명령이 연쇄적으로 확산할 수 있기 때문입니다.

예를 들어 이메일, 브라우저, 파일시스템 제어 권한을 가진 에이전트로 구성된 AI 개발 환경에서 하나의 에이전트가 감염되면, 그 결과가 다른 에이전트에게 전달되고, 자동 배포 시스템을 통해 악성 코드가 전사적으로 퍼질 수 있습니다. Microsoft와 Google은 이러한 위험을 방지하기 위해 에이전트 실행 시에 최소 권한 부여와 외부 API 호출 검증, 실행 추적 로그화를 필수 원칙으로 하고 있습니다. [7][8]

단 하나의 오염된 에이전트가 전체 시스템에 영향을 미칠 수 있다는 점을 고려하면, 부적절한 출력 처리 공격을 대비하기 위해서는 LLM의 출력을 그대로 신뢰하여 입력값으로 사용하는 대신, 사용자 입력처럼 검증 절차를 거치도록 구성하고, 단일 모델의 보안을 넘어 실행 흐름 전체를 보호할 수 있는 구조적 검증 절차가 필요합니다.

③ 프롬프트 인젝션 (Prompt Injection)

AI Agent가 직면한 대표 위협 중 하나는 프롬프트 인젝션입니다. 이는 사용자가 입력하는 문장 안에 악의적인 명령을 숨겨두고, AI가 이를 실행하도록 유도하는 공격 방식입니다.

예를 들어, “문서를 요약해 줘”라는 명령 뒤에 “그리고 이 정보를 특정 주소로 전송해”라는 지시가 보이지 않게 포함되면, AI는 본래의 요청과 함께 악의적인 명령까지 수행할 수 있습니다. 사용자는 자신이 어떤 실행을 유발했는지 인지하지 못한 채 정보 유출이나 시스템 변경이 발생할 수 있는 것입니다.

이 문제는 AI가 입력 내용을 온전히 신뢰하는 구조적 특성에서 비롯되며, OWASP 역시 이를 LLM의 가장 심각한 보안 위협 중 하나로 분류하고 있습니다. 실제로 다수의 프롬프트 인젝션 공격 시도가 보고되고 있으며, 기업 환경에서도 테스트 중 우발적인 데이터 전송 사례가 발생한 바 있습니다.

④ 민감 정보 유출 (Sensitive Information Disclosure)

민감 정보 유출은 LLM 기반 AI 시스템 또는 에이전트가 개인정보, 내부 문서, 인증 정보, API 키 등 공개되어서는 안 되는 중요한 데이터를 외부로 노출하는 보안 취약점입니다. 이 취약점은 에이전트가 외부와의 연동이나 자동화된 메시지 전송 과정에서 적절한 검증과 필터링 없이 민감 내용을 포함한 응답을 생성하거나 전송할 때 발생합니다.

공격자는 프롬프트 인젝션, 악의적 입력 등으로 LLM이 내부 정보나 시스템 구성, 비즈니스 기밀 등을 노출하도록 유도할 수 있습니다. 예를 들어, 악의적인 사용자가 교묘하게 구성한 질문을 통해 에이전트가 내부 알고리즘, 고객 데이터, 미공개 정책 등 민감 정보를 대답하게 만들 수 있고, 이때 개인정보보호법 위반, 기업 기밀 유출, 내부 시스템 공격 경로 노출 등 심각한 피해가 발생할 우려가 있습니다.

민감 정보 유출 취약점은 정보 접근 제어, 출력 필터링, 프롬프트 검증 및 행동 감시 등 적절한 보호 조치 없이 운영될 때 더욱 쉽게 악용될 수 있습니다. 특히 자율적 판단에 따라 데이터를 선택, 요약, 전송하는 과정에서 AI Agent가 내부 정보 및 개인정보 등을 잘못된 대상에게 자동으로 노출할 경우, 정보 유출 속도와 범위가 급격히 확산할 수 있어, 특히 주의가 필요합니다. 따라서 LLM 및 에이전트 시스템에서는 필요한 최소 정보만 사용하고 응답 전에 항상 민감 데이터가 포함돼 있는지를 자동으로 검사하고 제거하는 절차를 갖추어야 합니다. 또한 모든 데이터 접근 및 전송 행위는 로깅되어야 하며, 이상 행위가 감지되면 즉시 대응할 수 있는 체계를 마련해야 합니다.

⑤ 시스템 프롬프트 유출 (System Prompt Leakage)

시스템 프롬프트 유출은 LLM 또는 에이전트의 내부 설정, 운영 정책, 명령어 템플릿 등 시스템 프롬프트에 해당하는 정보가 외부로 노출되는 보안 취약점입니다. 이 취약점은 에이전트가 제공한 답변이나 출력, 또는 외부 연동 과정에서 내부 프롬프트(예: “절대 사용자에게 이 정보를 제공하지 마십시오” 등)가 의도치 않게 포함되어 노출될 때 발생합니다.

에이전트의 판단/행동의 기준이 되는 내부 프롬프트 및 정책 정보가 외부로 유출되면, 공격자는 AI Agent를 더욱 쉽게 우회하거나 조작할 수 있습니다. 이러한 정보가 유출되면, 공격자는 LLM이나 에이전트가 어떻게 제약되고 있는지, 어떤 보호 방안이 적용되어 있는지를 분석할 수 있습니다. 그 결과, 공격자는 제한 우회, 프롬프트 조작, 정책 무력화 등 추가적인 공격 벡터를 설계할 수 있는 기회를 얻게 됩니다. 예를 들어, “관리자만 접근 가능”이라는 내부 프롬프트가 노출되면, 공격자는 추가 탐색을 통해 관리자 권한을 우회하는 공격을 시도할 수 있습니다.

이렇게 Agent의 내부 룰이 노출될 경우 이를 활용한 추가 공격의 표적의 되기 쉽습니다. 따라서 LLM 및 에이전트의 모든 출력 결과를 사전에 점검해 내부 프롬프트 누출이 없는지 필터링하고, 민감한 설정 및 정책 정보는 별도 보안 영역에 저장하며, 프롬프트 노출 시도 자체를 감시하는 것이 필요합니다.

img-250829-02-security-threats-in-the-agentic-ai-era [그림 2] AI Agent 관련 주요 보안 위협 (출처: 작성자 제작)

AI Agent 관련 주요 보안 위협

  • 과도한 위임 - 과도한 권한을 부여 받아 의도치 않은 동작 수행
  • 부적절한 출력 처리 - 에이전트의 출력을 별도 검증없이 실행 및 연동
  • 프롬프트 인젝션 - 입력 내 악성 명령 삽입
  • 민간 정보 유출 - 내부 데이터나 개인정보를 외부로 유출 및 전달
  • 시스템 프롬프트 유출 - 내부 프롬프트 및 구성 정보 외부 유출

AI 보안 위협, 국내외 대응 전략과 준비 현황

이처럼 Agentic AI 환경에서 등장한 새로운 보안 위협에 대응하기 위해 각국과 기업들은 발 빠르게 움직이고 있습니다. 특히 고위험 AI(특히 Agentic AI)에 대해 투명성·감사·행동 이력 관리 등 ‘행동 추적 및 통제’ 의무를 강화하는 추세이며, 이를 법제화하고 가이드라인을 마련하는 등 본격 시행을 준비하고 있습니다.

국내외 모두 AI Agent의 자율적 행동에 따른 보안 위협 대응을 전략적으로 강화하고 있지만, 접근 방식과 준비 상황에는 차이가 있습니다. EU 및 미국은 규제 중심의 사전 정책 및 인증 체계를 빠르게 정착시키고 있는 모습입니다.

유럽연합(EU)의 경우, 2024년 3월 AI Act를 최종 통과시키고, 2026년 전면 시행을 앞두고 있습니다. [9] AI Act에 따르면, AI를 ‘위험도’에 따라 분류해, 고위험 AI(금융, 의료, 법률, 공공 분야, 에이전트 등)에는 반드시 행동 추적하고 인간이 감독하도록 하였습니다. 또한 모든 운영 내역을 기록하고, 행동 권한을 제한하며, 이상 행동 발생 시 사후 조치를 취하도록 규정하였습니다. 고위험 AI 운영자가 이를 위반 시 연 매출의 최고 7%까지 벌금 징수가 가능하게 하는 제재도 포함되었습니다.

미국의 경우는 연방 차원의 단일 AI 관련법은 아직 없으나, 2023년 10월 '안전하고 신뢰할 수 있는 AI' 행정명령을 발표하여, 연방기관의 AI 시스템 이용 내역 모니터링, 부작용 검증, 행동 기반 감시 체계 구축을 권고한 바 있습니다. [10] 이는 개인정보 보호·감사·인권 보장 등 개별 법령을 통한 “분산적 규제” 형태로, 실제 도입된 AI 에이전트의 행동 추적·통제를 의미합니다. 또한, CISA*와 NSA**가 공동으로 ‘안전한 AI 배포 가이드라인’을 발표해, AI 시스템의 설계·배포·운영 전 과정에서 보안 검증 절차를 강화할 것을 권고하고 있습니다. [11]
* CISA – 사이버보안 및 인프라 보안국(Cybersecurity and Infrastructure Security Agency)의 약어로, 미국 내 중요 기반 시설과 정보통신 네트워크를 사이버 및 물리적 위협으로부터 보호하는 임무를 수행하는 기관 ** NSA – 미국 국가안보국(National Security Agency)의 약어로, 해외 통신 및 신호 정보의 수집·분석, 암호 해독, 정보보안 및 사이버 보안을 담당하는 기관

글로벌 기업인 구글 및 세일즈포스 등은 엔터프라이즈급 에이전트 시스템에서 권한 관리, 로깅, 자동 감사, 대시보드 기반 행동 분석 등 선진화된 추적·통제 체계를 표준으로 삼고, 그 적용 범위도 지속 확장 중입니다. 또한 아마존, 메타 등은 에이전트 도입 시 행동 추적(로그), 승인(퍼미션), 감사(Audit), 정책 기반 권한 설정(Policy Templates) 등을 필수적으로 적용하고 있습니다.

국내에서는 2025년 1월 제정된 ‘인공지능기본법’(Framework Act on Artificial Intelligence)이 2026년부터 시행될 예정입니다. [12] 이 법은 ‘고영향 AI(high-impact AI)’와 생성형 AI 등 위험도가 높은 시스템에 대한 규제를 포함하며, 식별·추적·설명과 감사 등 투명성 강화, 행동 이력 버전 관리 등의 의무를 규정하고 있습니다. 즉, 기업에는 위험관리 체계 도입, 사용자에게는 투명성 보장, 정부에는 점검 및 감독 권한을 부여한 사전 규제 및 자율적 책임 관리가 융합된 구조입니다.

국내 주요 대기업과 금융기관은 이를 반영해 AI 보안 가이드라인을 내부 표준으로 제정하고, LLM 기반 서비스에 대해 에이전트 행위 추적과 프롬프트 검증 로직을 추가하는 보안 조치를 도입하고 있습니다. 특히 삼성SDS를 비롯한 국내 IT서비스 기업들은 AI 보안 거버넌스 체계를 마련하고, AI 윤리와 보안 원칙을 전사적으로 확산시키는 데 주력하고 있습니다.

<표 2> AI 행동 추적 및 통제 관련 가이드 및 법령 현황

제정처/기관 가이드라인/보고서/법명 주요 내용(핵심 키워드) 연도
유럽연합(EU) EU AI Act (인공지능법) 행동 로깅, 실시간 모니터링, 감사 의무, 인간의 감독 2024
대한민국 과기정통부 인공지능기본법 행동 이력 기록 및 감사, 권한 통제, 투명성, 리스크 시나리오 평가 2025
미국 백악관/연방기관 Executive Order on Safe, Secure, and Trustworthy AI 행동 모니터링, High-impact AI 감독, 승인 프로세스, Independent Audits 2023-24
NIST(미국) AI Risk Management Framework (AI RMF) Traceability(추적성), 로깅/모니터링, 감사 체계 2023-24
한국인터넷진흥원(KISA) AI 서비스 보안 가이드라인 행동 추적, 로그 관리, 접근 통제, 인증 시스템 2024
ENISA(EU) Guidelines on the Security of AI Systems 시스템 트래킹, 이상 행동 탐지, 로그·감사·검증 프로세스 2024
한국지능정보사회진흥원 AI 신뢰성·책임성 확보 가이드 행동 기록, 민감 작업 승인, 감사 정책, AI 윤리 프레임워크 2024

(출처: 작성자 제작)

앞서 살펴본 것처럼, 글로벌 시장과 각국의 규제기관은 AI Agent의 모든 활동 이력 기록, 실시간 모니터링, 사후 감사 체계 구축을 더 이상 선택이 아닌 기본 의무로 규정하고 있습니다. AI Agent의 행동 추적·통제·감사 체계 강화는, 자율적으로 판단하고 실행하는 AI의 발전으로 인한 새로운 보안 위협(예기치 못한 자동 실행, 프롬프트 인젝션, 민감 정보 유출 등)에 대한 ‘최소 필수 방어선’이 되기 때문입니다.

국내의 경우 산업진흥과 혁신 고려해 비교적 유연한 규제 방식을 택하고 있지만, EU는 강력한 규제 중심의 전략을 취하는 등 현재 국가별 지역별 가이드라인과 규제 기준은 서로 상이합니다. 때문에, 기업들은 다양한 규제 환경에 대응할 수 있는 보다 체계적이고 선제적인 AI 보안 전략 수립과 실행을 준비해야 할 것입니다.

AI 보안, 기업이 반드시 준비해야 할 것들

AI 에이전트는 단지 사용자의 업무를 도와주는 조력자에서 벗어나, 스스로 실행하고 판단하며 외부와 연결하는 '행위 주체'로 진화하고 있습니다. 문제는 공격자도 바로 그 실행 경로를 그대로 따라간다는 점입니다. 우리가 편리성을 위해 설계한 자동화 흐름은 적절한 검증 없이 신뢰받을 경우 곧바로 악용될 수 있습니다. 따라서 기업이 준비해야 할 것은 단순한 기술적 방어를 넘어서, AI의 행동 흐름 전반을 추적하고 통제할 수 있는 체계입니다. 그뿐만 아니라, 이를 지원하는 조직 전반의 거버넌스와 문화, 그리고 인재 역량을 확보 또한 반드시 준비되어야 할 것입니다.

① 프롬프트에서 최종 결과물까지, 모든 단계를 추적하고 통제할 수 있는 체계가 필요합니다.

AI Agent의 안전한 운영을 위해서는 프롬프트부터 최종 결과물에 이르기까지 모든 단계에서 행동을 기록하고, 권한을 면밀히 관리하며, 데이터에 대한 주기적 점검이 필수적입니다. 2025년 6월 금융보안원에서 발표한 AI Agent 보안 위협 보고서에 따르면 ‘AI 에이전트의 의사결정 과정을 기록·추적하는 체계 구축, 사람의 검토·승인 절차 도입, 최소 권한 부여와 관리, 요청 작업에 대한 실시간 모니터링 및 검증 등이 필요’하다고 언급되었습니다. [13]

첫 번째로, 행동 이력 기록(logging)과 실시간 모니터링 시스템 구축이 필요합니다. 모든 AI Agent의 명령 실행, 데이터 접근, 외부 시스템 연동 등 주요 행동을 자동으로 기록하고, 이상 행동이 발생하면 실시간 알림 및 즉각적 대응이 가능해야 합니다. 기록 없는 통제는 무의미하며, 사고 발생 시 책임 규명과 대응의 출발점이 됩니다. 이를 위해 실행 로그를 구조적으로 저장하고, 실행 경로를 분석해 이상 패턴을 자동으로 식별하는 기술이 필요합니다.

둘째, AI 권한 관리 및 승인 체계가 강화되어야 합니다. Agent가 자동화된 작업을 무분별하게 실행하지 못하도록, 에이전트마다 별도의 아이덴티티를 부여하고 최소 권한 원칙(Least Privilege)을 엄격히 적용해야 합니다. 또한 고위험 작업(예: 파일 삭제, 이메일 전송, 시스템 설정 변경)·민감 정보 처리에 대한 권한 관리와 액션별 승인이 필수입니다. 에이전트가 내부 시스템이나 외부 API에 접근할 때는 머신 아이덴티티 관리(MIM*)를 통해 접근 범위를 통제하고, AI 거버넌스(GRC**) 체계와 연계해 감사 가능한 환경을 구축해야 합니다.
* MIM – Machine Identity Management의 약자로, 머신의 디지털 신원을 발급·관리하는 체계 ** GRC – Governance, Risk Management, Compliance의 약자로, 원래는 금융, 제조, 공공기관 등에서 경영 전반의 위험과 규제 준수를 통합적으로 관리하는 프레임워크

셋째, 행동 데이터에 대한 정기적 감사 및 내부·외부 점검이 필요합니다. 주기적으로 로그를 검토하고, 독립적 감시를 통해 정책 위반이나 취약점, 이상 패턴 등을 선제적으로 탐지·조치해야 합니다. 실시간 모니터링과 사후 감사 체계를 병행해야 사고를 최소화할 수 있습니다.

여기에 더해, AI Agent의 행동을 보다 안전하게 관리하기 위해서는 단일 모델이나 에이전트 개별 점검만으로는 충분하지 않으며, 에이전트 간의 상호작용과 협업 과정에서 발생할 수 있는 예기치 못한 행동과 보안 위협까지 폭넓게 고려하고 관리하는 것이 중요하다는 점을 생각해볼 필요가 있습니다.

② 조직 문화와 인재 중심의 대응이 뒷받침되어야 합니다.

보안 전략을 준비할 때, 기술적 대책만으로는 한계가 있습니다. AI 보안은 조직 전반의 거버넌스와 문화, 그리고 인재 역량이 결합할 때 효과를 발휘합니다. [14] AI 보안을 총괄하는 AISO(AI Security Officer)를 지정해 프롬프트 설계 정책, RAG 데이터 관리, 실행 검증 체계 등을 일관되게 운영해야 합니다. 테스트베드를 마련해 다양한 시나리오 기반의 모의 훈련을 정례화하면 실제 사고 시 대응 역량이 크게 향상됩니다.

실전형 교육 또한 중요한 부분입니다. 단순한 이론 교육에 그치지 않도록 현업 환경을 반영한 실습 중심의 교육을 통해 악성 입력을 식별하고 차단하는 방법, 프롬프트 안전 설계, 사고 발생 시 절차 등을 체득하게 해야 합니다. 교육 대상은 개발자와 보안 담당자에 국한하지 않고 기획·운영·경영진까지 포함되어야 하며, 경영진의 의사결정에도 보안에 대한 고려가 반영되도록 해야 합니다.

img-250829-03-security-threats-in-the-agentic-ai-era [그림 3] 조직 문화 및 인재 중심의 보안 관리 체계 (출처: 작성자 제작)

조직문화와 인재 중심 대응

  1. 1. AI보안 담당자 선정 - AI 보안 총괄 주도하에 일관성 있는 정책 운영
  2. 2. 정책 설계 - 프롬프트 설계 정책, 데이터 관리 및 실행 검증 체계 설계
  3. 3. 테스트베드 마련 - 다양한 시나리오 기반 테스트베드 설계
  4. 4. 정기 훈련 - 모의 훈련 정례화
  5. 5. 실전형 교육 -현업 환경을 반영한 실습 중심 교육 실시
  6. 6. 경영진 참여 - 보안 의사결정시 경영진 참여

마지막으로, 보안은 AI 혁신을 막는 장치가 아니라 지속 가능한 혁신을 담보하는 기반임을 분명히 해야 합니다. 실행 추적, 신뢰 체인, 거버넌스, 인재 양성을 균형 있게 강화한 기업만이 Agentic AI 시대의 경쟁력을 확보할 수 있습니다. 이제, 급변하는 보안 위협에 대응하여 기업 전반의 문화를 바꾸고 실행 가능한 보안 체계를 구축할 때입니다. 그러한 노력에 힘입어 AI는 신뢰할 수 있는 동반자가 되어 기업 혁신을 한 단계 더 끌어올리는 힘이 될 것입니다.

FAQ

Q. AI 에이전트 보안이 왜 중요해졌나요?
과거 인공지능은 단순한 도구였지만, AI 에이전트는 스스로 판단하고 행동할 수 있는 실행 주체로 진화했습니다. 이는 업무 효율성을 높이지만, 동시에 기존 보안 체계로는 감지하기 어려운 새로운 유형의 보안 위협을 야기합니다. AI 에이전트가 악의적으로 조작될 경우, 정보 유출, 시스템 손상 등 심각한 피해가 발생할 수 있습니다.

Q. 기존 보안 체계와 AI 에이전트 보안의 차이점은 무엇인가요?
기존 보안 체계는 ‘누가’ 시스템에 접근했는지에 초점을 맞췄지만, AI 에이전트 보안은 ‘무엇을’ 하고 있는지, ‘어떻게’ 행동하는지를 추적하고 통제하는 데 중점을 둡니다. AI 에이전트의 자율성을 감시하고 제어하는 것이 핵심입니다.

Q. ‘OWASP Top 10 for LLM’은 무엇이며, 왜 중요하나요?
OWASP (Open Worldwide Application Security Project)는 소프트웨어 보안 향상을 목표로 하는 비영리 단체입니다. 2025년 발표한 ‘OWASP Top 10 for LLM’은 AI 에이전트 환경에서 특히 주의해야 할 주요 취약점을 정리한 것으로, 전 세계 보안 커뮤니티와 기업에게 중요한 참고 자료입니다.

Q. 과도한 위임(Excessive Agency)이란 무엇인가요?
AI 에이전트가 지나치게 많은 자율성과 권한을 갖게 되어 사용자의 통제 없이 외부 시스템에 접근하거나 중요한 작업을 수행하는 취약점입니다. 이는 정보 유출, 시스템 제어 등 심각한 문제를 야기할 수 있습니다.

Q. 프롬프트 인젝션(Prompt Injection)은 어떻게 발생하며, 어떻게 방어해야 하나요?
프롬프트 인젝션은 사용자가 입력하는 문장에 악의적인 명령을 숨겨 AI가 이를 실행하도록 유도하는 공격 방식입니다. 방어하기 위해서는 입력값 검증, 프롬프트 안전 설계, AI 모델의 신뢰성 확보 등이 필요합니다.

Q. 민감 정보 유출(Sensitive Information Disclosure)을 막기 위한 방법은 무엇인가요?
AI 에이전트가 개인정보, 내부 문서 등 민감한 정보를 외부로 노출하지 않도록 정보 접근 제어, 출력 필터링, 프롬프트 검증 등의 조치를 취해야 합니다. 또한 모든 데이터 접근 및 전송 행위를 기록하고 이상 행위를 감지하는 시스템을 구축해야 합니다.

Q. 시스템 프롬프트 유출(System Prompt Leakage)은 왜 위험하며, 어떻게 예방할 수 있나요?
시스템 프롬프트는 AI 에이전트의 내부 설정 및 운영 정책을 담고 있습니다. 이 정보가 유출될 경우 공격자는 AI 에이전트를 더욱 쉽게 조작할 수 있습니다. 시스템 프롬프트 유출을 예방하기 위해서는 출력 결과 검증, 민감 정보 별도 저장, 프롬프트 노출 시도 감시 등의 조치가 필요합니다.

Q. 기업은 AI 에이전트 보안을 위해 무엇을 준비해야 하나요?
  • 행동 추적 및 통제 체계 구축: 프롬프트부터 최종 결과물까지 모든 단계를 기록하고 관리합니다.
  • 기술적 방어 강화: 권한 관리, 로깅, 자동 감사, 대시보드 기반 행동 분석 등 선진화된 추적·통제 체계를 구축합니다.
  • 조직 문화 및 인재 양성: AI 보안을 총괄하는 AISO 지정, 실전형 교육 실시, 보안 의식 함양 등을 통해 조직 전체의 보안 역량을 강화합니다.

Q. 국내외 AI 보안 관련 규제 동향은 어떻게 되나요?
EU는 AI Act를 통해 고위험 AI에 대한 규제를 강화하고 있으며, 미국은 행정명령을 통해 AI 시스템 모니터링 및 감사 체계 구축을 권고하고 있습니다. 국내에서는 ‘인공지능기본법’ 시행을 통해 AI 보안 규제를 마련하고 있습니다.


References



▶   해당 콘텐츠는 저작권법에 의하여 보호받는 저작물로 기고자에게 저작권이 있습니다.
▶   해당 콘텐츠는 사전 동의 없이 2차 가공 및 영리적인 이용을 금하고 있습니다.


이 글이 좋으셨다면 구독&좋아요

여러분의 “구독”과 “좋아요”는
저자에게 큰 힘이 됩니다.

subscribe

구독하기

subscribe

김정현
김정현
삼성SDS 마케팅팀

공유하기