loading...

인공지능 컴패니언(AI companion)은 인간의 진짜 친구가 될 수 있을까?

챗봇, AI 인형, 휴머노이드 로봇 등 인공지능 컴패니언(AI companion)이 우리 생활에 속속 들어오고 있습니다. <나 혼자 산다>와 같이 1인 가구의 삶을 다루는 TV 프로그램을 보면 간혹 집에 혼자 있다는 사실이 외로워 로봇청소기에게 말을 걸곤 한다는 사람들을 볼 수 있습니다. 로봇청소기가 인공지능 컴패니언으로 기획되지는 않았지만 어느새 인간 사용자를 위로하고 있으며, 이는 현대인들에게 인공지능 컴패니언이 단순 기계가 아니라 정서적 교류를 주고받을 수 있는 소중한 존재가 되고 있음을 알 수 있습니다.
그럼 인공지능 컴패니언은 인간의 진짜 친구가 될 수 있을까요? 관점에 따라 철학적으로 혹은 윤리적으로도 들릴 수 있는 이 질문은 기술 관점에서 ‘Algorithmic companionship과 Algorithmic bias의 대결’로 요약할 수 있습니다.

Algorithmic companionship을 의역하면 인공지능 시스템이 만들어내는 인간과의 연대를 뜻합니다. 반면 Algorithmic bias는 인공지능 알고리즘이 야기할 수 있는 편견을 뜻합니다. 인공지능 컴패니언이 Algorithmic bias를 줄이고 Algorithmic companionship을 사용자에게 제공할 수 있다면 그 인공지능 컴패니언은 사용자에게 좋은 친구가 될 수 있습니다. 반면 Algorithmic companionship이 사용자에게 느껴지지 않는다면 그 인공지능 컴패니언은 그저 차가운 전자기기에 불과할 수 있습니다.

Algorithmic companionship : 인공지능 시스템이 만들어내는 인간과의 연대 Algorithmic bias : 인공지능 알고리즘이 야기할 수 있는 편견

본 글에서는 이런 특성을 가진 인공지능 컴패니언의 최신 사례인 볼리(Ballie)와 함께 ‘Algorithmic companionship’과 ‘Algorithmic bias’의 세부 내용에 대해 각각 살펴보겠습니다.

볼리(Ballie) - 인공지능 컴패니언 최신 사례

CES 2024에서 세계적 관심을 모았던 삼성전자의 볼리(Ballie)는 인공지능 컴패니언이 일상생활에서 어떤 역할을 할 수 있는지 보여주는 대표 사례입니다. ‘나보다 내 집을 더 잘 아는 인공지능 컴패니언’이라는 슬로건을 가진 볼리(Ballie)는 귀여운 공 모양의 로봇입니다. 우리의 일상생활을 돕기 위해 설계된 개인용 로봇으로 2020년 CES에서 처음 콘셉트가 공개되었고 올해 CES에서 보다 발전된 모습으로 대중들에게 소개되었습니다. 볼리의 특징을 기능 측면과 디자인 측면에서 각각 살펴보겠습니다.

인공지능 컴패니언 ‘볼리(Ballie)’. 출처 : 삼성 뉴스룸

1) 기능 – 스마트홈 속의 커뮤니케이터
기능 측면에서 볼리의 중요한 역할 중 하나는 집안을 돌아다니는 커뮤니케이터(communicator)입니다. 삼성전자의 스마트홈 생태계인 ‘스마트싱스(SmartThings)‘에는 다양한 IoT 기기들이 있는데 사용자는 빅스비, 앱 등의 소프트웨어들로 기기를 제어할 수 있습니다.

이런 환경에서 볼리는 사용자와 스마트싱스 기기들 중간에 위치합니다. 사용자가 좀 더 직관적이고 편리하게 스마트싱스 기기들을 사용할 수 있도록 사용자 명령을 기기에 전달하고 다시 기기들로부터 받은 데이터를 사용자에게 전달하는 기능을 합니다. 디스플레이가 없어 정보 표출이 어려운 스마트홈 기기들을 대신해 볼리가 관련 정보를 시각적으로 표현해줄 수도 있습니다. 따라서 스마트싱스 생태계 관점에서는 볼리가 사용자와 기기들 사이의 간극을 촘촘히(seamless) 이어주는 역할을 한다고 볼 수 있습니다.

2) 기능 – 사용자의 일상 패턴 인식
볼리의 두 번째 기능은 인공지능 기술 기반의 패턴 인식입니다. 볼리는 사용자의 일상 패턴을 인식하고 그에 따른 편리함을 제공합니다. 매번 별도의 명령을 내리지 않더라도 정해진 루틴을 파악해 자동으로 관련 기능을 수행하게 됩니다. 대표적으로 바쁜 아침 시간을 상상해 볼 수 있습니다. 사용자가 자주 일어나는 시간에 알람을 울리고 조명을 켜고 음악을 플레이하고 커피 머신을 켜는 일련의 루틴을 자동으로 해낼 수 있습니다.

사실 스마트홈 사용 과정에서 겪게 되는 어려움 중 하나는 자동화 구현입니다. 사용자가 스마트홈 기기들을 쓰며 편리함을 느끼려면 무엇보다 자동화가 잘 이뤄져야 합니다. 그런데 기존의 자동화 구현 방식은 사용자가 직접 루틴을 정해주는 것이었습니다. 즉, 자동화를 위해 수동화가 선행되어야 했습니다. 가령 아침 7시 30분에 거실 조명이 켜지게 하려면 사용자가 앱에서 시간과 액션을 하나하나 지정해 줘야 합니다. 일부 사용자들에게는 이런 방식이 괜찮았지만 대부분의 사용자들에게는 큰 불편함으로 다가왔고 결국 스마트홈 시장의 성장에 걸림돌이 되었습니다. 볼리가 사용자의 일상 루틴을 인식해 자동화 과정을 크게 개선한다면 스마트홈 기기의 편의성은 더욱 증대될 것입니다.

3) 디자인 – 귀엽고 친근한 외형
디자인 측면에서 볼리는 작은 크기, 둥근 외형, 노란색, 큰 눈이 돋보입니다. 작고 둥근 외형 덕분에 위협적이지 않고 부드럽고 친근한 느낌이 듭니다. 귀엽다는 감정이 들고 마치 반려견처럼 어루만지고 싶어집니다. 노란색 컬러도 친근함이라는 콘셉트를 잘 드러내고 있습니다. 집 안 곳곳을 돌아다닐 로봇이므로 노란색은 어떤 실내 인테리어와도 잘 어울리면서 어느 정도 눈에 띄는 컬러라고 할 수 있습니다. 볼리가 검은색으로 되어 있다면 집 안에서 시인성이 떨어질 수 있고 친근감도 노란색보다는 상대적으로 줄어들 수 있습니다.

몸체 전면에 달린 한 개의 큰 눈도 볼리가 인공지능 컴패니언이라는 콘셉트에 적합할 수 있도록 돕습니다. 볼리의 큰 눈은 사용자에게 위화감 없는 느낌을 주면서 동시에 사용자가 볼리에게 눈길을 주도록 만듭니다. CES 2020에서 첫 등장한 볼리의 초기 디자인은 전면에 큰 눈 대신 스마트폰 카메라 렌즈를 닮은 작은 구멍이 뚫려 있었습니다. 그래서 사용자와 대화할 준비가 되어 있는 존재라기보다는 사용자를 감시하는 기기의 느낌이 강했습니다. 그러나 이번 CES 2024에서 공개된 버전은 큰 눈을 가짐으로써 사용자에게 친근하게 다가갈 수 있도록 했습니다.

Algorithmic companionship : 인공지능 컴패니언 성공의 조건

성공적인 인공지능 컴패니언이 되기 위한 필수조건 중 하나는 인간 사용자와 Algorithmic companionship을 만들어내야 한다는 것입니다. 이를 위해서는 Algorithmic companionship 조성에 영향을 미치는 요소를 알아야 합니다.

Pentina와 동료들이 2023년 발표한 논문 <Consumer–machine relationships in the age of artificial intelligence>에 따르면 아래 그림과 같이 인간과 인공지능의 관계(보라색 영역, HUMAN-AI RELATIONSHIP)에는 friendship, love, psychological dependence, well-being 등 여러 심리적 상태(결과)가 있습니다. 이러한 심리적 상태에 영향을 미치는 원인(파란색 영역, AI-AGENT-RELATED)으로는 anthropomorphism(의인화), authenticity(진실성), intelligence(지능화), self-disclosure(자기 표현), interactivity(상호 교류) 등이 있습니다.

Moderators : Context-related, Customer-related, AI agent-related Antecedents (AI agent-related, Customer related) > Mediators(Relationship building) > Outcomes(Human-AI Relationship > Consumer experience)
인간과 인공지능의 관계를 나타낸 그림. 출처 : Pentaina et al, 2023

원인과 결과 사이에는 이 둘의 관계를 조정하는 과정(녹색 영역, RELATIONSHIP BUILDING)이 있는데 절차(process)로는 mutual self-disclosure(상호 자기표현), parasocial interaction(준사회적 상호 교류), engagement(참여) 등이 있으며, 상태(stages)로는 안정적이고 정서적인 상태, 친구 혹은 보호자의 상태가 있습니다. 정리하자면, 인간 사용자가 인공지능 컴패니언으로부터 느끼는 정서적 관계의 종류(결과) 및 그에 영향을 끼치는 원인들을 보여주고 있으며, 다양한 요인들(moderator 및 mediator)이 원인과 결과 사이에 존재함을 보여주고 있습니다. 인간 사용자는 인공지능 컴패니언으로부터 우정과 연대감, 의존, 웰빙 등 긍정적인 정서적 관계를 추구하는데 그 관계가 성공적으로 맺어진다면 소비자로서 만족감뿐 아니라 브랜드 충성도, 지속 사용 의지에도 긍정적인 영향을 받게 됩니다.

특히 인공지능의 의인화(anthropomorphism)는 Algorithmic companionship 형성에 중요한 역할을 하는 것으로 밝혀졌습니다. 아래 그림은 Dang과 Liu가 2023년 발표한 논문1)에서 발췌한 것으로 양국 모두 high anthropomorphism(높은 수준의 의인화)을 보이는 인공지능 시스템을 구매한 고객들이 low anthropomorphism(낮은 수준의 의인화)을 보이는 인공지능 시스템을 구매한 고객들보다 통계적으로 유의미하게 낮은 외로움을 보였습니다. 즉, 해당 연구는 인공지능 시스템이 인간과 많이 닮은 외형을 갖거나 혹은 답변을 한다면 사용자는 상대적으로 외로움을 덜 느낀다는 것을 보여줍니다.
1) Dang, J., & Liu, L.. (2023). <Do lonely people seek robot companionship? A comparative examination of the Loneliness–Robot anthropomorphism link in the United States and China>, Computers in Human Behavior, 141, 107637.

막대그래프 Y축 : Loneliness Ratings of Consumers 막대그래프 X축 : Culture American과 Chinese를 대상으로 조사한 막대선을 보면, 양국민 모두 Low Anthropomorhpism이 High Anthropomorhpism보다 Loneliness Ratings of Consumers이 높은 결과를 보여줌.
인공지능의 의인화 정도가 고객의 외로움에 미치는 영향을 정리한 그래프. 출처 : Dang, Liu, 2023

Algorithmic bias : 인공지능 컴패니언의 위험성

그런데 인공지능 컴패니언이 항상 긍정적 역할만을 하는 존재는 아닙니다. 사용자의 감정과 가장 깊숙하게 연결될 수 있는 전자 기기가 바로 인공지능 컴패니언이므로 정서적인 부분 혹은 인공지능 알고리즘이 만들어낼 수 있는 이른바 algorithmic bias에 대한 주의와 신중함 또한 필요합니다.

2016년 마이크로소프트는 Tay라는 AI 챗봇을 내놓은 적이 있습니다. 20대 초반 사용자들을 위한 엔터테인먼트 요소를 강화한 챗봇으로 ‘Thinking about you’라는 로맨틱한 뜻을 가진 이름이었습니다. 그런데 Tay가 내놓은 답변 가운데는 히틀러의 말을 인용한다든지 나치 이념을 표현하며 유대인에 대한 증오를 나타내는 큰 실수가 벌어진 적이 있습니다. 또한 도널드 트럼프 전 대통령의 인종 차별적인 트윗을 인용하기도 했습니다. 몇몇 트위터(현재 X) 사용자들은 Tay의 이런 실수를 유도하기 위해 의도적으로 인종 차별적인 질문을 하며 관련 콘텐츠를 생산 전파하는 일이 벌어졌습니다. 마이크로소프트는 이 사건에 대해 유감을 표명하며 이후 Tay를 폐쇄했습니다.

이 사건은 인공지능 컴패니언이 특정 인종이나 커뮤니티를 대상으로 하는 편견에 기반해 개발될 수 있음을 보여줬습니다. 이에 대해 UCLA 대학의 사피야 노블(Safiya Umoja Noble) 교수는 자신의 저서 <Algorithms of Oppression: How Search Engines Reinforce Racism>에서 ‘흑인 소녀’, ‘라틴 소녀’, ‘아시아 여자’와 같은 특정 용어를 질문으로 사용할 때 챗봇이 부적절한 내용의 답을 내놓았다고 밝혔습니다.

성차별도 인공지능 컴패니언 사용자가 유념할 부분입니다. 자칫 일부 남성 위주의 부정적 시각이 담긴 대화 데이터가 인공지능 모델 개발에 쓰일 가능성이 있기 때문입니다. 만약 인공지능 컴패니언 개발 과정에서 여성 개발자가 남성 개발자 대비 소외되거나 성차별에 대한 일말의 가능성이 무시된다면 인공지능 컴패니언의 답변이나 행동이 부지불식간에 남성 중심성을 띨 수 있습니다.

지난 2021년 국내에서 벌어진 챗봇 ‘이루다’ 사태가 대표적입니다. 이루다는 스캐터랩이 2021년 말 크리스마스 즈음에 발표한 20대 여대생 컨셉의 챗봇으로 서비스 개시 2주 만에 가입자가 무려 80만 명에 달해 큰 인기를 끌었습니다. 그런데 서비스가 시작되고 얼마 지나지 않아 일부 사용자들이 이루다가 여성 혐오 및 장애인에 대한 편견을 조장하는 답변을 내놓는다는 사실을 발견했습니다. 이 문제는 당시 큰 이슈가 되었고 개발사 측은 서비스를 중단하기에 이르렀습니다.

지금까지 살펴본 바와 같이 인공지능 컴패니언은 소비자 개인은 물론 CES를 비롯한 국제 무대에서도 큰 관심을 끄는 인공지능 시스템입니다. 삼성전자의 볼리처럼 앞으로 인공지능 컴패니언은 보다 친근하고 보다 강력한 기능으로 가정과 회사 등 여러 상황에서 쓰이게 될 것입니다. 다만, 인공지능 컴패니언은 무엇보다 정서적 영향력이 큰 인공지능 시스템이므로 기능적인 요인뿐 아니라 부정적 역할을 할 수 있는 데이터와 알고리즘 차원의 위험을 사전 차단해 공정성, 다양성, 포용성 등의 요인에서 문제가 없도록 개발에 신중을 기해야 할 것입니다.

참고자료
[1] https://news.samsung.com/us/samsung-ballie-ces-2020/
[2] https://news.samsung.com/us/samsung-ballie-ai-companion-robot-home-video-ces-2024/
[3] Pentina, I., Xie, T., Hancock, T., & Bailey, A. (2023). Consumer–machine relationships in the age of artificial intelligence: Systematic literature review and research directions. Psychology & Marketing, 40(8), 1593-1614.
[4] Dang, J., & Liu, L. (2023). Do lonely people seek robot companionship? A comparative examination of the Loneliness–Robot anthropomorphism link in the United States and China. Computers in Human Behavior, 141, 107637.
[5] Noble’s, S. U. (2019). Noble, Safiya Umoja. Algorithms of Oppression: How Search Engines Reinforce Racism. New York University Press, 2018. WHY POPULAR CULTURE MATTERS, 166.

▶ 해당 콘텐츠는 저작권법에 의하여 보호받는 저작물로 기고자에게 저작권이 있습니다.
▶ 해당 콘텐츠는 사전 동의 없이 2차 가공 및 영리적인 이용을 금하고 있습니다.

이 글이 좋으셨다면 구독&좋아요

여러분의 “구독”과 “좋아요”는
저자에게 큰 힘이 됩니다.

subscribe

구독하기

subscribe

공유하기