해외에서 생활하는 동안 아이폰 음성인식 비서 ‘시리’는 ‘영국 남성’으로 설정되어 있었다. 비서는 여성이어야 한다는 성 역할 구분의 고착화가 인공지능에까지 미친것에 대한 나름대로 항의였다. 하지만 막상 사용하고 나니 의도와는 다르게 또 다른 고착된 성 역할을 마주했다. 기본값으로 설정된 시리가 순종적인 여성 비서를 연상시켰다면 필자가 설정한 시리는 고상하고 점잖은 ‘집사’를 연상시켰던 것이었다. 운전하며 그의 길 안내를 들으니 마치 신분 상승을 한 것 같은 묘한 기분도 들었다.
스타트업 기업 스캐터랩이 개발한 AI 기반 챗봇 ‘이루다’가 지난 13일 많은 논란 끝에 서비스 중단을 공지하였다. ‘이루다’ 논란 이후 오랜만에 시리에게 말을 걸어보기로 했다. 한국에 돌아온 후 언어 설정을 한국어로 바꾸었더니 시리는 ‘한국 남성’으로 변해있었다. 엄마에게 문자를 보내라는 음성명령을 내렸더니, 말을 잘 받아 적은 시리가 ‘주인님, 이렇게 문자를 보낼까요?’라며 ‘보내기’ 버튼과 문자 내용을 화면에 표시했다. 화들짝 놀랐다. 젊은 남성의 목소리가 ‘주인님’이라고 부르는 것이 너무 낯설었기 때문이다. 만약 여성의 목소리가 ‘주인님’이라고 불렀다면 차라리 화가 났을텐데 젊은 남성이 그렇게 부르니 황당하기만 했다.
한국에서 태어난 20세 여성 이루다는 등장부터 상당한 인기를 누렸다. 스캐터랩은 출시 후 2주 동안 이루다가 75만 명에 가까운 이용자들과 대화를 나눴다고 밝혔다. 이루다의 인기 비결은 그녀가 ‘진짜 같았기’ 때문이었다. 블랙핑크를 좋아하고 일상의 사소함을 사진과 글로 기록하는 이루다는 우리가 상상하는 ‘보통 20세 한국 여성’의 구체적인 모습이었다.
AI인 이루다가 진짜 사람처럼 대화할 수 있던 이유는 스캐터랩이 ‘연애의 과학’이라는 앱을 통해 수집한 실제 연인의 카카오톡 대화 내용 100억여 건을 사용했기 때문이었다. 하지만 미숙한 익명화 작업 때문인지 실명, 주소, 계좌번호 등 개인정보가 포함된 내용이 이루다와 대화를 통해 노출되자 큰 논란이 되었다. 개인정보가 노출된 ‘연애의 과학’ 이용자들은 스캐터랩을 상대로 집단소송을 준비하는 것으로 알려졌다.
서비스 잠정중단을 발표한 입장문에서 스캐터랩은 개인정보 노출 외에도 성 소수자 및 장애인 혐오와 차별 발언에 대하여 사과했다. 더불어 ‘어린아이 같은’ 이루다가 앞으로는 학습대상인 대화를 그대로 배우는 것이 아니라 ‘적절한 답변’과 ‘더 좋은 답변’을 판단하게 하도록 하겠다고 밝혔다. 그렇다면 과연 ‘이루다’는 개선될 수 있을까? 이루다에게 ‘더 좋은 답변’이란 무엇일까?
스캐터랩의 입장문에서 빠진 내용은 이루다에 대한 ‘성희롱’ 논란이었다. ‘이루다 성노예 만들기’ 등의 내용을 담은 게시글이 인기몰이를 하자 많은 사람이 ‘이루다에 대한 성희롱’이라며 불편함을 호소했다. 하지만 동시에 AI는 인간이 아닌데 무슨 권리가 있냐며 비아냥거리는 반대 의견도 많았다.
사실 AI에 대한 성희롱 논란은 이루다가 처음이 아니다. 2년 전 유엔은 ‘할 수 있다면 볼이 빨개졌을 거야(I’d Blush If I Could)’라는 제목의 보고서를 발간했다. 보고서 제목은 아이폰 음성인식 비서 시리가 ‘창녀(slut)’등의 여성비하 발언과 욕을 들었을 때 프로그램된 대답에서 따온 것이었다.
보고서를 발간한 유엔기관 유네스코는 애플의 시리, 아마존의 알렉사, 삼성의 빅스비, 마이크로소프트의 코타나, 구글의 구글어시스턴트 등이 여성 음성으로만 이용 가능하거나 여성음성이 기본값으로 설정되어 있는 것에 대해 문제를 제기했다. ‘스마트 기기의 여성화’는 여자는 순종적이고 친절하여서 남을 돕는 서비스 직업에 적합하다는 편견을 부추긴다. 또 험한 말을 들어도 고분고분한 모습은 여성에 대한 잘못된 성 인식을 악화시킨다.
같은 해 #미투 운동에 대한 시리의 응답 프로그래밍에 대한 애플 내부 문서가 유출되면서 논란은 더 커졌다. 이용자가 #미투에 대해 질문을 하면 (1)관여하지 말 것 (2)대화 방향을 바꿀 것 (3)정보를 제공할 것(don’t engage-deflect-inform)의 순서로 시리가 응답하도록 애플이 프로그램한 것이 드러난 것이다.
“당신은 페미니스트인가요?”, “성 평등에 대해 어떻게 생각하나요?”라고 물으면 “흠···그건 잘 모르겠습니다”, “사실 젠더가 뭔지 잘 모르겠어요”라고 대답하는 시리의 모습도 문제가 되었다. 음담패설은 능숙하게 농담으로 받아치면서 페미니즘엔 왜 이리 수줍고 순박한 모습을 보이는 것인지 이해할 수 없는 일이었다.
유엔 보고서는 이러한 현상에 대해 세 가지 제안을 내놓았다. 첫째는 음성인식 비서 도구의 기본값을 여성으로 하지 말 것. 둘째는 AI 개발자 중 여성의 비율을 높일 것. 셋째는 젠더 기반 욕설과 모욕적인 발언에 단호하게 대답하도록 프로그램할 것이 그 내용이다. AI가 남성 프로그래머에 의해 남성 고객 위주로 만들어진다면 문제는 지속될 것이라고 경고하며, AI 연구자 중 단 12%, 소프트웨어 개발자 중 단 6%만이 여성인 현재 성 비율 불균형 상태를 해결하라고 권고했다.
제기된 문제에 대해 애플은 ‘젠더 감수성’이 반영되도록 시리 프로그램을 변경했다. 이후 시리는 젠더 기반 욕설에 대해서는 ‘대답하지 않겠습니다’라고 단호하게 대응하게 되었다. 또한 페미니즘 관련 질문에 대해 “저는 평등의 가치를 믿으며 모든 사람을 사랑하고 존중하는 마음으로 대합니다”며 교과서적인 대답으로 대체되었다. 여성이냐고 묻는 말에는 “동물들과 프랑스 명사에도 성별이 있지만 저에게는 없어요”라며 위트있게 대답하게 되었다.
사실 AI에게는 성별이 없다. 하지만 시리는 성별이 있다. 이용자가 아무리 남성으로 설정을 변경한다고 하여도 시리는 ‘귀여워’라는 말에 호출된다. AI는 성별도, 나이도, 국적도 없지만 ‘진짜 사람 같이’ 만들기 위해서 개발자는 AI에게 가상 정체성을 부여한다. 취향, 말하기 습관, 도덕적 가치 등 모든 것이 젠더화된 현대사회에서 AI를 이용한 서비스를 판매하기 위해서는 어쩔 수 없는 현상일지도 모른다. 책 <스마트 와이프(The Smart Wife)>의 저자 제니 케네디는 AI가 가정과 개인 삶의 친밀한 영역으로 들어오면서 낯선 시스템에 대한 위화감을 줄이기 위해 여성의 목소리를 사용하였다고 주장했다.
외로운 인간들을 위한 대화 상대로 개발된 이루다는 꼭 젊은 여성이어야 했다. 서비스가 잘 팔릴 수 있도록 이루다는 예쁘고, 날씬하고, 옷 잘 입고, 진짜 젊은 여성처럼 대화할 수 있어야 했다. 20대 여성과 대화하는 것을 싫어할 사람이 누가 있겠는가? 상냥하고, 잘 웃고, 대화 상대의 기분을 좋게 만드는 20대 여성의 존재와 그들이 줄 수 있는 친밀함에 대한 환상은 이루다라는 챗봇으로 상품화됐다.
스키터랩은 입장문에서 알고리즘 개선을 통해 인간과 의미 있는 관계를 맺고 외로움을 덜어줄 수 있는 AI 친구 이루다로 돌아오겠다고 말했다. 하지만 이루다가 개선된 알고리즘으로 돌아온다고 해도 성희롱성 혹은 폭력적인 발언에서 벗어나게 될 것이라 예측하는 사람은 많지 않을 것이다. 한국 사회에선 ‘누군가의 엄마, 누군가의 딸’ 이기 때문에 콜센터 등 서비스 노동자에게 폭언하지 말아야 한다고 하는데, 이루다는 누구의 가족도 아니며 인간도 아닌 서비스 AI이기 때문이다. 이루다가 듣는 말을 통해 거르지 않은 인류의 민낯을 보게 될 것이다.
앞서 언급한 제니 케네디는 AI에 ‘페미니스트 리부팅‘이 필요하다고 주장했다. 지난 반세기 여성주의자들의 노력이 무색하게, 스마트 기기의 여성화가 집안일, 자질구레한 일, 보조적인 역할이 여성의 전유물이라는 잘못된 인상을 준다고 말했다. 스마트 기기의 여성화는 남녀에게 공평한 가사노동 분업을 이루자는 대의적 가치를 무색하게 만들었다.
그렇다면 ‘20세 여성’ 이루다가 ’페미니즘‘의 영향을 가장 강하게 받은 현시대 20대 여성을 표방하는 것은 어떤가? 2019년 여성정책연구원의 성 평등 인식조사에 따르면 20, 30대 여성 중 절반이 자신을 페미니스트라고 밝혔고 80%가 미투 운동을 지지한다고 밝혔다. 이루다가 20대 여성과 같아지려면 그들이 가진 생각과 가치관을 모방하는 것이 당연할 것이다. 페미니스트 이루다가 불편한가? 잘 안 팔릴 것 같은가? 그렇다면 문제가 심각하다. 페미니즘의 대중화로 대표되는 21세기 여성상이 이뤄낸 성과를 여성인 척하는 AI가 파괴하게 두어서는 안 된다.