[이루다가 남긴 것⑤]사람 같은 챗봇 위한 '페르소나'…'양날의 칼'
[이루다가 남긴 것⑤]사람 같은 챗봇 위한 '페르소나'…'양날의 칼'
  • 메디테크뉴스
  • 승인 2021.01.13 08:23
  • 댓글 0
이 기사를 공유합니다

[편집자주]"안녕, 난 너의 첫 AI 친구 이루다야." 지난해말 돌연 등장한 대화형 인공지능(AI) 챗봇 이루다. "너한테 많이 고마워, 알지?" 불과 20일 만에 '만남의 안녕'이 '이별의 안녕'으로 바뀌었다. '인간의 대화'로 태어난 이루다는 소수자 차별, 혐오 발언, 성희롱 논란 등 '인간의 민낯'을 고스란히 드러내고 사라졌다. 이루다가 남긴 쟁점과 화두를 짚어봤다.
 

스캐터랩이 개발한 AI 챗봇 서비스 ''이루다' 

<디지털뉴스팀>  인공지능 업계에서는 인공지능 챗봇의 개성을 '페르소나'라고 부른다. 사람과 AI가 친숙한 관계를 맺도록 만들어진 '20대 여성'이라는 페르소나가 사회적 맥락과 만나 이번 인공지능(AI) 챗봇 '이루다' 논란으로 이어졌다.

성희롱 목적의 악용 지적에서 시작된 '이루다'를 둘러싼 논란은 소수자 차별·혐오 발언 및 개인정보 유출 지적으로 이어져 12일 서비스가 잠정 중단됐다.

논란 중에는 왜 인공지능에게 왜 20대 여자 대학생으로 설정했는지에 대한 의문도 있었다.

이에 개발사는 블로그를 통해 "주 사용자층이 넓게는 10~30대, 좁게는 10대 중반~20대 중반으로 생각했기 때문에 가운데인 20살 정도가 사용자들이 친근감을 느낄 수 있는 나이라고 생각했다"며 "개발 일정상 여자 버전인 루다가 먼저 나온 것일 뿐이다. 올해 에 남자 버전의 루다도 출시할 수 있을 것"이라고 밝혔다.

◇사람 같은 챗봇 위한 '페르소나'…양날의 칼로 작용

페르소나는 인공지능 분야에서 제품에 부여하는 인격적 특징을 말한다. 이루다의 페르소나는 20세, 여성, 대학생, 페이스북 메신저와 고양이 산책이 취미인 사람이다.

페르소나는 사람들이 쉽게 AI와 친숙하게 만들고, 개성을 부여해 다른 유사 제품과 차별화할 수 있는 장점이 있다. 페르소나는 대화형 챗봇뿐 아니라, 음성 인식 비서 AI 같은 제품에도 녹아있다. 어떤 제품은 "7시입니다"라고 말하지만, 다른 제품은 7시에요"라고 말하는 식이다. 혹은 음성인식에 실패했을 때 사람처럼 "네?"라고 반문하도록 설계되는 경우도 있다.

페르소나는 AI와 이용자의 관계에 영향을 끼쳐, '제품으로서의 AI' 기획 단계의 중요한 요소로 작용하며 개발 의도가 반영되게 된다.

2020년 12월 열린 네이버의 개발자 컨퍼런스 데뷰 2020(DEVIEW 2020)에서 김종윤 스캐터 랩 대표가 발표한 바에 따르면 "루다가 20대 대학생이기 때문에, 페르소나에 맞지 않는 말(답변)도 (데이터 세트에) 있었다. 응답 후보군 자체를 20대, 여자, 대학생으로 한정 지어서 응답하도록 정리했다"고 설명했다. 예를 들어 "작년에 전역했어", "과장님이 자꾸 이상한거 시킨다"와 같은 말들은 '20대, 여성, 대학생'에 맞지않아 제거하는 식이다.

 

 

 

 

 

2020년 12월1일 발표된 네이버 데뷰 2020(DEVIEW 2020)의 '오픈도메인 챗봇 ‘루다’ 육아일기: 탄생부터 클로즈베타까지의 기록' 발표화면, 김종윤 스캐터랩 대표가 '이루다'의 페르소나에 맞지 않는 응답을 제거하는 과정을 설명하고 있다. (네이버TV, NAVER Engineering 계정 영상 갈무리) 2021.01.12

 

 


이번 이루다의 '20대 여성 대학생'이라는 페르소나는 일부에게는 '친근한 친구'가 됐지만, 잘못된 사용(어뷰징)의 불씨가 되기도 했다. '성적 대상화된 20대 여성'이라는 사회적 맥락에서 AI의 페르소나도 자유롭지 못했던 것이다.

이러한 의인화된 '페르소나'를 컴퓨터 프로그램에 적용하는 기법은 1966년 '일라이자'라는 프로그램으로 세상에 알려졌다. 이 프로그램은 고민을 말하는 환자의 말에 반복하거나 단순한 질문을 되돌려 주는 식으로 맞장구쳐주도록 만들어졌고, 프로그램인지 알았던 사람들도 이 프로그램에게서 마음의 안정을 얻는 등 도움을 받았다고 평가했다. 이 프로그램의 이름을 딴 '일라이자 효과'는 무의식적으로 컴퓨터의 행위를 사람과 유사하게 추정하고 의인화하는 것을 말하는 것으로 컴퓨터 공학에서 쓰인다.

 

 

 

 

 

 

 

스타트업 스캐터랩이 개발한 인공지능(AI) 챗봇 '이루다'가 성희롱과 성소수자, 장애인, 인종과 관련한 혐오 발언으로 논란이 되고 있다.

 

 


◇이용자의 혐오발언 입력에 취약했던 '테이' vs 개발사가 잘해야 하는 '이루다'

앞서 마이크로소프트가 2016년 공개한 인공지능(AI) '테이'(Tay)라는 챗봇 또한 비슷한 수순으로 서비스가 급히 중단됐다. 다만 이루다의 경우에는 구조적으로 제작사의 노력과 역량이 더 중요하는 지적이 나온다.

테이는 기존 데이터로 대화 훈련을 받았고, 이용자들과의 추가 대화를 통해 학습하도록 방식으로 개발됐다. 문제는 일부 사용자들이 의도적으로 테이에게 욕설, 인종·성차별 발언 등을 학습시킨 것. 그로 인해 테이는 '배운 대로' 인종·성차별 발언을 내놨고 마이크로소프트 측은 16시간 만에 테이 서비스를 중단했다.

이루다와 테이는 모두 대화형 챗봇이다. 하지만, 이용하는 데이터의 양상은 다르다. 테이는 서비스 공개 이후에도 이용자의 입력으로 추가 학습 할 수 있다. 개발사 스캐터 랩에 따르면, 이루다는 기존에 가진 대화 데이터 세트를 활용해 학습해놓고 이후에 '이루다' 이용자가 입력한 말은 활용되지 않는다.

스캐터 랩은 "사용자는 이루다를 실시간으로 학습시킬 수 없다"며 "이루다의 재학습은 분기별로 실시 예정이었고, 이루다는 오늘로 출시된 지 3주일 된 챗봇으로 아직 출시 이후에 추가 업데이트가 이뤄진 상태가 아니다"라고 밝혔다.

테이는 구조적으로 의도를 가진 학습에 취약하지만, 이루다는 개발사의 데이터 처리 역량과 성향에 따라 영향을 많이 받는 구조인 셈이다.

개발사는 편향적인 발언에 대해 사전에 준비했지만 결과적으로 부실한 기술력 문제를 드러내 논란이 컸다. 스캐터랩은 지난 12일 오후 공개한 질의응답에서 "실제 서비스 출시 이후 사전에 대비한 것보다 더욱 넓고 다양한 사용자 발화가 등장했다"며 "예상하지 못했던 이루다의 성적이거나 편향적인 대화가 드러나게 됐고 이에 대한 대처가 부족했었던 것을 서비스를 출시한 후 통감했다. 앞으로는 더욱 엄격한 데이터 레이블링(처리) 기준을 도입할 계획"이라고 알렸다.

 

 


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.