짧은 글 - AI 의 인지능력과 편향되지 않은 편향성


<인공지능과 편향되지 않은 편향성>

Category: Technology


얼마 전 구글 번역기 (google translator)과 관련된 흥미로운 트윗을 보았다. 3인칭 단수 대명사의 성별의 구별이 없는 터키어와 영어 사이의 번역에 관한 트윗이였다.
 <사진출처: 구글 번역기>

먼저 he is a babysitter, she is a doctor라는 두 문장을 터키어로 번역한다. She 와 He는 3인칭 대명사의 성별 구분이 없는 터키어에서는 모두 O로 번역되었고, 이를 다시 영어로 번역하자 상당히 흥미로운 결과를 볼 수 있었다. 처음 입력한 두 문장과 성별이 반대로 번역되어 나온 것. 즉, 번역기는 Doctor라는 명사 앞의 대명사 O를 남성으로, Babysitter라는 명사 앞의  O를 여성으로 번역한 것이다. 이에 대한 트위터의 반응을 살펴보니 기계가 사람들의 언어습관을 반영한 것으로, 우리 사회 속 성 역할 고착화를 보여주는 안타까운 사례라는 반응이 많았다. 

정말 흥미로운 결과일 수 밖에 없다. 트윗의 작성자는 ‘biased AI’ (편향된 AI)라는 표현을 사용하였다. 본디 정해진 동작을 수행하는 ‘기계’ 는 결코 편향되지 않는다. 기계는 그저 묵묵히 정해진 역할을 수행할 뿐이며 이는 산업화가 가속되면서 공업용 기계로 인한 사고와 인명피해가 일어났던 원인이 되기도 했다. 초창기의 번역기가 형편없었던 까닭 역시 초창기의 번역기는 각각의 단어를 미리 내장된 사전 데이터를 통해 번역할 뿐, 맥락을 고려하지 않기 때문이었다. 그러나 빠른 속도로 발전하고 있는 오늘날의 기계는, 기계 학습 (machine learning)이라는 과정을 통해 ‘맥락’을 파악하는 법을 배워가고 있다. 구글의 창업자 래리 페이지는 ‘구글을 어떻게 일하는가’에서, 기계학습을 통해 이제 컴퓨터는 미리 짜여진 업무를 수행하는 것이 아닌, 알고리즘과 기계학습을 통해 맥락을 파악하고 문제를 해결하는 방법을 배워나가고 있다고 설명한다. 이 소위 말하는 ‘Biased AI’역시 context analysis 를 통해 상황 맥락을 파악하여 이런 결과를 내놓았을 것이다. 만일 과거의 형편없었던 번역기에 같은 터키어 문장을 입력했다면, ‘그것/그/그녀 (3인칭 단수) 이다 보모’ (‘that/he/she (3rd singular) is a babysitter’) 와 같은 전혀 맥락은 없지만 중립적인 문장을 결과로 내놓았을 수도 있다. 
과연 Google translator의 알고리즘은 편향되었을까? Context analysis와 machine learning의 핵심은 데이터이다. 인간은 ‘인지 능력’ (cognitive analysis) 를 가지고 있다. 우리는 감정을 느끼고 경험과 지식을 바탕으로 논리적으로 생각하며 판단을 한다. 그렇기에 인간에겐 맥락을 이해하는 능력이 있다. 어떤 남자가 꽃을 들고, 정장을 입고 시계를 보며 근사한 레스토랑으로 들어간다면 우리는 자연스럽게 ‘프로포즈를 하러 가나?’ 라는 생각을 할 것이다. 그러나 이전의 ‘기계적 사고방식’은 그저, 남자가 꽃을 들고, 정장을 입고, 시계를 보며 레스토랑에 들어간다 (아마 ‘근사한’이라는 것 역시 인지하지 못할 가능성이 크다) 는 것을 인지할 뿐이다. 인간의 인지능력을 모방(immitate 내지는 counterfeit) 하려는 노력의 결과물이(진행중이지만) 바로 머신러닝, 그리고 context analysis이다. 그러나 인간 인지능력과 이것의 중요한 차이는, 머신러닝과 context analysis의 경우에도 기계가 감정을 느끼고 정말로 ‘생각’을 하며 인간과 같은 인지능력을 가지는 것은 아니라는 점이다.
인공지능을 연구했던 앨런 튜링은 인공지능이 인간과 똑같이 정말 ‘생각’할 필요는 없으며, 단지 인간의 행동과 판단, 생각을 모방((imitate)하기만 하면 된다고 생각했다. 그가 고안한 AI를 위한 테스트 (AI가 인간과 같은 수준의 인지능력을 가졌음을 확인하는 테스트)가 imitation game 이라고 불리는 것도 이러한 이유에서이다. 오늘날의 인공지능, 머신러닝은 모두 Database 에 의존하며, 수많은 데이터 분석과 알고리즘을 통해 ‘인간의 맥락에 맞는’ 결과물을 내놓도록 설계되고 있다. 
이러한 상황 맥락의 파악은 수많은 데이터베이스에서 왔을 것이다. 아이러니하게도 context analysis를 수행한 이 번역기(기계)는 편향되지 않았다. 단지 맥락을 분석하여 번역을 수행하는 알고리즘을 따랐을 뿐이다. 번역 알고리즘 역시 편향되지 않았다. 알고리즘은 언어사용의 수많은 데이터베이스를 분석하여 통계적인 확률을 분석하고, 수치적으로 가장 ‘그럴듯한’ 결과를 내어놓는다. 그렇지만 데이터베이스는 아마도 편향되었을지도 모르며, 우리(인간)은 21세기의 수많은 맥락(Ex: 성 고착화/성차별, 직업에 대한 성별 관념 등)을 통해 번역 결과가 편향되었다고 판단하고 느낀다. 
구글 번역기가 ‘doctor’라는 명사 앞에는 남성을 나타내는 관사를, ‘babysitter’라는 명사 앞에는 여성을 나타내는 관사를 내놓기까지 정확히 어떤 알고리즘과 데이터 분석이 작용했는지는 모르겠지만, 아마도 수많은 언어의 사용 패턴 (적어도 영어의)을 분석한 결과 ‘babysitter’라는 단어가 여성을 지칭하는 경우로, ‘doctor’라는 단어는 남성을 지칭하는 경우로 사용되었을 가능성이 더 높다고 분석했을 것이다. 실제로 웹 속의 모든 ‘babysitter’ ‘doctor’라는 단어가 포함된 문장들을 분석했을 때 여성 babysitter, 그리고 남성doctor에 대해 이야기하는 경우가 그 반대의 경우에 비해 월등히 많았을지도 모른다. 그렇다면 우리는 이 AI의 판단을 편향되었다고 할 수 없다. 그러나, 그렇다고 해도 21세기의 인류의 가치관 하에 ‘의사’라고 말했을 때 남성을 먼저 떠올린다거나, ‘보모’라고 말했을 때 여성을 먼저 떠올리는 것은 분명히 편향되었다. 
나는 이러한 AI가 보여주는 아이러니한 편향성을 ‘편향되지 않은 편향성’이라고 부르고자 한다. 기계 학습과 알고리즘은 사람들의 행동 패턴, 즉 이미 일어난 일들/행해진 행동의 발자취를 따라 우리의 인지/사고방식을 학습한다. 그러나 인류의 인지능력과 사고방식은 절대 정적이지 않으며, 변화하는 속도도 끊임없이 빨라지고 있다. 성 관념이나 평등의식, 민주화에 대한 생각, 자유주의 등, 21세기의 흐름을 규정하는 수많은 것들이 과거에는 결코 옳거나 당연하게 여겨지지 않던 것들이다. 그렇기에 AI는 시대착오적이거나 편향된 인류의 사고방식을 구별해내는데 어려움을 겪을 것이라 생각된다. 특히, 만일 그것이 가치관과 관련된 것이라면 인공지능은 더욱이 우리에게 맞는 가치관이나 관념을 내재하기 어렵다. 
AI를 연구하고 개발하는 이들에게, AI에 인류의 가치관을 이해하도록 하는 일은 결코 쉽지 않을 것이다. 아직 context analysis도 완벽한 수준은 아니기 때문이다. 그렇기에 인류의 가치관을 이해하고, 끊임없이 update하는 AI의 개발까지는 시간이 걸릴 것이라고 생각한다. 그러나, 이번 트윗의 번역기 예시가 보여줬듯이, AI의 ‘편향되지 않은 편향성’은 우리 사회속에 내재된 편향성들과, 우리의 가치관이 흘러가는 방향을 보여주는 좋은 도구가 될 수 있지 않을까 하는 생각도 들었다.





댓글

이 블로그의 인기 게시물

[Python mini projects] Python을 활용한 텍스트 속 유의미한 통계 산출하기 -1

Kaggle competition 간단후기

(2부) 플랫폼 비즈니스,그리고 카카오의 수익모델에 대한 idea