AI가 편견을 뛰어넘어 공정성을 실현할 수 있을까?
정신을 차리고 보니 어느새 우리 곁에 도래한 이 AI 시대에 인공지능이 편견에 사로잡혀 편향성을 드러낸다면 어떤 일이 벌어질까. 그 편견을 방치해도 문제, 바로잡으려는 의도를 담아도 오류가 나올 수 있는 지금 기술 단계에서 인공지능이 마주한 공정성과 투명성 문제를 각기 다른 측면에서 바라보고 엮어낸 9가지 시선을 소개한다.
2016년 구글 딥마인드의 알파고가 서울에서 프로기사 이세돌과 바둑 대국을 펼치고 이겼을 때 그 충격과 파장은 미디어를 타고 전 세계로 퍼져나갔다. 하지만 이 사건은 사람들 머릿속에 인공지능이라는 낯선 용어를 각인시키는 계기가 됐을 뿐, 세간의 관심을 꾸준히 끌고 가지는 못했다. 그러다 오픈AI에서 출시한 ChatGPT가 폭발적인 성공을 거두고 선풍적인 인기를 끌면서, 인공지능은 유례없이 빠른 속도로 우리 일상 구석구석까지 파고들고 있다. 이런 추세라면 가까운 시일 안에 우리 사회 모든 영역에서 전반적 혹은 부분적으로 AI 기술을 도입하게 될 것이라는 연구보고서도 나왔다.
그만큼 이제 인공지능, 특히 생성형 AI는 우리가 내리는 의사결정에 무시할 수 없는 영향력을 발휘하는데, 이때 인공지능이 다양한 사용자를 상대로 드러내는 편향이 심각한 사회문제로 떠오르고 있다. 이에 한국과학기술젠더혁신센터(GISTeR)는 그 폐해가 심각한데 대비는 미흡하다는 점에 공감하는 산학연 전문가들과 함께 모여 대책을 논의하고 포럼을 열어 발표한 자료를 묶어 이 한 권의 책으로 펴냈다. 여기에 참여한 여러 전문가들의 통찰에는 AI 생태계를 한층 더 포용적으로 변화시켜보자는 염원이 담겨 있다. 이들이 한목소리로 외치는 키워드는 바로 다양성이다.
AI는 왜 편견에 사로잡혀 편향성을 드러낼까?
AI가 일부러 그렇게 행동하려고 마음을 먹어서는 아니다. 적어도 당분간은 아무리 뛰어난 AI라 하더라도 인간과 똑같은 감정적 경험을 누릴 수는 없다고 판단되기 때문이다. 인간이 편견이나 고정관념에 따라 판단을 내리면 편향되기 마련이어서 누군가는 차별받듯, AI 알고리즘도 그럴 수밖에 없다.
생성형 AI는 지시나 질문이 입력되면 거기에 대응해서 새로운 콘텐츠를 만들어내는 기술인데, 이때 인간처럼 다양한 내용을 이해하고 문제를 해결하려면 훈련용 데이터를 대규모로 사용해서 학습해야 한다. 그런데 이 데이터에 편향이 끼어들면 AI가 그대로 학습해서 편향된 결과를 생성하는 것이다. 학습 데이터가 편향에 물드는 이유로는 몇 가지가 있다. 학습 데이터도 사람이 만들어내는 자료인 만큼 그 자체에 편향이 존재할 수밖에 없고, 특정 환경이나 조건을 설정해서 데이터를 수집하면 그 범위 안에 갇혀서 다양성을 잃는다. 또한 AI 시스템을 설계하고 운영하는 사람들이 의식적으로나 무의식적으로 자신들의 의도를 시스템에 반용할 때도 편향을 피할 수 없다. 그러다 보면 AI 성능이 떨어지는 결과를 가져오는데, 과적합 현상이 나타난다든지 과소표현 된 집단에 대한 오류가 빈발해서, 끝내는 폐기되는 수순을 밟기도 한다. 문제는 여기서 그치지 않는다는 데 있다.
AI에 깃든 편견을 다양성으로 해소할 수 있을까?
누가 뭐라 해도 지금 가장 핫한 기술인 AI를 두고 전 세계 모든 국가가 기대와 우려를 동시에 드러내는 실정이다. 장밋빛 전망과 어두운 그림자가 공존하는 기술의 속성 때문이다. AI가 국가 간 경쟁력을 좌우하는 핵심 기술로 떠올랐기에 AI 패권을 둘러싸고 새로운 국제 질서가 재편될 가능성이 있고, AI가 가져다주는 경제적 혜택이 모든 국가와 계층에 고루 돌아가지 않으면서 경제 격차가 기술 격차를 낳고 다시 기술 격차가 경제 격차를 벌려놓을 수도 있다. AI 알고리즘이 데이터에 포함된 문화를 반영해서 사회적 약자와 소수자를 상대로 차별을 조장하거나 부추길 수도 있거니와, 개인의 자유와 권리를 침해하며 감시사회로 나아갈 수도 있다. 이미 그런 사례가 있다. 더불어 환경을 파괴할 우려도 있고, 법률문제가 불거질 수도 있다.
이런 문제를 해결하기 위해 연구자들은 AI 다양성을 확보해야 한다고 강조한다. 여기에 형평성과 포용성까지 함께 묶는데, 그래야만 다양성 가치가 제대로 발휘되기 때문이다. 그렇다면 인공지능에게 어느 수준까지 다양성을 요구해야 할까? 모든 층위까지 다 아울러야 한다면 그것이 기술적으로 가능한지도 물어야 한다. 또한 다양성을 실현하는 데 따르는 기회비용은 무엇이며, 다양성을 위한 사회적 합의를 끌어내기는 쉬운지, 더 나아가 다양성을 추구한다고 해서 반드시 의도한 결과가 보장되는지도 살펴봐야 할 과제로 남는다. 이런 노력에 발맞춰, 기술혁신 주체가 변화하는 추세에 따라 ‘많이 시도하고 빨리 실패하며’ 성장해나가는 사회 여건을 조성하고, 따로 또 같이의 가치를 존중하며 혁신의 다양성, 혁신 주체의 다양성도 추구해야 한다.
AI 다양성이 지속 가능하려면 무엇을 체크해야 할까?
모든 기술이 그렇듯, 기술과 접근성 사이 격차를 줄여야 한다. 접근성이란 불편함 없이 환경을 이용할 수 있는 정도를 말하는데, 혁신을 이끄는 주요 동력 중 하나이기도 하다. 장애인의 접근성을 높이는 AI의 잠재력에 주목하는 이유도 그래서다. 우리는 누구나 장기간 혹은 일시적으로 어떤 측면에서든 장애를 경험하거나 취약해질 수 있다. 따라서 장애인과 취약계층이 자유로이 이용할 수 있는 기술이라면 모든 이에게 장벽이 가장 낮은 도구라 할 만하다.
AI 다양성을 통해 이런 일이 실현되려면 AI 기술에 참여하는 과학자의 다양성이 먼저 갖춰져야 한다. 사람은 관심이 있는 주제에 호기심을 보이기 마련이어서, 비슷한 부류들 사이에서는 자칫 편향되기 쉽다. 나이, 성별, 인종, 출신배경, 경력 등이 다채로운 사람들이 모여야만 서로 간에 공감이 싹트고 서사가 생기면서 진정성이 묻어나와, 진정한 의미에서 다양성을 끌어올릴 수 있다.
이렇게 다양성을 추구하는 환경에서는 AI에 연계되는 지식과 학문도 경계가 무너지며 융합되는 추세로 나아간다. 따라서 이런 시대에 걸맞은 인재를 키워내는 교육체계도 달라져야 한다. 한 사람이 그 모든 지식을 다 습득할 수는 없기에 국면을 읽고 시의적절하게 제반 조건을 절충하는 시야를 갖추어야 하기 때문이다. 다양성을 추구하는 일은 이토록 어렵고 까다롭지만, 기술혁신이 가져다주는 혜택을 함께 누리며 좀 더 나은 사회로 나아가는 한 갈래 길이 될 수 있다.