정부, 性·인종 차별 초래 'AI 편향성' 검증한다
상태바
정부, 性·인종 차별 초래 'AI 편향성' 검증한다
  • 정규호 기자
  • 승인 2021.03.08 14:56
  • 댓글 0
이 기사를 공유합니다

'이루다 AI', 성소수자 및 장애인 '혐오' 답변
구글·마이크로소프트 개발 AI, 각종 차별 논란 초래
전문가 "학습용 데이터 검증 부실이 근본 원인"
"정확성·다양성 고려한 학습용 데이터 검증 시급"

정부가 성차별, 인종차별 등 각종 차별을 일으키는 AI에 대해 ‘검증’을 준비하고 있는 것으로 확인됐다. 최근 인공지능(AI) 편향 문제 해결 방안으로 AI 학습용 데이터 검증이 주목받고 있는 가운데, 정부가 관련 분야에 대한 확실한 개념 정립과 효과적인 해법 마련에 나서야 한다는 여론이 확산됐기 때문이다.

AI업계에 따르면 최근 구글과 페이스북의 AI 기능이 성차별 또는 인종차별 문제를 일으키고, 국내에서도 챗봇 ‘이루다’ 서비스가 AI 편향성 문제로 도마 위에 오르는 등 시비가 잦아지면서 AI 편향성 해결과 신뢰성 확보에 관한 관심이 높아졌다.

실제로 ‘구글 비전AI’는 지난해 밝은 피부를 가진 사람이 체온계를 들고 있는 경우, 체온계로 정상 표시했지만 흑인의 손이 체온계를 들고 있는 경우는 총으로 라벨링했다. 손으로 쥐고 있는 체온계를 백인은 체온계, 흑인은 총으로 차별 인식한 것이다. 구글은 즉각 사과문을 내고, 문제를 바로 잡았다. 

피부색에 따라 결과값이 달라지는 구글 비전AI의 모습. 사진=Bart Nagel 트위터
피부색에 따라 결과값이 달라지는 구글 비전AI의 모습. 사진=Bart Nagel 트위터

마이크로소프트는 2016년 AI 챗봇 ‘테이’를 공개했다. 테이 자체는 특정 관점을 포함하고 있지 않았지만 테이를 사용하는 사람들은 테이에 인종과 성차별 인식이 담긴 명령어를 집중 주입했다. 이를 학습한 테이는 망언과 욕설을 쏟아냈고 결국 마이크로소프트는 출시 16시간 만에 테이의 운영을 중단했다.

국내에선 ‘이루다’라는 AI가 문제를 일으켰다. 한 이용자가 레즈비언에 관해 질문하자 이루다는 '혐오스러워', '소름끼친다', '거부감이 든다'라고 답하면서 이용자들의 우려가 제기됐다. '장애인이면?'이라는 질문에 '어쩔수없이 죽어야지'라고 답하거나, 지하철 임산부석에 대해서는 '혐오스럽다', 흑인에 대한 질문에는 '징그럽게 생겼다'고 답해 논란이 됐다.

레즈비언을 "혐오스러워", 장애인을 "죽어야지"로 표현한 이루다AI 캐릭터 모습. 사진=이루다
레즈비언을 "혐오스러워", 장애인을 "죽어야지"로 표현한 이루다AI 캐릭터 모습. 사진=이루다

AI업계는 논란의 근본 원인으로 AI 학습용 데이터에 대한 '검증 부족'을 꼽았다. 그동안 AI업계와 학계에서는 “학습용 데이터를 검증해 AI 신뢰성을 확보하자”는 대안을 제시했다. 문제는 데이터 검증에 대한 ‘개념 정립’과 방법론이라고 할 수 있다. 검증 기준과 대상, 범위, 방법 및 수단 등에 대한 개념 정립은 물론이고 검증방법 자체의 난이도가 워낙 높아 효율적인 해법을 찾기 어렵다는 맹점이 있다. 

우선 ‘AI 학습용 데이터’가 무엇이고 ‘AI 신뢰성을 확보하려면 무엇을 검증해야 하는지’에 대한 개념 정리가 이뤄져야 한다는 목소리가 커지고 있다. 실제 ‘AI 학습용 데이터’와 ‘AI 연산 결과 값’에 차이가 있는데도, 일선 현장에서 이를 구분하지 못해 혼선을 빚는 상황을 어렵지 않게 찾아볼 수 있다.

최근 언론보도에 따르면 정부 ‘데이터 바우처’ 사업에 참여 중인 한 공급업체가 사업 종료 시점에 감리에게서 ‘AI로 수행된 결과 데이터’를 내놓으란 요구를 받았다. 애초 사업은 AI 학습용 데이터 10만 건을 만들어 수요기업에 제공하는 것이었다. 이를 설명해도 감리는 막무가내였다. 결국 업체는 감리의 입맛에 맞는 데이터를 만들어주고 사업을 통과했다.

국내 한 대학 연구소 소속 AI 연구개발자는 “AI를 위한 데이터에는 AI 학습용 데이터와 AI로 수행된 결과 데이터가 모두 포함되는데, 전자가 In-Put 용도라면 후자는 Out-Put 용도로 구분 지을 수 있다”며 “최근까지도 학계나 업계가 이를 명확히 구분하지 못했던 게 사실”이라고 말했다.

방법 측면에서도 넘어야 할 장애물은 많다. AI 학습에 중요한 척도인 정확성·균형성·다양성을 종합적으로 고려하지 못해 편향 문제가 발생하는데도, 여전히 문제를 데이터량의 부족에서만 찾고, 단순히 데이터 수집·축적이 더 많이 이뤄지면 해결될 것이라 보는 시각이 있다.

AI 가공업체 한 관계자는 “AI 자체로는 공정성·중립성을 담보하기 쉽지 않아 다양한 환경·조건, 사회상황 등에 따라 데이터를 확보해야 하지만, 그동안 AI 분석 데이터 세트는 수집과 축적에만 집중돼 편향 문제가 발생했다”며 “AI 기술 발전을 모두가 머릿속에서만 그렸을 뿐, 실제 이 정도까지 빠르게 진화하리라 판단하고 대비하지 못한 결과”라고 했다.

최근 정부도 AI 편향 가능성을 큰 문제로 보고 AI 학습용 데이터 품질을 확보하는 데 주력하겠다는 계획을 밝혔다. 한국지능정보사회진흥원(NIA)의 '인공지능 학습용 데이터 구축 사업'에 따르면 올해에만 2925억원의 예산을 투입해 AI 시대 핵심 자산인 데이터를 대규모로 확보하는 사업이 추진 중인데, 이 과정에서 기관 등이 보유한 기존 데이터 품질 개선을 추진하는 것으로 알려졌다.

지난해 11월 NIA는 'AI 학습용 데이터 사업의 실효성 향상을 위한 정책 방향' 보고서에서 AI 학습용 데이터 관련 12대 주요 이슈 가운데 품질 문제로 ▲저품질 데이터 ▲품질 평가가 어려운 데이터 ▲불명확한 라벨링 가이드 등 세 가지를 꼽았다. 그러면서 ‘품질 평가 방식 및 데이터 품질 관리 정책 방향 개선’을 대안으로 제시했다.

NIA는 데이터 구축 사업이 대용량 고품질 데이터에만 초점이 맞춰져 AI 편향과 노이즈를 최소화하는 작업은 상대적으로 미흡하다고 지적하고, AI 서비스의 신뢰성·안정성 확보를 위해 구축 데이터 품질 관리가 시급하다고 강조했다.

정부 부처와 기관이 내놓은 정책에서 효과적·구체적 대안이 제대로 제시되지 못한 점은 아쉬운 대목이다. '데이터 품질 개선은 AI 편향성 극복을 위한 근본 해법이 될 수는 없을 것'이란 견해도 있다. 데이터 품질 개선은 '오타' 등 해당 데이터의 결함 여부를 살피는데 도움이 될 뿐, 편향성 문제까지 해결할 수는 없다는 것.

최근 몇 년 동안 행정안전부와 한국데이터베이스진흥원 등은 국제표준과 해외사례를 토대로 다양한 여건을 고려한 공공·민간 데이터 품질 제도 마련에 나서는 등 관리 방안을 모색하고 있다. 한국정보통신기술협회(TTA)도 '품질 검증'을 중요 정책으로 제시하고, ‘인공지능 시스템 안전·신뢰성 검증 공동연구 수요 조사’에 나서고 있다. 몇몇 시험인증기관이 데이터 품질 인증을 위해 노력하는 등 AI 신뢰성 확보를 위한 민관의 움직임은 긍정적으로 평가할만 하다. 

다만 '데이터 다양성'에 대한 고려가 부족하고, 산업별 특화된 지표와 방법이 반영되지 않았다는 점은 아쉬운 대목이다. 국내에서 개발된 ‘데이터 밸런스’ 또는 여타 기술을 활용한 '다양성 기반 검증 방식'에 관심을 기울여야 한다는 주장이 나오는 이유이다. 

정규만 대구대 ICT융합학부 교수는 “데이터 품질 관리도 AI 신뢰성 확보에 중요한 요소지만, 수집된 데이터가 AI 기능 수행에 따른 결과인지 여부를 확인하는 수준에 그쳐 결과값의 편향을 해결하는데 한계가 있다”고 말했다. 그는 “데이터를 수집할 때 불필요한 것까지 인식·처리하기 때문에 시간이 많이 들고 오류가 커질 수 있다”고 설명했다.

정 교수는 “AI 편향 문제를 해결하기 위한 정부의 노력이 이제 막 시작됐으니 이를 잘 해결해 나갈 것으로 믿는다”며 “다만, AI 신뢰성 확보를 위해서 정확성은 물론 다양성 측면에 터잡은 기술 도입이 필요하다는 인식이 확산되고 있는 만큼, AI 학습용 데이터에 대한 개념이 정립되고 있는 지금 시점이 이를 고려하는 절호의 기회일 것”이라고 말했다.



주요기사
이슈포토