"혼다 자율주행 사고 원인은 'AI 신뢰성 부족' 때문"
상태바
"혼다 자율주행 사고 원인은 'AI 신뢰성 부족' 때문"
  • 정규호 기자
  • 승인 2020.11.14 06:52
  • 댓글 0
이 기사를 공유합니다

지역SW품질협의체, 데이터밸런스 지원방안 모색
박지환 씽크포비엘 대표, 워크숍 주제 강연 진행
"대머리 심판 공으로 착각 사건도 AI 신뢰성 부족 탓"
"데이터 밸런스 갖춰야 AI 신뢰성 갖출 수 있어"
박지환 씽크포비엘 대표가 12일 지역SW품질협의체 워크숍에서 '데이터 밸런스'에 대해 강연을 하고 있다. 사진=씽크포비엘
박지환 씽크포비엘 대표가 12일 지역SW품질협의체 워크숍에서 '데이터 밸런스'에 대해 강연을 하고 있다. 사진=씽크포비엘

“2018년 혼다 자율주행 자동차가 음식점 간판을 진입금지 표시로 오인한 사고, 스코틀랜드 축구 경기에서 AI 카메라가대머리 심판 머리를 축구공으로 오인한 계속 쫓아다닌 사고 모두 인공지능의 신뢰성이 부족했기 때문에 발생한 사건이다. 데이터 밸런스를 갖추지 않으면 AI는 무용지물이다"

박지환 씽크포비엘 대표는 12일, 13일 여수 소노캄 호텔에서 열린 ‘지역SW품질협의체, 성과 공유 및 전략 마련 워크숍’에서 ‘데이터 밸런스 기반 AI 신뢰성 검증'이란 주제로 강연을 하면서 이같이 밝혔다. 지역SW품질협의체는 4개 권역에서 11개 기관이 모여있는 협의체로 우리나라 SW분야의 최전선이라고 할 수 있다. 

이날 박 대표는 AI를 얼마나 다양한 분야에 적용하는가를 고민하는 것보다 ‘어떻게 해야 신뢰할 수 있는 AI를 실생활에 제대로 적용하고 가치를 평가할 수 있는가’를 집중 조명했다.

박 대표는 AI 신뢰성이 결여되면 발생할 수 있는 문제점을 실제 사례로 소개했다. 박 대표는 “2018년 혼다 자율주행 자동차가 음식점 간판을 진입금지 표시로 오인해 사고를 냈는데, 이는 AI 신뢰성이 결여된 대표적인 사례로 꼽힌다”고 밝혔다. “일본에서 가장 많은 라면 프랜차이즈를 보유한 ‘천하일품’ 로고 이미지도 도로 진입금지 표지판과 흡사해 AI가 오류를 많이 일으킨다”고 설명했다. 

박 대표는 최근 일어난 사례도 소개했다. 유럽에서 열린 축구 경기에서 경기를 중계하던 AI 카메라가 축구공으로 오인한 대머리 심판 머리를 계속 쫓아다닌 해외 토픽과 관련해 박 대표는 “현재 진행되는 AI 테스트는 이런 문제까지 집어낼 수 없다”라며 “예컨대 현재 AI 신뢰성 검증은 카메라가 축구공을 제대로 쫓을 수 있는지만 검사할 뿐인데, 이는 대머리를 축구공으로 오인하는가와 같은 예외적 상황까지 고려한 다양한 데이터를 포함하지 않았기 때문”이라고 했다.

그렇다면 이러한 문제를 해결하기 위해서는 어떻게 해야 할까. 박 대표는 이 해답으로 '데이터 밸런스'를 꼽았다. 박 대표는 "데이터 밸런스는 AI가 학습하는 빅데이터가 편향돼 있으면, AI 신뢰성을 담보할 수 없는 문제가 생긴다. 데이터 밸런스는 대표되는 데이터의 샘플링 편향이나 오류를 줄일 수 있는 AI 검증 모델이다. 데이터와 AI를 각각 바둑돌과 알파고에 비유하고, 바둑돌만 아무리 많이 모아 봤자 알파고가 완성될 수는 없다”고 설명했다.

한편, 지역SW품질협의체 관계자들은 이번 워크숍을 통해 데이터 밸런스에 기반한 지원을 모색하자고 뜻을 모았다. 김영찬 전주정보문화산업진흥원 ICT융합사업단 SW융합팀 과장은 “기존 방식이 사실 AI 테스트와 SW 테스트를 구별하지 못하다 보니, AI 특징에 맞게 접근하는 데 한계가 있었다”며 “데이터 밸런스는 AI 신뢰성 검증에 대한 올바른 기준과 접근법을 제시한 것으로, 지역 AI 개발업체에 매우 큰 도움이 될 것”이라고 했다.



주요기사
이슈포토