막말 하는 인공지능 못 나온다…정부 ‘신뢰할 수 있는 AI 실현전략’ 발표

2021.05.13 15:30
The GovLab 제공
The GovLab 제공

혐오 발언 학습으로 문제가 돼 서비스가 중단된 인공지능(AI) 챗봇 ‘이루다’ 같은 사례의 재발 방지를 위해 정부가 신뢰할 수 있는 AI 실현전략을 마련했다. AI가 스스로 편향성을 진단하고 제거하는 원천기술을 개발하는 게 핵심이다. AI 업체는 서비스를 제공하기 전 AI의 활용 여부 고지가 의무화된다. 


과학기술정보통신부는 13일 대통령 직속 4차산업혁명위원회 제22차 전체회의에서 이 같은 내용을 골자로 하는 ‘사람이 중심이 되는 인공지능을 위한 신뢰할 수 있는 인공지능 실현전략’을 발표했다. 


세계적으로 AI 기술이 전 분야에 빠르게 도입되면서 혁신을 창출하는 순기능 외에 예상치 못한 부작용이 터져 나오면서 새로운 사회적 문제로 떠오르고 있다. 2018년 미국 매사추세츠공대(MIT)는 반사회적·반인류적 데이터로 훈련된 ‘사이코패스 AI’를 공개해 논란을 낳았고, 올해 초 국내에서도 AI 챗봇 이루다의 혐오 발언이 문제가 돼 한 달 만에 서비스가 중단됐다. 대통령 등 유명인의 얼굴을 합성한 딥페이크 기술도 도마에 오르고 있다. 


미국은 2019년 국가 AI 연구개발 전략으로 ‘기술적으로 안전한 AI 개발’을 채택했고, IBM, MS, 구글 등 주요 기업은 AI 개발원칙을 마련해 자율적으로 규제하고 있다. 프랑스도 기업, 시민 등 3000명이 참여한 공개 토론을 통해 ‘인간을 위한 AI’ 구현에 필요한 권고사항을 도출했고, 영국도 5대 윤리 규범, 설명 가능한 AI 가이드라인 등을 마련한 상태다. 유럽연합(EU)은 지난달 인간에게 부정적인 영향을 미칠 수 있는 고위험 AI를 중점적으로 규제하는 ‘인공지능 법안’을 마련해 제도화를 추진하고 있다. 

 

유럽연합(EU)이 마련한 고위험 AI 규제 법안. 보고서 캡처
유럽연합(EU)이 마련한 고위험 AI 규제 법안. 보고서 캡처

정부도 이번에 ‘신뢰할 수 있는 인공지능 실현전략’을 통해 기술·제도·윤리 3개 부분에서 AI의 신뢰도를 높일 수 있도록 10대 실행과제를 마련했다.

 

기술적으로는 2026년까지 총 295억 원을 투입해 ‘설명가능’ ‘공정’ ‘견고’ 등 3개 분야에서 원천기술을 개발한다. 이를 통해 기존 시스템에 설명가능성 기능을 추가하고, AI가 스스로 편향성을 진단하고 제거하도록 할 계획이다. 


제도적으로는 AI 법·제도 규제 정비 로드맵이 마련된 만큼 민간의 책임을 강화하고 규제의 불확실성을 최소화할 수 있도록 제도를 신속하게 정비할 방침이다. 이를 위해 정부는 민간의 자율성을 저해하지 않는 수준에서 글로벌 입법 동향과 AI의 사회적·산업적 파급력과 기술 수준 등을 여러 각도로 검토해 제도 개선의 범위와 대상을 명확히 하기로 했다.


윤리적으로는 ‘카카오 알고리즘 헌장’ ‘네이버 인공지능 윤리’ 등 IT 기업을 중심으로 민간 차원에서 윤리원칙을 수립하기 위한 노력이 이뤄지고 있다. 정부는 이를 토대로 사회 전반에 건전한 AI 의식이 확산할 수 있도록 AI 윤리교육 과정을 개발해 교육을 실시하고, AI 윤리 실천지침 체크 리스트를 보급하며, AI 윤리를 토의하고 의견을 수렴할 수 있는 윤리 정책플랫폼을 운영할 예정이다.  


정부는 이같은 3대 전략과 세부 10대 실행과제를 관계부처 합동으로 2025년까지 단계적으로 추진할 계획이다. 

메일로 더 많은 기사를 받아보세요!

댓글 0

작성하기

    의견쓰기 폼
    0/150