국가인권위원회(인권위)는 24일 인공지능 개발·활용 과정에서 인권침해 등의 문제가 발생하지 않도록 ‘인공지능 법률안’에 관련 규정을 포함해야 한다는 의견을 표명했다.

인권위는 국회 과학기술정보방송통신위원회 심의 중인 인공지능 법률안에 인권침해와 차별, 사회적 편견의 확대·재생산, 개인정보 유출, 허위정보 생산, 저작권 침해 등의 문제를 예방·규제할 규정이 미흡하다며 국회의장에게 이 같은 의견을 냈다.

인권위는 법률안의 ‘우선허용·사후규제’ 원칙은 삭제하고 인권영향평가제도를 도입해야 한다고 밝혔다. 개발·출시 전에 인권에 미칠 부작용을 평가하고 기능이나 활용 범위를 변경할 때도 재평가해야 한다는 것이다.

인권위는 이용자와 정보 주체의 권리를 명시하고 피해구제 절차도 마련하라고 했다.

이어 국민의 인권과 안전에 미치는 영향·위험성 등을 고려해 인공지능을 적정한 등급으로 구분하고 등급에 맞게 규제 수준을 달리해야 한다고 당부했다.

‘고위험 영역 인공지능’의 경우 유럽연합 등 외국과 비교해 상대적으로 협소하게 정의했다며 범위를 확대해 재정의하라고 주문했다.

감독·규제 담당 기관이 고위험 영역 인공지능 알고리즘의 투명성과 설명가능성, 인권침해·차별 예방조치 여부를 사전에 엄격히 점검하고, 문제가 발생하면 일시 사용중지 명령을 내리게 하는 등 실효적 규제 수단도 필요하다고 봤다.

인공지능 감독·규제 업무는 제3의 기관이 독립적으로 맡을 필요가 있다고 인권위는 덧붙였다.

인권위는 “법률안은 과학기술정보통신부장관이 인공지능 기술과 산업 진흥·육성뿐 아니라 고위험 영역 인공지능 확인 등 규제 업무도 담당하도록 하고 있다”며 “산업 진흥과 규제라는 상호모순적 업무를 한 기관이 담당할 경우 규제의 실효성을 담보하기 어렵다”고 지적했다.