Top Stories:
경제

AI ‘신뢰성 검증’은 민간이 알아서…‘사전적정성 검토’는 아직

Summary

에스케이텔레콤의 ‘에이닷(A.)’ 통화녹음 서비스가 법 위반인지 과학기술정보통신부와 개인정보보호위원회 등 규제당국에 문의했지만 돌아오는 답은 모호했다. 사진은 지난 2021년 4월...

에스케이텔레콤의 ‘에이닷(A.)’ 통화녹음 서비스가 법 위반인지 과학기술정보통신부와 개인정보보호위원회 등 규제당국에 문의했지만 돌아오는 답은 모호했다. 사진은 지난 2021년 4월28일 개인정보위가 인공지능 챗봇 ‘이루다’에 과징금 등을 부과하는 결정을 내리던 모습. 사진 개인정보위 제공

전 세계를 ‘인공지능 열풍’으로 몰아넣은 챗지피티(ChatGPT) 출시 1년이 지났지만, 국내에는 여전히 ‘위험한 인공지능’을 통제할 장치가 마땅치 않다. 에스케이텔레콤(SKT)의 ‘에이닷(A.)’ 통화녹음 서비스가 법을 위반한 것은 아닌지 과학기술정보통신부와 개인정보보호위원회 등 규제당국에 문의했지만 돌아오는 답은 모호했다. 인공지능 규제 법안은 여전히 국회에 머물러있고, ‘인공지능 신뢰성 검증’은 ‘민간 자율’, ‘사전적정성 검토제’는 시행 전이다.

과기정통부 인공지능 규제 정책은 인공지능 기술 기업에 ‘기준(가이드라인)’과 ‘민간 자율’ 검증을 제시하는 수준에 머물고 있다. 인공지능법이 만들어지기 전까지는 ‘인공지능 윤리기준’과 ‘실천방안’에 따라 인공지능 기술이 접목된 서비스의 위법 여부를 기업 스스로 살피며 만들면 된다는 설명이다. 과기정통부가 한국정보통신기술협회(TTA)와 함께 수립한 ‘인공지능 신뢰성 검·인증’ 역시 ‘민간 자율’에 맡기는 방식이다.

21대 국회 내내 논의됐던 ‘인공지능 기본법(인공지능 산업 육성 및 신뢰 기반 조성에 관한 법률)’은 지난 2월 국회 과학기술정보방송통신위원회 법안소위를 통과한 뒤 현재까지 계류 중이다. 산업 육성을 위해 '우선 허용, 사후 규제' 원칙을 내세우고, 사람의 생명·안전·기본권 등에 중대한 영향을 미칠 우려가 있는 인공지능 기술만 ‘고위험’으로 분류해 논란이 이어지는 상황이다.

개인정보보호위의 인공지능 ‘사전적정성 검토제’도 아직 준비 중이다. 개인정보보호위는 지난 10월 인공지능의 데이터 수집·학습·처리 과정에서 개인정보를 침해할 가능성을 점검하겠다며 ‘인공지능 프라이버시팀’을 신설하고, 인공지능 사전적정성 검토제 시범운영에 나섰다. 하지만 이 제도조차 ‘신기술의 개인정보보호법 저촉 여부가 불확실한 사업자가 개인정보보호위에 검토를 신청해 컨설팅을 받는 제도’여서 신청하지 않은 기업까지 아우르는 ‘거름망’이 되기는 충분치 않다.

결국 ‘에이닷’ 역시 2021년 ‘이루다’ 사태 때처럼 뒤늦게 언론 등의 문제제기로 위법 요소가 발견되고 사회적 파장을 겪고서야 비로소 조사가 이뤄질 수 있는 형국이다. 2021년 스캐터랩은 인공지능 챗봇 모델 ‘이루다’의 학습을 위해 자사의 다른 앱에서 수집한 60만명의 카카오톡 대화를 사용한 게 개인정보보호위 조사로 드러나, 시정명령과 함께 1억330만원의 과징금·과태료를 부과받았다. 에스케이텔레콤은 지난 4월 에이닷 개발을 위해 스캐터랩에 150억원 규모의 지분 투자를 하기도 했다.

김보라미 변호사는 “에이닷 통화녹음은 기본적으로 제3자가 통화 녹음을 한다는 점에서 법 위반 소지가 있다"며 “앞으로 내가 하는 통화가 다 녹음되고 기록이 남는 세상이 올 것 같아 두려운데, 개인정보위 등 규제당국이 보다 적극적으로 나서서 초기에 이런 문제를 명확히 해야 한다”고 말했다.

임지선 기자

면책 조항: 이 글의 저작권은 원저작자에게 있습니다. 이 기사의 재게시 목적은 정보 전달에 있으며, 어떠한 투자 조언도 포함되지 않습니다. 만약 침해 행위가 있을 경우, 즉시 연락해 주시기 바랍니다. 수정 또는 삭제 조치를 취하겠습니다. 감사합니다.