Top Stories:
국제

G7, 인공지능 위험성 줄일 첫 국제 원칙 합의

Summary

게티이미지뱅크 주요 7개국(G7)이 전체 인류에게 새 기회이자 큰 위협이 될 수도 있는 인공지능(AI)의 개발과 이용을 관리하기 위한 첫 포괄적인 국제 원칙에 합의했다. 최근 샘 ...

게티이미지뱅크

주요 7개국(G7)이 전체 인류에게 새 기회이자 큰 위협이 될 수도 있는 인공지능(AI)의 개발과 이용을 관리하기 위한 첫 포괄적인 국제 원칙에 합의했다. 최근 샘 올트먼 ‘오픈에이아이’ 최고경영자(CEO)의 퇴출 논란에서 볼 수 있듯 인공지능의 여러 위험성에 대한 우려가 커지는 가운데 이를 제어하려는 국제사회의 공동 대응이 시작된 것이다.

일본 아사히신문와 요미우리신문 등 주요 언론은 1일 “주요 7개국이 진행해온 인공지능과 관련한 국제 규칙 만들기 작업인 ‘히로시마 인공지능 프로세스’(이하 프로세스)의 최종 합의안이 나왔다”고 전했다. 주요 7개국은 앞선 5월 일본 히로시마 정상회의에서 인공지능의 위험을 관리하는 국제 규범을 만들기 위해 이 프로세스를 가동하기로 합의한 바 있다.

이후 약 6개월의 작업을 거쳐, 인공지능을 개발하는 기업을 향한 ‘국제행동규범’(code of conduct)과 이용자를 포함한 모든 관련자에게 제시하는 ‘국제지침’(guiding principles) 등 주요 원칙에 합의했다. 주요 7개국은 이날 열린 주요 7개국 디지털·기술장관 회의에서 이 원칙들에 합의했다. 이후 이달 중순 열리는 화상 정상회의에서 이 원칙을 최종 확정하게 된다.

주요 7개국은 인공지능 개발 기업들이 고도의 인공지능을 시장에 내놓으려면 사전에 위험성을 평가하고, 이를 줄일 수 있는 적절한 조처를 마련해야 한다고 ‘국제지침’을 통해 요구했다. 이 과정에서 위험한 것으로 평가된 정보는 관련국, 업계와 공유하도록 했다. 나아가 ‘국제행동규범’에선 개발 기업뿐 아니라 사용자의 책임성도 강조했다. 각 사용자가 인공지능을 적절히 이용할 수 있는 능력을 키우고, 이를 통해 발생할 수 있는 ‘가짜 정보’ 등 여러 문제의 위험성을 인식해야 한다고 요구한 것이다.

주요 7개국은 나아가 마이크로소프트(MS)나 구글 같은 글로벌 정보기술(IT) 업체가 인공지능 관련 국제행동규범을 잘 지키는지 점검하는 ‘모니터링 제도’를 도입할 것도 제안했다. 또 인공지능을 이용해 만든 ‘진짜 같은’ 가짜 사진 등의 허위 정보 차단 기술을 마련하기 위한 국제 규모의 실험 계획을 추진하자고 제안했다. 인터넷상에서 가짜 콘텐츠를 만들거나, 이를 확산한 이들을 역추적할 수 있도록 ‘인증·이력 관리 체계'를 만들어야 한다는 구체안도 이번 원칙에 포함된 것으로 알려졌다.

다만 이 합의안은 법적 구속력이 없으며, 실제 제도는 각 나라 형편에 맞춰 구체화하도록 하고 있다. 미국은 지난 10월 말 인공지능 개발자는 안전 시험 결과를 정부에게 보고해야 한다는 내용을 뼈대로 한 행정명령을 시행한 바 있다. 유럽연합(EU)은 이와 달리 인공지능이 만들어내는 ‘위험’을 관리하기 위해 개발 기업에 대한 엄격한 규제(최대 4천만유로 벌금 부과)를 가하는 법안을 준비하고 있다. 미국이 기업의 자율성에 방점을 찍는 데 견줘, 유럽연합은 위험관리를 더 중시하고 있는 셈이다. 이번 안은 이런 차이를 뛰어넘어 주요 7개국, 나아가 국제사회가 큰 틀에서 동의할 수 있는 원칙을 마련했다는 점에서 큰 의미가 있다.

주요 7개국은 합의안이 확정되는 대로 이 원칙을 지지하는 국가와 기업들을 늘려갈 계획이다. 미국 등 인공지능 개발을 선도하는 주요국들이 합의한 안이기 때문에 상당한 파급력이 있을 것으로 예측된다.

홍석재 기자

면책 조항: 이 글의 저작권은 원저작자에게 있습니다. 이 기사의 재게시 목적은 정보 전달에 있으며, 어떠한 투자 조언도 포함되지 않습니다. 만약 침해 행위가 있을 경우, 즉시 연락해 주시기 바랍니다. 수정 또는 삭제 조치를 취하겠습니다. 감사합니다.