"생성형 AI, 법적 리스크 어디까지?"... 일본 딥러닝협회 기업 대응 가이드 제시개인정보·저작권 쟁점 집중 분석... 기업의 ‘일률적 금지’ 대신 합리적 활용 기준 필요
일본 딥러닝협회(JDLA)가 생성형 인공지능(AI)을 기업 환경에서 활용할 때 발생할 수 있는 주요 법적 쟁점을 정리한 보고서를 발표했다. 개인정보 보호와 저작권 문제 등으로 기업 현장에서 AI 활용이 위축되는 상황에서, 실제 활용 가능한 법적 판단 기준을 제시했다는 점에서 주목된다.
일본 딥러닝협회는 지난 2월 ‘법과 기술 검토위원회’ 보고서 ‘AI 이용 관련 유스케이스’를 발표하고, 기업·조직이 생성형 AI를 사용할 때 직면하는 주요 법적 쟁점을 정리했다.
보고서는 생성형 AI가 업무 효율화와 새로운 가치 창출 측면에서 큰 잠재력을 지니고 있음에도 불구하고 개인정보 보호와 저작권 침해 우려로 인해 기업 현장에서 실제 활용이 지연되는 사례가 많다고 분석했다. 특히 AI 에이전트처럼 자율적으로 정보를 수집·처리하는 기술이 확산되면서 기존 기업 규정으로는 대응이 어려운 상황이 발생하고 있다고 지적했다.
현재 많은 기업이 개인정보 보호 문제를 이유로 개인정보를 생성형 AI에 입력하는 행위를 일괄적으로 금지하는 정책을 운영하고 있지만, 보고서는 이러한 방식이 현실적인 해결책이 되기 어렵다고 설명했다.
보고서는 특히 개인정보 입력과 관련된 법적 해석 문제를 주요 쟁점으로 제시했다. 일본 개인정보 보호법에서는 원칙적으로 개인정보를 제3자에게 제공할 경우 당사자의 동의가 필요하지만, 생성형 AI 서비스에 개인정보를 입력하는 행위가 반드시 ‘제3자 제공’에 해당하는지는 기술 구조와 계약 조건에 따라 달라질 수 있다는 것이다.
보고서는 이와 관련해 두 가지 법적 해석 가능성을 제시했다. 첫째는 ‘클라우드 예외’로, AI 서비스가 데이터를 외부 서버에서 처리하는 구조라 하더라도 개인정보가 제3자에게 제공되는 것으로 보지 않는 해석이다. 둘째는 ‘위탁 처리’ 개념으로, 기업이 AI 서비스를 업무 위탁 형태로 사용하는 경우 개인정보 처리 위탁에 해당할 수 있어 별도의 동의가 필요하지 않을 수 있다는 해석이다.
또한 보고서는 AI 생성물의 저작권 침해 가능성에 대해서도 기업 차원의 대응 방식을 제시했다. 모든 AI 생성 결과물을 개별적으로 검토하기보다는 ▲AI 활용 방식 설정 ▲업무 프로세스 설계 ▲사내 운영 기준 마련 등을 통해 사전 관리 체계를 구축하는 것이 현실적인 대응 전략이라고 강조했다.
일본 딥러닝협회는 이번 보고서를 통해 기업이 생성형 AI를 무조건 제한하기보다 법적 리스크를 관리하면서 활용할 수 있는 실무적 기준을 마련하는 것이 중요하다고 강조했다.
AI 전문가들은 이번 보고서가 생성형 AI 활용과 관련된 법·기술 간 간극을 줄이기 위한 실무 지침 성격을 갖는다고 평가한다. 특히 개인정보 보호와 저작권 문제를 동시에 고려해야 하는 기업 환경에서 AI 활용 정책 수립의 참고 기준으로 활용될 가능성이 높다는 분석이다. <저작권자 ⓒ 특허뉴스 무단전재 및 재배포 금지>
![]()
댓글
생성형AI법률, 일본딥러닝협회, AI저작권, 개인정보보호, AI리스크관리, 기업AI활용 관련기사목록
|
많이 본 기사
|