‘고영향 AI 사업자’ 기준 모호해
기업 “명확한 기준 있어야 대비 가능”
중소기업은 법 준수 포기 가능성도
지난 18일 서울 중구 법무법인 광장 사무실에서 열린 ‘ 2025년 데이터, AI법 이슈의 분석과 과제’ 세미나에서 참석자들이 토론을 이어기고 있다. 김임훈 기자.
“어디까지가 ‘고영향’ 인공지능(AI) 사업자인가요?”
내년 1월 ‘AI 기본법’(인공지능발전과 신뢰기반조성 등에 관한 기본법) 시행을 두 달 앞둔 지난 18일 서울 중구 법무법인 광장 사무실에서 열린 ‘2025년 데이터, AI법 이슈의 분석과 과제’ 세미나 현장에는 세계 최초로 시행되는 AI 기본법에 대한 높은 관심을 보여주듯 변호사, 기업 관계자들 40여명이 자리를 가득 채웠다.
이날 약 4시간에 걸쳐 진행된 세미나의 가장 큰 화두는 ‘고영향 AI’였다. 고영향 AI란 ‘사람의 생명과 신체의 안전, 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 인공지능 시스템’을 말한다.
AI 기본법이 시행될 경우 이같은 고영향 AI를 활용하는 기업에겐 ▲위험관리방안의 수립 및 운영 ▲이용자 보호 방안의 수립 및 운영 ▲고영향 AI에 대한 사람의 관리·감독 등의 의무가 생긴다. 이미 AI 사용이 대부분의 기업에서 보편화된 가운데 추가 관리 인력과 자원을 전방위적으로 투입하게 되는 셈이다. 또 만약 고영향 AI나 생성형 AI에 기반해 제품이나 서비스가 운용되는 것을 사전고지하지 않을 경우엔 3000만원 이하의 과태료가 부과된다. 그러나 아직까지 고영향 AI를 분류할 명확한 기준이 제시되지 않고 있다는 지적이다. 이날 참석자들은 “‘중대한 영향’과 ‘위험을 초래할 우려’라는 기준이 모호해 세부 조항으로 보완이 필요하다”고 입을 모았다.
사정이 이렇다보니 업계에선 고영향 AI 사업자로 분류되는 것을 꺼리는 분위기가 감지된다. ‘AI를 이용하더라도 사람이 직접 판단했다는 증거를 최대한 만들어 둬야 한다’는 목소리도 나온다. 주성완 가로재 법률사무소 변호사는 “예컨대 기업이 채용단계에서 AI를 많이 사용하는데 고영향 AI로 분류되면 비용이 얼마나 더 나오는지 관심”이라며 “결정적 판단을 사람이 했다는 자료를 최대한 남기는 식으로 대비하자는 게 실무자들의 판단”이라고 전했다.
이주연 네이버 리더는 “이용자 보호도 중요하지만 산업 진흥 측면에서도 과제가 많다”며 “유럽은 고위험 자체 평가 원칙을 두고 정부는 사후 감사 중심으로 운영한다. 판단 기준을 명확히 하되 일률적인 기준이 아니라 상황에 맞는 적합성을 스스로 선언할 수 있게 하는 유연한 입법 체계가 필요하다”고 지적했다.
중소기업에서는 대응할 여력이 없어 법 준수를 포기하게 될 것이라는 우려도 나왔다. 임주영 법무법인 응원 변호사는 “대기업도 대비가 버겁다면 중소기업에게는 사실상 법을 준수하지 말라고 떠미는 상황”이라며 “법이 유명무실해져 ‘장외법’이 될 우려가 있다”고 했다. 개인정보보호법 도입 당시 중소기업들이 보호 조치에 손을 놓았던 상황이 되풀이될 수 있다는 설명이다.
기업이 대비할 수 있도록 법 시행을 늦추는 것이 방법이 될 수 있다는 목소리도 나온다. 이성엽 고려대 법학전문대학원 교수는 “내년 1월 AI 기본법이 적용되면 고영향 AI 사업자에 해당하는 업장 모두 법을 어기는 상태가 될 수 있다”며 “하위 법령이 너무 많아 기업이 준수하기 어려워 최소 1년 정도 시행을 유예할 필요가 있다”고 조언했다.
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지


![thumbnail - 전자레인지에 남은 생선 돌리면 안 되는 이유…꼭 먹어야 한다면 ‘이것’ 함께 [라이프]](https://img.seoul.co.kr/img/upload/2025/11/20/SSC_20251120171736_N2.jpg.webp)





























