법무법인 로앤에이, 생성형 AI 계약서 활용의 위험요소 분석

김준평 기자 (kimjp234@dailian.co.kr)

입력 2026.02.06 14:24  수정 2026.02.06 14:25

ⓒ법무법인 로앤에이

최근 기업 현장에서 업무 효율을 높이고자 생성형 AI로 계약서 초안을 작성하거나 검토하는 사례가 급증하고 있다. 사용자가 AI에게 "우리 회사의 보안 규정을 반영한 표준 구매 계약서를 작성하라"고 지시하면, AI는 단 몇 초 만에 정교한 결과물을 내놓는다.


하지만 AI가 존재하지 않는 법령을 인용하거나 치명적인 독소 조항을 삽입하는 이른바 ‘환각(Hallucination)’ 현상이 발생한다면 상황은 달라진다. 과연 전문가의 최종 검토 없이 AI에만 의존해 작성된 계약서가 법적 분쟁에서 완벽한 방어막이 될 수 있을까?


현행 법계에서 AI는 계약의 주체가 될 수 없다. 따라서 AI가 생성한 계약 문구에 법적 오류가 있더라도 이를 'AI의 실수'로 돌려 계약을 무효화하기는 어렵다. 민법상 계약의 최종 책임은 계약서에 날인한 주체, 즉 기업과 경영진에게 귀속되기 때문이다.


특히 생성형 AI의 환각 현상은 계약 업무에서 치명적인 리스크다. 존재하지 않는 조항을 근거로 손해배상 범위를 설정하거나, 기업의 영업비밀 보호 조항을 누락하는 등의 실수는 단순한 오타 이상의 경영 위기를 초래한다. 편리함을 쫓아 도입한 AI가 오히려 기업의 법률적 방어력을 약화시키는 부메랑이 될 수 있다는 점을 명심해야 한다.


사내 규정을 무시하고 임직원이 개인적으로 사용하는 'Shadow AI(무단 사용 AI)'도 큰 위협이다. 계약서 초안을 작성하기 위해 기업의 핵심 계약 조건이나 내부 데이터를 외부 AI 모델에 입력하는 순간, 이는 돌이킬 수 없는 정보 유출로 이어진다.


이러한 무단 사용을 통해 작성된 계약서는 기업의 표준 검수 프로세스를 우회하기 마련이다. 검증되지 않은 AI의 결과물이 실제 계약 체결까지 이어질 경우, 향후 발생할 법적 분쟁에서 기업은 '주의 의무 태만'이라는 비판을 피하기 어렵다. 이는 기술 도입에 앞서 강력한 내부 통제 가이드라인이 선행되어야 하는 이유다.


결국 AI 비즈니스의 성패는 단순히 기술의 고도화가 아닌, 발생 가능한 법적 리스크를 얼마나 정교하게 관리하느냐에 달렸다. 향후 시행될 'AI 기본법' 체제 아래서 기업은 AI 의 오작동이나 권한 남용에 대비한 내부 통제 장치를 반드시 마련해야 한다.


특히 AI가 작성에 관여한 계약의 효력 범위를 명확히 규정하고, AI가 작성한 법률 문서의 검수 프로세스를 제도화하는 '전사적 법률 대응 체계' 구축이 시급하다. 이러한 제도적 안전장치가 뒷받침될 때 비로소 기업은 AI를 혁신의 동력으로 삼을 수 있다. 로앤에이가 '실전형 법률 솔루션'을 통해 기업별 맞춤형 리스크 관리 시스템을 제안하는 이유도 여기에 있다. 기술 혁신과 법률 규제 사이의 공백을 메워 혁신의 안전 지대를 구축하는 것, 그것이 로앤에이가 공유하고자 하는 핵심 가치다.

0

0

기사 공유

댓글 쓰기

김준평 기자 (kimjp234@dailian.co.kr)
기사 모아 보기 >
관련기사

댓글

0 / 150
  • 최신순
  • 찬성순
  • 반대순
0 개의 댓글 전체보기