영국·캘리포니아, AI 규제 확대…감사·계약까지 책임 기준 적용 [카테고리 설정이 아직되어 있지 않습니다.] AI 기반 계약 검토 과정에서 위험 식별·샘플링·검증을 거쳐 감사 보증으로 이어지는 절차 구조 / 출처 = FRC
인공지능(AI) 규제가 기술 영역을 넘어 계약 및 감사 차원으로 확대되고 있다.
30일(현지시각) 영국 재무보고위원회(FRC)는 회계법인의 생성형 AI 활용에 대한 가이드라인을 발표했다. 같은 날 미국 캘리포니아주는 AI 리스크 통제를 공공 조달 계약 조건으로 의무화하는 행정명령을 내놨다.
감사 기준으로 들어온 AI… 결과 책임까지 본다”
FRC는 회계법인이 생성형 AI와 에이전트형 AI를 감사 업무에 활용할 경우, 결과물의 신뢰성과 품질을 직접 검증해야 한다고 명시했다. 단순히 도구로 사용하는 것을 넘어, AI가 만들어낸 판단과 결과까지 감사 책임 범위에 포함된다는 의미다.
가이드라인은 AI 활용 사례와 함께 결과 검증 기준을 제시했다. AI가 생성한 분석이나 판단을 그대로 사용하는 것이 아니라, 인간 감사인이 이를 검토하고 통제해야 한다는 점을 강조했다. 기존 감사의 핵심인 독립성과 신뢰성을 훼손하지 않는 범위에서만 기술 활용이 허용된다는 기준이다.
이는 AI가 재무정보 검증 영역까지 빠르게 침투하면서, 규제당국이 직접 활용 기준을 제시하기 시작한 첫 사례 중 하나다. 감사 품질과 직결되는 영역에서 AI는 ‘효율화 도구’가 아니라 ‘관리 대상’으로 규정됐다.
계약 조건으로 묶인 AI… 리스크 관리 못하면 참여 제한”
캘리포니아는 한 단계 더 나아가 AI 활용 책임을 기업의 계약 요건으로 끌어올렸다.
개빈 뉴섬 주지사는 주정부 계약에 참여하는 기업이 AI 오남용 방지 체계를 갖추도록 의무화하는 행정명령에 서명했다. 불법 콘텐츠 생성, 알고리즘 편향, 시민권 침해 등 주요 리스크를 통제할 수 있는 내부 시스템을 요구하는 내용이다.
또 AI로 생성된 이미지와 영상에는 워터마크 표시를 의무화했다. 향후에는 AI 거버넌스 수준을 평가하는 공급업체 인증 제도도 도입할 계획이다. AI를 활용하려면 기술 수준뿐 아니라 통제 능력까지 입증해야 공공시장에 접근할 수 있는 구조가 만들어진 셈이다.
로이터는 각국 규제 당국이 AI 개발 자체를 제한하기보다, 고위험 영역에서의 책임 있는 활용을 관리하는 방향으로 정책 초점을 옮기고 있다고 전했다.