“AI 거버넌스, 효율 넘어 ‘책임의 프레임워크’ 돼야” [현장+]

김학범 파트너

AI 기술이 기업 경영의 전 영역으로 확산되는 가운데, “이사회와 감사위원회가 신뢰 가능한 AI 거버넌스 체계를 구축해야 한다”는 제언이 나왔다.

한국 딜로이트 그룹 기업지배기구발전센터는 12일 ‘새로운 환경에 직면한 이사회·감사위원회의 과제: 리스크, 가상자산, AI 거버넌스’를 주제로 세미나를 개최했다.

김학범 한국 딜로이트 그룹 SRT-RR&F Forensic & Risk Intel. 파트너는 이날 “AI의 효율성만 강조하는 시대는 끝났다”며 “이제는 책임 있는 AI 운영과 감독이 기업 지배기구의 핵심 과제로 부상했다”고 강조했다.

김 파트너는 20년 넘게 내부통제·리스크관리 분야에 종사해온 전문가다. 그는 “AI는 기업 성과를 높이는 기회이지만 동시에 윤리·보안·저작권 리스크를 내포한 복합적 기술”이라며, “특히 생성형 AI는 코드 구조가 불투명하고 데이터 출처가 불명확해 내부통제의 사각지대를 낳을 수 있다”고 지적했다. 실제로 그는 캐나다 항공사의 챗봇 오류로 인한 법적 책임 사례와 국내 포털의 알고리즘 조작 사례를 소개하며 “AI 결과물에 대한 책임은 기술이 아닌 기업이 져야 한다”고 경고했다.

딜로이트가 아시아·태평양 13개국의 경영진 900명을 대상으로 실시한 조사에 따르면, 응답자의 45%가 “AI 도입이 매출과 평판에 긍정적 효과를 줬다”고 답했지만, 절반 이상은 “AI 리스크 관리와 거버넌스 부재가 장애 요인”이라고 토로했다. 김 파트너는 “AI 감독의 주체는 명백히 이사회와 감사위원회”라며 “그러나 여전히 60% 이상이 AI를 제대로 이해하지 못하고 있어 교육과 의제화가 시급하다”고 말했다.

그는 또 딜로이트가 제시한 ‘신뢰할 수 있는 AI 프레임워크’의 7대 원칙을 소개했다. ▲투명성(검증 가능한 구조) ▲공정성(편향 없는 데이터) ▲프라이버시(동의 기반 정보 활용) ▲책임성(사회적 책임) 등이 핵심이며, “윤리적이지 않은 AI는 기업 리스크를 키운다”고 단언했다. 이어 “AI 관리 체계의 성숙도를 진단하기 위해 조직 구성·정책 기준·프로세스·역량·모니터링 등 5개 요소로 평가하는 방법론을 도입해야 한다”고 덧붙였다.

한편, 그는 AI를 내부통제·감사 영역에 직접 적용한 사례도 공개했다. 딜로이트가 개발한 ‘AI 기반 내부회계평가 솔루션’은 ERP·전자결재 등 데이터를 자동 연동해 샘플 검증, 평가 보고서 작성까지 자동화한다. 김 파트너는 “AI가 증빙을 분석해 판단 근거를 제시하고, 다국어 보고서까지 실시간 생성한다”며 “AI의 ‘고급 추론 능력’을 활용하면 감사 효율성과 정확성을 동시에 높일 수 있다”고 설명했다.

끝으로 그는 “AI의 효익과 리스크는 동전의 양면”이라며 “이사회가 책임 있는 AI 거버넌스 체계를 선도적으로 요구하고, 주기적 점검과 감독을 통해 신뢰 가능한 AI 생태계를 조성해야 한다”고 당부했다.

댓글 남기기

HOT POSTING

지구인사이드에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기