요약 - 주요 생성형 AI 도구들의 입력 데이터 수만 건을 분석한 '생성형 AI로 유출되는 데이터 현황' 보고서 발표
- 직원들의 생성형 AI 도구 사용 과정에서 상당한 양의 민감 정보가 외부에  노출되고 있음
내용 - '생성형 AI로 유출되는 데이터 현황' 보고서
> Microsoft Copilot, ChatGPT, Google Gemini, Anthropic Claude, Perplexity 등 주요 생성형 AI 도구들의 입력 데이터 수만 건을 분석
> 전체 입력 데이터 중 8.5%가 민감정보를 포함되어 있었으며, 기업 보안에 심각한 위험요소로 작용할 수 있음

- 민감정보 유출 현황 분석
① 고객 데이터 45.77%
> 고객 보고서 65.8%
> 고객 프로필 20.9%
> 결제 거래 정보 8.9%
> 신용카드 정보 1.7%
> 청구 정보 2.0%
> 고객 인증 정보 0.5%
> 분쟁 해결 데이터 0.2%

② 직원 관련 데이터 26.83%
> 직원 급여 정보 49.6%
> 직원 개인식별정보 49.6%
> 고용 기록 0.8%

③ 법률 및 재무 데이터 14.88%
> 영업 파이프라인 데이터 45.5%
> 인수합병 정보 22.0%
> 법률 문서 13.6%
> 투자 포트폴리오 데이터 15.9%
> 재무 전망 2.3%
> 특허 정보 0.8% 등

④ 보안 관련 정보 6.88%
> 네트워크 구성 34.4%
> 보안사고 보고서 31.1%
> 사용자 접근 로그 16.4%
> 관리 시스템 설정 8.2%
> 보안 정책 4.9%
> 백업 계획 3.3%
> 접근 제어 정책 1.7%

⑤ 민감 코드 5.64%
> 접근 키 82.0%
> 독점 소스 코드 18.0%

- 기업의 96%가 생성형 AI 사용을 위한 거버넌스 구조를 구축 중이며, 82%가 데이터 유출을 우려
> 기업은 민감한 데이터 노출로 인한 경쟁력 상실과 생성형 AI를 도입하지 않았을 때의 기술적 낙오 사이 고민 중

- 생성형 AI 사용 차단이 아닌 더 지능적인 통제 방안 도입 필요
> 생성형 AI 도구 사용에 대한 실시간 모니터링 시스템 구축
> 데이터를 학습하지 않는 유료 버전 사용 정책 수립
> 프롬프트 수준의 가시성 확보
> 데이터 유출 시점에서의 민감 데이터 분류 체계 수립
> 부서별 맞춤형 스마트 규칙 실행
> 생성형 AI의 책임있는 사용을 위한 직원 교육 등
기타 -

 

보안뉴스

 

챗GPT·클로드·제미나이에 유출된 정보 분석했더니…

직원 48%가 기업 정보 무단 입력... AI 도구로 인한 데이터 유출 실태보안 전문기업 하모닉(Harmonic)이 발표한 '생성형 AI로 유출되는 데이터 현황' 보고서에 따르면, 직원들의 생성형 AI 도구 사용 과

zdnet.co.kr

 

+ Recent posts