요약 - 챗GPT를 업무에 활용하기 시작하면서 각종 민감 정보를 입력한다는 지적
- 챗GTP를 활용 중 개인정보, 고객 정보가 노출되지 않도록 막아주는 프라이빗 챗GPT(PrivateGPT) 등장
내용 - 프라이빗AI(Private AI)社에서 오픈AI(OpenAI)의 챗GPT를 기반으로 프라이빗GPT 개발
> 사용자와 AI 중간에 위치해 사용자 입력에서 민감정보를 지워낸 후 AI의 응답에 다시 사용자가 입력한 민감정보를 대입
> 민감정보: 의료, 신용카드, 연락처, 생년월일, 주민등록번호 등

- 마이크로소프트(MS) 또한 기업 내부 데이터 유출을 우려하지 않아도 되는 '프라이빗 챗GPT' 계획 발표
> 데이터를 별도 공간에 보관하는 기업 전용 클라우드 서비스를 출시할 예정
> 애저클라우드에 다른 고객과 격리된 전용 서버에서 챗GPT를 실행하도록 해 데이터가 공유되거나 유출되는 것을 원천 차단하겠다는 것
> 가격은 일반 챗GPT 버전에 비해 최대 10배에 달할 것

- 오픈AI는 챗GPT를 이용자의 채팅 내용을 외부에 노출하지 않는 '비공개 모드' 출시
> 사용자가 공개 여부를 선택하도록 한 기능

- 사용자가 데이터를 챗GPT 창에 입력할 때, 그 데이터는 대형 언어 모델(LLM)의 데이터셋에 포함 됨
> 차세대 챗GPT 혹은 다른 인공지능 알고리즘을 훈련시키는 데 활용
> 미래 어느 시점에 추출하는 것이 가능하므로, 훈련용 데이터 혹은 사용자가 입력하는 데이터에 대한 안전 장치 마련 필요
※ 오픈AI(OpenAI)는 챗GPT에 입력된 질문 내용을 임직원이 확인하고 학습 데이터로 활용

- 관련 사례
① 23.03 사용자가 챗GPT와 나눈 대화 주제 이력 노출
> 챗GPT와 사용자 간 대화는 사용자가 나중에 다시 열람할 수 있게 목록화돼 표시창에 저장
> 자신의 대화 목록이 아닌 타인의 대화 목록이 노출
※ 대화 내용은 노출되지 않았고, 표시창에 저장된 대화 주제 이력이 노출된 것이며, 누구의 목록인지 드러나지 않음
> 23.03.20 오픈AI는 챗GPT 서비스를 일시 종료하고, 같은 날 오후 늦은 시간에 대화 기록 표시창을 막아 놓은 채 서비스를 재개
※ 익명의 오픈 소스 소프트웨어의 오류로 인해 문제가 발생

② 23.03 삼성전자 디바이스솔루션(DS·반도체) 부문의 기업 정보가 챗GPT를 통해 정보 유출
> 챗GPT에 삼성전자 기업 정보를 입력하는 3건의 사고가 난 것으로 확인
※ 설비정보 유출 2건, 회의내용 유출 1건
※ 챗GPT 사용을 허가하며 임직원을 대상으로 “사내 정보 보안에 주의하고 사적인 내용을 입력하지 말라”는 공지 전달
> 해당 사실을 인지한 후 한 질문당 업로드 용량을 1024바이트로 제한하는 등 ‘긴급 조치’ 사항을 적용
※ 유출 사고를 낸 임직원을 대상으로 사고의 경위를 조사하고, 필요시 징계를 내릴 방침
⒜ 사고1: DB 다운로드 프로그램의 소스 코드 실행 중 오류 -> 문제가 된 소스 코드 전부를 복사 -> 챗GPT 입력, 해결 방법 문의
⒝ 사고2: 수율, 불량 설비 파악을 위한 프로그램 코드를 챗GPT에 입력
⒞ 사고3: 녹음한 회의 내용을 문서 파일로 변환한 뒤 챗GPT에 입력

③ 기타
> 임원A는 기업 전체의 전략이 담긴 문서를 통째로 챗GPT에 입력한 후 파워포인트로 변환 요청
> 의사A는 환자의 이름과 의료 기록을 챗GPT에 입력한 후 보험사에 보낼 서신 작성 요청
기타 - 챗GPT를 사용할 때 기본 보안 수칙을 완전히 잊는 듯한 사용자들이 여전히 많은 상황
> 사이버페이븐(Cyberhaven)社 보고서
① 민감한 데이터를 챗GPT에 입력하려는 사용자들이 4.2% 
② 챗GPT에 붙여 넣는 내용 가운데 민감한 정보가 11%를 차지
> 자동으로 녹취록을 작성해 주는 인공지능 서비스인 오터(Otter.ai): 인공지능이 식별한 화자와 중요하다고 표시한 문장, 태깅된 단어와 같은 정보를 내부에 보관
> API를 통해 챗GPT를 자신들의 서비스에 직접 접목하기 시작 - 더 많은 데이터가 LLM으로 유입

- 21.06 ‘훈련 데이터 추출 공격(training data extraction attack)’이라는 기법이라는 걸 개발해 논문으로 발표
> 애플, 구글, 하버드대학, 스탠포드대학 등의 연구원들은 공동 연구
> 인공지능 모델을 훈련시키는 데이터를 추출하여 개인 식별 정보 등 민감 정보를 빼내는 데 성공했던 것

- 인공지능 사용과 관련된 가이드라인을 만들어 교육해야 할 필요
> 직원들이 챗GPT에 제출하는 데이터를 파악하고 통제하는 일이 만만치 않다고 경고
> 조직들은 기밀 데이터 처리에 적합한 애플리케이션들이 잘 문서화되도록 정보보호정책을 업데이트해야 함
> 문서화가 잘 되어 있고 충분한 정보를 바탕으로 수립된 정책이 그런 정보 흐름 통제의 시작점
> 신중하게 이런 새로운 기술을 비즈니스 개선에 활용할 수 있는 방법을 탐구

 

보안뉴스

 

챗GPT 프롬프트 통한 민감 정보 유출 막기 위해 등장한 프라이빗GPT

직원들이 챗GPT를 업무에 활용한답시고 각종 민감 정보를 마구 입력하고 있다는 지적이 기업들 사이에서 나오고 있다. 그런 가운데 한 데이터 프라이버시 전문 기업이 이러한 위험으로부터 기업

www.boannews.com

 

MS, '프라이빗 챗GPT' 출시한다 - AI타임스

마이크로소프트(MS)가 기업 내부 데이터 유출을 우려하지 않아도 되는 \'프라이빗 챗GPT\'를 내놓는다.디인포메이션은 2일(현지시간) MS 내부 사정에 정통한 소식통을 인용해 MS가 상반기 중에 기업

www.aitimes.com

 

챗GPT 버그 공포…내 질문 목록을 남들이 봤다 | 중앙일보

챗GPT와 사용자 간 대화는 사용자가 나중에 다시 열람할 수 있게 목록화돼 표시창에 저장되는데, 이 중국어 대화 목록은 자신의 것이 아니라고 했다. 오픈AI의 최고경영자(CEO) 샘 알트먼은 22일 자

www.joongang.co.kr

 

[단독] 우려가 현실로…삼성전자, 챗GPT 빗장 풀자마자 ‘오남용’ 속출

우려가 현실이 됐다.삼성전자가 디바이스솔루션(DS·반도체) 부문 사업장 내 챗GPT(ChatGPT) 사용을 허가하자마자 기업 정보가 유출되는 사고가 났다.

economist.co.kr

 

챗GPT 사용해 업무 능력 향상하려다 민감한 정보와 기밀까지 입력해

챗GPT로 인해 새로운 위협이 불거지고 있다는 지적이 나왔다. 챗GPT 열풍이 대형 언어 모델(Large Language Model, LLM)이라는 기술 자체에 대한 관심의 급증으로 이어졌는데, 수많은 사용자들이 이 기술

www.boannews.com

 

기업 민감 데이터를 ChatGPT에 입력해도 될까

오픈AI의 챗봇인 챗GPT의 잠재력과 유용성이 계속 대서특필되고 있다. 하지만 보안 분야는 민감한 비즈니스 데이터를 챗GPT에 입력하면 조직들이

www.itworld.co.kr

+ Recent posts