요약 | - 챗GPT를 업무에 활용하기 시작하면서 각종 민감 정보를 입력한다는 지적 - 챗GTP를 활용 중 개인정보, 고객 정보가 노출되지 않도록 막아주는 프라이빗 챗GPT(PrivateGPT) 등장 |
내용 | - 프라이빗AI(Private AI)社에서 오픈AI(OpenAI)의 챗GPT를 기반으로 프라이빗GPT 개발 > 사용자와 AI 중간에 위치해 사용자 입력에서 민감정보를 지워낸 후 AI의 응답에 다시 사용자가 입력한 민감정보를 대입 > 민감정보: 의료, 신용카드, 연락처, 생년월일, 주민등록번호 등 - 마이크로소프트(MS) 또한 기업 내부 데이터 유출을 우려하지 않아도 되는 '프라이빗 챗GPT' 계획 발표 > 데이터를 별도 공간에 보관하는 기업 전용 클라우드 서비스를 출시할 예정 > 애저클라우드에 다른 고객과 격리된 전용 서버에서 챗GPT를 실행하도록 해 데이터가 공유되거나 유출되는 것을 원천 차단하겠다는 것 > 가격은 일반 챗GPT 버전에 비해 최대 10배에 달할 것 - 오픈AI는 챗GPT를 이용자의 채팅 내용을 외부에 노출하지 않는 '비공개 모드' 출시 > 사용자가 공개 여부를 선택하도록 한 기능 - 사용자가 데이터를 챗GPT 창에 입력할 때, 그 데이터는 대형 언어 모델(LLM)의 데이터셋에 포함 됨 > 차세대 챗GPT 혹은 다른 인공지능 알고리즘을 훈련시키는 데 활용 > 미래 어느 시점에 추출하는 것이 가능하므로, 훈련용 데이터 혹은 사용자가 입력하는 데이터에 대한 안전 장치 마련 필요 ※ 오픈AI(OpenAI)는 챗GPT에 입력된 질문 내용을 임직원이 확인하고 학습 데이터로 활용 - 관련 사례 ① 23.03 사용자가 챗GPT와 나눈 대화 주제 이력 노출 > 챗GPT와 사용자 간 대화는 사용자가 나중에 다시 열람할 수 있게 목록화돼 표시창에 저장 > 자신의 대화 목록이 아닌 타인의 대화 목록이 노출 ※ 대화 내용은 노출되지 않았고, 표시창에 저장된 대화 주제 이력이 노출된 것이며, 누구의 목록인지 드러나지 않음 > 23.03.20 오픈AI는 챗GPT 서비스를 일시 종료하고, 같은 날 오후 늦은 시간에 대화 기록 표시창을 막아 놓은 채 서비스를 재개 ※ 익명의 오픈 소스 소프트웨어의 오류로 인해 문제가 발생 ② 23.03 삼성전자 디바이스솔루션(DS·반도체) 부문의 기업 정보가 챗GPT를 통해 정보 유출 > 챗GPT에 삼성전자 기업 정보를 입력하는 3건의 사고가 난 것으로 확인 ※ 설비정보 유출 2건, 회의내용 유출 1건 ※ 챗GPT 사용을 허가하며 임직원을 대상으로 “사내 정보 보안에 주의하고 사적인 내용을 입력하지 말라”는 공지 전달 > 해당 사실을 인지한 후 한 질문당 업로드 용량을 1024바이트로 제한하는 등 ‘긴급 조치’ 사항을 적용 ※ 유출 사고를 낸 임직원을 대상으로 사고의 경위를 조사하고, 필요시 징계를 내릴 방침 ⒜ 사고1: DB 다운로드 프로그램의 소스 코드 실행 중 오류 -> 문제가 된 소스 코드 전부를 복사 -> 챗GPT 입력, 해결 방법 문의 ⒝ 사고2: 수율, 불량 설비 파악을 위한 프로그램 코드를 챗GPT에 입력 ⒞ 사고3: 녹음한 회의 내용을 문서 파일로 변환한 뒤 챗GPT에 입력 ③ 기타 > 임원A는 기업 전체의 전략이 담긴 문서를 통째로 챗GPT에 입력한 후 파워포인트로 변환 요청 > 의사A는 환자의 이름과 의료 기록을 챗GPT에 입력한 후 보험사에 보낼 서신 작성 요청 |
기타 | - 챗GPT를 사용할 때 기본 보안 수칙을 완전히 잊는 듯한 사용자들이 여전히 많은 상황 > 사이버페이븐(Cyberhaven)社 보고서 ① 민감한 데이터를 챗GPT에 입력하려는 사용자들이 4.2% ② 챗GPT에 붙여 넣는 내용 가운데 민감한 정보가 11%를 차지 > 자동으로 녹취록을 작성해 주는 인공지능 서비스인 오터(Otter.ai): 인공지능이 식별한 화자와 중요하다고 표시한 문장, 태깅된 단어와 같은 정보를 내부에 보관 > API를 통해 챗GPT를 자신들의 서비스에 직접 접목하기 시작 - 더 많은 데이터가 LLM으로 유입 - 21.06 ‘훈련 데이터 추출 공격(training data extraction attack)’이라는 기법이라는 걸 개발해 논문으로 발표 > 애플, 구글, 하버드대학, 스탠포드대학 등의 연구원들은 공동 연구 > 인공지능 모델을 훈련시키는 데이터를 추출하여 개인 식별 정보 등 민감 정보를 빼내는 데 성공했던 것 - 인공지능 사용과 관련된 가이드라인을 만들어 교육해야 할 필요 > 직원들이 챗GPT에 제출하는 데이터를 파악하고 통제하는 일이 만만치 않다고 경고 > 조직들은 기밀 데이터 처리에 적합한 애플리케이션들이 잘 문서화되도록 정보보호정책을 업데이트해야 함 > 문서화가 잘 되어 있고 충분한 정보를 바탕으로 수립된 정책이 그런 정보 흐름 통제의 시작점 > 신중하게 이런 새로운 기술을 비즈니스 개선에 활용할 수 있는 방법을 탐구 |
보안뉴스
'보안뉴스' 카테고리의 다른 글
채널톡 사건으로 불거진 개인정보 무단 공유 논란, 동의 제도 개선으로 해결될까 (0) | 2023.05.22 |
---|---|
오늘은 ‘세계 패스워드의 날’... 하지만 패스워드 관리는 여전히 ‘허술’ (0) | 2023.05.05 |
멀웨어 없는 공격 늘어나고 있어 무용지물 되고 있는 멀웨어 탐지 기술 (0) | 2023.05.03 |
엘포인트, 롯데시네마, 곰 등 감염시킨 골도슨 멀웨어, 1억 회 다운로드 돼 (0) | 2023.04.22 |
북한 해커조직, 실제 주소와 똑같은 피싱 사이트 사용한다? BitB 기술 악용 (1) | 2023.04.17 |