ChatGPT 의 개발자인 OpenAI의 개인정보 보호정책에는 챗봇과의 모든 대화가 저장되며 다양한 목적으로 사용될 수 있다고 명시되어 있습니다.
첫째, 누군가가 부적절한 콘텐츠를 생성하려는 아이디어를 얻은 경우 기술적 문제를 해결하고 서비스 약관 위반을 방지합니다. 누가 그런 생각을 했을까요? 이 경우 사람이 채팅을 검토할 수도 있습니다.
둘째, 데이터는 새로운 GPT 버전을 교육하고 기타 제품을 '개선'하는 데 사용될 수 있습니다.
Google의 Gemini, Anthropic의 Claude, Microsoft의 Bing 및 Copilot 등 대부분의 다른 인기 있는 언어 모델에는 유사한 정책이 있습니다.
모두 대화 상자를 전체적으로 저장할 수 있습니다.
즉, 소프트웨어 버그로 인해 의도하지 않은 채팅 유출이 이미 발생했으며 사용자는 자신의 대화 대신 다른 사람의 대화를 보게 되었습니다.
훈련을 위해 이 데이터를 사용하면 사전 훈련된 모델에서 데이터 유출이 발생할 수도 있습니다 .
AI 보조자는 응답과 관련이 있다고 판단하는 경우 사용자의 정보를 다른 사람에게 제공할 수 있습니다.
정보 보안 전문가들은 대화 내용을 훔치는 것을 목표로 하는 여러 가지 공격( 1 , 2 , 3 ) 을 설계했으며 거기서 멈추지 않을 것입니다.
따라서 기억하세요. 귀하가 챗봇에 작성한 모든 내용은 귀하에게 불리하게 사용될 수 있습니다.
AI와 대화할 때는 예방 조치를 취하는 것이 좋습니다.
개인정보를 챗봇에 보내지 마세요. 비밀번호, 여권 또는 은행 카드 번호, 주소, 전화번호, 이름 또는 귀하, 귀하의 회사 또는 귀하의 고객에 속한 기타 개인 데이터가 AI와의 채팅으로 끝나서는 안 됩니다. 요청 시 이를 별표 또는 "편집됨"으로 바꿀 수 있습니다.
어떤 문서도 업로드하지 마세요. 다양한 플러그인과 추가 기능을 통해 문서 처리에 챗봇을 사용할 수 있습니다.
예를 들어 요약본을 얻기 위해 작업 문서를 업로드하고 싶은 강한 유혹이 있을 수 있습니다.
그러나 여러 페이지로 구성된 문서를 부주의하게 업로드하면 기밀 데이터 , 지적 재산 또는 신제품 출시일이나 팀 전체의 급여와 같은 상업적 비밀이 유출될 위험이 있습니다.
또는 그보다 더 나쁜 것은 외부 소스에서 받은 문서를 처리할 때 언어 모델이 문서를 스캔한다는 점에 의존하는 공격의 표적이 될 수도 있습니다.
개인정보 보호 설정을 사용하세요.
LLM(대형 언어 모델) 공급업체의 개인 정보 보호 정책과 사용 가능한 설정을 주의 깊게 검토하세요.
이러한 설정은 일반적으로 추적을 최소화하는 데 활용될 수 있습니다.
예를 들어 OpenAI 제품을 사용하면 채팅 기록 저장을 비활성화할 수 있습니다.
이 경우 데이터는 30일 후에 제거되며 학습에 사용되지 않습니다. API, 타사 앱 또는 서비스를 사용하여 OpenAI 솔루션에 액세스하는 사용자는 해당 설정이 기본적으로 활성화되어 있습니다.
코드를 보내시겠습니까? 기밀 데이터를 정리하세요. 이 팁은 코드를 검토하고 개선하기 위해 AI 도우미를 사용하는 소프트웨어 엔지니어에게 전달됩니다. API 키, 서버 주소 또는 애플리케이션 구조나 서버 구성을 노출시킬 수 있는 기타 정보를 제거하세요.