전체상품목록 바로가기

본문 바로가기

 
신규가입 3,000P 지급
현재 위치
  1. 게시판
  2. 뉴스/이벤트

뉴스/이벤트

뉴스와 이벤트입니다.

게시판 상세
제목 [Kaspersky] ChatGPT, Gemini 및 기타 AI를 안전하게 사용하는 방법
작성자 카스퍼스키몰 (ip:)
  • 평점 0점  
  • 작성일 2024-02-23 14:53:13
  • 추천 추천하기
  • 조회수 170


"ChatGPT, Gemini 및 기타 AI를 안전하게 사용하는 방법"



AI 도구는 운영 체제와 오피스 제품군에서 이미지 편집기와 채팅에 이르기까지 모든 곳에서 볼 수 있습니다. 디지털 보안을 위태롭게 하지 않고 ChatGPT, Gemini 및 이에 대한 많은 추가 기능을 어떻게 사용할까요?



지난해 AI 애플리케이션, 서비스, 플러그인 분야의 폭발적인 성장은 더욱 가속화될 것으로 보입니다. 

사무용 애플리케이션과 이미지 편집기부터 Visual Studio와 같은 IDE(통합 개발 환경)까지, 익숙하고 오랫동안 사용되는 도구에 AI가 추가되고 있습니다. 

많은 개발자가 가장 큰 AI 모델을 활용하는 수천 개의 새로운 앱을 만들고 있습니다. 

그러나 이 경쟁의 어느 누구도 아직까지 내재된 보안 문제, 무엇보다도 기밀 데이터 유출 최소화, 다양한 AI 도구를 통한 계정/장치 해킹 수준을 해결하지 못했습니다.

 "사악한 AI". 누군가 AI 비서 사용자를 보호하기 위한 기성 솔루션을 내놓을 때까지 몇 가지 기술을 익히고 스스로 도와야 합니다.

그렇다면 나중에 후회하지 않고 AI를 활용하는 방법은 무엇일까?

중요한 데이터 필터링 

ChatGPT 의 개발자인 OpenAI의 개인정보 보호정책에는 챗봇과의 모든 대화가 저장되며 다양한 목적으로 사용될 수 있다고 명시되어 있습니다. 

첫째, 누군가가 부적절한 콘텐츠를 생성하려는 아이디어를 얻은 경우 기술적 문제를 해결하고 서비스 약관 위반을 방지합니다. 누가 그런 생각을 했을까요? 이 경우 사람이 채팅을 검토할 수도 있습니다. 

둘째, 데이터는 새로운 GPT 버전을 교육하고 기타 제품을 '개선'하는 데 사용될 수 있습니다.



Google의 Gemini, Anthropic의 Claude, Microsoft의 Bing 및 Copilot 등 대부분의 다른 인기 있는 언어 모델에는 유사한 정책이 있습니다. 

모두 대화 상자를 전체적으로 저장할 수 있습니다.

즉, 소프트웨어 버그로 인해 의도하지 않은 채팅 유출이 이미 발생했으며 사용자는 자신의 대화 대신 다른 사람의 대화를 보게 되었습니다. 

훈련을 위해 이 데이터를 사용하면 사전 훈련된 모델에서 데이터 유출이 발생할 수도 있습니다 . 

AI 보조자는 응답과 관련이 있다고 판단하는 경우 사용자의 정보를 다른 사람에게 제공할 수 있습니다. 

정보 보안 전문가들은 대화 내용을 훔치는 것을 목표로 하는 여러 가지 공격( 1 , 2 , 3 ) 을 설계했으며 거기서 멈추지 않을 것입니다.



따라서 기억하세요. 귀하가 챗봇에 작성한 모든 내용은 귀하에게 불리하게 사용될 수 있습니다.

 AI와 대화할 때는 예방 조치를 취하는 것이 좋습니다.

개인정보를 챗봇에 보내지 마세요. 비밀번호, 여권 또는 은행 카드 번호, 주소, 전화번호, 이름 또는 귀하, 귀하의 회사 또는 귀하의 고객에 속한 기타 개인 데이터가 AI와의 채팅으로 끝나서는 안 됩니다. 요청 시 이를 별표 또는 "편집됨"으로 바꿀 수 있습니다.

어떤 문서도 업로드하지 마세요. 다양한 플러그인과 추가 기능을 통해 문서 처리에 챗봇을 사용할 수 있습니다. 

예를 들어 요약본을 얻기 위해 작업 문서를 업로드하고 싶은 강한 유혹이 있을 수 있습니다. 

그러나 여러 페이지로 구성된 문서를 부주의하게 업로드하면 기밀 데이터 , 지적 재산 또는 신제품 출시일이나 팀 전체의 급여와 같은 상업적 비밀이 유출될 위험이 있습니다. 

또는 그보다 더 나쁜 것은 외부 소스에서 받은 문서를 처리할 때 언어 모델이 문서를 스캔한다는 점에 의존하는 공격의 표적이 될 수도 있습니다.



개인정보 보호 설정을 사용하세요. 

LLM(대형 언어 모델) 공급업체의 개인 정보 보호 정책과 사용 가능한 설정을 주의 깊게 검토하세요. 

이러한 설정은 일반적으로 추적을 최소화하는 데 활용될 수 있습니다. 

예를 들어 OpenAI 제품을 사용하면 채팅 기록 저장을 비활성화할 수 있습니다. 

이 경우 데이터는 30일 후에 제거되며 학습에 사용되지 않습니다. API, 타사 앱 또는 서비스를 사용하여 OpenAI 솔루션에 액세스하는 사용자는 해당 설정이 기본적으로 활성화되어 있습니다.

코드를 보내시겠습니까? 기밀 데이터를 정리하세요. 이 팁은 코드를 검토하고 개선하기 위해 AI 도우미를 사용하는 소프트웨어 엔지니어에게 전달됩니다. API 키, 서버 주소 또는 애플리케이션 구조나 서버 구성을 노출시킬 수 있는 기타 정보를 제거하세요.

타사 애플리케이션 및 플러그인 사용 제한

어떤 인기 있는 AI 도우미를 사용하든 상관없이 항상 위의 팁을 따르세요. 

 이마저도 개인정보 보호를 보장하기에는 충분하지 않을 수 있습니다. ChatGPT 플러그인, Gemini 확장 또는 별도의 추가 기능 애플리케이션을 사용하면 새로운 유형의 위협이 발생합니다.



첫째, 귀하의 채팅 기록은 이제 Google 또는 OpenAI 서버뿐만 아니라 플러그인이나 추가 기능을 지원하는 제3자에 속한 서버는 물론 컴퓨터나 스마트폰의 예상치 못한 구석에도 저장될 수 있습니다.



둘째, 대부분의 플러그인은 외부 소스(웹 검색, Gmail 받은 편지함 또는 Notion, Jupyter 또는 Evernote와 같은 서비스의 개인 메모)에서 정보를 가져옵니다. 결과적으로 해당 서비스의 모든 데이터는 플러그인이나 언어 모델 자체가 실행되는 서버에 저장될 수도 있습니다. 이와 같은 통합은 상당한 위험을 초래할 수 있습니다. 예를 들어 사용자를 대신하여 새로운 GitHub 저장소를 생성하는 공격을 생각해 보세요 .



셋째, AI 비서용 플러그인 게시 및 검증은 현재 App Store나 Google Play에서 앱을 심사하는 것보다 훨씬 덜 질서정연한 프로세스입니다. 따라서 제대로 작동하지 않거나, 잘못 작성되었거나, 버그가 있거나, 심지어는 평범한 악성 플러그인을 접할 가능성이 상당히 높습니다 . 제작자나 연락처를 실제로 확인하는 사람이 아무도 없는 것 같기 때문에 더욱 그렇습니다 .



이러한 위험을 어떻게 완화합니까? 여기서 중요한 팁은 시간을 투자하는 것입니다. 플러그인 생태계가 너무 젊고, 게시 및 지원 프로세스가 충분히 원활하지 않으며, 제작자 자신도 플러그인을 적절하게 디자인하거나 정보 보안 요구 사항을 준수하는 데 항상 주의를 기울이지 않습니다. 이 전체 생태계가 성숙해지고 보안과 신뢰성이 높아지려면 더 많은 시간이 필요합니다.



게다가 많은 플러그인과 추가 기능이 기본 ChatGPT 버전에 추가하는 가치는 미미합니다. 사소한 UI 조정과 특정 작업에 대한 보조자를 사용자 정의하는 "시스템 프롬프트" 템플릿("고등학교 물리 교사로 활동… "). 이러한 래퍼는 데이터 없이도 작업을 잘 수행할 수 있으므로 확실히 데이터를 신뢰할 가치가 없습니다.

지금 당장 특정 플러그인 기능이 필요한 경우 해당 기능을 사용하기 전에 최대한의 예방 조치를 취하십시오.

  • 최소 몇 달 동안 사용되었으며 정기적으로 업데이트되는 확장 기능과 추가 기능을 선택하세요.

  • 다운로드 수가 많은 플러그인만 고려하고 문제가 있는지 리뷰를 주의 깊게 읽어보세요.

  • 플러그인에 개인 정보 보호 정책이 포함되어 있는 경우 확장 기능 사용을 시작하기 전에 해당 정책을 주의 깊게 읽으십시오.

  • 오픈 소스 도구를 선택하세요.

  • 기초적인 코딩 기술이 있거나 코더 친구가 있다면 코드를 훑어보고 선언된 서버, 이상적으로는 AI 모델 서버에만 데이터가 전송되는지 확인하세요.



특별 모니터링을 위한 실행 플러그인 호출

지금까지 우리는 데이터 유출과 관련된 위험에 대해 논의했습니다. 

그러나 이것이 AI를 사용할 때 발생할 수 있는 유일한 문제는 아닙니다. 

많은 플러그인은 항공권 주문과 같은 사용자 명령에 따라 특정 작업을 수행할 수 있습니다. 

이러한 도구는 악의적인 행위자에게 새로운 공격 벡터를 제공합니다. 



피해자에게는 기본 콘텐츠 외에 언어 모델에 대한 숨겨진 지침이 포함된 문서, 웹 페이지, 비디오 또는 이미지도 제공됩니다. 

피해자가 문서를 제공하거나 챗봇에 링크를 제공하면 챗봇은 피해자의 돈으로 티켓을 구매하는 등 악의적인 지시를 실행합니다.

이러한 유형의 공격을 신속한 주입 이라고 하며 , 다양한 LLM 개발자가 이 위협에 대한 보호 장치를 개발하려고 노력하고 있지만 누구도 이를 관리하지 않았으며 아마도 앞으로도 관리하지 못할 것입니다.

운 좋게도 대부분의 중요한 작업, 특히 티켓 구매와 같은 결제 거래와 관련된 작업에는 이중 확인이 필요합니다. 

그러나 언어 모델과 플러그인 간의 상호 작용으로 인해 공격 표면이 너무 커져서 이러한 조치에서 일관된 결과를 보장하기가 어렵습니다.

따라서 AI 도구를 선택할 때 매우 철저해야 하며 처리를 위해 신뢰할 수 있는 데이터만 수신하는지 확인해야 합니다.



[출처] 



#카스퍼스키 #kaspersky   #카스퍼스키보안 #카스퍼스키백신 #카스퍼스키구매 #카스퍼스키파트너 







<쇼핑몰 바로가기>



카스퍼스키몰

카스퍼스키 플래티넘 파트너 소프트정보서비스입니다.

보안 및 소프트웨어 상담 문의



감사합니다.

(주)소프트정보서비스


02-716-1915

sales@softinfo.co.kr


첨부파일
비밀번호 수정 및 삭제하려면 비밀번호를 입력하세요.
댓글 수정

비밀번호 :

/ byte

비밀번호 : 확인 취소


HOME  COMPANY  BOARD  AGREEMNET  PRIVACY  GUIDE

011-17-010436

농협 / (주)소프트정보서비스

015-01-0690-148

국민 / (주)소프트정보서비스

WORLD SHIPPING

PLEASE SELECT THE DESTINATION COUNTRY AND LANGUAGE :

GO
close