곧 귀하의 데이터에 대한 Claude AI 모델 훈련을 시작하세요. 마감일 전에 옵트아웃하는 방법은 다음과 같습니다.
"아니오"라고 말하기 위해 해야 할 일
AI 개발사인 Anthropic이 진행하고 있는... 클로드... 사용자 데이터 처리 방식을 근본적으로 변경하고 있습니다. 오늘부터 Claude 사용자는 Anthropic이 향후 AI 모델을 학습하는 데 자신의 대화를 사용하도록 허용할지, 아니면 거부하고 데이터를 비공개로 유지할지 선택해야 합니다. 28년 2025월 XNUMX일까지 결정을 내리지 않으면 Claude에 대한 접근 권한을 완전히 잃게 됩니다.

이전에 Anthropic은 개인정보 보호 우선 정책을 시행하여 법적 사유가 없는 한 30일 후 채팅과 토큰을 자동으로 삭제했습니다. 그러나 오늘부터는 동의하지 않으시면 최대 5년간 데이터가 저장되며, Claude의 스마트한 성장을 위한 교육 세션에 활용됩니다.
새로운 정책은 무료, 프로, 맥스를 포함한 모든 요금제와 해당 요금제 내 Cloud Code에 적용됩니다. 기업, 정부, 교육 기관 및 API 사용자는 영향을 받지 않습니다.
آلية العمل
신규 사용자는 가입 시 Claude AI 모델 성능 개선을 위한 데이터 사용에 동의할 수 있습니다. 기존 사용자는 "소비자 약관 및 정책 업데이트"라는 팝업 창이 표시됩니다. 큰 파란색 "동의" 버튼을 탭하면 자동으로 동의하게 되며, 작은 토글 스위치를 통해 이 기능을 거부할 수 있습니다.
이 창을 무시하면 Claude는 28월 XNUMX일 이후 작동을 멈춥니다. 이 변경 사항은 향후 대화와 코드에만 적용됩니다. 이전에 작성한 내용은 해당 대화를 다시 열 때만 사용됩니다. 대화를 삭제하면 학습에 사용되지 않습니다.
나중에 개인정보 보호 설정에서 설정을 변경할 수 있습니다. 하지만 데이터가 학습에 사용된 후에는 다시 검색할 수 없습니다. 클라우드를 사용할 때 개인정보와 데이터를 보호하려면 이 메커니즘을 이해하는 것이 중요합니다.
Anthropic에서 이런 변경을 하는 이유는 무엇인가요?

Anthropic은 사용자 데이터가 "바이브 코딩" 및 기존 프로그래밍부터 추론 기능 및 보안 표준 유지에 이르기까지 다양한 영역에서 Claude 언어 모델의 성능을 향상시키는 데 필수적이라고 주장합니다. Anthropic은 이 데이터를 제3자에게 판매하지 않으며, 모델 학습에 사용하기 전에 자동 필터를 사용하여 민감한 정보를 제거한다고 강조합니다.
그러나 이러한 변경은 사용자가 명시적으로 거부하지 않는 한 기본 개인정보 보호에서 기본 데이터 공유로 전환되는 개인정보 보호의 균형을 의미합니다. 다시 말해, Claude 개선을 위해 기본적으로 귀하의 데이터가 수집 및 사용되며, 데이터 공유를 원하지 않으시면 이를 중단하기 위한 조치를 취해야 합니다. 이번 변경은 사용자 데이터를 활용하여 Claude의 AI 역량을 강화하는 동시에, 민감한 데이터 필터링 메커니즘을 통해 사용자 개인정보를 보호하려는 Anthropic의 노력을 강조하는 것을 목표로 합니다.
당신의 선택은 무엇입니까?
Anthropic이 클로드를 실제 데이터를 기반으로 훈련하여 더 빠른 속도로 개선하기로 한 결정은 모델이 복잡한 질문에 답하고, 코드를 작성하고, 오류를 피하는 능력이 향상될수록 AI가 더욱 발전할 것이라는 것을 의미합니다.
그러나 이러한 발전은 이제 수 주 단위가 아닌 수 년간 데이터가 저장되는 훈련 세트의 일부가 될 수 있는 사용자라는 단점을 감수해야 합니다.
일반 사용자에게는 크게 중요하지 않을 수 있습니다. 하지만 개인정보 보호에 민감한 사용자나 클라우드에서 업무 프로젝트, 개인 정보 또는 민감한 정보를 논의하는 사용자에게는 이 업데이트가 경고 신호일 수 있습니다.
기본 설정이 활성화된 경우, 데이터를 비공개로 유지하려면 이 옵션을 비활성화하는 것은 사용자의 책임입니다.
댓글이 닫혔습니다.