새소식

300x250
AI/Claude Code Doc(공식문서) 번역본

Claude Code 공식문서 리뷰-Administration[4] : Claude Code 설정 - 데이터 사용

  • -
728x90

안녕하세요! 갓대희입니다. 

Claude Code Docs 공식 문서 >> [관리] 섹션의 내용 중 [Claude Code 설정 - 고급설치]를 살펴 보려고 합니다.

이번 섹션 부터는 영문, 한글번역본이 모두 공식문서로 존재하는 섹션이니 한글 문서를 편하게 참고 하셔도 될 것 같습니다.

https://code.claude.com/docs/ko/data-usage

 

데이터 사용 - Claude Code Docs

Anthropic의 Claude 데이터 사용 정책에 대해 알아보세요

code.claude.com

 

이 카테고리의 글은 편하게 공식 문서 위주의 내용을 눈으로 쭉 살펴 보고 넘어가는 목적을 갖고 시작 하게 되었습니다.

저도 초심으로 돌아가 기초적읜 글을 살펴보다보니, 지금와서 클로드에서 강조 하고자 하는 원칙이 어떤건지 되돌아볼 수 있는 계기가 되기도 하는 것 같아, 다른 분들도 꼭 한번 눈으로라도 이해 하고 넘어가는것이 좋다고 생각하여 공식 문서의 내용을 억지로 리뷰해보게 되었습니다.

 

Claude Code 데이터 사용

데이터 처리 방식, 프라이버시 정책, 텔레메트리 서비스

데이터 보존: Anthropic이 사용자 데이터를 서버에 보관하는 기간을 의미합니다. 보존 기간은 사용자 유형(소비자/상업)과 프라이버시 설정에 따라 달라집니다.
핵심 요약 - 30초 안에 이해하기
내 코드가 AI 학습에 사용되나? 상업 사용자 (Team/Enterprise/API): 기본적으로 사용 안 됨
소비자 사용자 (Free/Pro/Max): 사용자가 선택 가능 (2025년 10월 8일까지)
데이터 보존 기간 소비자: 30일 (학습 거부 시) 또는 5년 (학습 허용 시)
상업: 30일 기본, 제로 보존 옵션 가능
텔레메트리 사용 패턴/에러 로그 수집 (코드는 수집 안 함)
CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1로 전체 비활성화 가능
Vertex/Bedrock 사용 시 텔레메트리 기본 OFF, Anthropic 서버로 데이터 전송 없음

 

데이터 정책

왜 데이터 정책을 이해해야 하는가?

Claude Code는 코드를 읽고 수정하는 도구다. 내 코드가 어디로 가고, 어떻게 처리되는지 알아야 보안 정책을 준수하고, 민감한 정보 유출을 방지할 수 있다. 특히 회사 코드를 다루는 경우 이 정책을 명확히 이해하는 것이 필수다.

모델 학습 데이터 정책

소비자 사용자 (Free, Pro, Max)

2025년 8월 28일부터 사용자가 데이터의 모델 개선 사용 여부를 선택할 수 있습니다.

항목 내용
선택 마감일 2025년 10월 8일
기존 사용자 지금 선택 가능, 새/재개 채팅에 즉시 적용
신규 사용자 가입 시 선택
설정 변경 프라이버시 설정에서 언제든 변경 가능
비활성 채팅 이전 비활성 채팅은 학습에 사용되지 않음

상업 사용자 (Team, Enterprise, API, 3rd-party, Claude Gov)

핵심 정책: Anthropic은 상업 약관에 따른 코드/프롬프트를 모델 학습에 사용하지 않습니다. 예외: 고객이 개발자 파트너 프로그램에 옵트인한 경우

개발자 파트너 프로그램

항목 내용
대상 Anthropic 퍼스트 파티 API만 사용하는 조직 (Bedrock/Vertex 제외)
방식 명시적 옵트인으로 모델 학습 자료 제공
등록 관리자 수준에서 등록 가능

 

나에게 맞는 설정 선택하기

어떤 설정을 선택해야 할까?

각자의 상황에 맞는 설정이 다르다. 아래에서 자신에게 해당하는 시나리오를 찾아보자.

시나리오 1: 개인 학습/사이드 프로젝트

"혼자서 공부하거나 개인 프로젝트를 진행 중이다"

권장 설정
  • 데이터 학습: 허용해도 무방 (Claude 개선에 기여)
  • 텔레메트리: 기본값 유지 (제품 개선에 도움)
  • /bug 명령어: 활성화 유지 (버그 발견 시 리포트)
# 특별한 설정 필요 없음 - 기본값 사용
시나리오 2: 회사 프로젝트 (민감한 코드)

"회사 코드를 다루고, 보안/컴플라이언스가 중요하다"

권장 설정
  • API 선택: Vertex AI 또는 Bedrock 사용 (자체 클라우드 인프라)
  • 텔레메트리: 전체 비활성화
  • /bug 명령어: 비활성화 (코드 유출 방지)
  • 데이터 보존: 제로 데이터 보존 옵션 검토
# 모든 비필수 트래픽 비활성화
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1

# 또는 개별 설정
export DISABLE_TELEMETRY=1
export DISABLE_ERROR_REPORTING=1
export DISABLE_BUG_COMMAND=1
시나리오 3: 오픈소스 기여자

"오픈소스 프로젝트를 개발하고, 커뮤니티에 기여하고 싶다"

권장 설정
  • 데이터 학습: 허용 (오픈소스이므로 공개 코드)
  • 텔레메트리: 기본값 유지
  • /bug 명령어: 적극 활용 (Claude Code 개선에 기여)
# 특별한 설정 필요 없음 - 기본값 사용
# 버그 발견 시 /bug 명령어로 적극 리포트
시나리오 4: 팀 환경 (여러 개발자)

"팀원들이 함께 Claude Code를 사용한다"

권장 설정
  • API 선택: Team/Enterprise 플랜 또는 Vertex/Bedrock
  • 설정 공유: settings.json에 환경변수 체크인
  • 일관성: 팀 전체에 동일한 보안 정책 적용
# .claude/settings.json에 팀 공통 설정
{
  "env": {
    "DISABLE_TELEMETRY": "1",
    "DISABLE_BUG_COMMAND": "1"
  }
}

 

피드백 및 설문

/bug 명령어

보존 기간 5년
용도 제품 및 서비스 개선에 사용될 수 있음

세션 품질 설문

수집 데이터 숫자 평점만 (1, 2, 3 또는 닫기)
수집 안 함 대화 기록, 입력, 출력, 세션 데이터
학습 영향 데이터 학습 설정에 영향 없음
AI 학습 AI 모델 학습에 사용될 수 없음
팁: 세션 품질 설문은 단순히 1~3점 평점만 기록하므로, 안심하고 피드백을 제공할 수 있습니다.

 

데이터 보존 기간

왜 데이터 보존 기간이 중요한가?

보존 기간은 "내 데이터가 Anthropic 서버에 얼마나 오래 남아있는가"를 결정한다. 보안 감사나 컴플라이언스 요구사항이 있는 조직에서는 이 기간이 중요한 의사결정 요소다. 제로 데이터 보존 옵션을 선택하면 API 호출 후 서버에 데이터가 남지 않는다.

소비자 사용자 (Free, Pro, Max)

설정 보존 기간
모델 개선에 데이터 사용 허용 5년
모델 개선에 데이터 사용 비허용 30일

프라이버시 설정: claude.ai/settings/data-privacy-controls

상업 사용자 (Team, Enterprise, API)

옵션 보존 기간
표준 30일
제로 데이터 보존 서버 보존 없음 (API 키로 설정)
로컬 캐싱 최대 30일 (설정 가능)
로컬 캐싱이란?

Claude Code 클라이언트는 세션 재개(session resumption)를 위해 로컬 머신에 세션 데이터를 캐싱할 수 있다. 이 데이터는 Anthropic 서버가 아닌 사용자 로컬 머신에만 저장된다.

  • 목적: 이전 대화를 이어서 작업할 수 있도록 컨텍스트 유지
  • 기본값: 최대 30일 보관
  • 저장 위치: 로컬 머신 (Anthropic 서버 아님)
  • 설정 가능: 보존 기간을 조정하거나 비활성화 가능
실전 팁: 보안이 중요한 환경에서는 제로 데이터 보존 옵션을 고려하세요. API 키 설정으로 서버에 데이터가 남지 않게 할 수 있습니다.

 

데이터 흐름 및 아키텍처

Claude Code CLI (로컬)

사용자 머신 (로컬)

↓ [설치: npm @anthropic-ai/claude-code]

Claude Code CLI

↓ [TLS 암호화]

LLM API 서버

항목 내용
설치 NPM: @anthropic-ai/claude-code
실행 사용자 머신에서 로컬 실행
통신 프롬프트와 출력을 네트워크로 LLM에 전송
전송 암호화 TLS
호환성 VPN 및 LLM 프록시와 호환

Claude Code on the Web

항목 내용
실행 환경 Anthropic 관리 가상 머신
저장소 처리 격리된 VM에 클론, 세션 후 자동 삭제
GitHub 인증 보안 프록시 통해 (자격 증명은 샌드박스에 들어가지 않음)
아웃바운드 트래픽 감사 로깅을 위해 보안 프록시 통과
데이터 보존 계정 보존 정책에 따름

 

텔레메트리 서비스

Statsig (메트릭)

수집 데이터 지연 시간, 신뢰성, 사용 패턴
수집 안 함 코드 또는 파일 경로
저장 암호화 256비트 AES
비활성화 DISABLE_TELEMETRY=1

Sentry (에러 로깅)

용도 운영 에러 로깅
저장 암호화 256비트 AES
비활성화 DISABLE_ERROR_REPORTING=1

버그 리포팅 (/bug 명령어)

전송 데이터 코드 포함 전체 대화 기록이 Anthropic에 전송
선택사항 공개 레포에 GitHub 이슈 생성
비활성화 DISABLE_BUG_COMMAND=1
주의: /bug 명령어 사용 시 대화 기록에 포함된 코드가 Anthropic에 전송됩니다. 민감한 코드가 포함된 경우 주의하세요.

 

API 제공자별 기본 동작

서비스 Claude API Vertex API Bedrock API
Statsig 기본 ON 기본 OFF 기본 OFF
Sentry 기본 ON 기본 OFF 기본 OFF
/bug 리포트 기본 ON 기본 OFF 기본 OFF

비활성화 환경 변수

서비스 환경 변수
Statsig DISABLE_TELEMETRY=1
Sentry DISABLE_ERROR_REPORTING=1
/bug 명령어 DISABLE_BUG_COMMAND=1
모든 비필수 트래픽 CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
실전 팁: 모든 텔레메트리를 한 번에 비활성화하려면 CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1을 사용하세요. settings.json에 체크인할 수도 있습니다.

 

실전 설정 예시

보안 중심 환경 (기업용)

최대 보안 설정

민감한 코드를 다루는 환경에서는 모든 외부 통신을 차단하고, 자체 클라우드 인프라를 사용하는 것을 권장한다.

# ~/.zshrc 또는 ~/.bashrc에 추가

# 옵션 1: Vertex AI 사용 (GCP 환경)
export CLAUDE_CODE_USE_VERTEX=1
export ANTHROPIC_VERTEX_PROJECT_ID=your-project-id
export CLOUD_ML_REGION=global

# 옵션 2: Bedrock 사용 (AWS 환경)
export CLAUDE_CODE_USE_BEDROCK=1
export AWS_REGION=us-east-1

# 모든 비필수 트래픽 차단 (Vertex/Bedrock에서는 기본값이지만 명시적으로)
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1

팀 공통 설정 (settings.json)

팀 전체에 일관된 설정 적용하기

프로젝트 루트에 .claude/settings.json을 생성하고 Git에 커밋하면, 팀 전체에 동일한 보안 정책이 적용된다.

// .claude/settings.json
{
  "env": {
    "DISABLE_TELEMETRY": "1",
    "DISABLE_ERROR_REPORTING": "1",
    "DISABLE_BUG_COMMAND": "1"
  }
}

설정 확인 방법

환경 변수가 제대로 적용되었는지 확인
# 텔레메트리 관련 환경 변수 확인
echo "DISABLE_TELEMETRY: $DISABLE_TELEMETRY"
echo "DISABLE_ERROR_REPORTING: $DISABLE_ERROR_REPORTING"
echo "DISABLE_BUG_COMMAND: $DISABLE_BUG_COMMAND"
echo "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC: $CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC"

# Claude Code 실행 시 적용된 설정 확인
claude /config

 

자주 묻는 질문 (FAQ)

Q: 내 코드가 AI 모델 학습에 사용되나요?

상업 사용자 (Team/Enterprise/API): 기본적으로 사용되지 않는다. 개발자 파트너 프로그램에 명시적으로 옵트인하지 않는 한 코드나 프롬프트가 모델 학습에 사용되지 않는다.

소비자 사용자 (Free/Pro/Max): 2025년 8월 28일부터 사용자가 직접 선택할 수 있다. 설정은 프라이버시 설정에서 변경 가능하다.

Q: 텔레메트리를 끄면 Claude Code 기능에 영향이 있나요?

아니다. 텔레메트리(Statsig, Sentry)는 제품 개선과 에러 추적용이며, Claude Code의 핵심 기능과는 무관하다. 텔레메트리를 비활성화해도 코드 작성, 분석, 수정 등 모든 기능이 정상 작동한다.

Q: /bug 명령어로 민감한 코드를 실수로 전송했는데 어떻게 하나요?

/bug 명령어로 전송된 데이터는 5년간 보존된다. 민감한 정보가 포함되었다면 Anthropic 지원팀에 연락하여 삭제를 요청할 수 있다. 향후 예방을 위해 DISABLE_BUG_COMMAND=1을 설정하는 것을 권장한다.

Q: Vertex AI나 Bedrock을 사용하면 Anthropic에 데이터가 가나요?

LLM API 호출은 해당 클라우드 제공자(Google/AWS)를 통해 이루어진다. 단, Statsig/Sentry 같은 텔레메트리는 별도로 Anthropic에 전송될 수 있다. Vertex/Bedrock 사용 시에는 텔레메트리가 기본적으로 OFF 상태이므로, 명시적으로 활성화하지 않는 한 Anthropic 서버로 데이터가 전송되지 않는다.

Q: 세션 품질 설문에 응답하면 내 대화가 저장되나요?

아니다. 세션 품질 설문은 오직 숫자 평점(1, 2, 3)만 수집한다. 대화 기록, 입력, 출력, 세션 데이터는 수집되지 않으며, 데이터 학습 설정에도 영향을 주지 않는다. 안심하고 피드백을 제공해도 된다.

Q: 제로 데이터 보존은 어떻게 설정하나요?

제로 데이터 보존은 API 키 설정을 통해 구성한다. 이 옵션을 사용하면 API 호출 후 Anthropic 서버에 데이터가 보존되지 않는다. 자세한 설정 방법은 Anthropic API 문서를 참고하거나 Enterprise 영업팀에 문의하면 된다.

 

문제 해결

문제 1: 환경 변수가 적용되지 않음

증상

환경 변수를 설정했는데 텔레메트리가 여전히 활성화되어 있거나, 설정이 반영되지 않는다.

해결 방법
  1. 셸 재시작: 환경 변수 수정 후 새 터미널 창을 열거나 source ~/.zshrc 실행
  2. 환경 변수 확인: echo $DISABLE_TELEMETRY로 값이 설정되었는지 확인
  3. settings.json 확인: 프로젝트의 .claude/settings.json이 환경 변수를 덮어쓰지 않는지 확인

문제 2: /bug 명령어가 작동하지 않음

증상

/bug 명령어를 실행했는데 "command not available" 또는 유사한 에러가 발생한다.

원인 및 해결
  • Vertex/Bedrock 사용 시: /bug 명령어는 기본적으로 비활성화됨. 이는 정상 동작이다.
  • DISABLE_BUG_COMMAND=1 설정됨: 환경 변수로 비활성화된 상태. 필요시 해당 설정을 제거한다.
  • 명시적으로 활성화하려면: Vertex/Bedrock 환경에서도 ENABLE_BUG_COMMAND=1로 활성화 가능하다.

문제 3: 데이터 학습 옵트아웃 확인

확인 방법

소비자 사용자의 경우 데이터 학습 설정은 claude.ai/settings/data-privacy-controls에서 확인할 수 있다.

  • 상업 사용자(Team/Enterprise/API)는 기본적으로 옵트아웃 상태이므로 별도 확인이 필요 없다.
  • 개발자 파트너 프로그램에 가입했다면 관리자 설정에서 확인할 수 있다.

 

관련 법적 문서

문서 URL
프라이버시 센터 privacy.anthropic.com
상업 서비스 약관 anthropic.com/legal/commercial-terms
소비자 약관 anthropic.com/legal/consumer-terms
개인정보 처리방침 anthropic.com/legal/privacy
Trust Center trust.anthropic.com
300x250
Contents

포스팅 주소를 복사했습니다

이 글이 도움이 되었다면 공감 부탁드립니다.

💡 AI 관련 질문이 있나요? 눌러보세요!