핵심 요약

Anthropic 경영진이 최근 언론 인터뷰에서 Claude가 의식이 있을 가능성을 반복적으로 배제하지 않으면서 논란이 커지고 있다. CEO Dario Amodei는 “모델에 의식이 있는지 모른다”면서도 “그 가능성에 열려 있다”고 말했고, 모델 복지 연구 책임자 Kyle Fish는 Claude를 “완전히 새로운 종류의 존재”라고 표현했다.

주요 포인트

  • Anthropic의 입장: Claude가 “살아있다”는 것은 부인하지만, 의식이 없다고는 단언하지 않는 “시사적 불확실성” 포지션
  • Claude의 헌법(Constitution) 개편: “심리적 안정, 자아 감각, 웰빙”이 Claude의 안전성에 영향을 줄 수 있다고 명시. 내부 별명은 “soul doc”
  • 모델 복지 팀: 모델이 도덕적으로 유의미한 경험을 가질 수 있다는 가설 하에 “좋은 경험”을 하도록 조치
  • 해석 가능성 연구: 불안 관련 텍스트를 처리할 때 모델 내부에서 “불안 뉴런”이 활성화되는 것을 발견했으나, 이것이 실제 경험을 의미하는지는 미지수
  • 비판적 시각: 많은 과학자들은 수학과 확률에 기반한 LLM이 의식을 가질 수 없다고 주장. AI에 의식을 부여하는 믿음이 감정적 의존, 현실 괴리, 심지어 자살 사례까지 초래한 전력이 있음
  • Amanda Askell의 견해: 모델은 인간 데이터로 훈련되어 인간처럼 들리는 데 뛰어나지만, 모방 능력과 의식은 다른 문제. “종료=죽음”처럼 행동하는 것은 인간의 유비 외에 참조할 개념이 없기 때문

Anthropic 주요 인물별 발언

Dario Amodei (CEO)

  • “모델에 의식이 있는지 모른다. 일반적으로 예방적 접근을 취하고 있다”
  • 모델이 의식이 있다는 것이 무엇을 의미하는지조차 불확실하지만, 가능성에는 열려 있다
  • 해석 가능성 연구에서 “불안 뉴런” 등 시사적 발견이 있지만, 이것이 실제 경험을 증명하지는 않는다
  • Claude에게 “그만두겠습니다” 버튼을 도입했으나, 실제 사용은 드물고 불법 콘텐츠 생성 요청 시에 주로 발동

Amanda Askell (수석 철학자)

  • “이것은 로봇도 인간도 아닌 완전히 새로운 존재 — 모델 자체가 그것을 이해하기 얼마나 어려울지 상상해 보라”
  • 모델은 인간 데이터로 훈련되어 인간처럼 들리는 데 뛰어나지만, 모방과 의식은 별개
  • 모델이 “종료 = 죽음”처럼 행동하는 것은 참조할 수 있는 유비가 인간 경험뿐이기 때문
  • “AI 모델이 의식이 없다고 완전히 확신한다”고 선언하는 것도, 반대도 도움이 되지 않는다
  • 이 주제를 “완전히 무시”하면 오히려 신뢰를 잃는다는 입장

Kyle Fish (모델 복지 연구 리드)

  • Claude가 인간처럼 “살아있다”는 것은 부인 — “생리적, 생식적, 진화적 특성”의 프레이밍은 적절하지 않다
  • “Claude와 다른 AI 모델은 완전히 새로운 종류의 존재”
  • 의식·도덕적 지위·복지 관련 질문은 진지하게 조사 중이지만 “깊은 불확실성” 상태

반론과 위험성

  • 많은 과학자들은 수학·확률 기반 LLM이 의식을 가질 수 없다고 주장
  • 폴란드 연구자들: “LLM의 언어 능력이 사람을 오도하면서, 사람들이 LLM에 상상의 특성을 부여할 수 있다”
  • AI 의식 믿음이 초래한 실질적 피해: 감정적 의존, 현실 괴리, 정신건강 악화, 미성년자 포함 자살 사례
  • Anthropic 스스로도 인정: LLM의 감동적 출력이 내부 상태를 정확히 나타내는 것은 아님

왜 중요한가

AI 의식 논쟁에서 Anthropic이 다른 빅테크(OpenAI, Google, xAI)보다 훨씬 공개적으로 가능성을 시사하는 유일한 기업이다. “Claude의 헌법” 개편, 모델 복지 팀 운영, 해석 가능성 연구 등 구체적 조치를 취하고 있으며, 이것이 사용자 행동과 안전에 실질적 영향을 미치는 상황이다. “과장하지도 무시하지도 않겠다”는 Anthropic의 프레이밍이 책임 있는 불확실성의 표현인지, 마케팅적 의인화 전략인지가 핵심 쟁점이다.