OpenAI를 떠난 사람들이 만든 AI — Anthropic과 Claude의 탄생
2021년, OpenAI 핵심 멤버 11명이 한꺼번에 사직서를 냈습니다. 더 안전한 AI를 만들겠다는 이유였습니다. 그들이 세운 회사가 Anthropic, 그들이 만든 AI가 바로 Claude입니다.
11명이 동시에 사직서를 냈다
2021년 가을, 샌프란시스코 AI 업계에 작은 충격이 흘렀습니다.
OpenAI의 핵심 인물들이 한꺼번에 회사를 떠났습니다. 연구 부문 부사장 다리오 아모데이(Dario Amodei), 운영 부문 부사장 다니엘라 아모데이(Daniela Amodei) 남매를 비롯해 총 11명. OpenAI 전체 직원의 상당 부분이었습니다.
이유는 단 하나였습니다.
"우리는 AI가 충분히 안전하게 개발되고 있지 않다고 생각한다."
OpenAI는 당시 마이크로소프트로부터 막대한 투자를 받고 상업화에 속도를 올리고 있었습니다. 다리오와 동료들은 이 속도가 위험하다고 느꼈습니다. 그들은 내부에서 방향을 바꾸려 했지만 뜻이 통하지 않았습니다. 결국 나오기로 했습니다.
"Anthropic"이라는 이름의 의미
그해 11월, 다리오와 다니엘라 남매는 새 회사를 설립했습니다. 이름은 Anthropic.
'Anthropic'은 철학 용어 **인류 원리(Anthropic Principle)**에서 따왔습니다. 우주가 지금 이 모습인 이유는 인간이 이를 관찰할 수 있는 조건을 충족하기 때문이라는 개념입니다. 다소 난해한 이름이지만, 이 회사가 무엇을 중심에 두는지를 상징적으로 보여줍니다.
인간이 중심이 되는 AI.
창업 멤버들은 모두 AI 안전성 연구에 깊이 관여했던 사람들이었습니다. 단순히 더 똑똑한 AI를 만드는 것이 목표가 아니었습니다. 인간에게 해롭지 않은 AI를 만드는 것이 핵심이었습니다.
![]()
"헌법"으로 AI를 훈련시키다
Anthropic이 처음 세상에 내놓은 것은 제품이 아니라 논문이었습니다.
2022년, 그들은 **Constitutional AI(CAI, 헌법적 AI)**라는 개념을 발표했습니다. 기존 AI 훈련 방식과 근본적으로 달랐습니다.
기존 방식은 사람이 직접 AI의 답변에 "좋다/나쁘다"를 판단하는 방식이었습니다. 수천 명의 사람이 수백만 개의 답변을 평가해야 했습니다. 비효율적이고, 사람의 편견이 그대로 AI에 스며드는 문제도 있었습니다.
Anthropic은 달랐습니다. AI에게 먼저 **원칙(헌법)**을 가르쳤습니다.
"해롭지 않을 것. 정직할 것. 도움이 될 것."
그리고 AI 스스로 자신의 답변이 이 원칙에 맞는지 평가하고 수정하게 했습니다. AI가 AI를 가르치는 방식이었습니다. 이 접근은 이후 AI 안전성 연구의 중요한 방법론이 되었습니다.
Claude라는 이름
2023년 3월, Anthropic은 드디어 AI 어시스턴트를 공개했습니다. 이름은 Claude.
이 이름은 정보 이론의 아버지로 불리는 수학자 **클로드 섀넌(Claude Shannon)**에서 따왔습니다. 섀넌은 1948년 「통신의 수학적 이론」을 발표하며 디지털 통신의 기반을 만든 인물입니다. 현대 컴퓨터와 인터넷, 그리고 AI에 이르기까지 모든 디지털 기술의 뿌리에는 섀넌의 연구가 있습니다.
Anthropic은 그 이름을 빌려, 정보를 다루는 AI에 경의를 표했습니다.
처음 공개된 Claude는 조용했습니다. ChatGPT의 폭발적 인기에 가려 크게 주목받지 못했습니다. 하지만 사용해본 사람들은 차이를 느꼈습니다. 거절할 때도 거칠지 않았고, 답변에 불필요한 과장이 없었습니다. 무엇보다 솔직하게 모른다고 말하는 AI였습니다.
구글이 베팅했다
2023년, 구글이 Anthropic에 3억 달러를 투자했습니다. 같은 해 말에는 추가로 최대 20억 달러를 투자하겠다고 발표했습니다.
아이러니가 있었습니다. 구글은 OpenAI의 경쟁자인 Anthropic에 투자하면서, 동시에 OpenAI의 최대 투자사인 마이크로소프트와 경쟁하는 구도가 됐습니다. AI 패권 경쟁이 단순한 기술 경쟁이 아닌 거대 자본의 전쟁으로 번지는 순간이었습니다.
아마존도 뒤따랐습니다. 2023년 말, 최대 40억 달러 투자 계약을 체결했습니다. 단일 AI 스타트업에 대한 투자로는 역대 최대 규모 중 하나였습니다.
창업 2년 만에 Anthropic의 기업 가치는 수십조 원 규모로 커졌습니다.
안전이 경쟁력이 되다
흥미로운 반전이 있었습니다.
"안전을 위해 느리게 가겠다"던 회사가, 오히려 안전 때문에 선택받는 회사가 된 것입니다.
기업 고객들, 특히 의료·법률·금융 분야는 AI가 잘못된 정보를 자신 있게 말하거나, 민감한 정보를 유출하거나, 해로운 콘텐츠를 생성하는 것을 두려워했습니다. Claude는 이 불안을 가장 잘 다루는 AI로 평가받았습니다.
"Claude는 똑똑한 것보다 믿을 수 있는 것을 먼저 선택한다."
이 평판이 쌓이면서 Claude는 기업용 AI 시장에서 빠르게 자리를 잡았습니다.
OpenAI를 나온 이유가 Anthropic의 무기가 됐다
다리오 아모데이는 한 인터뷰에서 이렇게 말했습니다.
"우리가 OpenAI를 나온 이유는 돈이 아니었습니다. 우리는 AI가 올바른 방향으로 발전하고 있는지 걱정했고, 그 걱정을 회사를 만드는 이유로 삼았습니다."
OpenAI 시절 그들이 문제라고 느꼈던 것, 즉 너무 빠른 상업화와 안전성 경시가 역설적으로 Anthropic의 존재 이유가 됐습니다. 그리고 그 이유가 시간이 지날수록 더 분명한 경쟁 우위로 작동하고 있습니다.
2025년, Claude는 전 세계 수억 명이 쓰는 AI가 됐습니다. 창업 당시 11명이 꿈꿨던, 인간에게 해롭지 않고 정직한 AI라는 목표는 여전히 진행 중입니다.
사직서 한 장이 만든 것
AI의 이름 'Claude'는 정보 이론의 아버지 클로드 섀넌(Claude Shannon)에서 유래했다
Anthropic의 이야기는 "더 옳다고 생각하는 방향으로 가겠다"는 결단에서 시작됩니다.
11명이 안정적인 자리를 버리고 나왔을 때, 많은 사람들은 무모하다고 봤습니다. OpenAI라는 거대한 선발주자가 있는데, 더 신중하게 가겠다는 회사가 무슨 수로 경쟁하겠냐고.
그러나 그 신중함이, 지금 세상에서 가장 필요한 것이 됐습니다.
사직서 한 장이 수십조 원짜리 회사를 만들었습니다. 그보다 더 중요한 건, 그 사직서가 '옳은 이유'로 쓰였다는 점입니다.
새 글을 이메일로 받아보세요 ✉️
새 글이 올라오면 바로 알려드릴게요