앤트로픽은 세 가지 얼굴을 동시에 가진 회사다.
- 안전 연구를 실제로 하는 기술 조직이고
- 규칙을 만드는 정책판에서도 힘을 쓰는 행위자이며
- 투자자·인물 네트워크가 복잡하게 얽힌 권력 구조를 가진 조직이다.
그래서 AI 안전을 진심으로 믿는 것처럼 보이면서 동시에 그 믿음이 경쟁 우위가 되는 구조를 정교하게 설계한 회사이기도 하다. 이 두 가지는 모순이 아닐 수 있다. 하지만 구분하지 않으면 이 회사를 잘못 읽는다.
재무 수치나 모델 성능만 보면 돈 잘 벌고 기술 좋은 회사인지 정도만 보인다. 하지만 AI 기업은 규제 기준을 누가 정하느냐, 어떤 규칙이 상식이 되느냐에서도 힘을 쓰기 때문에 안전, 책임 같은 말이 진심인 동시에 시장에서 유리해지기 위한 전략일 수도 있다. 그래서 숫자뿐 아니라 그 회사가 정책 논쟁에서 어떤 입장을 내고(어떤 규제를 원하고) 누가 투자하고 어떤 사람들이 네트워크를 이루는지도 같이 봐야 한다.
얼마전 에이릿이 소개한 mapping-ai.org는 미국 AI 정책 생태계를 협업으로 매핑하는 사이트다. 거버넌스, 안전, 규제 분야의 핵심 인물, 조직, 자원을 서로 연결해 권력 구조를 시각화한다. 이 사이트가 무엇이고 어떻게 읽는지는 에이릿의 소개 글을 먼저 참고하면 된다.
이 데이터베이스에서 앤트로픽(Anthropic) 항목을 읽으면, 테크 언론이 보여주는 것과 다른 그림이 나온다. 기술 회사로서의 앤트로픽이 아니라 정책 행위자로서의 앤트로픽에 대한 이야기인 까닭이다.
지도를 직접 열어보면 한 가지가 눈에 띈다. 앤트로픽을 표시하는 마크는 Frontier Lab(최전선 AI 개발사) 클러스터 안에 있지만 그 중심부가 아니라 AI Safety(AI 안전 연구) 클러스터와 맞닿은 경계 근처에 있다. 오픈AI와 같은 색 영역에 묶이면서도 안전 연구 생태계 쪽으로 한 발 걸쳐 있는 형태다. 사실 이 부분은 우리가 잘 알고 있는 사실이고 그림으로 확인할 수 있다.

앤트로픽의 핵심 포지션은 무엇인가
mapping-ai.org는 앤트로픽의 Influence Type(영향력 유형: 이 조직이 AI 정책 생태계에서 어떤 방식으로 힘을 행사하는지 분류한 항목)을 세 가지로 분류했다. Decision-maker(의사결정자: 정책, 규제 방향에 직접 영향을 주는 주체), Builder(개발자: 실제 AI 시스템을 만드는 주체), Researcher/analyst(연구, 분석가: 위험과 영향을 연구하고 논거를 생산하는 주체). 이 세 개가 동시에 붙은 조직은 드물다. 정책 결정에 영향을 주면서 실제 시스템을 만들고, 동시에 그 시스템을 연구하는 주체. 앤트로픽은 이익 창출과 위험 정의, 안전 기준 설계 모두에서 핵심 역할을 맡고 있다. 물론 이 역할들을 앤트로픽 혼자 수행하는 것은 아니다. 그러나 세 가지를 동시에 수행하는 민간 기업은 많지 않다.
Key Concerns(핵심 우려 항목: 이 조직이 AI 개발에서 가장 심각하게 여기는 위험 목록) 항목에는 Loss of control(통제 상실), Weapons proliferation(무기 확산), Cybersecurity(사이버보안)이 명시되어 있다. 이 순서가 중요하다. 첫 번째 항목이 통제를 상실했다는 것인데 이건 외부 위협이 아니라 AI 시스템 자체의 정렬(alignment: AI가 인간의 의도대로 작동하는지의 문제. 목표가 어긋나면 통제 불가능한 결과를 낳을 수 있다는 개념) 실패를 가장 큰 위험으로 본다는 선언이다. Constitutional AI(AI 헌장: 사전에 원칙과 가치를 명문화해 AI가 스스로 그 원칙을 따르도록 훈련하는 앤트로픽 고유의 방법론), 해석 가능성(interpretability: AI가 왜 그런 판단을 내리는지 인간이 이해할 수 있도록 내부 작동을 분석하는 연구 분야) 연구, 책임 있는 확장 정책(RSP, Responsible Scaling Policy: AI 모델이 강력해질수록 안전장치도 비례해 강화해야 한다는 앤트로픽의 자체 규범 체계)이 모두 이 첫 번째 위험에 대한 대응이다.
이 프레임이 흥미로운 이유는 따로 있다. 통제 상실을 가장 큰 위험으로 놓으면 단기적 피해, 예컨대 알고리즘 편향, 노동 대체, 사기 같은 위험보다 긴 시간 동안 실제로 영향을 미치는 위험이 논의의 중심이 된다. 앤트로픽의 연구 어젠다가 장기 위험 중심일수록 단기 피해에 집중하는 규제 압박으로부터 상대적으로 자유롭다. 안전을 말하는 방식 자체가 전략이 될 수 있다.
AGI를 말하지 않으면서 AGI를 말하는 방법
다리오 아모데이(Dario Amodei) CEO는 AGI(Artificial General Intelligence, 범용 인공지능: 특정 작업이 아니라 인간처럼 거의 모든 영역에서 스스로 판단하고 수행할 수 있는 AI)를 마케팅 용어에 가깝다고 말했다. 그런데 mapping-ai.org의 AGI Timeline 항목에는 “2026~2027년 강력한 AI 시스템 등장 가능성”이 “high verified”(신뢰도 높음 공식 확인: 앤트로픽이 공개 발언이나 문서를 통해 반복적으로 확인한 입장임을 뜻하는 분류), 앤트로픽이 공식적으로 반복 확인한 입장으로 분류되어 있다.
두 가지를 같이 놓았다는 건 앤트로픽이 AGI라는 단어의 철학적 정의는 회피하면서 그 단어가 가리키던 충격은 그대로 유지한다는 뜻이다. 거의 모든 지식노동에서 인간을 능가하는 시스템이라고 말하면 AGI라는 단어가 불러오는 공포 논쟁에 휘말리지 않으면서도 정책 긴급성 프레임을 유지할 수 있다. 결과적으로 AGI라는 단어가 빠진 자리에 2026~2027년 산업, 정책, 안보 문제가 들어서는 효과가 생긴다.
타임라인을 앞당길수록 규제 논의에서 긴급성 프레임이 강화된다. 긴급성 프레임은 이미 만들고 있는 우리가 규제 설계에도 참여해야 한다는 논리를 정당화한다. 이것이 의도적 전략인지 아닌지는 확인할 수 없다. 그러나 구조적 이익으로 작동한다는 것은 사실이다.
자금 구조가 말해주는 것: 경쟁자들도 투자자인 안전 연구소
2026년 2월 12일, 앤트로픽은 Series G(시리즈 G, 스타트업이 성장 단계별로 받는 투자 라운드 중 일곱 번째 단계: 이 시점이면 이미 대규모 기업에 준하는 수준)로 $300억을 조달해 기업가치 $3,800억을 확정했다. 누적 투자금은 $723억, ARR(Annual Recurring Revenue, 연간 반복 매출(구독이나 계약 기반으로 매년 안정적으로 발생하는 수익을 연 단위로 환산한 수치)은 $140억이다. 투자자 목록에는 구글, 아마존, 파운더스 펀드, 그레이록(Greylock), 멘로 벤처스(Menlo Ventures), MGX(아부다비 국부펀드), 그리고 코피션트 기빙(Coefficient Giving, 구 Open Philanthropy, EA 자선 자본)이 있다.
이 조합에서 눈에 띄는 것이 있다. 주요 경쟁자인 구글과 아마존이 동시에 주요 투자자이기도 하다는 점이다. 두 회사는 각각 독자적 AI 모델을 개발하면서 앤트로픽에 수십억 달러를 넣었다. 이건 단순한 경쟁 관계가 아니다. 앤트로픽이 AI 안전 분야에서 표준을 선점하면 그 표준에서 자신들도 이익을 볼 수 있다는 계산이 작동했을 가능성이 높다. 경쟁자를 이기는 것보다 경쟁자의 성과에 편승하는 쪽이 비용이 적게 드는 경우가 있다.
여기에 EA(효과적 이타주의) 자선 자본과 국부펀드가 함께 들어있다는 것은 앤트로픽이 어느 단일한 이해관계에 포획되어 있지 않다는 신호이기도 하다. 역설적으로 이 다층적 자본 구조가 앤트로픽의 의사결정을 외부에서 읽기 어렵게 만드는 이유이기도 하다.
규제 입장: 표적 규제는 누구에게 유리한가
mapping-ai.org의 Regulatory Stance(규제 입장) 항목에 앤트로픽은 두 가지 공식 입장을 등록했다. 제3자 테스트(third-party testing: 개발사 스스로가 아니라 독립된 외부 기관이 AI 시스템의 위험성을 평가하는 체계)와 표적 규제(targeted regulation: 모든 AI에 포괄적 규제를 적용하는 대신 가장 강력하고 위험한 프런티어 모델에만 집중적으로 규제를 적용하자는 입장). 앤트로픽은 2024년 10월 블로그에서 효과적 AI 규제의 세 조건으로 투명성, 안전과 보안 관행에 대한 인센티브, 단순성과 초점을 제시했다.
그렇다면 표적 규제는 실제로 누구를 표적으로 하는가.
요점은 프런티어가 무엇인지(어디까지가 최첨단인지)를 누가 정하느냐에 있다. 표적 규제는 가장 위험한 최첨단 모델만 규제하자는 말인데, 그 최첨단의 기준을 사실상 최첨단 기업들이 정하게 된다. 앤트로픽은 정부, 학계 그리고 산업의 협력을 말하지만 실제로는 기술을 가장 잘 아는 기업이 기준 설계에 가장 큰 영향력을 갖기 쉽다. 그 결과 기준이 높고 복잡해지면 대기업은 통과할 수 있지만 작은 회사는 따라오기 어려워져서 규제가 곧 진입장벽처럼 작동할 수 있다.
이걸 음모로 읽으면 과잉 해석이다. 구조적 이익으로 읽으면 정확한 분석이다.
2025년 6월, 아모데이는 뉴욕타임스 칼럼에서 One Big Beautiful Bill Act(트럼프 행정부의 대형 예산 법안)에 들어 있던 “AI 주별 규제 10년 모라토리엄” 조항을 정면으로 비판했다. 10년 동안 주 정부가 AI를 규제하지 못하게 막는 방식은 너무 거칠고 무딘 도구라는 주장이다. 앤트로픽은 이 조항을 빼달라고 로비도 했다. 그 결과 상원은 이 조항을 99대 1로 삭제했고, 법은 2025년 7월 4일 모라토리엄 없이 발효됐다. 즉, 앤트로픽이 “포괄 규제보다는 연방 차원의 투명성 기준이 낫다”는 입장을 실제 입법 과정에서 밀어붙여 성과를 낸 사례이다.
Pentagon 분쟁: 선언이 실제 비용을 수반했을 때
2025년 7월, 앤트로픽은 미국 국방부(DoD)와 $2억 규모 2년 계약을 체결했다. 클로드는 기밀 네트워크에서 운용된 최초의 프런티어 AI 모델이었다. 계약서에는 두 가지 제한 조항이 명시되어 있었고 DoD도 합의했다. 미국 시민 대량 국내 감시 금지, 완전 자율 무기(인간이 루프 밖에 있는 시스템) 금지.
8개월 후, DoD가 그 합의를 무력화하려 했다.
2026년 2월 24일, 헤그세스(Hegseth) 국방장관은 아모데이에게 최후통첩을 보냈다. 모든 합법적 목적에 대한 무제한 접근을 허용하라, 기한은 2월 27일 오후 5시. 앤트로픽은 거부했다. 2월 27일 트럼프 대통령은 연방기관의 앤트로픽 제품 사용 즉시 중단을 지시했고 헤그세스는 앤트로픽을 공급망 위험(supply chain risk, 원래 외국 적대 세력과 연관된 기업에 적용하는 지정하는 표시. 이게 딱지가 붙으면 방위산업 계약업체들이 해당 기업의 제품을 군 관련 업무에 사용하지 못하게 된다)으로 지정했다. 미국 기업이 이 지정을 받은 최초의 사례였다. 이 결과 방위산업 계약업체들이 클로드를 DoD 관련 업무에 사용할 수 없게 됐다.

앤트로픽은 두 개의 법원에 소송을 제기했다. 1심에서 예비적 금지명령을 받았으나(2026년 3월 26일), 항소법원에서 기각됐다(4월 8일). 2026년 5월 현재 소송이 진행 중이다. 원래 앤트로픽이 군과 처음부터 거리를 둔 원칙주의자였던 것은 아니다. 앤트로픽은 제한 조항에 합의한 군과 계약했고 그 합의가 파기되는 것을 거부했다. 분쟁은 앤트로픽의 이상주의가 아니라 DoD의 계약 조건 소급 변경 시도에서 시작됐다.
그럼에도 이 건은 말만 한 게 아니라 실제로 대가를 치른 사례이다. $2억짜리 계약이 날아갔고 트럼프 행정부와 관계도 틀어졌으며 방위산업 생태계에서는 사실상 배제되는 결과가 났다. 여기에 1789 Capital(트럼프 주니어와 연관된 벤처캐피털)이 수억 달러 투자를 거둬들인 일까지 겹치면서 앤트로픽의 선언이 그냥 메시지가 아니라 비용을 동반한 선택이었다는 점이 확인된다.
인물 네트워크: 유동하는 생태계
mapping-ai.org의 인물 목록은 앤트로픽의 지식 DNA가 어디서 왔는지 보여준다. 창업자 8명은 모두 오픈AI 출신이다. 다리오 아모데이는 오픈AI 연구 부사장이었고 2021년 집단 이탈 당시 핵심 동기는(공개적으로 확인된 범위에서는) AI 안전 연구의 우선순위와 상업화 속도를 둘러싼 내부 긴장이었다.
이후 이 생태계는 계속 이동했다.
존 슐먼(John Schulman)은 챗지피티의 핵심 아키텍터로 불리는 오픈AI 공동창업자이다. 2024년 8월, AI 정렬 연구에 집중하겠다며 앤트로픽에 합류했다. 그러나 재직 기간은 6개월에 불과했다. 2025년 2월, 그는 앤트로픽을 떠나 전 오픈AI 최고기술책임자(CTO) 미라 무라티(Mira Murati)와 함께 띵킹 머신스 랩(Thinking Machines Lab)을 공동창업했다. 2026년 5월 현재 그는 그곳에서 수석 과학자(Chief Scientist)로 재직 중이다.
이 짧은 이직을 너무 단순하게 해석하면 안 된다. 슐먼 한 사람이 나갔다고 해서 AI 안전 연구자들이 앤트로픽을 등지기 시작했다고 바로 결론 내릴 수는 없다. 다만 오픈AI를 떠났다가 앤트로픽에 잠깐 몸담았다가 다시 독립 연구소를 차리는 흐름 자체는 하나의 힌트이다. 최전선 인재들이 한 회사에 오래 눌러앉기보다는 프로젝트와 연구 주제에 맞춰 더 가볍게 이동하는 생태계로 바뀌고 있다는 신호로 읽을 수 있다.
그런데 폴 크리스티아노(Paul Christiano)는 결이 또 다르다. 이 사람은 정렬 연구 센터(ARC, Alignment Research Center)를 만든 인물인데, 지금은 앤트로픽의 장기이익신탁(LTBT, Long-Term Benefit Trust) 수탁자 명단에 올라가 있다. 여기서 포인트는 LTBT가 “좋은 뜻”을 적어둔 장식이 아니라는 점이다. 구조상으로는 회사가 어디로 갈지, 큰 방향을 잡을 때 실제로 영향력을 행사할 수 있는 장치이다.
그리고 더 재미있는 연결이 하나 있다. 홀든 카르노프스키(Holden Karnofsky)라는 사람이 있는데, 오픈 필란스로피(Open Philanthropy) 공동창업자이고, 동시에 앤트로픽에서는 ‘직원’으로도 분류돼 있다. 다시 말해 “투자자 쪽”인 코피션트 기빙(Coefficient Giving)과 “내부 사람”인 카르노프스키가 같은 계열에서 겹친다는 뜻이다. EA(효과적 이타주의, Effective Altruism) 네트워크가 앤트로픽과 연결되는 방식이 ‘돈’만이 아니라 ‘사람’까지 같이 묶여 있다는 신호로 볼 수 있다.
세 개의 층, 하나의 구조적 모순
mapping-ai.org에서 앤트로픽을 보면, 이 회사는 대략 ‘세 겹’으로 보인다.
첫째, 앤트로픽은 AI 안전을 진짜로 파고드는 기술 조직이다. AI 헌장(Constitutional AI), 해석 가능성(interpretability) 연구, 책임 있는 확장 정책(RSP, Responsible Scaling Policy) 같은 것들이 대표적인 예이다. 펜타곤(Pentagon) 분쟁에서 보인 태도도 안전을 말로만 파는 게 아니라, 한 번은 실제로 비용을 치른 적이 있다는 점을 보여준다.
둘째, 앤트로픽은 안전이라는 말을 정책판에서 유리하게 쓰는 플레이어이기도 하다. 표적 규제, 제3자 테스트, AGI 타임라인 같은 주장은 듣기에는 합리적이지만, 동시에 앤트로픽이 규칙을 정하는 쪽(또는 그 옆)에 서게 해주는 프레임으로도 작동한다.
셋째, 앤트로픽은 한쪽 이해관계에 완전히 붙잡힌 회사처럼 보이지 않으면서도 밖에서 보면 의사결정이 어떻게 굴러가는지 한눈에 잡히지 않는 조직이다. 경쟁자 자본, 이타주의 자본, 국부펀드 같은 서로 다른 돈이 한데 섞여 들어와 있기 때문에 이 회사는 더 읽기 어려운 형태가 된다.
핵심은 이 세 층이 동시에 다 사실이라는 점이다. 서로 모순이라기보다 한 회사 안에 같이 들어 있는 성격이다.
그리고 가장 날카로운 긴장은 여기서 나온다. 앤트로픽은 우리가 위험을 제일 잘 안다고 말하면서도, 동시에 그 위험한 기술을 최전선에서 가장 빠르게 만드는 쪽에 서 있다. 돈을 버는 쪽은 앤트로픽과 투자자이고 안전 기준을 설계하는 쪽도 앤트로픽이며 그 기준이 사회에 적용됐을 때 결과를 떠안는 쪽은 결국 사회 전체다.
사회 전체가 결과를 떠 안는 이 구조는 앤트로픽만의 문제가 아니다. 다만 앤트로픽은 이 구조를 낮지만 무시할 수 없는 위험, 비례적 안전장치, 표적 규제 같은 그럴듯한 언어로 특히 세련되게 정당화하는 회사 중 하나이다. 그래서 더 꼼꼼히 봐야 한다.
이 글의 데이터는 mapping-ai.org/map/org/anthropic(2026년 5월 기준), Anthropic 공식 발표, Congress.gov CRS Report IN12669, CNBC, Wikipedia를 기반으로 교차 검증했다. mapping-ai.org는 커뮤니티 협업 기반 데이터베이스로, 항목별 신뢰도가 다르다. 이 글에서 인용한 앤트로픽 항목의 대부분은 “NOT YET VERIFIED(미검증)” 상태이며, 독립 출처 교차 확인을 병행했다.
FAQ
(1) 안전 연구를 실제로 하는 기술 조직 (2) 규칙을 만드는 정책판에서 영향력을 행사하는 행위자 (3) 투자자·인물 네트워크가 얽힌 권력 구조를 가진 조직 이렇게 세 층이다.
AI 기업은 기술 경쟁만 하는 게 아니라 어떤 규칙이 표준이 될지도 같이 싸우기 때문이다. 숫자만 보면 규칙을 설계하는 힘, 이해관계, 네트워크를 놓치기 쉽다.
가장 위험한 최첨단 모델만 규제하자는 말 자체는 합리적이지만, 그 최첨단 기준을 누가 정하느냐가 문제다. 기준이 높고 복잡해지면 큰 회사는 통과하고 작은 회사는 따라오기 어려워져 규제가 장벽처럼 작동할 수 있다.
누가 돈을 대고 누가 사람을 대는지가, 결국 어떤 의제가 밀리고 어떤 규칙이 상식이 되는지에 영향을 주기 때문이다. 특히 경쟁자 자본, 이타주의 자본, 국부펀드처럼 성격이 다른 자본이 섞이면 의사결정 구조가 더 읽기 어려워진다.
“어떤 클러스터에 속해 있는가”와 “어떤 경계에 서 있는가”를 먼저 본 뒤, 연결선이 가리키는 인물·조직·자금 흐름을 따라가면 된다. 이 글은 그 지형도를 ‘기술 회사’가 아니라 ‘정책 행위자’로 읽어보자는 시도이다.
AiLit에서 더 알아보기
구독을 신청하면 최신 게시물을 이메일로 받아볼 수 있습니다.


