세계에서 가장 부유한 두 사람이 법정에서 마주 앉는다. 원고는 일론 머스크(Elon Musk), 피고는 샘 알트먼(Sam Altman)이다. 2026년 4월 27일 월요일, 캘리포니아주 오클랜드 연방 법원에서 Musk v. Altman 배심원 재판이 시작된다.
머스크의 주장은 단순하다. “나는 인류를 위한 비영리 AI 연구소에 기부했는데, 당신들은 그 돈으로 수천억 달러짜리 영리 기업을 만들었다.” 알트먼의 반론도 단순하다. “당신도 처음부터 영리 구조가 필요하다는 걸 알고 있었다.”
머스크는 오픈AI 창립 초기 약 4,400만 달러를 기부했고 2019년 오픈AI가 비영리에서 영리 자회사 체제로 전환하자 배신당했다고 주장한다. 두 억만장자의 싸움은 겉으로는 기부금 용도를 둘러싼 분쟁처럼 보인다. 하지만 법정이 정말로 다루게 될 질문은 따로 있다. AI 회사가 “인류를 위해” 일한다고 약속할 때, 그 약속은 언제까지 유효한가.
그 질문의 흔적이 한 문서에 남아 있었다. 오픈AI의 미션 스테이트먼트에 들어 있던 단어 safely다.
우리가 챗지피티를 처음 만났을 때, 많은 사람은 오픈AI가 ‘안전하게(safely)’ AI를 개발한다고 믿었다. 미션 문장에 “safely”가 늘 들어 있었던 것만은 아니다. 그러나 오픈AI라는 이름, 그리고 비영리 연구소로 출발했다는 서사는 우리에게 ‘인류에게 이익이 되는 AGI’라는 약속을 떠올리게 했다.
그런데 그 약속은 조용히 지워졌다. 2025년 IRS 공시, 즉 오픈AI가 미국 국세청에 제출한 마지막 면세 단체 신고서에서 미션 스테이트먼트의 “safely”가 사라져 있었다. 창립 이후 9년 동안 미션은 여섯 차례 바뀌었는데 그중 가장 조용하면서도 가장 결정적인 삭제였다.
safely를 지운다는 것은 무엇을 의미하는가
오픈AI의 원래 미션은 “안전하게 인류에게 이익이 되는 인공일반지능(AGI, Artificial General Intelligence)을 보장한다”였다. 2025년 IRS 공시에서 “safely”를 빼면서 미션은 “인류에게 이익이 되는 AGI를 보장한다”로 바뀌었다. 이 변화는 Fortune이 처음 상세히 보도했고, 터프츠대학교 플레처스쿨의 살리마 니콜 이브라힘(Saleema Nicola Ebrahim) 교수가 학술적으로 추적했다.
오픈AI는 2025년 10월 공익법인(PBC, Public Benefit Corporation) 전환을 마쳤다. PBC는 주주 이익뿐 아니라 사회적 공익도 함께 고려해야 하는 법인 형태다. 여기서 미션 스테이트먼트는 단순한 슬로건이 아니다. 이사회가 의사결정을 내릴 때 참고해야 할 ‘공익 기준’이 된다.
따라서 “안전하게”를 빼는 일은, 안전과 관련된 판단의 범위를 좁히는 효과를 낳는다. 회사가 더 위험한 제품을 더 넓은 규모로 내놓으려는 시점에, 가장 조용하게, 그러나 가장 결정적인 문서 변경이 이뤄진 셈이다.
단어가 지워지기 전에 사람들이 먼저 떠났다
미션 문장보다 더 확고한 사실(stubborn facts)이 있다. 사람의 이동이 먼저였다는 점이다.
2024년 10월, 오픈AI의 AGI 준비(AGI Readiness) 수석 자문이었던 마일스 브런디지(Miles Brundage)는 퇴직하며 Substack에 글을 남겼다. 문장은 짧고 무거웠다. “오픈AI도, 다른 어떤 프론티어 랩도 (AGI에) 준비가 되어 있지 않다. 그리고 세상도 준비가 안 되어 있다.” 그는 덧붙였다. “이 말이 오픈AI 리더십 사이에서 논쟁적인 발언이라고 생각하지 않는다.” 이후 슈퍼얼라인먼트(Superalignment) 팀 공동 창립자, 최고 과학자, 최고 기술 책임자, 최고 연구 책임자가 잇달아 회사를 떠났다.
2026년 2월, 오픈AI는 미션 얼라인먼트(Mission Alignment) 팀이 출범 16개월 만에 해산됐다고 확인했다. 그런데 팀이 사라진 뒤, 팀장 조슈아 아키암(Joshua Achiam)은 최고 미래학자(chief futurist)라는 직함을 받았다. 조직 단위의 안전 기능은 해체됐지만 역할을 맡았던 개인은 다른 형태로 재배치됐다.
문제는 그 과정이 거의 공개되지 않았다는 데 있다. 팀 규모와 예산 배분이 공개되지 않았으니, 무엇이 실제로 줄었고(사람, 권한, 예산), 무엇이 이동했는지 외부에서 검증하기 어렵다.
오픈AI 전 연구원 다니엘 코코타일로(Daniel Kokotajlo)는 2024년 4월 퇴직 당시 비공개 계약 서명을 거부하며 약 200만 달러(한화로 대략 29억원)의 지분을 포기했다. 이후 공개 서한에서 그는 퇴직 이유를 이렇게 썼다. “오픈AI가 인간보다 전반적으로 뛰어난 AI 시스템을 구축하려는 시도에서 책임감 있게 행동할 것이라는 확신을 잃었기 때문입니다.” 돈을 포기하면서 공개적으로 말하겠다는 선택은, 그 판단에 실제 대가를 걸겠다는 선언이기도 하다.
사명의 표류는 우연인가, 구조인가
왜 이런 일이 반복될까. 이를 설명하는 이론 틀이 있다. 하버드 법률 리뷰(Harvard Law Review)는 2025년 “AI 기업 거버넌스의 비도덕적 표류(Amoral Drift in AI Corporate Governance)”에서, AI 기업이 수익 압력 앞에서 창립 사명에서 점진적으로 이탈하는 구조를 “비도덕적 표류(amoral drift)”라고 불렀다. 여기서 “amoral”은 반윤리적(immoral)이라는 뜻이 아니다. 도덕을 의식하지 않는 표류, 즉 선악 판단 자체가 흐려지며 생기는 경로 이탈을 가리킨다.
이 개념은 2026년 오픈AI가 연간 반복매출(ARR) 약 200억 달러를 기록하며 IPO를 준비하는 동시에 핵심 안전 인력을 잃어가는 과정과 겹친다. 논문이 예측한 경로를 기업이 그대로 밟아간 셈이다.
하버드 법률 리뷰 논문이 제시하는 진단의 요지는 이렇다. AI 기업의 창립 사명이 흔들리는 이유는 나쁜 사람이 권력을 잡아서가 아니다. 외부 자본이 들어오는 순간 수익 추구가 시스템의 기본값이 되고 그 기본값이 조직 전체를 밀어낸다. 이사회는 공익을 말하지만 구조는 이미 다른 방향을 향한다.
safely를 지운 단어의 수혜자는 누구인가
safely를 지워서 누가 이익을 얻을까. 오픈AI는 2026년 2월 기준 기업 가치 약 8,500억 달러를 기록했다. 성장의 직접적 수혜자는 주식을 보유한 투자자들과 알트먼을 포함한 핵심 임직원들이다. 소프트뱅크, 마이크로소프트, 아마존, 엔비디아는 오픈AI에 수십억 달러를 투자했고, 오픈AI가 IPO를 추진하면 투자금 회수의 길이 열린다.
이익을 가져가는 쪽은 투자자와 경영진이다. 안전 기준을 좁히는 결정을 내릴 수 있는 쪽은 이사회다. 그리고 검증되지 않은 AI 시스템을 일상적으로 사용하게 되는 쪽은 수억 명의 사용자다. 이 구조가 보이는 순간, safely의 삭제는 단지 글자 하나를 지운 일이 아니다. 책임을 더 넓게, 더 희미하게 흩어 놓은 일이다.
법정에서 제기되는 질문은 더 크다
2026년 4월 27일 시작되는 Musk v. Altman 배심원 재판의 표면적 쟁점은 머스크가 오픈AI에 기부한 약 4,400만 달러의 사용 방식이 사기에 해당하는가다. 그러나 법정이 던지는 더 깊은 질문은 이것이다.
비영리 사명을 내세워 설립된 조직이 영리 기업으로 전환할 때, 원래의 약속은 누가 지켜야 하는가.
노스웨스턴대학교의 질 호르위츠(Jill Horwitz) 법학 교수는 이 재판이 남길 선례 효과를 경고했다. “불만을 품은 설립자가 주 검찰총장의 결정을 뒤집을 수 있다면, 비영리 단체법에 나쁜 선례가 된다.” 반면 카르도조 로스쿨의 루이 칼데론 고메즈(Luis Calderon Gomez) 교수는 동기와 행위를 분리해 보자고 말한다. “머스크가 자기 이익 때문에 움직였더라도, 사기 문제를 제대로 해결하려면 사람을 처벌하는 데서 끝낼 게 아니라 회사 구조 자체를 뜯어고치고, 제대로 감시·감독할 제도를 만들어야 한다.”
두 법학자의 요지는 결국 하나로 모인다. 이 재판은 머스크 대 알트먼의 싸움이 아니다. AI 기업의 ‘공익적 약속’을 누가, 어떤 정당성으로 집행할 수 있는가라는 헌법적 질문이다.
오픈AI는 2015년 출범 당시 “우리의 연구는 재정적 수익을 창출해야 하는 필요에 구속받지 않는다”고 선언했다. 그러나 2026년 현재 오픈AI는 IPO를 준비하고 있고 대규모 민간 투자가 이어진다. 창립 선언문의 문장들은 현실에서 뒤집혔다.
누군가의 악의가 기업을 비도덕적으로 표류하게 만든 건 아니다. 구조가 바뀌면 목표가 바뀌고, 목표가 바뀌면 문서의 문장도 바뀐다. 미션에서 safely가 빠진 것은 그 변화가 끝에 남긴 기록이다. 그 자리에 남은 것은 공허가 아니라, 더 넓게 재배분된 책임이다.
우리가 매일 쓰는 AI가 “안전하게” 만들어지고 있는지, 이제 그 질문을 붙잡아 둘 미션 선언문은 어디에도 없다.
FAQ
포춘 보도에 따르면, 오픈AI의 최신 IRS Form 990(2025년 11월 공개, 2024 회계연도)에서 미션 문구가 여러 차례 수정되는 과정 중 “safely”가 빠진 것으로 확인된다.
미션 문구는 대외 홍보 문장에 그치지 않고, 조직이 스스로를 정당화할 때 기대는 기준이 된다. 특히 공익법인(PBC) 구조에서는 이사회가 “공익”을 판단할 때 참고하는 기준이 될 수 있기 때문에, 안전을 명시적으로 적지 않는 선택은 책임의 경계를 흐릴 수 있다.
그렇게 단정할 수는 없다. 다만 안전을 최상위 미션 문장에 명시하지 않으면, 앞으로 위험과 속도 사이에서 무엇을 우선할지에 대한 외부의 검증 가능성이 낮아질 수 있다.
핵심은 “오픈AI가 좋은가, 나쁜가”가 아니라, 공익을 약속하며 출발한 AI 조직이 영리 구조로 재편될 때 그 약속을 누가 어떤 방식으로 집행할 수 있는가이다.

