일론 머스크와 샘 알트먼의 불화는 주의를 분산시키는 요소입니다. — 카렌 하오

일론 머스크와 샘 알트먼의 불화는 주의를 분산시키는 요소입니다. — 카렌 하오

이전에 명확하지 않았다면, 일론 머스크와 샘 알트만은 서로를 견딜 수 없습니다. 두 사람은 한때 오픈AI의 공동 창업자였지만, 현재는 캘리포니아 법정에서 극적으로 펼쳐지는 쓰라린 불화에 휩싸여 있습니다. 머스크는 소송을 제기하며, 알트만과 오픈AI 사장 그렉 브록만이 자신을 속여 비영리 단체로 조직을 시작하고 자금을 지원하게 한 뒤, 나중에 영리 부문을 포함하도록 재구성했다고 주장합니다. 오픈AI는 머스크가 그 계획을 처음부터 알고 있었다고 주장하며, 이 소송은 단지 경쟁자에게 해를 끼치려는 시도일 뿐이라고 말합니다.

저는 이 이야기를 잘 알고 있습니다. 저는 2019년부터 오픈AI를 취재해 왔으며, 머스크가 떠나고 알트만이 CEO가 된 직후 그들의 사무실에서 3일을 보내기도 했습니다. 이 회사와 AI 산업을 따라오면서 배운 한 가지가 있다면, 이 세계는 치열한 경쟁을 낳는다는 것입니다.

오픈AI의 거의 모든 원래 창업자들이 좋지 않은 조건으로 떠난 것이나, 모든 기술 억만장자가 거의 동일한 AI 회사를 가지고 있는 것은 우연이 아닙니다. 광란의 AI 경쟁은 서로를 능가하려는 초부유층의 사소하고 충돌하는 자존심과 얽혀 있습니다.

머스크가 소송에서 이기면, 특히 올해 가능한 기업공개를 준비 중인 오픈AI에 치명적일 수 있습니다. 머스크는 회사와 주요 투자자 중 하나인 마이크로소프트로부터 1,500억 달러의 손해배상을 요구하고 있습니다. 또한 오픈AI를 다시 비영리 단체로 되돌리고, 알트만과 브록만을 영리 부문의 리더에서 제외하며, 알트만을 비영리 이사회에서 축출하기를 원합니다.

하지만 AI 개발의 미래가 인기 경쟁에 의해 결정될 것이라고 생각하는 것은 더 큰 그림을 놓치는 것입니다. 네, 브록만의 일기 항목은 의미심장하고, 전 오픈AI CTO 미라 무라티가 알트만이 임원들을 서로 대립하게 했다는 증언은 제가 이전에 보도한 내용을 뒷받침합니다. 그러나 알트만이 신뢰할 수 없는지, 머스크가 더 나쁜지에 초점을 맞추는 것은 훨씬 더 깊은 문제에서 주의를 분산시킵니다.

오픈AI가 AI 산업 리더로서의 위치를 잃으면, 머스크의 xAI나 다른 누군가와 같은 거의 차이가 없는 또 다른 경쟁자가 단순히 그 자리를 차지할 것입니다. 여기에는 더 나은 평판을 가지고 있지만 여전히 많은 동일한 일을 하는 Anthropic과 같은 회사가 포함됩니다: 속도를 위해 결정을 서두르고, 지적 재산권을 무시하며, 지역사회에 해를 끼치는 거대한 컴퓨팅 시스템을 공격적으로 구축하는 것입니다.

이 재판이나 오픈AI의 재정 구조는 이러한 회사들이 더 많은 데이터와 돈을 모으고, 행성을 재편하며, 노동자를 소진시키고 대체하며, 통제 시스템에 대한 권력을 얻기 위해 정부 내에 깊이 자리 잡으려는 추진력을 바꾸지 않을 것입니다. 우리는 여전히 소수만이 자신의 이미지로 세상을 형성하고 수십억 명의 사람들이 어떻게 살아야 하는지 지시할 엄청난 힘을 가진 세상에 살고 있을 것입니다.

실리콘밸리가 당신에게 믿게 하려는 것과 달리, AI가 지배로 이어질 필요는 없으며, 기술의 광범위한 이점이 그러한 기반에서 나올 수 없습니다. 산업이 극도로 자원 집약적인 AI 모델을 구축하는 쪽으로 급격히 전환되기 전에는, 암 탐지, 멸종 위기 언어 부활, 극한 기후 예측, 약물 발견 가속화를 위한 작고 특화된 시스템과 같은 많은 다른 유형의 AI가 번성했습니다. 또한 데이터가 거의 필요 없거나, 거대한 슈퍼컴퓨터 대신 모바일 기기에서 실행될 수 있는 새로운 AI 기술에 대한 아이디어도 있었습니다.

지금도 대규모 언어 모델의 경우, DeepSeek와 같은 많은 연구와 사례는 AI 회사들이 행성을 소비하는 야망을 정당화하기 위해 사용하는 규모의 극히 일부만으로 동일한 결과를 달성할 수 있는 다른 방법이 있음을 보여줍니다. 구글의 전 연구 부사장인 사라 후커가 말했듯이, "확장은 더 많은 성능을 얻기 위한 값싼 공식이지만, 매우 부정확한 공식이기도 합니다." 캐나다 AI 회사 Cohere의 한 아키텍트는 한때 저에게 말했습니다, "우리는 그것이 예측 가능한 계획 주기에 깔끔하게 맞기 때문에 그것을 너무 좋아합니다. 새로운 방법을 고안하는 것보다 '문제에 더 많은 컴퓨팅 성능을 투입하라'고 말하는 것이 더 쉽습니다."

그러나 이러한 많은 경로는 큰 플레이어들의 그림자 속에서 시들어 가고 있습니다. 작년 1분기에, 모든 벤처 캐피털의 거의 절반이 단 두 회사, 오픈AI와 Anthropic에 갔습니다. 이는 학계를 고갈시키고 기업 의제에 반대하거나 단순히 맞지 않는 연구를 굶주리게 한 수년간의 자본 집중 추세의 빙산의 일각에 불과합니다. MIT 연구자들이 Science에 발표한 연구에 따르면, 산업계에서 일하기로 선택한 AI 박사 졸업생의 비율은 2004년에서 2020년 사이에 21%에서 70%로 급증했습니다. 그리고 AI 개발의 다양성만 고통받는 것이 아닙니다. 2024년에는 기후 기술에 대한 자금이 40% 감소했는데, 이는 투자자들이 자금의 일부를 AI 제국의 무차별적 확장으로 방향을 돌렸기 때문입니다.

이렇게 될 필요는 없습니다. 지난 1년 동안 미국과 전 세계 수십 개 도시를 여행하면서, 저는 이러한 인식이 자리 잡는 것을 보았습니다. 모든 곳의 사람들이 집단 저항의 대의를 받아들이고 있습니다. 가장 눈에 띄고 활기찬 예는 다양한 지역과 정치적 분열을 가로질러 지역사회에서 나타나고 있는 데이터 센터 항의입니다. 뉴멕시코에서는 주민들이 포트럭 저녁 식사에서 AI 산업에 대해 스스로 교육하고, 지역 프로젝트에 대한 투명성과 책임을 요구하는 모습을 만났습니다. 이는 회사의 5,000억 달러 Stargate 컴퓨팅 인프라 구축의 일환으로 주에 제안된 수십억 달러 규모의 거대한 오픈AI 슈퍼컴퓨팅 캠퍼스와 같은 것입니다.

실리콘밸리가 당신에게 믿게 하려는 만큼, AI가 제국 정복을 의미할 필요는 없으며, 기술의 광범위한 이점이 그러한 기반에서 나올 수 없습니다.

뉴욕의 한 모임에서 저는 테네시주 멤피스에서 머스크의 Colossus 슈퍼컴퓨터에 맞서 싸우는 지도자 KeShaun Pearson의 이야기를 들었습니다. 그는 그 시설의 수십 개 메탄 가스 터빈이 자신의 지역사회에 미치는 영향에 대한 진심 어린 상기를 주었습니다. "깊은 숨을 두 번 들이쉬세요," 그가 청중에게 말했습니다. "그것은 인간의 권리"이며 그들에게서 빼앗기고 있었습니다. 이번 달 현재, Anthropic은 Colossus를 사용하고 있습니다.

같은 행사에서, 애리조나주 투손의 또 다른 지역사회 지도자 Kitana Ananda는 Amazon의 초대규모 AI 시설인 Project Blue에 맞서 동원되고 있으며, 그녀와 이웃들이 공유하는 깊은 감정을 설명했습니다: 그들은 자신의 지역사회뿐만 아니라 AI 산업에 의해 짓밟히는 모든 지역사회를 위해 싸우고 있다는 것입니다. 화씨 114도(섭씨 약 46도)의 날, 그들은 힘을 보여주기 위해 시청에 모여 의회가 현재 형태의 프로젝트를 중단하기로 7-0으로 투표하는 것을 지켜보며, 자신들의 승리가 모든 지역사회의 승리임을 알면서 환호하고 기쁨에 울었습니다.

노동자들도 여러 분야와 국가에서 파업을 하고 있습니다. 북부 캘리포니아에서는 Kaiser Permanente의 2,000명 이상의 의료 전문가들이 AI가 그들의 업무를 자동화하거나 환자 결과를 해치는 데 사용될 위협에 대해 파업했습니다. 케냐에서는 AI 회사들이 모델을 훈련하고 정리하기 위해 고용한 데이터 작업자와 콘텐츠 중재자들이 조직하여 그들의 착취에 대한 국제적 관심을 끌고 더 나은 노동 조건을 요구하고 있습니다.

토론토 대학의 Creative Labour & Critical Futures 그룹이 이끄는 연구 프로젝트인 Worker Mobilizations around AI 데이터베이스에 따르면, 30개 이상의 국가에서 성우부터 시나리오 작가, 만화 일러스트레이터에 이르기까지 문화 노동자들이 자신의 작업이 훈련에 사용되거나, AI 시스템에 의해 초상이 도용되거나, AI로 대체되는 문제에 대해 목소리를 내기 위해 동원되고 있습니다.

AI 일자리 종말은 잊으세요. AI의 진정한 위협은 노동자 통제와 감시입니다.

교육자와 학생들은 자신의 기관에 압력을 가하고 있습니다. 피해자와 그 가족들은 소송을 제기하고 있습니다. 기술 직원들 스스로도 캠페인을 벌이고 있습니다. 조직을 위한 그룹 채팅이 도처에 있습니다. 사람들이 행진하고 있습니다.

이러한 집단적 반발의 성장하는 물결은 AI 산업이 야망을 축소하도록 강요하는 것 같습니다. 이미 2025년에는 1,500억 달러 규모의 인프라 프로젝트가 차단되거나 지연되었습니다. 이는 AI 연구 회사 10a Labs가 이끄는 반대 추적 프로젝트인 Data Center Watch에 따른 것입니다. 투자자들은 이를 주목하고 AI 회사들이 실제로 약속을 이행할 수 있는 정도에 대한 기대를 낮추기 시작하고 있습니다.

오픈AI는 회사 임원들이 한때 가장 중요한 제품 중 하나이자 AI 개발의 새로운 개척지라고 칭찬했던 비디오 생성 앱 Sora를 폐쇄했습니다. 월스트리트 저널이 보도한 바와 같이, Sora의 폐쇄는 궁극적으로 풀뿌리 행동에 의해 형성된 여러 상호 연결된 요인, 즉 사용 감소, 부정적인 대중 인식, 재정 압박, 컴퓨팅 자원의 심각한 제한에 의해 주도되었습니다.

제국에 관한 한 가지가 있습니다. 그들은 모든 것을 소비하려고 할 뿐만 아니라, 생존을 위해 그것에 의존합니다. 다시 말해, 그들에게 엄청난 힘을 주는 것처럼 보이는 것이 실제로는 그들의 가장 큰 약점입니다. 그들이 필요로 하는 자원의 작은 부분이라도 차단되면, 거인들은 비틀거리기 시작합니다. 따라서 AI 산업을 진정으로 책임지게 하고 기술 개발을 위한 다른 길을 제시할 것이 무엇인지 궁금하다면, 억만장자들의 싸움 너머를 보십시오. 진짜 작업은 다른 모든 곳에서 일어나고 있습니다.

Karen Hao는 Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI의 저자입니다.

자주 묻는 질문
다음은 Karen Hao의 기사 "일론 머스크 대 샘 알트만의 불화는 주의를 분산시키는 것"을 기반으로 한 FAQ 목록입니다.



초급 수준 질문



1 이 기사는 무엇에 관한 것인가요?

일론 머스크와 샘 알트man 사이의 오픈AI 통제권을 둘러싼 공개적인 싸움에 관한 것입니다. 저자는 이 개인적인 드라마가 실제로 AI의 더 크고 중요한 문제들로부터 주의를 분산시킨다고 주장합니다.



2 일론 머스크와 샘 알트만은 누구인가요?

그들은 둘 다 매우 유명한 기술 리더입니다. 일론 머스크는 테슬라와 스페이스X의 CEO이고, 샘 알트만은 ChatGPT를 만든 회사인 오픈AI의 CEO입니다. 그들은 함께 오픈AI의 공동 창업자였지만 사이가 틀어졌습니다.



3 불화는 무엇에 관한 것인가요?

불화는 주로 돈과 통제권에 관한 것입니다. 머스크는 오픈AI가 인류의 이익을 위한 비영리 단체라는 원래 약속을 어겼다며 소송을 제기했습니다. 알트만은 머스크가 자신의 경쟁 AI 회사가 있기 때문에 오픈AI의 성공을 늦추려는 것일 뿐이라고 말합니다.



4 저자는 왜 그것이 주의를 분산시킨다고 말하나요?

저자 Karen Hao는 우리 모두가 두 억만장자 사이의 개인적인 드라마를 지켜보는 동안, 누가 진정으로 AI의 혜택을 받는지, 그것이 일자리에 어떤 영향을 미칠지, 어떤 규칙이 그것을 지배해야 하는지와 같은 더 중요한 질문들을 무시하고 있다고 믿습니다.



5 대신 우리는 무엇에 주목해야 하나요?

머스크 대 알트만의 연속극 대신, 우리는 AI가 일반 사람들에게 미치는 실제 영향, 즉 직업 자동화, 알고리즘의 편향, 프라이버시, 그리고 소수의 거대 기술 회사에 권력이 집중되는 것에 주목해야 합니다.



고급 수준 질문



6 Karen Hao 기사의 핵심 주장은 무엇인가요?

핵심 주장은 머스크와 알트만 사이의 높은 관심을 받는 법적 및 개인적 싸움이 연막 역할을 한다는 것입니다. 이는 AI 안전과 윤리에 대한 복잡한 공공 정책 논쟁을 단순한 유명인사 가십 이야기로 바꾸어, 대중이 규제보다 인물에 집중하도록 함으로써 기술 거인들에게 이익이 됩니다.



7 불화는 어떻게 구체적으로 AI 안전으로부터 주의를 분산시키나요?

불화는 AI 안전을 개인적인 분쟁으로 틀지웁니다. 이는 문제를 지나치게 단순화합니다. 이는 기술적 안전 조치, 기업 책임, 강력한 AI 시스템에 대한 민주적 감독의 필요성에 대한 진지한 공공 논의를 방해합니다.