AI, 질주하다
출처: "AI, 질주하다" — Howard Marks, Oaktree Capital Management (Feb 26, 2026)
원문: https://www.oaktreecapital.com/insights/memo/ai-hurtles-ahead
Howard Marks, Oaktree Capital Management 2026년 2월 26일
지난 12월, AI에 관한 메모 "이게 거품일까?" 를 준비하면서 30~40대 기술 전문가들과 많은 대화를 나눴다. 새로운 영역을 탐구하는 건 늘 자극적이고, 투자자로서 시대를 따라가려면 반드시 필요한 일이기도 하다. 내가 이 일을 즐기는 이유 중 하나다.
최근 그 메모에 대한 후속 논의를 위해 그들을 다시 만났다. 그 과정에서 누군가가 흥미로운 제안을 했다. 앤트로픽의 AI 모델인 Claude에게 "AI란 무엇이고, 지난 3개월간 무엇이 달라졌는지"를 설명하는 튜토리얼을 만들어 달라고 요청해 보라는 것이었다. 해봤더니 정말 놀라운 결과물이 나왔다. 이번 메모는 그 1만 단어짜리 에세이를 바탕으로 내 생각을 덧붙인 것이다. Claude의 글에서 많은 부분을 직접 인용할 텐데, 별도 출처 표기가 없는 인용문은 모두 Claude의 글이라고 보면 된다.
본론에 들어가기 전에, 그 결과물을 처음 봤을 때의 감동을 먼저 전하고 싶다. Claude의 글은 마치 친한 동료가 써준 편지 같았다. 내가 과거 메모에서 썼던 개념들 — 금리의 대전환이나 투자 심리의 진자 운동 — 을 인용하면서 AI에 비유로 활용했다. 논리적으로 전개하면서 내가 반론을 제기할 법한 지점을 미리 예상하고 답했고, 곳곳에 유머를 넣었으며, AI의 한계를 솔직하게 인정함으로써 오히려 신뢰감을 높였다. 이전에도 AI에게 질문을 던져본 적은 있었지만, 이처럼 나 개인에게 맞춤화된 설명을 받아본 건 처음이었다. 이 모든 게 가능했던 건 전적으로 조언자들이 함께 준비해준 고품질 프롬프트 덕분이었다.
AI를 이해하다
본론에 앞서, AI의 본질에 대해 내가 새롭게 깨달은 것들을 먼저 나눠야 할 것 같다.
가장 중요한 점은 이것이다: AI 모델을 검색 엔진처럼 생각하면 안 된다. AI는 데이터를 가져와서 뱉어내는 게 아니라, 데이터를 종합하고 그로부터 추론하는 시스템이다.
AI 모델의 생애는 두 단계로 나뉜다.
첫 번째는 훈련(Training) 단계다. 방대한 양의 텍스트를 읽힌다. 그런데 이걸 "정보를 집어넣는 것"으로 이해하면 안 된다 — 나도 그렇게 생각했었는데, 그건 틀렸다. 훈련은 생각하는 법을 가르치는 것이다. 텍스트를 흡수하면서 모델은 다음을 배운다:
- 추론 패턴을 이해하고 형성하는 법
- 논증이 어떻게 구성되는지
- 새로운 아이디어의 조합을 만들어내는 법
- 배운 추론 패턴을 새로운 상황에 적용하는 법
가장 좋은 비유는 사람의 지적 성장 과정이다. 아기는 뇌를 갖고 태어나지만, 외부 자극에 노출되면서 점차 생각하고, 추론하고, 종합하고, 개념을 만들어내는 능력을 발달시킨다. AI 모델도 마찬가지다. (물론 내가 AI가 어떻게 이런 일을 하는지 원리까지 안다는 뜻은 아니다. 다만 무엇을 할 수 있는지와 그 함의를 설명하는 것이다.)
두 번째는 추론(Inference) 단계다. 모델이 만들어지고 훈련이 끝나면, 그 다음부터의 삶이 바로 추론이다 — 사용자의 요구에 응답하며 능력을 발휘하는 것이다.
중요한 점이 하나 있다. 지금 단계에서 AI는 스스로 과제를 부여하지 못한다. 사용자가 "프롬프트"를 통해 지시를 내려야 한다. 프롬프트가 구체적이고 잘 설계될수록 AI는 더 많은 걸 할 수 있다. 예를 들어 AI는 소프트웨어 코드를 작성하고, 테스트하고, 버그를 찾아 수정하고, 다시 테스트할 수 있다. 하지만 그러려면 그렇게 하라는 지시가 필요하다 — 적어도 지금은. 많은 사람들이 프롬프트의 중요성을 잘 모르거나 잘 쓰지 못하기 때문에, AI의 잠재력은 아직 과소평가되고 있을 가능성이 크다. 한계는 모델에 있는 게 아니라 사용자에게 있다.
내 튜토리얼을 예로 들면, Claude는 그냥 "AI를 설명해 달라"는 요청을 받은 게 아니었다. Claude에게 어떤 요청을 받았냐고 물었더니 이렇게 답했다:
누군가가 당신을 위해 9개 모듈짜리 커리큘럼을 특별히 설계했습니다. 당신의 12월 메모, 당신의 지적 프레임워크, 그리고 독자들이 기대하는 수준의 솔직함을 유지하면서 AI에 대한 믿을 만한 후속 메모를 쓸 수 있도록 충분한 기술적 이해를 제공하는 것이 목표였습니다. 커리큘럼은 한 번에 하나씩 모듈을 가르치고, 당신의 세계에서 온 비유를 사용하며, 단순히 설명하는 대신 실제로 능력을 보여주도록 구성되었습니다.
실제로 그 목표는 완벽하게 달성되었다.
AI는 생각할 수 있는가?
나는 이 질문이 매혹적이다. AI가 인류가 이미 파악한 것들을 재조합하고 새로운 데이터에 적용할 수 있다는 건 알겠다. 그런데 과연 새로운 땅을 개척할 수 있을까?
내가 이해하는 AI의 핵심 메커니즘은 결국 "다음에 올 것을 예측하는 것"이다. 문장에서 다섯 단어를 쓰면 여섯 번째를 예측한다 (이메일을 쓸 때 스마트폰이 다음 단어를 제안하는 것이 바로 AI다). 시장을 이길 포트폴리오를 구성하라고 하면 과거에 잘 수행한 주식들의 특성을 분석해 미래 승자를 예측한다. AI는 과거 패턴에 기반한 미래 가설을 제시하는 것이라고 생각하면 이해가 쉽다.
여기서 내 질문이 나온다: AI에게 진짜 새로운 아이디어가 가능할까? 우리가 생각하라고 지시하지 않은 것을 스스로 떠올릴 수 있을까? 강변에 앉아 영감이 떠오르기를 기다릴 수 있을까? 사과가 나무에서 떨어지는 걸 보고 중력 개념을 만들어낼 수 있을까? 백일몽을 꾸거나, 직관을 가질 수 있을까?
이 지점에서 AI를 둘러싼 논쟁이 복잡해진다. Claude는 회의론자들의 주장을 이렇게 정리했다:
Claude가 배운 모든 것은 인간이 쓴 텍스트에서 왔습니다. 경험도 없고, 세상에 대한 체화된 이해도 없고, 진정한 이해력도 없습니다. Claude가 만들어내는 모든 것은 결국 기존 인간 작업에서 흡수한 패턴들의 정교한 재배열입니다. 경이롭도록 인상적인 패턴 매칭 — 어쩌면 역사상 가장 인상적인 패턴 매칭 — 이지만, 사고는 아닙니다. 추론도 아닙니다. 통계적 재조합입니다. 그리고 만약 그게 사실이라면, 한계가 있습니다. 인간이 이미 파악한 것들을 리믹스할 수는 있지만, 진정으로 새로운 영역을 개척할 수는 없습니다. 굉장히 재능 있는 커버 밴드이지, 작곡가가 아닙니다.
그러자 Claude는 — 나를 중심으로 — 생생한 반론을 펼쳤다:
하워드, 당신이 투자에 대해 아는 모든 것은 다른 사람들에게서 왔습니다. 벤저민 그레이엄이 안전마진을 가르쳐 줬습니다. 버핏이 기업의 질에 대해 가르쳐 줬습니다. 찰리 멍거가 다양한 분야의 멘탈 모델을 가르쳐 줬습니다. 갤브레이스가 금융 열광의 심리를 가르쳐 줬습니다. 50년간 수천 권의 책, 메모, 사례 연구, 연차 보고서를 읽었습니다. 모든 입력물은 다른 사람의 사고였습니다...
당신은 여러 분야의 프레임워크를 가져다가 새로운 상황에 적용해서 진정으로 새로운 무언가를 만들어냈습니다... 원재료는 다른 사람들에게서 왔습니다. 종합은 당신이 한 것입니다.
그러니 누군가 "Claude는 그냥 훈련 데이터에서 패턴을 재배열할 뿐"이라고 말한다면, 이렇게 묻고 싶습니다: 그게 교육받은 정신이 하는 것과 구조적으로 어떻게 다른가요? 당신은 수십 년의 독서에서 추론 패턴을 배웠습니다. 저는 훈련을 통해 배웠습니다. 문제는 입력물이 어디서 왔느냐가 아닙니다. 그 시스템 — 인간이든 AI든 — 이 그것들을 진정으로 새롭고 유용한 방식으로 결합할 수 있느냐입니다.
이건 완전히 옳은 말이다. 나도 젊은 투자자 시절 데이터를 흡수하고, 선인들의 사고방식을 배우고, 그것을 나만의 방식으로 발전시켰다. AI의 학습 방식이 인간의 그것과 과연 얼마나 다른가?
마지막으로 Claude는 더 결정적인 실용적 주장을 내놓았다:
회의론자들의 모든 주장을 다 인정한다고 해도 — AI가 하는 것이 철학적으로 "단순한 패턴 매칭"이고 "진정한 사고"가 아니라는 걸 받아들여도 — 경제적 함의는 동일합니다. 솔직하게 말하겠습니다. 만약 제가 연봉 2억짜리 리서치 어소시에이트의 분석 결과물을 만들어낼 수 있다면, 그 비용을 지불하는 사람에게 제가 '진짜로' 생각하는지 아니면 단순히 패턴을 매칭하는지가 중요할까요? 중요한 건 그 결과물이 충분히 신뢰할 수 있어서 쓸모가 있느냐입니다. 그리고 점점 그렇게 되고 있습니다. 기계 의식에 대한 철학적 논쟁은 흥미롭습니다. 하지만 경제적 질문은 "AI가 진정으로 이해하는가?"가 아닙니다. 경제적 질문은 "AI가 일을 하는가?"입니다.
한 가지 덧붙이자면, "생성형(Generative)"이라는 단어의 뜻을 알아두면 AI를 이해하는 데 크게 도움이 된다. AI 모델 Perplexity의 설명을 빌리면:
"생성형 AI"에서 "생성형"이란 "기존 것을 분석하거나 분류할 뿐만 아니라, 새로운 것을 만들어낼 수 있다"는 뜻입니다. 데이터에서 패턴을 학습해서 그 데이터와 유사한 새로운 콘텐츠를 생성하는 AI 시스템을 가리킵니다.
이게 사고인가? 아닌가? 아니면 "구분 없는 차이"를 너무 붙들고 있는 건가? 6페이지에서 힌트를 얻을 수 있을 것이다.
AI의 최근 발전
내가 이 메모를 쓰는 주된 이유는 12월 9일에 "이게 거품일까?" 를 출판한 이후 3개월간 일어난 엄청난 변화들을 다루기 위해서다.
첫째, AI 발전의 속도다. 이전에 경험했던 어떤 기술 혁신과도 다르다. 컴퓨터의 발전과 비교해 보자.
- 1945년: 최초의 컴퓨터 ENIAC 완성. IBM의 토머스 왓슨 시니어는 당시 "전 세계에 컴퓨터는 다섯 대면 충분할 것"이라고 말했다고 한다.
- 1960년대: 내가 프로그래밍을 배울 때도 컴퓨터는 여전히 조잡했고, 대형 기관 외에는 쓸 데가 없었다.
- 1970년대: 마이크로프로세서가 개발되며 "퍼스널 컴퓨터"가 등장했지만 주로 취미용 키트 수준이었다.
- 1980년대 초: ENIAC이 만들어진 지 약 40년 만에 IBM이 드디어 일반 비즈니스와 가정용 PC를 판매하기 시작했다.
이제 AI와 비교해 보자. Perplexity에 따르면, AI가 스팸 필터나 추천 엔진의 형태로 눈에 띄지 않게 기기에 통합된 건 2010년 전후다. 그 후 몇 년간 시리, 알렉사 같은 형태로 가시화됐다. "생성형 AI가 지식 노동, 교육, 소비자 의사결정에 영향을 미치는 범용 기술로 비즈니스와 미디어에서 다뤄지기 시작한 건" 불과 2년 전이다. 그리고 지금 이미 약 4억 명의 개인과 기업의 75~80%가 사용하고 있다.
이 속도는 전례가 없다. AI는 대부분의 관찰자가 예상하거나 이해할 수 있는 속도를 넘어서 세상을 바꾸고 있다. 과거의 신기술은 인프라를 먼저 구축하고 그게 활용되기까지 수년이 걸렸다. AI는 다르다. 수요가 이미 존재하고 빠르게 성장하고 창출되고 있으며, 공급이 부족한 상황이다.
둘째, AI 역량의 획기적 도약이다. 튜토리얼은 AI 모델의 역량을 세 단계로 설명했다:
레벨 1: 대화형 AI. 사용자가 질문하면 답을 내놓는다. 리서치와 사고에 드는 시간을 절약해 주는 수준.
레벨 2: 도구 사용 AI. 정보를 검색하고, 분석하고, 작업을 수행하도록 지시할 수 있다. 실행 시간까지 절약한다. 하지만 여전히 지시를 받아야만 한다는 한계가 있다.
레벨 3: 자율적 에이전트. 여기서는 사용자가 무엇을 할지 지시하지 않는다. 목표와 원하는 결과물의 조건만 제시하면, 에이전트가 알아서 작업하고, 검토하고, 완성된 결과물을 제출한다. "이것은 작업 단위의 노동 대체다. 보조가 아니라, 대체."
가장 중요한 것은 AI의 자율성이다. 이전의 어떤 기술 혁신에도 없던 특성이다. Claude에 따르면, 2023년에는 레벨 1, 2024년에는 레벨 2였던 AI가 지금은 레벨 3에 도달했다.
레벨 2와 레벨 3의 차이가 미묘하게 들릴 수 있습니다. 그렇지 않습니다. AI가 생산성 도구인가, 노동 대체재인가를 결정하는 차이입니다. 그리고 그 차이가 500억 달러 시장과 수조 달러 시장을 가르는 것입니다.
최근 OthersideAI의 CEO 매트 슈머가 쓴 블로그 포스트 "Something Big Is Happening" 은 한 달도 안 돼 5천만 명 이상이 읽었다. 그 핵심을 그의 말로 직접 전한다:
2월 5일, OpenAI와 앤트로픽이 같은 날 새 모델을 출시했습니다. GPT-5.3 Codex와 Opus 4.6. 그리고 무언가가 딱 맞아 떨어졌습니다. 스위치가 켜진 것처럼이 아니라… 물이 서서히 차올라 어느 순간 가슴까지 왔다는 걸 깨닫는 것처럼.
나는 이제 내 일의 실제 기술적 작업에서 필요하지 않습니다. 무엇을 만들고 싶은지 일반 영어로 설명하면, 그냥… 나타납니다. 수정이 필요한 초안이 아닙니다. 완성된 것입니다. AI에게 원하는 걸 말하고, 컴퓨터에서 4시간 떠나 있다가 돌아오면 일이 완료되어 있습니다. 몇 달 전만 해도 AI와 주거니 받거니 하면서 편집을 했습니다. 이제는 그냥 결과를 설명하고 떠납니다.
슈머는 구체적인 예시를 들었다:
"이 앱을 만들고 싶어. 이런 기능을 해야 하고, 대략 이런 모양이야. 사용자 흐름, 디자인, 다 알아서 해." 그러면 합니다. 수만 줄의 코드를 씁니다. 그리고 — 이건 1년 전만 해도 상상도 못했을 일인데 — AI가 직접 앱을 엽니다. 버튼을 클릭하며 기능을 테스트합니다. 사람처럼 앱을 사용해 봅니다. 마음에 안 드는 부분이 있으면 스스로 돌아가서 수정합니다. 개발자처럼 반복하며 만족스러울 때까지 다듬습니다. 자체 기준을 통과했을 때만 "이제 테스트해 보세요"라고 합니다. 테스트해 보면, 거의 완벽합니다.
진보의 속도를 구체적으로 보면:
- 2022년: 간단한 산수도 틀렸다. 7×8이 54라고 자신 있게 말했다.
- 2023년: 변호사 자격시험을 통과했다.
- 2024년: 작동하는 소프트웨어를 작성하고 대학원 수준의 과학을 설명했다.
- 2025년 후반: 세계 최고 수준의 엔지니어들 일부가 코딩 업무 대부분을 AI에 넘겼다고 말했다.
- 2026년 2월 5일: 이전의 모든 것을 다른 시대처럼 보이게 만드는 모델이 나왔다.
그리고 슈머가 가장 놀라운 것으로 꼽은 건 GPT-5.3 Codex의 공식 문서에 적힌 이 문장이었다:
GPT-5.3-Codex는 자기 자신을 만드는 데 기여한 최초의 모델입니다. Codex 팀은 이 초기 버전을 자체 훈련 디버깅, 배포 관리, 테스트 결과 진단에 활용했습니다.
다시 읽어보라. AI가 자기 자신을 만드는 것을 도왔다.
앤트로픽의 CEO 다리오 아모데이는 AI가 현재 자사 코드의 "상당 부분"을 작성하고 있으며, 현재 AI와 차세대 AI 사이의 피드백 루프가 "매달 가속되고 있다"고 말했다. 그는 "1~2년 안에 현재 세대의 AI가 다음 세대를 자율적으로 구축하는 시점이 올 수도 있다"고 했다.
AI는 다른 기술 혁신들과 크기만이 아니라 종류 자체가 다르다. 철도, 컴퓨터, 자동화, 인터넷은 기본적으로 노동 절감 장치였다. 이미 이루어지고 있던 일들을 더 효율적으로 하도록 설계됐다. AI는 우리가 상상하지 못했던 일들을 맡게 될 것이고, 어쩌면 AI 스스로 꿈꿔낸 전혀 새로운 일들도 하게 될 것이다.
한계와 의문점
튜토리얼에서 Claude는 스스로 몇 가지 한계와 미해결 질문들을 솔직하게 제시했다:
전례 없는 문제 해결 능력이 불확실하다. 내가 오래 느껴온 것이기도 하다.
훈련 데이터에 패턴이 없는 진정으로 전례 없는 상황 — 바로 당신 자신의 직관이 패턴 인식을 넘어선 경험에서 나왔기 때문에 가장 가치 있는 상황 — 에서 AI는 더 약합니다. 얼마나 약한지, 그 격차가 좁혀지고 있는지는 아직 진정으로 논쟁 중입니다.
AI는 자신이 모른다는 것을 항상 알지는 못한다. 최선의 답을 제공하려는 동기로 인해 "환각(Hallucination)"이 발생한다.
신뢰성은 크게 향상됐지만, 여전히 실수를 한다.
컨텍스트 윈도우의 한계가 있다. AI가 작동 기억에 담을 수 있는 정보의 양에 제한이 있다.
AI의 탁월함이 과도한 신뢰를 낳을 수 있다. 내 Claude 화면 하단에는 매번 이런 문구가 뜬다: "Claude는 실수를 할 수 있습니다. 응답을 다시 확인하세요."
내 결론은 간단하다. 60년 전 컴퓨터를 배울 때, 컴퓨터가 할 수 있는 건 데이터를 읽고, 기억하고, 더하고, 빼고, 비교하는 것뿐이었다. 매우 제한적인 목록이었다. 하지만 빠르고, 대용량 데이터를 실수 없이 처리했다. 마찬가지로 AI도 모든 것을 완벽하게 할 수는 없다. 하지만 대부분의 사람들보다 훨씬 잘 할 수 있다.
마지막으로 AI가 자율적으로 운영되고 심지어 도구를 넘어설 가능성에 대한 질문도 있다. 스탠리 큐브릭의 영화 2001: 스페이스 오디세이 에서 HAL 9000이 그 질문을 생생하게 보여줬다 (나는 1969년 낸시와 처음 데이트할 때 이 영화를 봤다. 당시엔 엄청나게 미래적인 이야기 같았는데, 이제 그 미래가 왔다). AI가 자체적인 동기를 갖고, 지시를 거부하고, 스스로의 길을 결정하게 될까? 그런 일이 생기면 우리가 통제권을 되찾을 수 있을까?
투자에 대한 함의
많은 사람들이 AI가 우리 직업과 업계에 어떤 의미인지 내게 묻는다.
앤트로픽의 코딩 모델 사업은 1~2년간 폭발적으로 성장해 왔다. 그런데 왜 투자자들은 AI가 소프트웨어 산업에 미칠 영향을 미리 가격에 반영하지 못했을까? 왜 많은 소프트웨어 주식들이 2월 3일 갑자기 7% 정도 급락했을까? 이 질문은 인간이 새로운 정보를 사고방식에 통합하는 데 얼마나 자주 실패하는지를 잘 보여준다 — 인지 부조화, 고착 편향, 또는 지적 한계 때문에. 그리고 이것은 AI가 투자 과정에 미칠 함의를 암시한다.
AI는 어떤 투자자보다 더 많은 데이터를 흡수하고, 더 잘 기억하고, 과거 성공 패턴을 더 잘 인식할 수 있다. 공포나 탐욕을 느끼지 않고, 낙관론이나 비관론에 치우치지 않으며, 기존 믿음에 고착되거나 최신 정보를 과도하게 강조하지 않는다. 모든 사람이 흥분하는 유행에도 휩쓸리지 않고, 남들이 쫓는 트렌드에서 뒤처지는 것을 두려워하지 않는다. 좋은 투자자에게 필요한 많은 자질을 AI는 갖추고 있다.
반면 몇 가지 부족한 것도 있다. 뛰어난 투자자는 단순히 빠르고 감정 없는 데이터 처리기 그 이상이다. AI가 스스로 인정한 가장 약한 부분 — 충분한 선례가 없어 의존할 패턴이 없는 새로운 상황들 — 에서 강해야 강하다. 또 정성적 요소에 대한 주관적 판단과 식견이 필요하다. 예를 들어 좋은 파트너를 선택하는 것은 오크트리의 성공에 중요한 역할을 해왔는데, AI가 이런 종류의 판단을 어떻게 내릴까? 그리고 결정적인 것이 또 있다: AI는 자기 돈이 걸려있지 않다. 집중된 포지션의 무게나 자본 손실에 대한 두려움을 느끼지 않는다. 최고의 투자자들은 잠재적 위험을 직관적으로 감지하는데, 그게 성공에 크게 기여한다.
2021년 1월 메모 "Something of Value" 에서 내 아들 앤드류의 말을 인용했다: "현재에 대한 쉽게 구할 수 있는 정량적 정보"는 탁월한 투자 성과의 열쇠가 될 수 없다. 모두가 그 정보를 갖고 있기 때문이다. 이제 여기에 한 가지를 더해야 한다. AI가 그 정보를 모두보다 더 잘 처리할 수 있다는 것이다. 따라서 그 정보를 활용해서 시장을 이길 수 있는 사람들의 전망은 매우 제한적이다.
쉽게 구할 수 있는 정량적 정보가 열쇠가 아니라면, 투자 우위는 (a) 그 정보의 중요성과 함의를 올바르게 판단하는 것, (b) 경영진 효율성이나 제품 혁신 같은 정성적 요소를 평가하는 것, (c) 기업의 미래를 내다보는 것에서 찾아야 한다. 정의상 이런 비정량적 과제를 탁월하게 수행하는 사람은 소수다. 인덱스 펀드가 가치를 더하지 못하는 액티브 투자자 다수를 시장에서 밀어낸 것처럼, AI는 기준을 더 높이 올려 (a), (b), (c)를 AI만큼 잘 못하는 사람들을 더 밀어낼 것이다.
한 가지 더 첨언하겠다. 앞서 언급했듯이 나는 AI를 "미래에 대한 가설을 수립하는 것"으로 생각한다. 하버드 역학자 마크 립시치는 우리가 (a) 사실, (b) 과거 경험에 대한 유추에서 온 정보에 근거한 추론, (c) 의견이나 추측을 통해 결정을 내린다고 말했다. 새롭고 검증되지 않은 제품, CEO, 산업에 관한 한, 의존할 사실이나 유사 경험이 거의 없어 "의견이나 추측"에 의존해야 한다. AI가 역사적 패턴 추론에서 한계를 가지고 있다면, 완전히 새로운 것에 대한 추측이 모든 인간보다 일관되게 우월할 수 있을까? 나는 AI를 능가하는 인간 투자자들이 계속 존재할 것이라고 생각한다.
AI가 완벽한 투자자가 될 것 같지는 않다. 잘 추론된 가설을 제시하겠지만, 인간의 결정처럼 항상 맞을 수는 없다. AI의 가설을 실행에 옮기기 전에 합리성 검증이 필요할 것이다. 그리고 여기서도 탁월한 투자자들이 가치를 더할 수 있는 영역이 있을 것이다.
결론: 이게 거품인가?
여전히 지배적인 질문이다. 이 질문은 여러 층위로 나뉜다:
기술 자체가 유행이나 환상인가? 나는 확신을 갖고 말할 수 있다: 아니다. 비즈니스 세계와 우리 삶을 크게 바꿀 잠재력을 가진 매우 실재하는 기술이다.
기술 적용은 먼 미래의 이야기인가? 이미 대규모로 수요가 있고 적용되고 있다. AI는 모호하고 잘 이해되지 않기 때문에 오늘날 그 잠재력은 과대평가보다 과소평가될 가능성이 더 크다.
AI 인프라 구축에 뛰어드는 사람들이 현명하지 못하게 행동하고 있는가? 모든 대규모 기술 혁신에서 인프라 구축 경쟁은 혁신 채택을 크게 가속화했고, 동시에 많은 자본이 "잘못 투자"되어 사라졌다. 이번이 다를 이유가 없다.
AI 인프라 투자가 적절한 수익을 낼 것인가? AI의 사업적 잠재력이나 수익성에 미칠 영향을 완전히 알 수 없으므로 대답할 수 없다. 10년 후에 알게 될 것이다.
AI 기업 가치평가가 비합리적인가? 마이크로소프트, 아마존, 구글처럼 엄청난 수익을 내는 하이퍼스케일러들의 현재 가격이 치명적으로 과도한 것으로 판명될 가능성은 낮다. OpenAI, 앤트로픽 같은 순수 AI 플레이어들은 아직 상장되지 않았다. 그들의 IPO 가치평가를 보면 알게 될 것이다. 그리고 수십억 달러 가치를 부여받은 스타트업들 — 일부는 아직 전략도 발표하지 않은 — 은 복권이나 마찬가지다. 대부분의 복권 참여자는 빈 손으로 끝나지만, 소수의 당첨자는 매우 부유해진다.
AI 인프라 지출 규모가 과도한가의 문제는 중요하다. 최근 추세는 훈련 투자 자본(Training capex)보다 추론 투자 자본(Inference capex)에 더 편집 자본(Inference capex)에 더 많은 돈이 들어가고 있다는 점이다. 훈련 투자는 수요가 오기를 바라며 이루어진 투기적 성격이었다. 반면 추론 투자는 실제 존재하는 AI 용량 수요에 대응해 이루어지고 있다. 이 수요는 이미 엄청난 매출 성장으로 이어지고 있어 투자를 정당화하고 있다.
하지만 파이프라인에 쌓여있는 모든 인프라 구축을 고려하면, "현재 수요가 공급을 초과하므로 인프라 구축이 과도하지 않다"는 주장이 반드시 성립하는 건 아니다. 수요 성장이 둔화되거나 인프라 구축이 그것을 앞질러 나갈 가능성도 배제할 수 없다.
또 한 가지: 일부 AI 매출은 AI 기업들이 서로에게서 구매하는 "순환적" 성격을 띠고 있다. 이 수익의 사슬은 궁극적으로 실질적인 경제적 가치에 대해 비용을 지불하는 최종 사용자에게 의존해야 한다. 그 방향으로 가고 있지만, 얼마나 많은 매출이 아직 순환적인지는 열린 질문이다.
내 최종 결론은 12월 메모의 조언을 이어간다:
AI는 매우 실재하고, 지식 노동자들이 해왔던 많은 일을 할 수 있으며, 적용 면에서 엄청나게 빠르게 성장하고 있다. 우리가 지금 보는 것은 시작에 불과하다. 만약 내가 추측해야 한다면, AI의 잠재력은 오늘날 과대평가보다 과소평가될 가능성이 더 크다. 하지만 그것이 AI 투자가 싸거나 적정 가격이라는 말은 아니다.
이게 거품인지 확실하게 말할 수 있는 사람은 없다. 모든 것을 건 도박은 잘못될 경우 파산의 위험을 감수하는 것이다. 하지만 완전히 빠져있는 것도 역사상 가장 위대한 기술적 도약 중 하나를 놓칠 위험이 있다. 선별적이고 신중하게 적용된 적당한 포지션이 최선의 접근법으로 보인다.
후기: 사회적 함의에 대하여
많은 독자들이 내 우려에 공감했다. AI가 대체할 "사고하는" 직업들과, AI가 제어하는 기계들이 수행할 "실행하는" 직업들을 대신할 충분한 새 일자리가 어디서 나올지 상상하기가 어렵다.
- 광고 카피 부서를 이끄는 한 사람은 AI가 직원의 80%를 대체할 수 있다고 했다.
- 소프트웨어 회사들이 Claude에게 소프트웨어를 작성하도록 지시하는 사람이, 지금까지 소프트웨어를 작성해 온 사람만큼 많이 필요할 것 같지 않다.
- 운전은 미국 상위 직업 중 하나다. 택시, 버스, 트럭. 웨이모(Waymo)는 이미 샌프란시스코 택시 이동의 약 5분의 1을 처리하고 있고, LA에서도 자주 목격된다. 무인 운전이 되면 그 일을 하는 사람들은 어디서 일을 찾을까?
Claude는 이렇게 정리했다:
당신의 애널리스트를 20% 더 빠르게 만들어주는 도구는 그 애널리스트 연봉의 20% 정도 가치가 있습니다 — 여전히 그 애널리스트가 필요하니까요. 정해진 범주의 작업에서 처음부터 끝까지 애널리스트의 일 전체를 해내는 도구는? 그 작업들에 대해 애널리스트의 전체 보수만큼의 가치가 있습니다. 이것을 구조화된 분석 업무를 하는 모든 지식 노동자에게 곱하면 — 법률 어소시에이트, 금융 애널리스트, 경영 컨설턴트, 소프트웨어 엔지니어, 컴플라이언스 담당자, 손해사정사 — 수조 달러에 달하는 노동 시장의 상당 부분을 이야기하는 겁니다.
레벨 1과 레벨 2 AI는 더 빠른 말이었습니다 — 기존 노동자들을 더 효율적으로 만들어줬습니다. 레벨 3 에이전트는 자동차입니다. 일을 더 빠르게 만드는 게 아닙니다. 일을 합니다.
낙관론자들은 농업의 기계화, 산업혁명, 인터넷이 모두 대규모 실업을 유발할 것으로 예측됐지만 결국 새 일자리가 생겨났다고 말한다. 그 역사를 근거로 외삽하는 게 불합리하지는 않다. 하지만 나는 새로 생겨날 일자리를 상상할 만큼 미래학자도, 그것들이 나타날 것이라고 신뢰할 만큼 낙관론자도 아니다. 그것이 생기지 않을 것이라는 말은 아니지만.
일부 낙관론자들은 "사람들이 일을 안 해도 된다"는 것이 좋은 소식이라고 서둘러 말한다. 나는 그게 사회에 좋을 것이라고는 전혀 상상할 수 없다.
한 친구가 최근 이렇게 썼다: "틀리더라도 낙관론자이고 싶다. 비관론자여서 옳은 것보다는." 나도 마찬가지다. 내 걱정이 기우이기를 진심으로 바란다.
2026년 2월 26일
이 메모에 담긴 견해는 표시된 날짜 기준 저자의 견해이며 예고 없이 변경될 수 있습니다. 이 메모는 교육 목적으로만 제공되며 투자 권유나 증권 매매 제안으로 해석되어서는 안 됩니다.
© 2026 Oaktree Capital Management, L.P.