글로벌 빅테크 기업들의 AI 투자 총액이 2024년 기준 수천억 달러를 넘어서면서, 업계에서는 이 경쟁을 "스스로 멈출 수 없는 기관차"라고 부르기 시작했습니다. 처음 그 말을 들었을 때 솔직히 좀 섬뜩했습니다. 기술이 발전하는 게 좋은 일인데, 왜 멈출 수 없다는 표현을 쓸까 싶었거든요.

AI 기술 경쟁! 이제는 속도가 문제다
제가 처음 ChatGPT를 써봤을 때가 2022년 말이었습니다. 그때만 해도 "아, 검색이 좀 더 똑똑해졌네" 정도로 생각했습니다. 그런데 불과 몇 달 사이에 이미지 생성, 영상 편집, 코드 작성까지 AI가 파고드는 걸 직접 보면서 솔직히 속도에 압도당하는 느낌이 들었습니다.
이 현상의 핵심에는 파운데이션 모델(Foundation Model) 경쟁이 있습니다. 파운데이션 모델이란 방대한 데이터로 사전 학습된 대형 AI 모델로, OpenAI의 GPT 시리즈나 Google의 Gemini처럼 다양한 작업에 범용적으로 활용할 수 있는 기반 모델을 말합니다. 이 모델 하나를 개발하는 데 수천억 원의 컴퓨팅 비용이 들어가다 보니, 한번 경쟁에 뛰어든 기업은 쉽게 발을 뺄 수가 없는 구조가 됩니다.
여기에 GPU(그래픽처리장치) 확보 전쟁까지 더해졌습니다. GPU란 원래 게임 그래픽 처리용으로 만들어진 반도체인데, AI 연산에 최적화된 병렬 처리 능력 덕분에 지금은 AI 인프라의 핵심 부품으로 자리잡았습니다. NVIDIA 한 회사의 시가총액이 단기간에 수조 달러를 넘어선 것도 이런 배경에서 나온 일입니다. 제가 보기에 지금의 AI 경쟁은 단순한 소프트웨어 싸움이 아니라, 반도체와 데이터센터 인프라를 누가 더 빠르게 쌓느냐의 싸움이기도 합니다.
이 속도 압박이 얼마나 심한지는 수치로도 확인됩니다. 국제에너지기구(IEA)에 따르면, 전 세계 데이터센터의 전력 소비량이 2026년까지 2022년 대비 두 배 이상 증가할 것으로 전망됩니다. AI 학습과 추론에 필요한 전력 소비가 폭발적으로 늘고 있다는 뜻이고, 이건 기술 발전이 환경 비용을 얼마나 빠르게 키우고 있는지를 보여주는 숫자이기도 합니다.
AI가 가져온 사회적 충격, 생각보다 훨씬 가까웠다
저는 주변에서 AI를 먼저 써보는 편인데, 작년부터 동료들 사이에서도 변화가 눈에 띄게 생겼습니다. 회의록 정리, 영문 이메일 번역, 보고서 초안 작성까지 AI에 맡기는 일이 자연스러워졌고, 저 역시 블로그 아이디어를 잡거나 자료를 구조화할 때 AI를 습관처럼 쓰게 됐습니다. 직접 겪어보니 생산성이 오르는 건 분명했습니다.
그런데 동시에 "이 작업을 내가 굳이 해야 하나"라는 생각이 드는 순간도 생겼습니다. 이건 단순히 개인적인 느낌이 아니라 실제 데이터로도 뒷받침됩니다. 맥킨지 글로벌 인스티튜트(McKinsey Global Institute)는 생성형 AI가 전 세계 근로자의 약 60~70%에 해당하는 직무 활동에 영향을 미칠 수 있다고 분석했습니다. 여기서 "영향"이란 완전한 대체가 아니라 업무 방식의 재편을 포함하는 개념인데, 그렇다고 안심할 수 있는 수치는 아닙니다.
특히 제가 걱정스럽게 보는 부분은 화이트칼라 직군입니다. 예전에는 육체 노동 자동화가 먼저라고 생각했는데, 생성형 AI는 오히려 글쓰기, 법률 검토, 코드 작성 같은 지식 노동에 먼저 파고들었습니다. 제 경험상 이건 좀 다릅니다. 공장 자동화는 현장 노동자의 문제였지만, 지금의 AI는 화면 앞에 앉아 있는 모든 직종의 이야기가 됐습니다.
현재 AI 기술이 사회에 미치는 주요 충격을 정리하면 다음과 같습니다.
- 지식 노동 자동화: 번역, 요약, 초안 작성 등 반복적 인지 작업의 대체 속도 가속화
- 정보 신뢰 문제: 딥페이크(Deepfake), AI 생성 허위 정보 확산으로 콘텐츠 진위 판별 어려움
- 전력 및 환경 비용: AI 인프라 확장에 따른 탄소 배출량 증가
- 데이터 편향(Data Bias): AI 학습 데이터에 내재된 편견이 그대로 출력 결과에 반영될 위험
이 중 데이터 편향은 특히 눈여겨볼 문제입니다. 데이터 편향이란 AI 모델이 학습한 데이터 자체에 특정 집단에 대한 불균형한 정보가 담겨 있어, 결과물이 구조적으로 왜곡되는 현상을 말합니다. 겉으로 보기에는 AI가 중립적으로 답하는 것 같아도, 내부 논리에 편향이 쌓여 있을 수 있다는 점에서 단순한 기술 오류가 아닌 사회적 문제로 다뤄야 합니다.
기술이 달리는 속도만큼, 안전장치도 빠르게 만들어야 한다
속도 경쟁에 올라탄 기업들을 무조건 비판하기는 어렵습니다. 제가 보기에 이미 어느 한 기업이 "우리 잠깐 멈추겠습니다"라고 선언한다고 해결될 구조가 아닙니다. 그렇기 때문에 더더욱 기술 외부에서 속도를 조율할 장치, 즉 규제와 윤리 기준이 빠르게 갖춰져야 한다고 생각합니다.
여기서 AI 거버넌스(AI Governance)라는 개념이 중요해집니다. AI 거버넌스란 AI 기술의 개발과 활용 전 과정에서 안전성, 투명성, 책임 소재를 제도적으로 관리하는 체계를 말합니다. 유럽연합(EU)이 2024년 발효한 AI법(AI Act)이 대표적인 사례로, AI 시스템을 위험도에 따라 분류하고 고위험 분야에는 사전 인증과 감사 의무를 부과하는 방식입니다.
그리고 솔직히 이건 예상 밖이었습니다. EU가 이렇게 구체적인 규제 프레임워크를 먼저 내놓을 줄은 몰랐거든요. 미국은 아직 연방 차원의 통일된 AI 규제 입법이 없는 상황이고, 한국도 AI 기본법 논의가 진행 중이지만 속도가 기술 발전을 따라가기에는 역부족처럼 보입니다. 이 간극이 결국 부작용을 키우는 온상이 될 수 있습니다.
결국 기술 발전 자체를 막을 수도 없고, 막아야 한다고 생각하지도 않습니다. 다만 "멈추면 뒤처진다"는 압박이 지배하는 지금, 사회가 그 속도를 감당할 수 있는 기준과 안전망을 얼마나 빠르게 만드느냐가 핵심 과제라고 봅니다. 기관차가 빠르게 달릴수록 선로와 신호 체계가 더 중요해지는 것처럼, AI 경쟁이 격화될수록 제도적 인프라의 속도도 함께 올라가야 합니다.
기술을 쓰는 개인 입장에서는, AI가 보조 도구인 상태에서 활용 역량을 키우면서 동시에 "이 결과물이 맞는가"를 판단하는 비판적 사고를 유지하는 것이 지금 당장 할 수 있는 현실적인 대응이라고 생각합니다. 기술이 아무리 빠르게 변해도, 맥락을 읽고 판단하는 능력은 여전히 사람의 몫으로 남아 있기 때문입니다.