젠슨 황의 말은 짧았지만 파장은 컸다. “정부가 기술을 올바르게 사용할 것이라고 믿는다.”
미국 로스앤젤레스에서 열린 밀컨 글로벌 콘퍼런스에서 나온 이 발언은 단순한 기업 CEO의 의견이 아니었다. 인공지능(AI)을 둘러싼 세계 질서가 어디로 움직이고 있는지를 상징적으로 보여주는 장면에 가까웠다.
황 CEO는 AI 기업 Anthropic을 향해 “훌륭한 회사”라고 평가하면서도, 국가 안보 목적의 AI 활용을 제한하려는 태도에는 동의하지 않는다고 했다. “CEO는 선출직 공무원이 아니다”라는 말도 덧붙였다. 국민을 보호하기 위해 정부가 기술을 사용하려 한다면 기업이 이를 막아서는 안 된다는 뜻이었다.
이 발언이 주목받은 이유는 단순하지 않다. 지금 미국 AI 산업 내부에서는 거대한 노선 충돌이 벌어지고 있기 때문이다.
한쪽은 AI를 국가 안보의 핵심 전략 자산으로 본다. 다른 한쪽은 AI의 군사화가 통제 불가능한 위험을 초래할 수 있다고 우려한다. 황 CEO는 전자에 가까운 입장을 공개적으로 택했다.
사실 실리콘밸리는 오랫동안 국가 권력과 거리를 두려 했다. 자유주의 문화가 강했고, 정부 규제와 군사 개입을 경계하는 분위기도 존재했다. 과거 구글 직원들이 미 국방부의 드론 분석 프로젝트 ‘메이븐(Project Maven)’ 참여에 반발했던 일은 대표적 사례다. 당시 실리콘밸리에서는 “AI를 전쟁 기술로 사용해서는 안 된다”는 목소리가 적지 않았다.
하지만 분위기는 크게 달라졌다.
변화의 출발점 가운데 하나는 중국이었다. 미국은 중국이 AI를 단순 산업 기술이 아니라 국가 전략 기술로 접근하는 모습을 보며 위기감을 키우기 시작했다. 중국은 이미 국가 차원에서 군민융합 전략을 추진하고 있다. 민간 기술과 군사 기술의 경계를 사실상 허물고 있다. 드론, 안면 인식, 감시 체계, 정보 분석, 사이버전 영역까지 AI는 빠르게 군사 체계 안으로 들어가고 있다.
우크라이나 전쟁도 충격이었다. 이 전쟁은 AI와 데이터가 현대 전장을 어떻게 바꾸는지를 보여줬다. 위성 이미지 분석, 드론 타격, 실시간 정보 처리, 전자전 대응 속도는 과거와 완전히 달라졌다. 전쟁은 더 이상 단순 화력 경쟁이 아니었다. 누가 더 빠르게 데이터를 처리하고 판단하느냐의 경쟁이 됐다.
미국 안보 체계 역시 이 흐름을 빠르게 받아들이고 있다. OpenAI, Google, Microsoft, Amazon Web Services, 그리고 엔비디아까지 미국 국방부와의 협력을 확대하는 이유도 여기에 있다.
과거 냉전 시대 미국 안보 체계를 떠받쳤던 것은 록히드마틴 같은 전통 군수 기업이었다. 하지만 지금은 구조가 달라지고 있다. 군함과 전투기만으로는 패권을 유지할 수 없는 시대가 됐다. 이제 국가 안보는 반도체, 클라우드, AI 모델, 데이터센터와 연결된다. 전통적 군산복합체 위에 새로운 ‘디지털 안보 복합체’가 만들어지는 셈이다.
젠슨 황의 발언도 결국 이런 흐름 위에서 이해해야 한다.
그는 이상주의보다 현실주의에 가깝다. “상대가 무장하는데 우리만 손을 묶고 있을 수는 없다”는 논리다. 실제 미국 정부 역시 AI를 사실상 국가 전략 인프라로 취급하기 시작했다. 미국의 대중 반도체 수출 통제 역시 단순 무역 문제가 아니다. AI 패권 경쟁이다.
그렇다고 해서 AI 군사화에 대한 우려가 사라지는 것은 아니다. 오히려 문제는 이제부터 시작일 수 있다.
AI는 핵무기와 다르다. 핵무기는 특정 시설 안에 존재하지만 AI는 시민 생활 전체에 스며든다. 검색, 금융, 의료, 언론, 교육, 교통, SNS까지 연결된다. 군사용 AI와 민간용 AI의 경계 역시 흐려지고 있다. 같은 모델이 군사 정보 분석에도 쓰이고 일반 소비자 서비스에도 쓰인다.
이 때문에 AI 논쟁은 단순 무기 논쟁이 아니다. 사회 시스템 전체를 어떻게 통제할 것인가의 문제에 가깝다.
앤트로픽이 미국 국방부와 충돌한 이유도 여기에 있다. 이 회사는 군사용 활용 자체를 완전히 거부한 것은 아니다. 하지만 미국인 대규모 감시나 완전 자율무기 활용에는 선을 그으려 했다. 문제는 미국 정부가 이런 제한을 점점 불편해하기 시작했다는 점이다.
왜일까.
전장의 속도가 인간의 판단 속도를 넘어가기 시작했기 때문이다.
현대 전장은 극도로 빨라지고 있다. 초음속 미사일, 드론 스웜, 실시간 사이버 공격 환경에서는 인간의 반응만으로 대응하기 어렵다. 수천 대 드론이 동시에 움직이는 상황에서 사람이 하나하나 승인 버튼을 누를 수는 없다. 결국 군은 AI 자동화 비중을 높이려 한다.
AI가 스스로 판단하고 공격을 결정하는 단계까지 허용할 것인가 하는 문제다. 인간 통제 원칙을 유지하려 하면 군사 효율이 떨어질 수 있다. 반대로 완전 자동화를 허용하면 책임 구조가 붕괴할 수 있다.
누가 책임을 질 것인가. 개발자인가. 군인인가. 국가인가. 알고리즘인가.
아직 세계는 여기에 대한 답을 갖고 있지 않다.
그래서 지금 국제사회에서 벌어지는 논쟁은 “AI 군사화를 막을 수 있느냐”보다 “어디까지 허용할 것이냐”에 더 가깝다.
중요한 점은 이 문제가 단순한 이상주의 대 현실주의의 충돌만은 아니라는 점이다. 오히려 국가 생존과 민주주의 가치가 동시에 충돌하는 문제에 가깝다.
예컨대 국가 안보는 본질적으로 기밀 영역이다. 하지만 민주주의는 권력 감시를 요구한다. 정부와 빅테크가 비밀리에 AI 군사 프로젝트를 확대하면 시민 통제가 어려워질 수 있다. 반대로 모든 것을 공개하면 안보 기능 자체가 무너질 수 있다.
결국 AI 시대 민주주의는 새로운 질문을 마주하게 된다. 국가 안보와 시민 자유의 균형을 어디에 둘 것인가 하는 문제다.
이 딜레마는 과거에도 있었다. 냉전 시절 미국과 소련은 핵무기를 경쟁적으로 개발하면서도 동시에 통제 협정을 추진했다. 완전한 신뢰 때문이 아니었다. 서로 너무 위험해졌기 때문이다.
AI 역시 비슷한 길을 갈 가능성이 있다. 다만 차이도 크다. 핵무기는 국가가 독점했지만 AI는 민간 기업이 핵심 주체다. 인터넷 연결만 있으면 AI 모델은 전 세계로 확산될 수 있다. 핵 기술보다 훨씬 빠르게 퍼질 수 있다.
바로 이 점 때문에 AI 규범 논의는 핵 통제보다 훨씬 어렵다.
그렇다고 아무 기준도 없이 갈 수는 없다. 완전 자율 핵 발사 체계나 민간 대규모 감시처럼 최소한의 위험 영역만큼은 제한하려는 논의가 나오는 이유다. 현실적으로는 전면적 AI 군축보다 “어디까지 금지할 것인가”의 제한적 규범 논의가 먼저 진행될 가능성이 크다.
이 과정에서 실리콘밸리도 변하고 있다.
과거 실리콘밸리는 “세상을 연결한다”는 이상주의 이미지가 강했다. 하지만 지금 AI 기업들은 점점 국가 안보 체계 안으로 들어가고 있다. 투자 규모가 천문학적으로 커졌고, 데이터센터와 반도체 공급망은 국가 전략과 직결된다. AI 기업들은 더 이상 순수한 스타트업이 아니다. 국가 전략 산업의 일부가 되어가고 있다.
젠슨 황의 발언이 중요한 이유도 여기에 있다.
그의 말은 단순한 친정부 선언이 아니다. AI 시대의 권력이 어디로 이동하는지를 보여준다. 기술 기업들이 다시 국가와 결합하기 시작했다는 신호다.
한국 역시 이 흐름에서 자유롭지 않다. AI는 단순 플랫폼 산업이 아니다. 반도체, 국방, 금융, 의료, 언론, 교육, 정보 체계까지 연결된다. 결국 한국도 AI를 산업 정책만이 아니라 안보 전략 차원에서 다루게 될 가능성이 크다.
다만 중요한 것은 속도보다 방향이다.
AI 경쟁이 치열해질수록 국가들은 더 강한 통제 권한을 원할 가능성이 높다. 하지만 안보 논리가 모든 것을 압도하기 시작하면 민주주의와 시민 자유는 빠르게 위축될 수 있다. 반대로 윤리와 규제만 강조하면 기술 경쟁에서 뒤처질 수 있다는 불안도 커질 수밖에 없다.
그래서 앞으로 중요한 것은 단순한 찬반이 아니다. “어디까지 허용할 것인가”, “어떤 위험까지 감수할 것인가”, “누가 최종 책임을 질 것인가”를 둘러싼 사회적 기준을 만드는 일이다.
젠슨 황은 현실을 말했다. 앤트로픽은 위험을 경고했다. 지금 세계는 그 두 주장 사이에서 새로운 균형점을 찾기 시작한 단계에 들어섰다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지


![[르포] 중력 6배에 짓눌려 기절 직전…전투기 조종사 비행환경 적응훈련(영상)](https://image.ajunews.com/content/image/2024/02/29/20240229181518601151_258_161.jpg)



