미국 콜로라도주 덴버에 본사를 둔 팔란티어 테크놀로지스(Palantir Technologies Inc.)는 지난 10여 년간 ‘세계에서 가장 중요한 기술 회사 중 하나’라는 평가를 받아왔다. 이 회사는 자신들의 기술이 테러를 예방하고, 국경을 보호하며, 전쟁에서 군인들의 생명을 지켜낸다고 주장해왔다. 그들의 고객은 단지 민간 기업이 아니라 미국 중앙정보국(CIA), 국방부, 국토안보부, 이민세관단속국(ICE)과 같은 국가 권력기관이다. 그들의 플랫폼은 정부의 첨단 감시 시스템에 깊이 내장되어 있으며, 글로벌 군사 작전과 기업의 전략 수립까지 관여하고 있다.
팔란티어는 단순한 IT 회사가 아니다. 이 회사는 인공지능(AI)과 빅데이터를 통해 미래를 예측하려는 기술 철학의 집대성체다. 그들이 공급하는 소프트웨어는 전 세계 수십 개국의 정부와 기업이 의사결정을 내리는 데 결정적 영향을 미친다. 하지만 이런 영향력은 칭송과 동시에 비판의 대상이 된다. 모든 것을 볼 수 있다는 기술은, 곧 모든 것을 통제할 수 있다는 믿음으로 이어지고, 그 믿음은 종종 감시와 억압, 정치적 조작, 비윤리적 실험의 도구로 변질된다.
팔란티어의 대표 플랫폼인 Gotham과 Foundry는 각기 정부와 민간을 위한 데이터 통합·분석 도구다. Gotham은 CIA와 FBI, ICE, 미국 육군 등 정보기관과 군사기관이 사용하며, 테러 대응, 이민자 추적, 범죄자 네트워크 분석 등 고위험 고권력 분야에서 광범위하게 활용된다. Foundry는 민간 기업을 대상으로 하는 플랫폼으로, 의사결정 자동화, 생산 공정 최적화, 공급망 분석, 경영 전략 수립에 이르기까지 다양한 분야에 쓰인다.

이 회사의 가장 최신 기술은 AIP(Artificial Intelligence Platform)다. AIP는 기존의 분석 기능을 넘어 인공지능이 스스로 학습하고, 상황을 인식하며, 최적의 판단을 제시하거나 직접 실행하는 기능까지 구현하고 있다. 이 기술은 2023년 이후 팔란티어의 매출을 폭발적으로 끌어올린 핵심 동력이 되었으며, AI에 기반한 국방 전략 시스템과 민간 기업용 디지털 트윈 모델링 시스템으로 확장되고 있다.
하지만 이러한 기술 진보는 동시에 심각한 윤리적 질문들을 던진다. 팔란티어는 과연 중립적인 기술 회사인가? 아니면 감시국가의 무기인가? 그리고, 인공지능의 판단이 인간의 자유와 생명에 영향을 미치는 순간, 그 책임은 누구에게 있는가?

팔란티어의 이름은 톨킨의 소설 『반지의 제왕』에 등장하는 ‘팔란티르(Palantír)’에서 따온 것이다. 팔란티르는 먼 곳을 볼 수 있는 마법의 수정구로, 강력한 정보의 힘을 상징한다. 그러나 그 마법구는 동시에 오해와 조작, 광기의 매개체이기도 했다. 현실의 팔란티어도 마찬가지다. 그들은 말한다. “우리는 숨겨진 패턴을 읽어냄으로써 세상을 더 나은 방향으로 이끈다”고. 하지만 그들이 말하지 않는 것, 그리고 우리가 반드시 물어야 할 것은 “그 ‘패턴’은 누구의 것이며, 그 ‘더 나은’은 누구를 위한 것인가”다.
팔란티어의 AI는 미 육군의 전장 지휘 시스템, 우크라이나 전쟁의 실시간 작전 분석, 이스라엘군의 팔레스타인 정찰 체계 등에 활용된 것으로 알려져 있다. 이 AI는 위성 영상, 정찰 드론, 군사 감청, 인적 정보 등을 통합해 최적의 타격 지점을 제시하며, 실시간 의사결정을 자동화한다. 이런 기술은 군사적 효율성 측면에서는 탁월할지 모르지만, 살상 무기의 정당성과 인간 생명의 가치에 대한 재정의를 요구한다.

실제로 팔란티어의 기술은 오사마 빈 라덴을 추적하고, 미군의 대테러 작전에 활용됐으며, 미 국내에서는 이민자 위치 추적과 체류기록 분석, 잠재적 범죄자 예측 시스템에 도입되었다. 이러한 시스템은 종종 법적 절차를 거치지 않은 선제적 판단을 가능하게 하며, 이 과정에서 인권 침해 우려가 반복적으로 제기되어 왔다.
2024년에는 스티븐 밀러(Stephen Miller)라는 이름이 다시금 언론을 달궜다. 그는 트럼프 전 행정부의 정책 고문이자 강경 반이민 정책의 설계자였다. 그의 가족이 팔란티어 지분을 대거 보유하고 있으며, 이를 통해 ICE 및 국토안보부와의 계약에 정치적 편향과 내부 유착 의혹이 제기되었다. 감시 기술이 정치적 도구로 사용될 수 있다는 우려는 현실로 드러난 것이다.
민간 분야에서도 문제는 존재한다. 팔란티어는 제약회사, 은행, 제조기업, 물류업체에 Foundry와 AIP를 공급하며 AI 기반 의사결정 시스템을 빠르게 확산시키고 있다. 이 시스템은 고용 구조, 재무 전략, 마케팅 알고리즘 등 기업의 핵심 판단 영역에 AI를 개입시킨다. 그러나 AI가 ‘합리적’ 판단을 한다는 전제는 그 알고리즘이 중립적이고 공정하다는 신화를 필요로 한다. 문제는 대부분의 알고리즘이 개발자의 세계관과 데이터 편향을 반영한다는 점이다. 즉, AI는 데이터를 분석하는 것이 아니라, 데이터가 지시하는 방향으로 사회를 ‘재구성’하고 있는 셈이다.
팔란티어는 그들의 기술이 공공의 선을 위한 것이라 주장한다. 전염병 확산 방지, 에너지 위기 대응, 식량 물류 효율화 등의 영역에서 긍정적 성과도 있었다. 그러나 기술의 윤리는 목적이 아니라 수단에도 깃든다. 누군가의 생명을 구한 기술이 동시에 다른 누군가의 자유를 박탈할 수 있다면, 우리는 그것을 어떻게 판단해야 할까?

AI 기술은 인간이 만든 도구이지만, 그 도구가 점점 인간을 ‘분석의 대상’이자 ‘제어의 객체’로 만들고 있다. 팔란티어는 그 최전선에 있다. 그들은 자신들의 기술이 “정보를 통해 혼란을 질서로 바꾼다”고 말한다. 그러나 우리가 살고 있는 이 시대는, 과연 질서가 더 필요한가, 아니면 새로운 질문과 저항이 더 절실한가?

결국 기술은 선택의 문제다. 그리고 그 선택은 책임을 동반한다. 팔란티어가 만든 AI는 오늘날 세계 곳곳에서 실제로 사용되고 있으며, 그 기술은 이제 단순한 기업 제품이 아니라 공공정책, 전쟁, 경제, 삶의 구조를 재구성하는 사회 인프라가 되었다. 우리는 팔란티어의 기술이 가진 능력만이 아니라, 그것을 사용하는 사람들과 사회가 어떤 철학과 태도를 지녔는지를 함께 검토해야 한다.
감시와 예측이 전부인 사회는 인간다운 삶을 보장할 수 없다. 우리는 모든 것을 예측할 수 있다고 믿는 순간, 예측 불가능한 자유를 포기하게 된다.
팔란티어의 기술은 그런 선택 앞에서, 우리 모두에게 한 가지 질문을 던지고 있다.
“당신의 삶도 분석되고 있습니까?”
ⓒ 뉴욕앤뉴저지. 무단전재 및 재배포 금지