트렌드 매거진
[경제전망] 화면을 넘어 현실로 나온 AI
페이지 정보
본문

CES 2026이 보여준 피지컬 AI의 현재와 미래, 그리고 가장 먼저 바뀔 것
한때 인공지능(AI)은 화면 속에만 존재했다. 검색창에 답을 내놓고, 문서를 써 주고, 이미지를 만들어 주는 ‘디지털 두뇌’였다. 그러나 2026년 CES에서 확인된 AI의 모습은 분명히 달랐다.
AI는 더 이상 말만 잘하는 존재가 아니었다. 보고, 판단하고, 움직이며, 실제 일을 해내는 존재, 즉 피지컬 AI(Physical AI)로 무대 위에 등장했다.
이번 CES는 “AI가 무엇을 생각하느냐”보다 “AI가 무엇을 직접 하느냐”를 보여준 전시였다.
생성형 AI, 에이전틱 AI, 피지컬 AI, AGI — 무엇이 어떻게 다른가
요즘 AI를 둘러싼 용어는 비슷해 보이지만, 핵심 차이는 “무엇을 만들고(생성)”, “누가 일을 하고(에이전트)”, “현실 세계에 손이 닿는지(피지컬)”, “어디까지 범용인지(AGI)”에 있다. 이 차이를 이해하면, 앞으로 3~5년 일·산업·경제가 어떻게 바뀔지 훨씬 또렷하게 볼 수 있다.

1) 생성형 AI: “콘텐츠를 만들어내는 두뇌”
생성형 AI(Generative AI)는 텍스트·이미지·음성·영상·코드 같은 ‘콘텐츠’를 생성한다. 업무 현장에서는 문서 초안, 요약, 번역, 고객 응대 스크립트, 코드 작성 등 “언어 기반 지식노동”의 생산성을 빠르게 끌어올리고 있다.
다만 생성형 AI는 원칙적으로 “요청하면 만들어주고, 요청이 끝나면 멈추는” 성격이 강하다. 즉, 스스로 목표를 세우고 일감을 쪼개서 실행하는 ‘행동 주체’라기보다는 ‘지능형 생성 엔진’에 가깝다.
2) 에이전틱(Agentic) AI: “목표를 달성하는 디지털 직원”
에이전틱 AI(Agentic AI)는 한 문장으로 말해 ‘계획하고 실행하는 AI’이다. 사용자가 목표를 주면, AI가 스스로 업무를 단계로 쪼개고(계획), 필요한 도구를 호출하고(행동), 결과를 점검·수정(피드백)하면서 일을 끝까지 밀어붙인다. IBM과 구글 클라우드 같은 기업들이 “자율성, 장기 목표, 멀티스텝 문제 해결”을 에이전틱의 핵심 특징으로 정리한다.
이 변화가 왜 중요할까?
생성형 AI가 “문서·코드 생산”을 자동화했다면, 에이전틱 AI는 “업무 프로세스 자체”를 자동화한다. 즉, SaaS(도구)에서 OaAS(결과)로 비즈니스 모델이 이동할 수 있다는 전망이 나온다. 최근에는 “Outcome as Agentic Solution(결과형 에이전틱 서비스)”처럼, 업체가 ‘툴 제공’이 아니라 ‘성과 달성’을 책임지는 모델도 논의된다.
3) 피지컬(Physical) AI: “현실 세계에서 보고·움직이고·작업하는 AI”
피지컬 AI는 AI가 로봇·자율주행·카메라·드론처럼 물리적 시스템과 결합해, 현실 세계를 인지하고 행동하는 영역이다. 엔비디아는 피지컬 AI를 “현실 세계에서 지각·이해·추론·복잡한 행동 수행”으로 정의한다.
최근 이 분야가 다시 뜨거워진 이유는, 언어·비전 모델이 발전하면서 로봇이 “지시를 이해하고 행동으로 옮기는” 단계가 빨라졌기 때문이다. 구글 딥마인드는 시각·언어 정보를 로봇 행동으로 연결하는 접근(비전-언어-행동 모델)을 공개적으로 소개해 왔다.
그리고 2026년 CES에서는 엔비디아 CEO가 “피지컬 AI의 ‘ChatGPT 모먼트’”라는 표현까지 사용하며 로봇·자율주행을 겨냥한 모델·칩을 강조했다.
로봇 업계도 ‘연구실 데모’에서 ‘산업 배치’로 이동하는 조짐이 보인다. 예컨대 휴머노이드 로봇 관련 인수·확장, 생산 로드맵 등이 뉴스의 중심으로 올라오고 있다.
CES 2026의 주인공은 단연 피지컬 AI였다. 생성형과 에이전틱 AI가 “두뇌”라면, 피지컬 AI는 팔과 다리를 갖기 시작한 셈이다.
4) AGI: “사람처럼 범용적으로 배우고 일하는 지능(아직은 목표선)”
AGI(Artificial General Intelligence, 범용 인공지능)는 “특정 작업”이 아니라 대부분의 지적 과업을 사람 수준으로 폭넓게 수행하고, 새로운 문제에 스스로 학습·적응하는 능력을 뜻한다.
중요한 건, 업계에서도 AGI를 ‘현재의 제품 분류’라기보다 ‘미래의 상태(목표선)’로 보는 관점이 많다는 점이다. 딜로이트는 에이전틱 AI를 “증강→자동화→진정한 자율”의 단계로 설명하면서, ‘진정한 자율’의 미래 상태를 AGI와 연결해 논의한다.
즉, 지금 우리가 체감하는 큰 변화(생성형·에이전틱)는 AGI가 오기 전에도 사회를 충분히 흔들 수 있다는 뜻이다. 오히려 “AGI가 언제 오느냐”보다 “에이전트가 어디까지 일을 맡게 되느냐”가 당장의 경제 변화를 더 직접적으로 만든다고 볼 수 있다.
2026 CES에서 확인된 피지컬 AI의 ‘다양성’
이번 전시에서 눈에 띈 점은 “로봇 하나 잘 만들었다”가 아니라, 적용 분야가 급격히 넓어졌다는 사실이다.
1️⃣ 물류·창고: 가장 빠른 상용화
• 박스를 집어 올리고, 분류하고, 이동하는 로봇
• 사람의 음성 지시를 이해하고 작업을 이어가는 시스템
• 밤낮 없이 작동하는 자동화 물류 라인
인력난 + 반복 작업이라는 조건이 맞아떨어지며, 피지컬 AI가 가장 먼저 안착하는 분야다.
2️⃣ 제조업: ‘스마트 공장’의 진화
• 단순 반복이 아니라 작업 상황을 인식해 판단을 바꾸는 로봇
• 불량 여부를 실시간으로 판단하고 공정을 조정
• 사람과 같은 공간에서 협업하는 협동 로봇
기존 자동화보다 한 단계 진화해, “유연한 자동화”로 이동 중이다.
3️⃣ 모빌리티·자율주행: 판단하는 이동체
• 단순 주행 보조를 넘어, 상황을 이해하는 차량 AI
• 물류·셔틀·특정 구역 자율주행 중심으로 확산
• 로봇 택시보다 상업용·산업용이 먼저 현실화
완전 자율주행은 아직 시간이 필요하지만, 제한된 공간에서는 빠르게 실용화 중이다.
4️⃣ 헬스케어·돌봄: 가장 조심스럽지만 필연적인 영역
• 환자 이동 보조, 재활 지원 로봇
• 간호사의 단순 업무를 덜어주는 피지컬 AI
• 고령화 사회에서 수요가 폭발적으로 증가 예상
기술보다 신뢰와 규제가 관건이지만, 장기적으로 가장 큰 시장이 될 가능성이 크다.
5️⃣ 가정·서비스: 아직은 ‘보조 역할’
• 청소, 물건 나르기, 간단한 정리
• 아직 가격·안정성·활용도는 제한적
• 그러나 AI 두뇌가 고도화될수록 급속히 발전 가능
지금은 보여주기 단계, 5~10년 뒤를 위한 씨앗에 가깝다.
가장 먼저 영향이 갈 곳은 어디인가?
결론부터 말하면 “사람이 부족하고, 일이 표준화된 곳”이다.
단기(1~3년)
• 물류 창고
• 제조 공정
• 산업용 이동·운반
인건비 절감 + 안정적 생산성이 즉시 나타나는 영역
중기(3~5년)
• 건설 일부 공정
• 병원·요양시설 보조 업무
• 공공 인프라 관리
규제와 신뢰가 해결되는 속도에 따라 확산
장기(5년 이상)
• 가정용 로봇
• 개인 맞춤형 서비스
• 일상 전반의 ‘물리적 비서’기술보다 사회적 수용성이 변수
경제는 어떻게 바뀔까: “화이트칼라 다음은 블루칼라”
지난 몇 년간 AI 충격은 주로 사무직·지식 노동에 집중됐다. 하지만 피지컬 AI는 그 파동을 현장 노동과 실물 경제로 확장한다.
• 생산성: 같은 인력으로 더 많은 물량 처리
• 산업 구조: 하청·인력 중심 → 자동화·플랫폼 중심
• 노동 시장: 일자리가 ‘사라진다’기보다 역할이 바뀐다
앞으로 현장의 인간은 일하는 사람에서 감독자, 판단자, 문제 해결자로 이동한다.
CES 2026이 던진 메시지
이번 CES는 분명히 말하고 있었다.
“AI는 이제 생각만 하지 않는다. 직접 움직인다.”생성형 AI가 “머리를 깨웠다면”, 에이전틱 AI는 “손에 일을 맡기기 시작했고”, 피지컬 AI는 “현실을 바꾸는 단계”로 들어섰다. AGI가 언제 오느냐보다 중요한 질문은 이제 이것이다.“AI가 어디까지 대신 움직이게 할 것인가?”
그 선택이 개인의 일상과 기업의 경쟁력, 그리고 국가 경제의 방향을 가르게 될 것이다.
리빙트렌드 편집팀
댓글목록
등록된 댓글이 없습니다.