AI의 다음 돌파구, 공간 지능(Spatial Intelligence)“언어를 넘어 현실과 상호작용해야 진정한 진화”
글로벌 지리공간 AI(Geospatial AI) 기업 Niantic Spatial의 수석부사장 바비 파리크(Bobby Parikh)는 최근 TechRadar Pro 등 해외 외신을 통해 “AI의 다음 도약은 언어를 넘어 공간을 이해하는 능력에 달려 있으며 이를 통해 기계가 현실 세계와 상호작용할 수 있게 된다”는 분석을 내놓았다.
이는 AI가 단순한 데이터 처리에서 벗어나 현실 속 맥락까지 파악해야 진정한 진화를 이룰 수 있다는 의미다.
왜 지금 ‘공간 지능’인가 바비 파리크는 “지금 우리가 쓰는 디지털 지도와 내비게이션은 사람을 위해 설계됐다”고 짚으며 로봇과 AI가 현실에서 스스로 움직이고 판단하려면 기계가 읽을 수 있는 지도, 곧 공간 지능이 필요하다고 강조했다.
공간 지능은 길 이름이나 표지판 같은 상징을 넘어서 사물의 배치와 거리, 시야를 가리는 장애물, 사람과 장비의 동선처럼 물리적 맥락을 이해하는 능력을 뜻한다.
이 능력이 갖춰져야 AI가 조언을 넘어 행동으로 이어질 수 있다는 이야기다.
예를 들어 물류 창고에서는 통로 폭과 선반 높이, 이동 장비의 속도와 회전 반경을 동시에 고려해 가장 안전하고 빠른 경로를 찾을 수 있고 증강현실 기반 원격 협업에서는 현장의 장비와 공간 구조를 정확히 파악해 작업자가 지금 어디에서 무엇을 해야 하는지 눈앞에 안내할 수 있다.
소비자 경험도 달라지는데 박물관이나 쇼핑몰에서 AR 셀프 투어가 실내에서도 끊기지 않고 이어지고 교육용 콘텐츠는 학습자가 서 있는 위치와 주변 환경을 인식해 상황 맞춤형 상호작용을 제공할 수 있다.
바비 파리크는 이러한 변화를 두고 “공간 지능은 기업의 효율을 높이는 도구를 넘어 사람들의 일상적 경험 자체를 바꾸는 촉매”라고 설명했다.
어떻게 구현하고 무엇을 물어야 하나 문제는 GPS만으로는 정밀한 공간 인식에 한계가 있다는 점이다.
건물 내부나 고층 건물이 빽빽한 도심에서는 신호가 튀고 수 미터 오차가 빈번하다.
그렇기 때문에 카메라로 주변 건물과 사물을 인식해 위치를 잡는 VPS(비주얼 포지셔닝 시스템)이 중요해진다.
사람의 눈처럼 시각 단서를 비교해 위치를 정교하게 고정하고 여기에 수십억 장의 현실 이미지를 학습한 대형 공간 모델(LGMㆍLarge Geospatial Model)이 더해지면 AI는 단순한 좌표를 넘어 공간의 의미와 관계를 이해하게 된다.
이런 기반 위에서 AR 글래스는 사용자의 시야에 맞춰 길 안내와 작업 지시를 안정적으로 띄우고 로봇은 복잡한 환경에서도 멈칫거림 없이 이동하고 조작을 수행한다.
기업이 지금 던져야 할 질문은 명확하다.
우선 우리 업무 가운데 공간적 맥락이 성과를 좌우하는 영역은 어디인지를 살펴야 한다.
또 현장에 축적된 도면이나 영상 및 센서 데이터를 AI가 학습할 수 있는 형태로 정리할 수 있는지 검토해야 한다.
이와 함께 카메라나 엣지 컴퓨팅 같은 인프라를 어떻게 배치할 것인지 개인정보와 보안을 어떻게 관리할 것인지도 중요한 과제다.
마지막으로 안전사고율, 이동 시간, 주문 처리 정확도 같은 성과 지표를 어떻게 측정하고 개선할 것인지에 대한 해답을 마련해야 한다.
바비 파리크는 “공간 지능이 필요한가 아닌가가 아니라 얼마나 빨리 도입할 것인가를 물어야 한다”고 강조한다.
이어 “도입은 작게 시작해 현장에 맞는 시나리오를 검증하고 모델과 지도를 업데이트하면서 범위를 넓히는 방식이 효과적”이라며 “이렇게 할 때 공간 지능은 작업자 안전을 높이고 운영의 정확도를 끌어올리며 고객 경험의 몰입도를 키우고 자동화의 범위를 확장하는 눈에 보이는 결과로 돌아온다”고 덧붙였다. <저작권자 ⓒ 커넥트 데일리 무단전재 및 재배포 금지>
댓글
|
인기기사
|