AI 탐구노트

SAM2Point : 3D 분할 수행 모델 본문

AI 기술

SAM2Point : 3D 분할 수행 모델

42morrow 2024. 9. 3. 12:40
3D 데이터로부터 3D 세그멘테이션을 수행하는 모델

 

SAM2Point는  3D 데이터를 비디오로 변환하여 SAM 2에서 3D 세그멘테이션을 수행하는 모델입니다. 

 

SAM2Point는 3D 데이터를 다양한 방향의 비디오로 해석하여, Segment Anything Model 2 (SAM 2)를 통해 3D 공간에서 훈련 없이도 효과적인 세그멘테이션을 수행하는 모델입니다.

 

기존 방식에서는 다음과 같은 문제점들이 있었습니다. 

  • 비효율적인 2D-3D 투영
    기존 3D 세그멘테이션 방법들은 3D 데이터를 2D로 변환하여 SAM에 입력한 후, 다시 3D 공간으로 역투영하는 방식이 사용되었으며, 이는 처리 복잡성을 증가시킴
  • 3D 공간 정보 손실
    2D 투영 과정에서 3D 객체의 내부 구조와 같은 세부 공간 정보가 손실되어 정확한 세그멘테이션이 어려움
  • 제한된 프롬프트 유연성
    2D 기반 프롬프트는 3D 공간에서 정확한 위치를 지정하기 어려워 SAM의 인터랙티브 기능이 제한됨
  • 도메인 전이 한계
    기존 방법들은 특정 3D 시나리오에 맞춰져 있어, 다양한 3D 환경에 일반화하기 어려움

SAM2Point는 3D 데이터를 비디오로 변환하여 SAM 2에서 3D 세그멘테이션을 수행하며, 2D-3D 투영 없이도 3D 공간의 정보를 유지하며, 3D 포인트, 박스, 마스크 등의 다양한 프롬프트를 지원함으로써 위에서 언급한 문제들을 해결합니다.

 

 

사진 : SAM2Pint의 분할 패러다임

 

 

 

SAM2Point 모델은 다음과 같은 특징이 있습니다.

  • 3D 데이터를 비디오로 변환
    3D 데이터를 다양한 방향에서 비디오처럼 처리하여 SAM 2가 3D 세그멘테이션 가능
  • 다양한 프롬프트 지원
    3D 포인트, 박스, 마스크와 같은 프롬프트를 지원하여, 사용자가 입력한 프롬프트에 따라 3D 공간을 분할하여 세그멘테이션을 수행
  • 다양한 3D 시나리오에 일반화 가능
    SAM2Point는 단일 객체부터 실내/실외 장면, 원시 LiDAR 데이터에 이르기까지 다양한 3D 환경에서 강력한 일반화 성능 제공

 

사진 : SAM2Point의 상세 방식 설명


SAM2Point의 아키텍처는 입력된 3D 데이터를 voxelization 기법을 사용해 비디오 형식으로 변환한 후, SAM 2가 이를 처리하여 세그멘테이션을 수행하는 방식입니다. 이 과정에서 3D 공간은 앵커 포인트를 중심으로 여섯 개의 방향으로 나뉘어 각각을 비디오로 변환하며, 이들을 통합해 최종 3D 마스크를 생성합니다.

 

 

참고) 프로젝트, 논문, 코드, 데모