AI 탐구노트

EAGLE : 비전 인코더 결합으로 MLLM의 시각 능력을 최적화한 모델 본문

AI 기술

EAGLE : 비전 인코더 결합으로 MLLM의 시각 능력을 최적화한 모델

42morrow 2024. 8. 30. 21:45
비전 인코더를 결합하여 멀티모달 대형 언어 모델(MLLM)의 시각적 인식 능력을 최적화한 모델

 

EAGLE은 다양한 비전 인코더를 결합하여 멀티모달 대형 언어 모델(MLLM)의 시각적 인식 능력을 최적화한 모델입니다.


기존의 멀티모달 모델들은 주로 낮은 해상도 이미지 처리에 한정되었으며, 시각 인코더 선택 및 결합 전략에 대한 체계적인 비교와 세부적인 연구가 부족했고 이는 결과적으로 OCR 및 문서 분석과 같이 해상도가 민감한 작업에서 성능 저하를 초래했습니다.

 

EAGLE은 여러 비전 인코더의 조합과 고해상도 적응을 통해 이러한 문제를 해결하고자 합니다. 특히, 각 인코더의 시각적 토큰을 단순히 결합하는 방식이 복잡한 혼합 아키텍처만큼 효과적이며, 비전 인코더와 언어 토큰 간의 사전 정렬(Pre-Alignment)을 도입하여 모델의 일관성을 향상시켰습니다.

 

EAGLE 모델이 가지는 특징은 다음과 같습니다. 

  • 다양한 비전 인코더를 활용하여 MLLM의 성능을 극대화
  • 간단한 채널 연결 방식으로 효율적이고 성능 높은 결합 전략 구현
  • 비전 인코더를 해제(Unfreezing)하여 학습 성능 향상
  • 사전 정렬 단계를 통해 비전 인코더와 언어 모델 간의 시너지 효과 극대화
  • 고해상도 이미지 처리에 최적화

 

사진 : EAGLE. 모델 개요

 

사진 : EAGLE의 탐색 파이프라인 개요

 

EAGLE의 탐색 파이프라인은 크게 고해상도 적응 및 학습 방법 탐색결합 전략 탐색의 두 주요 단계로 이뤄져 있습니다. 위의 그림은 다양한 실험과 비교를 통해 어떤 조합이 가장 효율적이고 성능이 좋은지를 찾는 과정을 시각적으로 설명하고 있습니다. 

 

사진 : EAGLE에서 제안하는 학습 전략


EAGLE의 아키텍처는 여러 비전 인코더로부터 추출된 시각적 특징들을 채널 단위로 결합하여 대형 언어 모델로 전달하는 방식입니다. 이 모델은 세 단계의 학습 절차를 통해 구축됩니다: 1) 개별 비전 인코더를 사전 정렬하고, 2) 이 인코더들 간의 결합을 최적화한 후, 3) 전체 모델을 미세 조정하여 최종 성능을 도출합니다.



참고) 논문, 코드, 데모