Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 시간적 일관성
- ControlNet
- 우분투
- TRANSFORMER
- 오블완
- 딥마인드
- AI 기술
- LORA
- AI
- 가상환경
- 서보모터
- 아두이노
- 뉴럴링크
- 생성형 AI
- PYTHON
- LLM
- 멀티모달
- tts
- 메타
- ubuntu
- 티스토리챌린지
- 확산 모델
- 인공지능
- ChatGPT
- OpenAI
- 트랜스포머
- 오픈AI
- javascript
- 이미지 편집
- 일론 머스크
Archives
- Today
- Total
AI 탐구노트
MatMul-free Language Model : 행렬곱을 제거한 LLM 본문
LLM(대규모 언어모델)에서 행렬 곱셈을 완전히 제거하면서도 성능을 유지하도록 만든 모델
1.개요
MatMul-free Languge Model (이하 MLM)은 LLM(대규모 언어모델)에서 행렬 곱셈을 완전히 제거하면서도 성능을 유지하도록 만든 모델입니다. 대부분의 신경망의 모델 학습과 추론 과정에는 아주 많은 행렬 곱셈이 사용됩니다. 처리해야 하는 데이터의 양이나 네트워크의 복잡도 등 다양한 이유로 인해 행렬곱의 양도 달라지게 되는데, LLM은 특성 상 많은 양의 행렬곱을 필요로 합니다.
2.적용 기술
일반적으로 Dense 레이어에서 입력 벡터와 가중치 행렬의 곱으로 출력을 계산하게 되는데 가중치를 {-1, 0, +1}의 값으로 제한하게 되면 곱셈 대신 덧셈과 뺄셈으로 계산을 대체할 수 있게 됩니다. 또, Self-Attention도 입력 벡터의 상호 관계를 계산하기 위해 행렬곱을 많이 사용하게 되는데 GRU(Gate Recursive Unit)가 상태를 업데이트하는 과정에서 행렬곱을 요소 별 곱셈 (element-wise multiplication)으로 대체하는 방식으로 변경했습니다.
MLM을 이용하면 행렬곱을 하지 않아 추론시에는 메모리 사용량을 10배 가량 감소시킬 수 있으며 , GPU나 FPGA와 같은 하드웨어에서 경량화된 연산을 활용하여 더 효율적으로 작동하도록 할 수 있습니다.
참고자료
1.논문
https://arxiv.org/pdf/2406.02528
2.코드 (깃헙)
3.모델 (HuggingFace)
'AI 기술' 카테고리의 다른 글
Phi-3-vision : Phi-3 기반 멀티모달 모델 (0) | 2024.08.15 |
---|---|
P3M-Net : 비식별화된 초상화 배경 분리 (0) | 2024.08.15 |
CTRL-Adapter (0) | 2024.08.14 |
Slicedit (0) | 2024.08.14 |
Octopus v2 (0) | 2024.08.14 |