Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 멀티모달
- ChatGPT
- 티스토리챌린지
- TRANSFORMER
- 휴머노이드 로봇
- 가상환경
- 아두이노
- 일론 머스크
- 뉴럴링크
- ubuntu
- OpenAI
- 우분투
- 생성형 AI
- 딥마인드
- LLM
- AI 기술
- tts
- 트랜스포머
- AI
- 메타
- PYTHON
- 오픈AI
- LORA
- 딥러닝
- 서보모터
- 인공지능
- 확산 모델
- ControlNet
- 시간적 일관성
- 오블완
Archives
- Today
- Total
목록flash attention (1)
AI 탐구노트
TinyLlama : 저사양 장비에서 동작되는 소형 언어 모델 (sLM)
저사양 로컬 장비에서 구동가능한 소형 언어모델 (SLM) TinyLlama는 StatNLP 연구 그룹과 싱가포르 기술 디자인 대학이 함께 개발한 11억 개의 매개변수로 작동하는 소형 언어모델(SLM)입니다. 아시는 바와 같이 LLM(Large Language Model)은 수많은 매개변수를 가지고 있으며 대부분은 수천억~수조개 수준의 대규모의 토큰을 가진 데이터셋으로 학습시키고 있습니다. Llama 모델을 공개한 Meta의 경우, 사전학습된 모델만 공개할 뿐 이를 학습시키기 위해 사용한 데이터셋 자체는 공개하고 있지 않습니다. 다들 이를 기반모델(base model)로 해서 각자의 용도에 맞춰 파인튜닝을 하는 방식으로 활용하고 있죠. TinyLlama는 3조개의 토큰 데이터로 학습되었고 11억개의 매..
AI 기술
2024. 8. 29. 21:34