Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 가상환경
- 일론 머스크
- ChatGPT
- ControlNet
- 트랜스포머
- 우분투
- 뉴럴링크
- 생성형 AI
- PYTHON
- tts
- 확산 모델
- 서보모터
- 인공지능
- OpenAI
- 아두이노
- 딥마인드
- 딥러닝
- 이미지 편집
- 시간적 일관성
- 티스토리챌린지
- ubuntu
- 메타
- AI
- LLM
- 멀티모달
- LORA
- AI 기술
- 오픈AI
- 오블완
- TRANSFORMER
Archives
- Today
- Total
목록경량 llm (1)
AI 탐구노트
Phi-1.5 : 고품질 학습 데이터로 학습한 sLM
마이크로소프트에서 공개한 경량 LLM 모델 Phi-1.5는 Microsoft가 발표한 공개 LLM 모델입니다. 13억개의 매개변수를 가진 상대적으로 덩치가 작은 sLLM 쪽에 가깝습니다. Microsoft에서는 소규모 Transformer 기반 언어모델의 성능에 대한 연구가 계속 진행해왔으며 그 결과 Phi-1 이후 Phi-1.5까지 이르게 되었고 13B로 70B의 매개변수를 가지는 Llama2 모델의 성능과 유사한 결과를 낸다고 하네요. 이 모델은 사회적 편견 이해, 독성 감소 등을 목적으로 하고 있기에 학습에 사용한 데이터 자체에 먼저 집중했습니다. '교과서 품질'의 데이터셋을 구성하기 위해 웹에서 크롤링한 데이터를 배제했습니다. 그리고 기존 LLM을 활용하는 방식으로 접근했으며 인간 피드백을 통한 ..
AI 기술
2024. 8. 27. 21:44