Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Tags
- 강화 학습
- 오픈AI
- 트랜스포머
- 시간적 일관성
- PYTHON
- 오픈소스
- 오블완
- TRANSFORMER
- AI
- ubuntu
- 일론 머스크
- Stable Diffusion
- tts
- 아두이노
- AI 기술
- 확산 모델
- 다국어 지원
- 메타
- 생성형 AI
- 휴머노이드 로봇
- LLM
- 인공지능
- 우분투
- OpenAI
- OpenCV
- 딥러닝
- 티스토리챌린지
- ChatGPT
- 멀티모달
- LORA
Archives
- Today
- Total
목록flash attention 2 (1)
AI 탐구노트

Whisper Turbo Whisper Turbo는 OpenAI에서 개발한 Whipser의 최신 버전입니다. 'Turbo'라는 이름이 붙은 것처럼 높은 정확도에도 불구하고 기존 대비 처리 속도가 대폭 빨라졌습니다. 최대 8배 가까이 환경 구성 1.Anaconda 가상 환경$ conda create -n whisper python=3.10$ conda activate whisper 2.pytorch 설치 Whisper Turbo + 1.Flash Attention 2 설치이 녀석은 추론 속도를 최적화해서 제공하므로 설치하는 것이 좋다고 해서 진행합니다. github repository에는 설치 과정도 아래 딱 한 줄 명령어라 너무 쉽게 생각했던 것 같습니다. $ pip install flash-att..
DIY 테스트
2024. 10. 22. 14:05