Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- AI 기술
- TRANSFORMER
- 이미지 생성
- 다국어 지원
- 딥러닝
- LORA
- ChatGPT
- 티스토리챌린지
- 시간적 일관성
- 트랜스포머
- 오픈소스
- OpenAI
- LLM
- PYTHON
- 우분투
- 아두이노
- 휴머노이드 로봇
- 실시간 렌더링
- tts
- 일론 머스크
- 오픈AI
- 메타
- 생성형 AI
- 오블완
- 강화 학습
- 확산 모델
- AI
- OpenCV
- 멀티모달
- 인공지능
Archives
- Today
- Total
목록4090 (1)
AI 탐구노트

X에서 신기한 글을 하나 봤습니다. Nvidia RTX4090에 96GB의 VRAM을 달아서 사용하는 사례였습니다. X의 青龍聖者님(@bdsqlsz)4090 96gb verify.😎x.com 글을 내용을 봐서는 중국 쪽 분의 게시글 같았는데 증빙을 하느라 실제 돌아가는 화면과 사진을 첨부했습니다. NVIDIA에서 정상적으로 판매하는 제품은 RTX4090에는 24GB VRAM만 존재하므로 이 사진이 정말이라면 물리적으로 VRAM을 추가하도록 개조한 것으로 볼 수 있습니다. 최근 생성형 AI나 LLM을 개발하기 위해서는 GPU의 코어 성능, 메모리 대역폭도 중요하지만 사용가능한 VRAM 용량도 그 못지않게 중요해졌습니다. 참고로 고가형 GPU들 가운데 A100, H100은 80GB, 최신 H200..
AI 관련 소식
2025. 3. 12. 10:52