Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- AI 기술
- XAI
- 오픈AI
- 자동화
- 트랜스포머
- 멀티모달
- tts
- LLM
- 메타
- 음성 인식
- 감정 표현
- 생성형AI
- 우분투
- 일론 머스크
- 티스토리챌린지
- gaussian splatting
- OpenAI
- 딥러닝
- 바이브코딩
- 음성합성
- 이미지 생성
- 이미지 편집
- 오픈소스
- 오블완
- 확산 모델
- PYTHON
- AI
- ChatGPT
- 강화학습
- 인공지능
Archives
- Today
- Total
목록Pix2Pred (1)
AI 탐구노트
로봇이 집이나 공장에서 사람처럼 일을 하려면, 단순히 눈앞의 화면을 보는 것만으로는 부족합니다. 화면 속 장면을 이해하고, 앞으로 어떤 순서로 행동해야 하는지 스스로 계획할 수 있어야 합니다. 지금까지는 보통 사람이 시범을 많이 보여주면, 로봇이 그걸 따라 하는 방식이 주로 쓰였습니다. (Figure AI나 Tesla 로봇의 학습 영상에 많이 나오죠!) 하지만 이런 방식은 물건이 달라지거나 환경이 바뀌면 금방 한계를 드러냅니다. 사람은 다르게 생각합니다. 예를 들어 '책상이 비었는가?', '컵이 서랍 안에 들어갔는가?'처럼, 장면을 단순히 픽셀(화면 상의 점) 단위가 아니라 의미 있는 규칙으로 요약합니다. Pix2Pred는 이와 같은 방식으로 접근합니다. 로봇이 카메라 화면에서 직접 이런 규칙(‘조건문..
AI 기술
2025. 9. 9. 12:15
