Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- 강화학습
- 우분투
- 오블완
- ChatGPT
- 음성 인식
- 바이브코딩
- PYTHON
- 멀티모달
- 티스토리챌린지
- gaussian splatting
- XAI
- 이미지 편집
- 생성형AI
- 오픈AI
- 일론 머스크
- 확산 모델
- tts
- 딥러닝
- AI
- AI 기술
- OpenAI
- LLM
- 이미지 생성
- 메타
- 감정 표현
- 인공지능
- 트랜스포머
- 오픈소스
- 음성합성
- 자동화
Archives
- Today
- Total
목록Verbalized Sampling (1)
AI 탐구노트
요즘 생성형 AI를 써 보면, 같은 질문을 여러 번 던져도 비슷한 문장과 비슷한 결론으로 돌아오는 경우가 많습니다. 겉으로는 ‘정답률이 올라간 것’처럼 보이지만, 창작 글쓰기나 아이디어 발산, 시뮬레이션처럼 여러 갈래의 답이 필요한 작업에서는 오히려 답변이 단조로워져 답답해지죠. 기업들이 챗봇을 ‘안전하고 친절하게’ 만들기 위해 후처리 학습을 강화할수록, 이런 현상이 더 눈에 띈다는 이야기도 자주 나옵니다. 이번 논문은 이 문제를 ‘알고리즘이 덜 똑똑해서’가 아니라, 사람이 만드는 선호 데이터 자체가 가진 편향에서 찾습니다. 사람은 낯선 표현보다 익숙한 표현을 더 좋게 평가하는 경향이 있는데, 이게 선호 데이터에 쌓이면 모델이 점점 ‘무난하고 전형적인 답’만 고르게 된다는 겁니다. 그리고 해결책도 거창한..
AI 기술
2026. 1. 7. 14:50
