Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 티스토리챌린지
- AI 기술
- 멀티모달
- ubuntu
- 트랜스포머
- 확산 모델
- 이미지 편집
- 아두이노
- PYTHON
- 가상환경
- OpenAI
- 오블완
- 시간적 일관성
- 일론 머스크
- LORA
- 인공지능
- javascript
- 생성형 AI
- ChatGPT
- AI
- tts
- 메타
- 우분투
- TRANSFORMER
- LLM
- 서보모터
- ControlNet
- 뉴럴링크
- 오픈AI
- 딥마인드
Archives
- Today
- Total
목록내성 (1)
AI 탐구노트
LLM의 자기 성찰과 내성 학습 가능성 증명
대규모 언어 모델(LLM)이 스스로의 행동을 이해하고 예측할 수 있는 능력, 즉 '내적성찰(Introspection)'에 대해 실험적 연구 결과가 공개되었습니다. 즉, '내가 이런 질문을 받으면 어떤 대답을 할까?' 같은 질문에 스스로 답할 수 있는지를 실험한 것이죠. 저자 목록을 보면 Truthful AI, Scale AI, Anthropic, Eleos AI, UC Bekeley 등 다양한 학교와 기업에 속한 분들이 참여한 공동 연구 결과입니다. 보통 LLM은 훈련된 데이터를 바탕으로 답하다보니, 그 데이터의 범위를 넘어서는 질문이 나올 경우 성능이 떨어지고 환각(Hallucination)을 발생시키기 마련입니다. 이번 연구에서는 모델들이 그 범위를 넘어서 자기 행동에 대한 정보를 스스로 활용할 ..
AI 기술
2024. 10. 21. 10:41