Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- 딥러닝
- 오픈소스
- LLM
- ChatGPT
- AI
- 바이브코딩
- PYTHON
- 이미지 편집
- 이미지 생성
- 오블완
- OpenAI
- AI 기술
- 확산 모델
- 감정 표현
- 티스토리챌린지
- 우분투
- 멀티모달
- 메타
- gaussian splatting
- 일론 머스크
- 생성형AI
- 강화학습
- tts
- 음성합성
- 음성 인식
- 트랜스포머
- XAI
- 오픈AI
- 인공지능
- 자동화
Archives
- Today
- Total
목록jailbreaking (1)
AI 탐구노트
최근 인공지능 언어모델(LLM)은 일상 생활과 산업 현장 등 다양한 분야에 빠르게 도입되고 있습니다. 챗봇, 자동 번역, 지식 검색, 코딩 지원 등 많은 서비스에서 LLM이 핵심 기술로 자리잡고 있죠. 그러나 이러한 LLM의 확산은 동시에 새로운 보안 위협을 불러오고 있습니다. 대표적인 예로는 ‘프롬프트 인젝션(prompt injection)’이나 ‘정보 유출’, 그리고 ‘모델의 안전 장치 우회(jailbreaking)’ 등이 있습니다. 이처럼 악의적인 사용자는 LLM이 원래 제공하지 않아야 할 민감하거나 위험한 정보를 뽑아내는 시도를 계속하고 있습니다.기존에는 이런 위협에 대응하기 위해 LLM 학습 단계에서 필터링, 강화 학습, 미세조정 같은 방법을 주로 사용했습니다. 하지만 이런 방식은 실제 서비스..
AI 기술
2025. 7. 16. 10:36
