일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- TRANSFORMER
- OpenAI
- 딥마인드
- 시간적 일관성
- AI
- 서보모터
- tts
- PYTHON
- 오블완
- 이미지 편집
- 메타
- 멀티모달
- 확산 모델
- LLM
- 인공지능
- AI 기술
- 우분투
- 뉴럴링크
- ubuntu
- LORA
- 트랜스포머
- ChatGPT
- 생성형 AI
- 아두이노
- 일론 머스크
- ControlNet
- 가상환경
- javascript
- 티스토리챌린지
- 오픈AI
- Today
- Total
AI 탐구노트
사진 속의 얼굴 표정을 편집하는 솔루션 테스트 본문
1.서론 : 얼굴 표정, 인공지능 기술의 만남
자신의 얼굴이 누군가에게 어떤 인상을 남길지 고민해본 적이 있으신가요? 우리 얼굴은 일종의 감정의 지도라고 할 수 있는데, 그것은 누군가와 대화할 때 미묘하게 바뀌는 표정만으로도 그날의 기분이나 생각을 어느 정도 전달할 수 있기 때문입니다. 하지만 이 감정의 지도가 항상 명확하게 읽히는 건 아닙니다. 때로는 우리 자신조차도 어떤 감정을 느끼고 있는지 모를 때가 있죠.
최근 인공지능 기술은 사람의 표정과 감정을 정교하게 분석하고 해석하는 수준에 이르렀습니다. 이를 활용하면 개인적인 일기 혹은 블로그 글에서 텍스트 내용이나 사진 속 인물의 감정은 물론, 그에 어울리는 표정까지 자동으로 감지하고 이에 맞는 화면 구성이나 서비스를 제공하는 것도 가능해지고 있죠. 예를 들어, 블로그 글의 분위기와 감정을 분석해 해당 글을 대표할 수 있는 표정을 가진 자신의 모습이나 가상 아바타를 생성하거나 페이지의 테마(구성, 색상 등)를 변경하는 것 등이 있겠네요. 이렇게 되면, 글의 매력을 시각적으로 강화해주는 효과를 가져옵니다. 한마디로 감정과 비주얼의 연결고리를 만들어 주는 셈이죠.
이런 기술의 활용은 단순히 재미를 넘어서, 소통과 공감의 도구로 발전할 가능성을 보여줍니다. 소셜 미디어나 콘텐츠 플랫폼에서 개인의 감정을 더 정확히 전달하거나, 고객 서비스에서 사용자의 감정을 인식해 맞춤형 응대를 제공하는 등 다양한 산업군에서 그 가능성을 시험 중인데, 인공지능이 사람의 감정을 이해하고 표현하는 데 있어 점점 더 능숙해진다면, 인간과 기계 간의 상호작용은 한층 더 부드럽고 자연스러워질 것입니다.
2.테스트
2.1.테스트 대상
이번 글에서는 사진 속의 얼굴 표정을 편집하는 기술을 테스트 해 봅니다. 이를 위해 예전 글에서 소개한 바 있는 LivePortrait라는 기술을 이용하게 됩니다.
직접 모델 구현을 하는냐구요? 그건 아니구요... 이 기술을 손쉽게 사용해 볼 수 있도록 Web UI까지 만들어서 공개하신 분이 있어서 이번에는 단순하게 그 도구를 설치, 구성하고 실제 사진을 이용해서 편집해 보는 것만 하게 됩니다. 해당 링크는 다음과 같습니다.
2.2.환경 구성
제 경우, Flux.1 때문에 한번 구성을 했었죠. 거기서 Manager 도구를 이용해서 바로 사용해 볼 수 있었습니다. GPU 환경이 없거나 환경 구성이 어려운 분들은, 해당 github repo에 있는 Colab 링크를 이용하시면 됩니다. 훨씬 더 간단하게 몇 번의 클릭만으로 패키지 설치와 Gradio App까지 바로 동작시켜 볼 수 있으니까요...
2.3.테스트 이미지 준비
사진 전체에서 얼굴 비중이 높은 (크게 나온) 것과 그렇지 않은 것, 눈과 입의 표현을 어떻게 하는지 알아보기 위해 한 장은 입을 벌리고 있는 것으로, 다른 하나는 그렇지 않은 것으로 선택했습니다. 다행히 쌍이 딱 맞아 떨어졌네요.
산타 할아버지 사진 : Unsplash의 krakenimages
어린아이 얼굴 사진 : Unsplash의 Muhammad-Taha Ibrahim
2.4.결과 확인
똑같은 설정으로 두 장의 사진을 테스트 해 봅니다. (아이 얼굴 쪽은 약간 다른 변형도 가해 봤습니다)
위 사진을 보면 아무래도 얼굴이 사진 전체에서 차지하는 비율이 높은 경우, 더 효과를 볼 수 있다는 것을 알 수 있습니다. 그리고, 아이 사진의 보면, 고개 회전을 준 것 때문에 일부 머리카락이 제대로 표현되지 않는 것을 볼 수 있습니다. 이건 나중에 Inpainting을 이용해 복원할 수 있으니 활용하는데 크게 문제가 되진 않을 것 같긴 합니다.
위의 경우, 약간의 변화만으로도 표정은 재미나게 변하기 때문에 효과를 봤습니다만... 아무래도 바꿀 수 있는 영역이 딱 얼굴 영역 근처로만 한정되기 때문에 이런 제약을 고려해서 활용할 곳을 찾아야 할 것 같습니다.
3.후기
사람의 얼굴 표정을 통해 알 수 있는 정보는 아주 다양합니다. 이런 정보가 중요한 것은 대화하는 상대의 행동과 말에 대한 나의 반응과 상대에게 전달하려는 나의 감정이 포함되어 있기 때문입니다. 그러니 여기서 가장 중요한 것은 '이해와 표현의 조화'이라고 할 수 있습니다. 우리의 얼굴이 감정을 전달하는 가장 강력한 매개체라면, 인공지능은 이를 더욱 풍부하게 해석하고 표현할 수 있도록 돕는 파트너가 될 수 있겠죠. 텍스트 속 감정을 읽고 이를 표정으로 시각화하는 서비스는 단순히 기술 발전의 결과가 아니라, 사람 간의 연결과 이해를 돕는 다리 역할을 할 수 있게 될 것입니다.
이번 글에서는 공개된 LivePortrait라는 기술을 이용해서 사진 상의 인물 얼굴에 나타난 표정을 원하는대로 편집해보는 것을 테스트 해 봤습니다.
4.Q&A
Q.로컬에서 직접 환경 구성을 해야 하나요?
Colab에서 할 수도 있고, Docker를 이용하는 방법도 있었습니다.
Q.리눅스에서만 가능한가요?
제 경우는 우분투였지만, Github에는 Windows에서도 가능하다고 설명되어 있습니다.
'DIY 테스트' 카테고리의 다른 글
FaceFusion : 안면 얼굴 교체를 손쉽게 해주는 AI 소프트웨어 (4) | 2024.11.12 |
---|---|
강의영상에서 슬라이드 파일 추출 방법 (9) | 2024.11.11 |
OpenCV를 이용한 물체 크기 측정 (2) | 2024.11.06 |
이미지, 영상 복원 테스트 (6) | 2024.11.05 |
Fall Detection : Mediapipe의 Pose 추정을 이용한 쓰러짐 감지 (4) | 2024.11.04 |