Papers/Computer Vision1 [논문 리뷰] Unsupervised Attention-guided Image-to-Image Translation 왜 이 논문을 선택했는가? 기존 CycleGAN 계열 모델은 내가 원하는 부분만 바꾸기보다 이미지 전체가 함께 변형되는 문제가 있다.현재 현미경 영상에서 세포$(cell)$ 영역을 향상$(Enhancement)$ 하는 연구를 진행 중인 필자는, 변환 과정에서 세포 이외의 배경까지 함께 바뀌는 현상을 최소화하고자 했다.이 논문의 핵심은 간단하다. 어텐션 맵$(attention \ map)$을 학습해 변환이 필요한 영역만 선택적으로 바꾸고, 배경은 최대한 보존하는 것이다.그 결과, 더 자연스럽고 의미(구조) 보존이 잘 되는 번역 이미지를 얻을 수 있다.이제부터 본 논문의 아이디어와 방법을 조금 더 자세히 살펴보자. Background Image-to-Image Translation : 한 도메인의 이미지.. 2025. 8. 25. 이전 1 다음