[jekim] Paper review

2025. 11. 8. 06:03·Paper_Review

1. LDM - High-Resolution Image Synthesis with Latent Diffusion Models (2022)
https://arxiv.org/pdf/2112.10752
 
Abstract.
- Denoising autoencoders(노이즈가 섞인 input에서 원래의 깨끗한 데이터를 복원하도록 학습된 신경망) 구조를 사용한 DM(Diffusion model) & LDM(Latent Diffusion model)은 Text-to-image(텍스트 입력 -> 이미지 변환), Inpainting(이미지 제거/복원/확장), Super-resolution(저해상도->고해상도)에 활용된다.
- DM은 이미지의 픽셀 공간에서 노이즈를 제거하며 이미지를 생성하지만, LDM은 Autoencoder의 latent space에서 확산을 수행하여 빠르고 저렴한 비용으로 사용가능하다. 
 
Introduction.
- DM은 likelihood-based models (mode-covering) 으로, imperceptible details에도 capacity를 과도하게 사용한다는 문제 등으로 인해 Training과 Inference 모두 비용이 크다.
- DM의 접근성을 높이고 Resource consumption을 줄이는 것, 즉 성능을 해치지 않으면서도 학습과 샘플링의 computational complexity를 줄이는 것이 필요하다.
- Departure to Latent space: DM은 아래 그림의 Perceptual compression, Semantic compression의 과정을 거침.
   Perceptual compression에서는 high frequency의 세부정보를 제거하며, Semantic compression에서는 data의 의미론적/개념적 구성을 학습
   Perceptual compression에서는 형태와 윤곽을 남기는 작업이 진행이 되는데, 이 작업은 계산량이 많이 들기 때문에,
   LDM에서는 Semantic compression 단계의 latent space에서 diffusion이 일어난다.
- LDM: Autoencoder을 학습하여 low-dimensional 공간을 확보하고, 이 공간을 활용해 diffusion model을 학습한다. LDM에서는 Autoencoder 단계를 한 번만 학습해도 다양한 image-to-image, text-to-image의 작업 탐색이 가능하다.

figure 2.

 
Related work.
- Generative Models for Image Synthesis (Generative Adversarial Networks, GAN)
: high resolution images, good perceptual quality이지만 최적화 어려움
 
- Likelihood-based methods
: 최적화 안정적임
 
- Variational autoencoders(VAE) & flow-based models
: high resolution image를 효율적으로 합성할 수 있으나 GAN 만큼의 quality는 x
 
- Diffusion Probabilistic Models(DM)
: UNet 기반의 neural backbone 으로 높은 생성 기능을 가지나, 느린 추론 속도와 높은 학습 비용으로 인한 단점 있음
: LDM - latent space에서 동작하므로 학습 비용이 낮으며, quality의 손상없이 추론 속도 향상됨
 
Method.

- Perceptual Image Compression
Perceptual loss + patch 기반 adversarial objective로 학습된 autoencoder 사용. -> Bluriness 방지
image x → encoder e → z → decoder d → x bar
 
- Latent Diffusion Models
1) Diffusion model: 정규분포된 변수를 점진적으로 denoising하여 데이터 분포 p(x) 학습 / 
                                  L_DM=Ex,ϵ∼N(0,1),t∥ϵ−ϵθ(xt,t)∥22
                                  각 Denoiser ϵθ(xt,t), t=1…T는 입력 Xt의 디노이즈된 버전을 예측하도록 학습된다.
2) Generative modeling of Latent Representations: Encoder e와 Decoder d로 구성된 perceptual compression model을 통해, high frequency의 details가 제거된 low dimensional의 latent space 에 접근할 수 있다. 
latent space는 high-dimensional pixel space와 비교했을 때 데이터의 중요한 요소에 집중하기 쉽고, 차원이 낮아 계산적으로 효율성이 뛰어나다.
 
- Conditioning Mechanisms
Conditional denoising autoencoder ϵθ(zt,t,y)를 사용하여 구현할 수 있으며, text/semantic map/images 등 조건 입력 y를 통해 생성 과정을 제어하는 것이 가능해진다.
UNet backbone에 cross-attention mechanism을 추가하여 DM을 유연한 조건부 이미지 생성 모델로 확장할 수 있다.
다양한 형태의 조건 입력 y를 전처리하기 위해 τθ(domain specific encoder) 를 도입한다. 
 
Experiments.
1) On perceptual compression tradeoffs
- downsampling factors f ∈ {1, 2, 4, 8, 16, 32} 일 때,
ⅰ) small downsampling factors (ex. LDM - {1,2}): 학습 속도가 느려짐 (Pixel 공간에서의 diffusion과 차이 거의 x) 
ⅱ) big downsampling factors: quality가 저하되는 문제가 생김.
→ LDM {4~16}에서 efficiency와 faithful results를 확인할 수 있었다. LDM - 4, LDM - 8에서 가장 최적의 조건을 제공한다.

LDM 4, LDM 8에서 높은 FID(생성이미지 - 실제이미지 사이 거리), Inception score(생성이미지가 얼마나 명확한지)

2) Image generation with latent diffusion
LDM을 CelebA-HQ, FFHQ, LSUN Churches, Bedrooms에서 unconditional models 256x256 생성으로 학습하였을 때 pixel based diffusion보다 높은 efficiency, 동등하거나 더 높은 quality를 보였음.
 
3) Conditional latent diffusion
① Transformer encoders for LDMs (text-to-image)
텍스트 조건의 LDM 학습 -> 텍스트를 BERT tokenizer + transformer encoder → cross-attention으로 UNet에 주입
learning a language representation + visual synthesis
 
② Convolutional Sampling beyond 256^2 (image-to-image)
 
4) Super-Resolution with latent diffusion
- LDM은 low resolution image를 입력에 직접 결합하여 조건으로 주는 방식을 통해 super-resolution 모델로 학습될 수 있음.
 
5) Inpainting with Latent diffusion
- Inpainting은 이미지의 일부가 손상되었거나 바꾸고 싶은 경우, 마스킹된 영역을 새로운 내용으로 채우는 작업
- Pixel 기반 대비 최소 2.7배 빠른 속도, 1.6배 향상된 FID 

 
Limitations & Societal impact.
- 전반적으로 뛰어난 성능을 보이나 LDM은 Latent space의 expressiveness에 의존하기 때문에, 1단계 모델의 품질에 의해 결과가 크게 좌우된다. 
- Autoencoder가 inductive biase와 reconstruction artifacts를 유발할 수 있다.
- pixel 기반 DM보다 계산 비용이 줄었음에도 순차적인 Denoising 단계가 필요하므로, GAN같은 단일 생성 모델보다 샘플링 속도가 느리다.
 
Conclusion.
- LDM은 계산 요구량을 크게 줄이면서도 flexibility와 generative quality의 측면에서 저하되지 않 High-resoltion diffusion model을 실용적인 수준으로 만든다.


2. ControlNet - Adding Conditional Control to Text-to-Image Diffusion Models (2023)
https://arxiv.org/pdf/2302.0554
 
Abstract.
- ControlNet 신경망 구조는 사전학습된 text-to-image diffusion models을 제어하여 추가적인 encoding 조건을 지원한다.
- 핵심설계는, 사전학습된 large diffusion models의 강력한 능력을 보존하며,
                     소규모의 학습가능한 가중치를 추가하여 제어가 가능하도록 하는 것이다.
- Knowledge of large diffusion model을 trainable copy와 locked copy로 복제
→ Trainable copy: 네트워크 능력 보존
→ Locked copy: 과제 특화 조건 학습
- Zero convolution: layer를 0으로 초기화하여 trainable copy를 locked copy에 고정 (training이 original model을 망가뜨리지 않도록)
- ControNet은 Image generation을 제어하여 edge-to-image, depth-to-image, normal-to-image를 가능하게 함.
 
Introduction.
- Text-to-image diffusion model로, 우리는 text prompt를 입력하여 image를 생성할 수 있으나, 
 spatial composition과 layout, pose, shape, form을 정확히 표현하는 것은 text prompt만으로는 어려울 수 있다.
- 사용자가 원하는 이미지 구성을 위해 추가 이미지를 제공하도록 하는 것은 이미지 생성 과정의 조건 중 하나가 된다.
- text-to-image translation models는 conditioning images -> target images 로의 mapping 학습
- Large text-to-image diffusion model을 end-to-end way 신경망 구조인 ControlNet으로 적용하고자 함.
 
 
Related work.
- Fine tuning Neural Networks
· 신경망을 파인튜닝하는 방법: 추가적인 학습 데이터를 사용하여 계속하여 학습시킴 but overfitting, mode collapse, catastrophic forgetting 문제 발생 가능
 => HyperNetwork: 작은 네트워크가 큰 모델의 가중치 조정. 스타일 변경 가능하나 구조복잡, 제어에 제한
 => Adapters: 기존 네트워크에 module layer 삽입. parameter은 적으나 성능의 유지가 어려울 때가 있음
 => Additive Learning/Side-Tuning: 원본에 추가 신경망 학습. 원본 보호되나, 외부 혼합이 불안정할 수 있음
 => LoRA: parameter 변경을 low-rank 형태로 제한. 망각 방지, 효율적이나 구조 변화가 필요할 수 있음
 => Zero-initialized layers: 새로 추가되는 레이어를 처음에 영향 0으로 시작함. 원본 능력을 보호함.
 
- Image diffusion
DM: Image를 noise->image 또는 image->noise 로 변환시키는 likelihood-based model

LDM (Latent Diffusion Model) 고해상도 이미지를 latent 공간에서 처리 → 연산비용 감소
Stable Diffusion large-scale implementation of latent diffusion
GLIDE / Disco Diffusion 텍스트 guidance 강화 모델
Imagen latent 공간 없이 직접 픽셀에서 diffusion

 
- Image-to-Image translation: conditional image -> target image로 변환
 
Method.
1) ControlNet

- 공간적으로 국소화된 task-specific image diffusion models. (large pretained text-to-image dffusion)
- Network block = 하나의 신경망 단위를 구성하기 위해 묶이는 신경망 layer의 집합
- 사전학습된 neural block에 ControlNet을 추가하기 위해,
  원본 block의 parameter lock / 원본 block 복제(trainable copy)하여 parameter c 부여

yc= output of the ControlNet block, F = trained neural block, x = input feature map, y = another feature map, z = zero connvolution layers

- 첫번째 학습 단계에서 zero convolution layers는 0으로 초기화되어 있기 때문에, yc = y가 됨.
  따라서, 학습 시작시 harmful noise가 영향을 미칠 수 없게 됨.
 
2) ControlNet for Text-to-Image Diffusion
- ControlNet이 large pretrained diffusion model에 'conditional control'을 추가하는 방법
: ControlNet 구조는 U-Net의 Encoder 단계에 적용됨. 

stable diffusion(locked) / controlNet(condition feature 학습하여 stable diffusion의 feature 흐름에 추가 정보 control)

3) Training
input image = z0
noise 추가 = zt (t는 횟수)
text prompt = ct (t는 시간단계)
 
L(Entire diffusion model의 학습 목표 함수 =

- 학습과정에서 text prompt ct의 50%를 empty strings로 대체하여 ControlNet이 입력된 조건의 이미지의 의미를 직접 인식할 수 있는 능력을 증가시켜준다.
- 학습과정에서 zero convolution은 network에 noise를 추가하지 않으므로, 모델은 high-resolution image를 예측할 수 있어야 한다.

Sudden convergence pheomenon: control condition을 점진적으로 학습하는 것이 아니라 갑작스럽게 성공함. (보통 10,000번 미만의 최적화 단계 내에서 발생)

 
4) Inference

CFG Resolution Weighting 해상도에 따라 ControlNet 영향 비율을 조절 → 과도 제어 or 제어 부족 방지
Multiple ControlNets ControlNet은 여러 개를 동시에 더해도 됨 → 조건 합성 자연스럽게 가능

 
Experiments.

without prompts

- ControlNet-lite: zero convolution을 Gaussian weights로 초기화된 일반 convolution layer로 대체, 각 블록의 trainable copy를 single convolutional layer로 대체
 
- 실제 사용자 행동에서 나타날 수 있는 4가지 프롬프트 설정
1) no prompt
2) insufficient prompt: conditioning image의 객체를 충분히 설명하지 못함
3) conflicting prompt: conditioning image의 의미를 바꿈
4) perfect prompt: 필요한 내용의 의미를 정확히 설명

4가지 프롬프트에서 ControlNet이 모두 성공. ControlNet-lite는 불충분한 프롬프트에서는 실패.

 
 
Conclusion.
- ControlNet은 다양한 조건의 입력에서도 선명하고 안정적인 출력을 생성하며,
데이터가 많아질수록 능력이 확장된다. 프롬프트 없이도 이미지 내의 의미 구조를 해석 가능하여 Stable diffusion을 control한다.
 


3. MAISI - Medical AI for Synthetic Imaging
https://arxiv.org/pdf/2409.11169
 
Abstract.
- 의료 영상 분야에서 foundation model이 발전하며, 데이터 부족 문제를 해결하기 위해 synthetic data generation의 중요성이 커지고 있으나, 여러 organ을 동시에 포괄하며 전신 수준의 영상을 합성하는 것은 어려운 과제임.
- MAISI: 전신 3D CT image를 다양한 해상도에서 합성할 수 있는 의료 AI model. 
3D-VAE-GAN을 사용해 CT volume을 압축된 latent로 변환후 LDM을 이용해 Latent 공간에서 새로운 CT volume 생성
+ ControlNet 방식의 보조 인코더를 통합해 해부학적 정확도를 강화함.
 
Introduction.
- 의료 기반 ML(Machine Learing) 모델을 만드는 과정의 구조적 문제점
1) Data scarcity: 특정 암이나 희귀질환에서는 충분한 학습 데이터 확보가 어려움
2) High human annotation costs: 세밀한 3D 주석은 전문지식을 요구하며 이에 대한 비용이 매우 큼
3) Privacy-concerns: 의료영상은 민감한 개인정보이므로 병원간 데이터 공유-대규모 수집이 제한됨
 
→ Generating synthetic data가 이러한 문제를 해결할 수 있는 전략이 될 수 있으나
1) High solution 3D volume generation이 많은 양의 data를 다루어야 함.
2) Fixed 된 output volume dimension과 voxel spacing은 해부학적 구조가 달라지는 실제 임상 환경과 맞지 않음.
3) 한 번 훈련된 모델은 대상의 데이터나 organ이 바뀌는 경우 일반화가 잘 되지 않음.
 
→ 이러한 문제를 해결하기 위해 MAISI 제안 

3D VAE-GAN, LDM, ControlNet 기반 encoder

 
 
Related work.
- Medical image synthesis는 현실적인 의료 영상을 합성하는 것을 목표로 활발히 진행되어 왔다.
1) GAN in medical image synthesis: GAN은 MRI/CT 합성, Modality 변환, anomaly 탐지 등의 의료 영상 작업에서 사용되어 왔으나, Unrealistic 하거나 less diverse 한 output의 한계가 존재한다. 
2) DM in medical image synthesis: Diffusion model은 high-resolution image synthesis, 안정적인 합성, condition 하에서도 유연하게 작동한다는 점을 바탕으로 주목받고 있다.
 
Methodology.
- Step1: Volume compression Network(VAE-GAN)이 CT/MRI volume으로 구성된 dataset 학습
- Step2: LDM이 Step1. 에서 수집된 dataset의 CT volume을 이용해 학습(latent space에서 anatomical structure 생성)
- Step3: ControlNet이 MAISI 프레임워크에 통합되어 Step2. 에서 학습된 LDM에 추가 조건을 주어 다양한 작업 지원
 
1) Volume compression Network
-  CT volume x ∈ RH×W×D(H=높이, W=너비, D=깊이)이 주어졌을 때,
   인코더가 x를 downsampling 하여 z = E(x) ∈ Rh×w×d 를 생성한다. 
 
2) Diffusion model
- Step1에서 얻은 latent representation z 위에서 diffusion 수행
- Body region (i_top, i_bottom) + voxel spacing s 를 조건 cp 로 사용
- 다양한 해부학적 범위와 출력 크기를 가진 CT volume 생성 가능
 
3) Additional conditioning mechanisms
- ControlNet을 통해 Segmentation 등 추가 조건 cf 주입
- LDM은 고정(frozen), ControlNet만 학습하여 task-specific 합성 가능
 
 
Experiments.
1) Datasets and Implementatioin Details

Step 1: Volume Compression Network (VAE-GAN) CT 37,243 train / 1,963 val + MRI 17,887 train / 940 val 고해상도 CT/MRI → latent 공간 압축 다양한 장기(머리-목 / 흉부 / 복부 / 뇌) 포함하여 일반화 가능 latent 확보
Step 2: Latent Diffusion Model (LDM) CT 10,277 volume latent 공간에서 해부학 구조 생성 입력 조건: body region + voxel spacing → 유연한 해상도 & 범위 생성 가능
Step 3: ControlNet Step2 데이터 subset
+ Segmentation
생성 과정에 추가 조건 제어 segmentation-based synthesis, tumor inpainting 지원 가능


2) Evaluation of MAISI VAE
- MAISI VAE model의 foundation model로서의 능력을 보여주기 위해, out-of-distribution datasets(학습과정에서 보지 않은)ㅇ에서 테스트를 진행한다.
- Table 1의 결과를 통해 model의 cost-effectiveness와 practicality 확

Table 1. MAISI VAE model이 추가적인 GPU 자원 소모 없이 Dedicated VAE와 유사한 성능을 달성함을 보여줌.


3) Evaluation of MAISI Diffusion Model
- 기존의 방법들(DDPM, LDM, HA-GAN)을 포함한 방법들과 비교하여 수행
- Fidelity(정확도)

HAGAN: 흉부 CT 특화,
Figure 4. 향상된 세부 묘사, 정확한 해부학적 구조


4) Data Augmentation in Downstream Tasks
- Auto3DSeg(의료 영상 Seg. model 학습을 위한 solution)을 사용하여 MSD Task 03(간 종양), Task 06(폐 종양), Task07 (췌장 종양), Task 10(대장 종양), bone lesion dataset에 대해 모델 학습하였음.
① MAISI CT Generation으로 표기된 task는 5가지 종양을 포함한 127개의 해부학적 구조 mask를 기반으로 하는 조건부 생성
→ 각 종양에 해당하는 환자의 종양 mask를 증강시켜 합성 데이터를 생성할 수 있도록 함.
② MAISI Inpainting은 간/췌장/폐 종양을 동시에 지원하는 종양 인페인팅 모델 학습

두 가지 데이터 증강 방식에서 생성된 합성 데이터를 포함할 때, DSC 점수가 뚜렷하게 상됨.

 


4. MAE(Masked AutoEncoder) - Masked Autoencoders Are Scalable Vision Learners 
https://arxiv.org/abs/2111.06377
 
Introduction.
Masked Autoencoder (MAE) 라는 새로운 자기지도학습(Self-Supervised Learning) 방법을 제안한다.
핵심 전략은 이미지 패치의 대규모 랜덤 마스킹(약 75%) 후, 보이는 패치만으로 인코딩하고,

가벼운 디코더로 전체 이미지를 복원하는 것

MAE Architecture: 75% random mask, 나머지 25% patch가 encoder로. encoder 출력 + mask token + 위치정보 -> decoder -> 원본 이미지 복원


• 비대칭 Encoder–Decoder 구조: Encoder는 보이는 패치만, Decoder는 복원 전담
• 연산량 3~4배 절감, 더 큰 ViT 모델 학습 가능
• ImageNet-1K만 사용해 ViT-Huge 87.8% 달성 → 기존 self-supervised 방법보다 우월
• 다양한 downstream task에서 supervised pre-training 보다 성능 우수


Method.
1) Patch Tokenization
• 이미지를 16×16 patch 단위로 나눔 (ViT 구조 그대로)

2) Random Masking (Uniform Sampling)
• 패치 중 75%를 랜덤하게 제거

• 남은 25% 패치만 Encoder에 입력

• Block-wise masking보다 random masking 성능이 더 높음

masking 비율은 75% 에서 최고 성능과 효율을 보임.


3) Asymmetric Encoder - Decoder
Encoder: 보이는 patch만 입력하여 효율을 상승시킴
Decoder: Encoder token + mask token를 다시 원래 순서대로 복원함. 

Experiments.
- Downstream Fine-tuning 결과

                                 Model                                          Training Data                         Fine-tuned Acc (ImageNet-1K)

ViT-L Supervised ImageNet-1K ~82%
ViT-L + MAE Pre-training ImageNet-1K ~85-86%
ViT-H + MAE Pre-training ImageNet-1K 87.8% (SOTA at 당시)

=> Label 없이 pre-training 만으로 supervised보다 representation 학습이 뛰어남

 

'Paper_Review' 카테고리의 다른 글

[sbpark] paper review  (0) 2025.12.29
[jekim] paper review  (0) 2025.11.15
[jyhan] paper review  (0) 2025.11.08
[jekim] Paper review  (0) 2025.11.03
[jyhan] paper review  (0) 2025.11.01
'Paper_Review' 카테고리의 다른 글
  • [sbpark] paper review
  • [jekim] paper review
  • [jyhan] paper review
  • [jekim] Paper review
team-sudal
team-sudal
team-sudal 님의 블로그 입니다.
  • team-sudal
    SUDAL
    team-sudal
  • 전체
    오늘
    어제
    • 분류 전체보기 (127)
      • MedicalFM (22)
        • anomaly_detection (1)
        • change_detection (1)
        • report_generation (3)
        • classification (1)
        • denoising (1)
        • generation (0)
        • reconstruction (0)
        • regression (3)
        • segmentation (0)
        • super_resolution (1)
        • MAE (7)
      • MAISI (9)
        • MAISI_Data (9)
      • Paper_Review (46)
      • Others (18)
      • LambdaCourse (0)
        • Paper_Review (0)
  • 블로그 메뉴

    • 홈
    • 태그
    • 방명록
  • 링크

  • 공지사항

  • 인기 글

  • 태그

    Visual inspection
    Occlusal caries
    Diagnosis
    0
    Fibre-optic transillumination
    Bite-wing radiograph
    GaN
  • 최근 댓글

  • 최근 글

  • hELLO· Designed By정상우.v4.10.3
team-sudal
[jekim] Paper review
상단으로

티스토리툴바