[CS294] Deep Unsupervised Learning: Introduction

Posted by Euisuk's Dev Log on August 14, 2024

[CS294] Deep Unsupervised Learning: Introduction

원본 κ²Œμ‹œκΈ€: https://velog.io/@euisuk-chung/비지도-Deep-Unsupervised-Learning-Intro

λ‹€μŒμ€ μ•„λž˜ β€œBerkeley CS294 κ°•μ˜β€μ— λŒ€ν•œ μš”μ•½ 및 ν•„κΈ° λ‚΄μš©μ„ μ •λ¦¬ν•œ κ²ƒμž…λ‹ˆλ‹€. ν‹€λ¦° λ‚΄μš©μ΄ μžˆλ‹€λ©΄ λŒ“κΈ€ λΆ€νƒλ“œλ¦½λ‹ˆλ‹€ πŸ™Œ

  • Course : CS294-158 SP24 Deep Unsupervised Learning
  • Instructor: Pieter Abbeel
  • Lecture # : L1. Introduction

λ³Έ κ°•μ˜λŠ” Introduction κ°•μ˜λΌ κ°œμš”λ₯Ό λ‹€λ£Ήλ‹ˆλ‹€. ν•΄λ‹Ή ν¬μŠ€νŠΈλŠ” μ œκ°€ λ³„λ„λ‘œ 자료 쑰사 및 정리λ₯Ό μˆ˜ν–‰ν•΄μ„œ μΆ”κ°€μ μœΌλ‘œ μž‘μ„±ν•œ κ²ƒμ΄λ―€λ‘œ, λ³Έ κ°•μ˜ λ‚΄μš©κ³Ό μƒμ΄ν•©λ‹ˆλ‹€.

λ”₯λŸ¬λ‹ ν•™μŠ΅ λ°©λ²•λ‘ μ˜ 계측적 λΆ„λ₯˜

λ”₯λŸ¬λ‹ 방법둠은 크게 지도(Supervised), 쀀지도(Semi-Supervised), 비지도(UnSupervised), κ°•ν™”ν•™μŠ΅(Reinforced) learning으둜 ꡬ뢄할 수 μžˆμŠ΅λ‹ˆλ‹€.

좜처: Machine learning in the prediction of cancer therapy (λ…Όλ¬Έ)

ν•˜μ§€λ§Œ, ν˜„μ‹€μ€ μ΄λ ‡κ²Œ μœ„μ™€ 같이 μ•„λ¦…λ‹΅κ²Œ 4κ°€μ§€μ˜ λ²”μ£Όλ‘œ λ“€μ–΄κ°€μ§€ μ•Šκ³ , μƒˆλ‘œμš΄ ν•™μŠ΅ 방법둠듀이 많이 λ‚˜μ˜€κΈ° μ‹œμž‘ν•˜λ©° ν•œλ²ˆ 정리λ₯Ό ν•΄λ³Ό ν•„μš”μ„±μ„ λŠκΌˆμŠ΅λ‹ˆλ‹€.

λ”₯λŸ¬λ‹ ν•™μŠ΅ 방법둠은 데이터 라벨링 μƒνƒœ, ν•™μŠ΅ λͺ©μ , λ°μ΄ν„°μ˜ μ–‘κ³Ό 질, 그리고 데이터 λͺ¨λ‹¬λ¦¬ν‹°μ™€ 같은 λ‹€μ–‘ν•œ 기쀀에 따라 κ³„μΈ΅μ μœΌλ‘œ λΆ„λ₯˜ν•  수 μžˆμŠ΅λ‹ˆλ‹€.

μ΄λŸ¬ν•œ 기쀀을 λ°”νƒ•μœΌλ‘œ μž¬κ΅¬μ„±λœ ν•™μŠ΅ λ°©λ²•λ‘ μ˜ 계측적 λΆ„λ₯˜λ₯Ό ν•΄λ³Ό 수 μžˆμŠ΅λ‹ˆλ‹€.

1. 데이터 라벨링 μƒνƒœμ— λ”°λ₯Έ λΆ„λ₯˜

  • 1.1 라벨이 μžˆλŠ” 경우

    • Supervised Learning (지도 ν•™μŠ΅): μ™„μ „ν•œ 라벨링 데이터λ₯Ό μ‚¬μš©ν•˜μ—¬ ν•™μŠ΅.
    • Weakly Supervised Learning (약지도 ν•™μŠ΅): λΆˆμ™„μ „ν•˜κ±°λ‚˜ λΆ€μ •ν™•ν•œ 라벨을 μ‚¬μš©ν•˜μ—¬ ν•™μŠ΅.
    • Semi-Supervised Learning (쀀지도 ν•™μŠ΅): 일뢀 라벨링된 데이터와 λΉ„λΌλ²¨λ§λœ 데이터λ₯Ό ν•¨κ»˜ μ‚¬μš©ν•˜μ—¬ ν•™μŠ΅.
  • 1.2 라벨이 μ—†λŠ” 경우

    • Unsupervised Learning (비지도 ν•™μŠ΅): 라벨 없이 λ°μ΄ν„°μ˜ νŒ¨ν„΄μ΄λ‚˜ ꡬ쑰λ₯Ό ν•™μŠ΅.
    • Self-Supervised Learning (자기 지도 ν•™μŠ΅): 데이터 μžμ²΄μ—μ„œ 라벨을 μƒμ„±ν•˜μ—¬ ν•™μŠ΅.

2. ν•™μŠ΅ λͺ©μ μ— λ”°λ₯Έ λΆ„λ₯˜

  • 2.1 νŠΉμ • μž‘μ—…μ˜ μ„±λŠ₯ ν–₯상
    • Transfer Learning (전이 ν•™μŠ΅): λ‹€λ₯Έ μž‘μ—…μ—μ„œ ν•™μŠ΅ν•œ λͺ¨λΈμ„ μƒˆλ‘œμš΄ μž‘μ—…μ— μ μš©ν•˜μ—¬ ν•™μŠ΅.
    • Multi-task Learning (닀쀑 과제 ν•™μŠ΅): μ—¬λŸ¬ μž‘μ—…μ„ λ™μ‹œμ— ν•™μŠ΅ν•˜μ—¬ μ„±λŠ₯을 ν–₯μƒμ‹œν‚΄.
    • Multi-modal Learning (닀쀑 λͺ¨λ‹¬ ν•™μŠ΅): μ„œλ‘œ λ‹€λ₯Έ 데이터 λͺ¨λ‹¬λ¦¬ν‹°λ₯Ό κ²°ν•©ν•˜μ—¬ 더 ν’λΆ€ν•œ ν‘œν˜„κ³Ό μ„±λŠ₯을 μ–»μŒ.
  • 2.2 μƒˆλ‘œμš΄ 상황에 λŒ€ν•œ 적응
    • Reinforcement Learning (κ°•ν™” ν•™μŠ΅): 보상을 μ΅œλŒ€ν™”ν•˜λŠ” λ°©ν–₯으둜 ν•™μŠ΅.
    • Continual Learning (연속 ν•™μŠ΅): μƒˆλ‘œμš΄ 데이터λ₯Ό ν•™μŠ΅ν•˜λ©΄μ„œ 이전에 ν•™μŠ΅ν•œ λ‚΄μš©μ„ μœ μ§€.
    • Meta Learning (메타 ν•™μŠ΅): λ‹€μ–‘ν•œ μž‘μ—…μ„ ν•™μŠ΅ν•˜λ©΄μ„œ μƒˆλ‘œμš΄ μž‘μ—…μ„ λΉ λ₯΄κ²Œ ν•™μŠ΅ν•  수 μžˆλŠ” λŠ₯λ ₯ 개발.

3. λ°μ΄ν„°μ˜ μ–‘κ³Ό μ§ˆμ— λ”°λ₯Έ λΆ„λ₯˜

  • 3.1 데이터가 적은 경우

    • Zero-shot Learning (μ œλ‘œμƒ· ν•™μŠ΅): ν•™μŠ΅ μ‹œ 보지 λͺ»ν•œ 클래슀λ₯Ό 예츑.
    • One-shot Learning (원샷 ν•™μŠ΅): ν•œ κ°€μ§€ μƒ˜ν”Œ λ°μ΄ν„°λ‘œλ§Œ ν•™μŠ΅ κ°€λŠ₯.
    • Few-shot Learning (μ†ŒλŸ‰ ν•™μŠ΅): 맀우 적은 μ–‘μ˜ λ°μ΄ν„°λ‘œλ„ ν•™μŠ΅ κ°€λŠ₯.
  • 3.2 데이터 증강 및 λŒ€μ‘° ν•™μŠ΅

    • Data Augmentation (데이터 증강): κΈ°μ‘΄ 데이터λ₯Ό λ³€ν˜•ν•˜μ—¬ 데이터셋을 ν™•μž₯.
    • Contrastive Learning (λŒ€μ‘° ν•™μŠ΅): 데이터 κ°„μ˜ μœ μ‚¬μ„±κ³Ό 차이λ₯Ό ν•™μŠ΅ν•˜μ—¬ μ„€λͺ…λ ₯ κ°•ν™”.


  1. 데이터 라벨링 μƒνƒœμ— λ”°λ₯Έ λΆ„λ₯˜

1.1 라벨이 μžˆλŠ” 경우

1.1.1 Supervised Learning (지도 ν•™μŠ΅)

  • μ •μ˜: Supervised Learning은 μ£Όμ–΄μ§„ μž…λ ₯ 데이터에 λŒ€ν•œ μ •λ‹΅(라벨)이 μžˆλŠ” μƒνƒœμ—μ„œ λͺ¨λΈμ„ ν•™μŠ΅ν•˜λŠ” λ°©λ²•μž…λ‹ˆλ‹€. μž…λ ₯κ³Ό 좜λ ₯ μŒμ„ 톡해 ν•™μŠ΅ν•˜λ©°, λͺ¨λΈμ€ μƒˆλ‘œμš΄ μž…λ ₯에 λŒ€ν•΄ μ˜¬λ°”λ₯Έ 좜λ ₯을 μ˜ˆμΈ‘ν•˜λŠ” 것을 λͺ©ν‘œλ‘œ ν•©λ‹ˆλ‹€.

    • μ‚¬μš© λͺ©μ : λΆ„λ₯˜(Classification), νšŒκ·€(Regression) 문제 ν•΄κ²°. 예: 이메일 슀팸 필터링, 이미지 인식, μ§ˆλ³‘ 예츑.
    • 적용 방법: λŒ€λŸ‰μ˜ 라벨링된 데이터셋을 μ‚¬μš©ν•΄ λͺ¨λΈμ„ ν›ˆλ ¨ν•©λ‹ˆλ‹€. 각 μž…λ ₯ 데이터에 λŒ€ν•΄ μ •λ‹΅ 라벨을 μ œκ³΅ν•˜κ³ , λͺ¨λΈμ€ 이λ₯Ό 기반으둜 ν•™μŠ΅ν•©λ‹ˆλ‹€.
    • ν•™μŠ΅ 방법: 손싀 ν•¨μˆ˜(loss function)λ₯Ό μ΅œμ†Œν™”ν•˜λŠ” λ°©ν–₯으둜 κ²½μ‚¬ν•˜κ°•λ²•(Gradient Descent)κ³Ό 같은 μ΅œμ ν™” μ•Œκ³ λ¦¬μ¦˜μ„ μ‚¬μš©ν•΄ κ°€μ€‘μΉ˜λ₯Ό μ—…λ°μ΄νŠΈν•©λ‹ˆλ‹€.
    • 연ꡬ μ˜ˆμ‹œ: ResNet은 ImageNet 데이터셋을 μ‚¬μš©ν•΄ ν•™μŠ΅λœ 지도 ν•™μŠ΅ λͺ¨λΈλ‘œ, κΉŠμ€ λ„€νŠΈμ›Œν¬ ν•™μŠ΅μ„ μœ„ν•΄ μž”μ°¨ μ—°κ²°(residual connections)을 λ„μž…ν•΄ 이미지 λΆ„λ₯˜ λ¬Έμ œμ—μ„œ 높은 μ„±λŠ₯을 λ³΄μ—¬μ£Όμ—ˆμŠ΅λ‹ˆλ‹€.

(μΆ”κ°€μš©μ–΄) Active Learning (λŠ₯동 ν•™μŠ΅)

  • μ •μ˜: λͺ¨λΈμ΄ κ°€μž₯ μœ μš©ν•  κ²ƒμœΌλ‘œ νŒλ‹¨λ˜λŠ” 데이터λ₯Ό μ„ νƒν•˜μ—¬ 라벨링을 μš”μ²­ν•˜κ³  ν•™μŠ΅ν•˜λŠ” 방법
  • 방법:
    1. 초기 λͺ¨λΈ ν•™μŠ΅
    2. 비라벨링 데이터에 λŒ€ν•œ λΆˆν™•μ‹€μ„± μΈ‘μ •
    3. κ°€μž₯ λΆˆν™•μ‹€ν•œ 데이터 선택 및 라벨링 μš”μ²­
    4. μƒˆλ‘œ 라벨링된 λ°μ΄ν„°λ‘œ λͺ¨λΈ μž¬ν•™μŠ΅
    5. 2-4 κ³Όμ • 반볡

1.1.2 Weakly Supervised Learning (약지도 ν•™μŠ΅)

  • μ •μ˜: Weakly Supervised Learning은 λΆˆμ™„μ „ν•˜κ±°λ‚˜ λΆ€μ •ν™•ν•œ 라벨을 μ‚¬μš©ν•˜λŠ” ν•™μŠ΅ λ°©λ²•μž…λ‹ˆλ‹€. μ •ν™•ν•œ 라벨을 μ–»κΈ° μ–΄λ €μš΄ μƒν™©μ—μ„œ μ‚¬μš©λ©λ‹ˆλ‹€.

    • μ‚¬μš© λͺ©μ : 라벨링 λΉ„μš©μ„ μ€„μ΄κ±°λ‚˜, μ •ν™•ν•œ 라벨을 μ–»κΈ° νž˜λ“  경우. 예: μ΄λ―Έμ§€μ—μ„œ λŒ€λž΅μ μΈ λ ˆμ΄λΈ”λ§Œ 제곡 κ°€λŠ₯ν•œ 경우.
    • 적용 방법: νœ΄λ¦¬μŠ€ν‹±, 도메인 지식, λ…Έμ΄μ¦ˆ λͺ¨λΈλ§ 등을 μ‚¬μš©ν•΄ λΆˆμ™„μ „ν•œ 라벨을 λ³΄μ™„ν•©λ‹ˆλ‹€.
    • ν•™μŠ΅ 방법: 닀쀑 μΈμŠ€ν„΄μŠ€ ν•™μŠ΅(Multi-instance Learning), λ…Έμ΄μ¦ˆ λͺ¨λΈλ§ 기법이 주둜 μ‚¬μš©λ©λ‹ˆλ‹€.
    • 연ꡬ μ˜ˆμ‹œ: Deep Multiple Instance Learning(DMIL)은 병리학적 이미지 λΆ„μ„μ—μ„œ λΆˆμ™„μ „ν•œ 라벨을 μ²˜λ¦¬ν•˜λŠ” 데 νš¨κ³Όμ μž…λ‹ˆλ‹€.

(μΆ”κ°€μš©μ–΄) Weak Supervision (약지도 ν•™μŠ΅)

  • μ •μ˜: μ €ν’ˆμ§ˆ λ˜λŠ” λΆˆμ™„μ „ν•œ 라벨을 μ‚¬μš©ν•΄ ν•™μŠ΅ν•˜λŠ” 방법
  • 방법:
    • νœ΄λ¦¬μŠ€ν‹± κ·œμΉ™ μ‚¬μš©ν•˜μ—¬ 라벨 생성
    • ν¬λΌμš°λ“œμ†Œμ‹±μ„ ν†΅ν•œ λŒ€λŸ‰μ˜ μ €ν’ˆμ§ˆ 라벨 μˆ˜μ§‘
    • λ‹€μ–‘ν•œ μ†ŒμŠ€μ˜ μ•½ν•œ 라벨을 κ²°ν•©ν•˜μ—¬ 더 κ°•ν•œ 라벨 생성

(μΆ”κ°€μš©μ–΄) Distant Supervision (원격 지도 ν•™μŠ΅)

  • μ •μ˜: μ™ΈλΆ€ μ§€μ‹λ² μ΄μŠ€λ‚˜ λ°μ΄ν„°λ² μ΄μŠ€λ₯Ό ν™œμš©ν•˜μ—¬ μžλ™μœΌλ‘œ 라벨을 μƒμ„±ν•˜λŠ” 방법
  • 방법:
    • μ™ΈλΆ€ μ§€μ‹λ² μ΄μŠ€μ™€ 비라벨링 데이터 λ§€μΉ­
    • 맀칭된 정보λ₯Ό λ°”νƒ•μœΌλ‘œ 라벨 μžλ™ 생성
    • μƒμ„±λœ 라벨둜 λͺ¨λΈ ν•™μŠ΅

1.1.3 Semi-Supervised Learning (쀀지도 ν•™μŠ΅)

  • μ •μ˜: Semi-Supervised Learning은 μ†ŒλŸ‰μ˜ 라벨링된 데이터와 λŒ€λŸ‰μ˜ λΉ„λΌλ²¨λ§λœ 데이터λ₯Ό ν•¨κ»˜ μ‚¬μš©ν•˜μ—¬ ν•™μŠ΅ν•˜λŠ” λ°©λ²•μž…λ‹ˆλ‹€. 이 방법은 라벨링 λΉ„μš©μ„ μ€„μ΄λ©΄μ„œλ„ 높은 μ„±λŠ₯을 μœ μ§€ν•  수 μžˆμŠ΅λ‹ˆλ‹€.

    • μ‚¬μš© λͺ©μ : λŒ€λŸ‰μ˜ λΉ„λΌλ²¨λ§λœ 데이터가 μ‘΄μž¬ν•˜μ§€λ§Œ, 라벨링된 데이터가 λΆ€μ‘±ν•œ 상황. 예: ν…μŠ€νŠΈ λΆ„λ₯˜, 이미지 λΆ„λ₯˜.
    • 적용 방법: λͺ¨λΈμ€ 라벨링된 λ°μ΄ν„°λ‘œ 지도 ν•™μŠ΅μ„ ν•˜κ³ , λΉ„λΌλ²¨λ§λœ λ°μ΄ν„°μ—λŠ” 비지도 ν•™μŠ΅μ„ μ μš©ν•΄ 좔가적인 정보λ₯Ό μΆ”μΆœν•©λ‹ˆλ‹€.
    • ν•™μŠ΅ 방법: Consistency Regularization, Entropy Minimization λ“± λ‹€μ–‘ν•œ 기법을 μ‚¬μš©ν•΄ 의미 μžˆλŠ” νŒ¨ν„΄μ„ ν•™μŠ΅ν•©λ‹ˆλ‹€.
    • 연ꡬ μ˜ˆμ‹œ: MixMatchλŠ” 라벨링된 데이터와 λΉ„λΌλ²¨λ§λœ 데이터λ₯Ό ν˜Όν•©ν•˜μ—¬ 이미지 λΆ„λ₯˜ μž‘μ—…μ—μ„œ λ›°μ–΄λ‚œ μ„±λŠ₯을 λ°œνœ˜ν•©λ‹ˆλ‹€.

1.2 라벨이 μ—†λŠ” 경우

1.2.1 Unsupervised Learning (비지도 ν•™μŠ΅)

  • μ •μ˜: Unsupervised Learning은 라벨이 μ—†λŠ” 데이터λ₯Ό μ‚¬μš©ν•΄ λ°μ΄ν„°μ˜ μˆ¨κ²¨μ§„ νŒ¨ν„΄μ΄λ‚˜ ꡬ쑰λ₯Ό ν•™μŠ΅ν•˜λŠ” λ°©λ²•μž…λ‹ˆλ‹€. 데이터 자체의 ꡬ쑰λ₯Ό μ΄ν•΄ν•˜κ³  이λ₯Ό λ°”νƒ•μœΌλ‘œ λΆ„λ₯˜ν•˜κ±°λ‚˜ λ³€ν™˜ν•©λ‹ˆλ‹€.

    • μ‚¬μš© λͺ©μ : κ΅°μ§‘ν™”(Clustering), 차원 μΆ•μ†Œ(Dimensionality Reduction), 밀도 μΆ”μ •(Density Estimation). 예: 고객 μ„ΈλΆ„ν™”, 이상 탐지.
    • 적용 방법: 라벨이 μ—†λŠ” 데이터λ₯Ό μž…λ ₯λ°›μ•„ 데이터 κ°„μ˜ μœ μ‚¬μ„±μ„ 기반으둜 νŒ¨ν„΄μ„ μ°ΎμŠ΅λ‹ˆλ‹€.
    • ν•™μŠ΅ 방법: K-means, PCA, Autoencoders λ“±μ˜ μ•Œκ³ λ¦¬μ¦˜μ„ μ‚¬μš©ν•΄ λ°μ΄ν„°μ˜ λ‚΄μž¬λœ ꡬ쑰λ₯Ό ν•™μŠ΅ν•©λ‹ˆλ‹€.
    • 연ꡬ μ˜ˆμ‹œ: Word2Vec은 단어 벑터λ₯Ό ν•™μŠ΅ν•˜κΈ° μœ„ν•΄ 비지도 ν•™μŠ΅μ„ μ‚¬μš©ν•΄ 단어 κ°„μ˜ μœ μ‚¬μ„±μ„ 벑터 곡간에 λ§€ν•‘ν•©λ‹ˆλ‹€.

(μΆ”κ°€μš©μ–΄) Self Supervision (자기 지도 ν•™μŠ΅)

  • μ •μ˜: 데이터 μžμ²΄μ—μ„œ ν•™μŠ΅ μ‹ ν˜Έλ₯Ό μƒμ„±ν•˜μ—¬ ν•™μŠ΅ν•˜λŠ” 방법
  • 방법:
    • λ°μ΄ν„°μ˜ 일뢀λ₯Ό 가리고 λ‚˜λ¨Έμ§€λ‘œ κ°€λ €μ§„ 뢀뢄을 μ˜ˆμΈ‘ν•˜κ²Œ ν•˜κΈ°
    • 이미지 νšŒμ „ 각도 μ˜ˆμΈ‘ν•˜κΈ°
    • λ¬Έμž₯의 단어 μˆœμ„œ μ˜ˆμΈ‘ν•˜κΈ°

1.2.2 Self-Supervised Learning (자기 지도 ν•™μŠ΅)

  • μ •μ˜: Self-Supervised Learning은 λ°μ΄ν„°μ˜ 일뢀λ₯Ό μ œκ±°ν•˜κ±°λ‚˜ λ³€ν˜•ν•œ ν›„ 이λ₯Ό λ³΅μ›ν•˜λŠ” 과제λ₯Ό 톡해 ν•™μŠ΅ν•˜λŠ” λ°©λ²•μž…λ‹ˆλ‹€. 라벨 없이도 ν•™μŠ΅ν•  수 μžˆλŠ” κ°•λ ₯ν•œ λ°©λ²•λ‘ μž…λ‹ˆλ‹€.

    • μ‚¬μš© λͺ©μ : λŒ€λŸ‰μ˜ λΉ„λΌλ²¨λ§λœ 데이터λ₯Ό ν™œμš©ν•΄ μœ μš©ν•œ ν‘œν˜„(representation)을 ν•™μŠ΅. 예: ν…μŠ€νŠΈ, 이미지, λΉ„λ””μ˜€ 데이터.
    • 적용 방법: ν…μŠ€νŠΈ λ°μ΄ν„°μ—μ„œ 단어λ₯Ό λ§ˆμŠ€ν‚Ήν•˜κ±°λ‚˜, μ΄λ―Έμ§€μ˜ 일뢀λ₯Ό μ œκ±°ν•˜κ³  이λ₯Ό λ³΅μ›ν•˜λ„λ‘ ν•™μŠ΅ν•©λ‹ˆλ‹€.
    • ν•™μŠ΅ 방법: BERT, SimCLR, MoCo와 같은 λͺ¨λΈμ„ μ‚¬μš©ν•΄ 데이터λ₯Ό 슀슀둜 λΌλ²¨λ§ν•˜μ—¬ κ³ ν’ˆμ§ˆμ˜ ν‘œν˜„μ„ ν•™μŠ΅ν•©λ‹ˆλ‹€.
    • 연ꡬ μ˜ˆμ‹œ: BERTλŠ” ν…μŠ€νŠΈ λ°μ΄ν„°μ—μ„œ νŠΉμ • 단어λ₯Ό λ§ˆμŠ€ν‚Ήν•˜κ³  이λ₯Ό μ˜ˆμΈ‘ν•˜λŠ” λ°©μ‹μœΌλ‘œ ν•™μŠ΅λ©λ‹ˆλ‹€.

(μΆ”κ°€μš©μ–΄) Self Training (자기 ν›ˆλ ¨)

  • μ •μ˜: 라벨이 μžˆλŠ” λ°μ΄ν„°λ‘œ ν•™μŠ΅ν•œ λͺ¨λΈμ„ μ‚¬μš©ν•˜μ—¬ 라벨이 μ—†λŠ” 데이터에 λŒ€ν•œ μ˜ˆμΈ‘μ„ μˆ˜ν–‰ν•˜κ³ , 이λ₯Ό μƒˆλ‘œμš΄ ν•™μŠ΅ λ°μ΄ν„°λ‘œ μ‚¬μš©ν•˜λŠ” 방법
  • 방법:
    1. 라벨이 μžˆλŠ” λ°μ΄ν„°λ‘œ 초기 λͺ¨λΈ ν•™μŠ΅
    2. 라벨이 μ—†λŠ” 데이터에 λŒ€ν•΄ 예츑 μˆ˜ν–‰
    3. 높은 μ‹ λ’°λ„μ˜ 예츑 κ²°κ³Όλ₯Ό μƒˆλ‘œμš΄ 라벨둜 μ‚¬μš©
    4. μƒˆλ‘œμš΄ λ°μ΄ν„°μ…‹μœΌλ‘œ λͺ¨λΈ μž¬ν•™μŠ΅
    5. 2-4 κ³Όμ • 반볡

  1. ν•™μŠ΅ λͺ©μ μ— λ”°λ₯Έ λΆ„λ₯˜

2.1 νŠΉμ • μž‘μ—…μ˜ μ„±λŠ₯ ν–₯상

2.1.1 Transfer Learning (전이 ν•™μŠ΅)

  • μ •μ˜: Transfer Learning은 ν•œ μž‘μ—…μ—μ„œ ν•™μŠ΅ν•œ λͺ¨λΈμ„ λ‹€λ₯Έ μœ μ‚¬ν•œ μž‘μ—…μ— μ μš©ν•˜λŠ” λ°©λ²•μž…λ‹ˆλ‹€. 사전 ν•™μŠ΅λœ λͺ¨λΈμ„ μƒˆλ‘œμš΄ μž‘μ—…μ— 맞게 λ―Έμ„Έ μ‘°μ •(fine-tuning)ν•˜μ—¬ μ‚¬μš©ν•©λ‹ˆλ‹€.

    • μ‚¬μš© λͺ©μ : μ†Œκ·œλͺ¨ λ°μ΄ν„°μ…‹μ—μ„œ 높은 μ„±λŠ₯을 μ–»κΈ° μœ„ν•΄ μ‚¬μš©. 예: 컴퓨터 λΉ„μ „, μžμ—°μ–΄ 처리.
    • 적용 방법: λŒ€κ·œλͺ¨ λ°μ΄ν„°μ…‹μ—μ„œ ν•™μŠ΅λœ λͺ¨λΈμ„ ν™œμš©ν•΄ νŠΉμ • μž‘μ—…μ— 맞게 μž¬ν•™μŠ΅ν•©λ‹ˆλ‹€.
    • ν•™μŠ΅ 방법: 사전 ν•™μŠ΅λœ λͺ¨λΈμ˜ 일뢀 계측을 κ³ μ •ν•˜κ±°λ‚˜, 전체 λ„€νŠΈμ›Œν¬λ₯Ό λ―Έμ„Έ μ‘°μ •ν•©λ‹ˆλ‹€.
    • 연ꡬ μ˜ˆμ‹œ: ResNet은 ImageNetμ—μ„œ 사전 ν•™μŠ΅λœ λͺ¨λΈλ‘œ, 이λ₯Ό λ―Έμ„Έ μ‘°μ •ν•˜μ—¬ λ‹€μ–‘ν•œ 이미지 λΆ„λ₯˜ μž‘μ—…μ— μ μš©ν•  수 μžˆμŠ΅λ‹ˆλ‹€.

2.1.2 Multi-task Learning (닀쀑 과제 ν•™μŠ΅)

μ •μ˜: Multi-task Learning은 μ—¬λŸ¬ κ΄€λ ¨λœ μž‘μ—…μ„ λ™μ‹œμ— ν•™μŠ΅ν•˜λŠ” λ°©λ²•μž…λ‹ˆλ‹€. μž‘μ—… κ°„μ˜ 곡톡 정보λ₯Ό κ³΅μœ ν•¨μœΌλ‘œμ¨ μΌλ°˜ν™” μ„±λŠ₯을 ν–₯μƒμ‹œν‚¬ 수 μžˆμŠ΅λ‹ˆλ‹€.

  • μ‚¬μš© λͺ©μ : μ—¬λŸ¬ μž‘μ—… κ°„μ˜ μ‹œλ„ˆμ§€λ₯Ό 톡해 μ„±λŠ₯을 ν–₯μƒμ‹œν‚€κ³ , λͺ¨λΈμ˜ νš¨μœ¨μ„±μ„ 높이기 μœ„ν•΄ μ‚¬μš©. 예: 자율 μ£Όν–‰, 컴퓨터 λΉ„μ „.
  • 적용 방법: ν•˜λ‚˜μ˜ λͺ¨λΈμ΄ μ—¬λŸ¬ μž‘μ—…μ„ λ™μ‹œμ— ν•™μŠ΅ν•˜λ„λ‘ μ„€κ³„ν•©λ‹ˆλ‹€.
  • ν•™μŠ΅ 방법: ν•˜λ“œ νŒŒλΌλ―Έν„° 곡유(Hard Parameter Sharing), μ†Œν”„νŠΈ νŒŒλΌλ―Έν„° 곡유(Soft Parameter Sharing) 기법을 μ‚¬μš©ν•΄ μž‘μ—… κ°„μ˜ κ· ν˜•μ„ μœ μ§€ν•©λ‹ˆλ‹€.
  • 연ꡬ μ˜ˆμ‹œ: Uber의 Multi-task Neural NetworksλŠ” 자율 μ£Όν–‰ μ°¨λŸ‰μ—μ„œ μ—¬λŸ¬ μž‘μ—…μ„ λ™μ‹œμ— μ²˜λ¦¬ν•  수 μžˆλ„λ‘ μ„€κ³„λ˜μ—ˆμŠ΅λ‹ˆλ‹€.

2.1.3 Multi-modal Learning (닀쀑 λͺ¨λ‹¬ ν•™μŠ΅)

  • μ •μ˜: Multi-modal Learning은 ν…μŠ€νŠΈ, 이미지, μŒμ„± λ“± μ—¬λŸ¬ κ°€μ§€ μ„œλ‘œ λ‹€λ₯Έ 데이터 λͺ¨λ‹¬λ¦¬ν‹°λ₯Ό κ²°ν•©ν•˜μ—¬ ν•™μŠ΅ν•˜λŠ” λ°©λ²•μž…λ‹ˆλ‹€. λ‹€μ–‘ν•œ ν˜•νƒœμ˜ 데이터λ₯Ό ν†΅ν•©ν•˜μ—¬ 더 ν’λΆ€ν•œ ν‘œν˜„κ³Ό μ„±λŠ₯을 μ–»λŠ” 것이 λͺ©ν‘œμž…λ‹ˆλ‹€.

    • μ‚¬μš© λͺ©μ : μ—¬λŸ¬ λͺ¨λ‹¬λ¦¬ν‹° κ°„μ˜ 관계λ₯Ό μ΄ν•΄ν•˜κ³ , 이λ₯Ό 톡해 볡합적인 문제λ₯Ό ν•΄κ²°ν•˜κΈ° μœ„ν•΄ μ‚¬μš©. 예: ν…μŠ€νŠΈ-이미지 λ³€ν™˜, λΉ„λ””μ˜€ μ„€λͺ… 생성.
    • 적용 방법: λͺ¨λΈμ€ μ„œλ‘œ λ‹€λ₯Έ λͺ¨λ‹¬λ¦¬ν‹° κ°„μ˜ μƒν˜Έ μž‘μš©μ„ ν•™μŠ΅ν•˜κ³ , 이λ₯Ό κ²°ν•©ν•΄ ν†΅ν•©λœ ν‘œν˜„μ„ μƒμ„±ν•©λ‹ˆλ‹€.
    • ν•™μŠ΅ 방법: Cross-modal Attention, Joint Embedding, Transformer 기반 λͺ¨λΈ 등이 μ‚¬μš©λ©λ‹ˆλ‹€.
    • 연ꡬ μ˜ˆμ‹œ: CLIP(OpenAI)은 이미지와 ν…μŠ€νŠΈλ₯Ό λ™μ‹œμ— ν•™μŠ΅ν•΄, ν…μŠ€νŠΈ μ„€λͺ…κ³Ό μΌμΉ˜ν•˜λŠ” 이미지λ₯Ό μ°Ύκ±°λ‚˜, 이미지λ₯Ό μ„€λͺ…ν•  수 μžˆλŠ” κ°•λ ₯ν•œ λͺ¨λΈμ„ κ°œλ°œν–ˆμŠ΅λ‹ˆλ‹€.

2.2 μƒˆλ‘œμš΄ 상황에 λŒ€ν•œ 적응

2.2.1 Reinforcement Learning (κ°•ν™” ν•™μŠ΅)

  • μ •μ˜: Reinforcement Learning은 μ—μ΄μ „νŠΈκ°€ ν™˜κ²½κ³Ό μƒν˜Έμž‘μš©ν•˜λ©°, 보상을 μ΅œλŒ€ν™”ν•˜λŠ” λ°©ν–₯으둜 정책을 ν•™μŠ΅ν•˜λŠ” λ°©λ²•μž…λ‹ˆλ‹€. μ—μ΄μ „νŠΈλŠ” 행동을 μ„ νƒν•˜κ³ , κ·Έ ν–‰λ™μ˜ κ²°κ³Όλ‘œλΆ€ν„° 보상을 μ–»μŠ΅λ‹ˆλ‹€.

    • μ‚¬μš© λͺ©μ : λ³΅μž‘ν•œ μ˜μ‚¬ κ²°μ • 문제, κ²Œμž„, λ‘œλ΄‡ μ œμ–΄, 자율 μ£Όν–‰ λ“±. 예: 체슀, λ°”λ‘‘, 자율 μ£Όν–‰ μ°¨λŸ‰.
    • 적용 방법: μ—μ΄μ „νŠΈλŠ” ν™˜κ²½μ—μ„œ μ‹œλ„μ™€ 였λ₯˜(trial and error)λ₯Ό 톡해 ν•™μŠ΅ν•˜λ©°, μž₯기적인 보상을 μ΅œλŒ€ν™”ν•˜λŠ” λ°©ν–₯으둜 정책을 κ°œμ„ ν•©λ‹ˆλ‹€.
    • ν•™μŠ΅ 방법: Q-learning, SARSA, DQN, Policy Gradients 등이 μ‚¬μš©λ©λ‹ˆλ‹€.
    • 연ꡬ μ˜ˆμ‹œ: DeepMind의 AlphaGoλŠ” 수백만 번의 κ²Œμž„μ„ 톡해 λ°”λ‘‘μ—μ„œ μ‚¬λžŒμ„ λŠ₯κ°€ν•˜λŠ” μ„±λŠ₯을 λ³΄μ—¬μ£Όμ—ˆμŠ΅λ‹ˆλ‹€.

2.2.2 Continual Learning (연속 ν•™μŠ΅)

  • μ •μ˜: Continual Learning은 λͺ¨λΈμ΄ μƒˆλ‘œμš΄ λ°μ΄ν„°λ‚˜ μž‘μ—…μ„ ν•™μŠ΅ν•˜λ©΄μ„œ 이전에 ν•™μŠ΅ν•œ λ‚΄μš©μ„ μžƒμ§€ μ•Šλ„λ‘ ν•˜λŠ” λ°©λ²•μž…λ‹ˆλ‹€. μ—°μ†μ μœΌλ‘œ λ³€ν™”ν•˜λŠ” ν™˜κ²½μ— μ μ‘ν•˜λ©° μ„±λŠ₯을 μœ μ§€ν•©λ‹ˆλ‹€.

    • μ‚¬μš© λͺ©μ : λ³€ν™”ν•˜λŠ” 데이터 뢄포, μƒˆλ‘œμš΄ μž‘μ—…μ— μœ μ—°ν•˜κ²Œ λŒ€μ‘ν•˜κΈ° μœ„ν•΄ μ‚¬μš©. 예: λ‘œλ΄‡ μ œμ–΄, 자율 μ£Όν–‰, IoT μ‹œμŠ€ν…œ.
    • 적용 방법: λͺ¨λΈμ€ μƒˆλ‘œμš΄ 데이터λ₯Ό ν•™μŠ΅ν•  λ•Œλ§ˆλ‹€ 이전에 ν•™μŠ΅ν•œ λ‚΄μš©μ„ λ³΄μ‘΄ν•˜λ©°, μ μ§„μ μœΌλ‘œ ν•™μŠ΅ν•©λ‹ˆλ‹€.
    • ν•™μŠ΅ 방법: EWC, GEM, Replay-based Methods 등이 μ‚¬μš©λ©λ‹ˆλ‹€.
    • 연ꡬ μ˜ˆμ‹œ: DeepMind의 Progress & CompressλŠ” μ—¬λŸ¬ μž‘μ—…μ„ 순차적으둜 ν•™μŠ΅ν•˜λ©°, 이전 μž‘μ—…μ˜ μ„±λŠ₯을 μœ μ§€ν•©λ‹ˆλ‹€.

2.2.3 Incremental Learning (점진적 ν•™μŠ΅)

  • μ •μ˜: Incremental Learning은 μƒˆλ‘œμš΄ λ°μ΄ν„°λ‚˜ ν΄λž˜μŠ€κ°€ 좔가될 λ•Œ λͺ¨λΈμ„ μ μ§„μ μœΌλ‘œ μ—…λ°μ΄νŠΈν•˜λŠ” λ°©λ²•μž…λ‹ˆλ‹€. 주둜 λ™μΌν•œ μž‘μ—… λ‚΄μ—μ„œ μƒˆλ‘œμš΄ λ°μ΄ν„°λ‚˜ 클래슀λ₯Ό μΆ”κ°€ν•˜λŠ” 데 쀑점을 λ‘‘λ‹ˆλ‹€.

    • μ‚¬μš© λͺ©μ : λͺ¨λΈμ˜ 전체 μž¬ν•™μŠ΅ 없이 μƒˆλ‘œμš΄ 정보λ₯Ό ν†΅ν•©ν•˜κΈ° μœ„ν•΄ μ‚¬μš©. 예: μƒˆλ‘œμš΄ 클래슀의 μΆ”κ°€, 데이터 ν™•μž₯.
    • 적용 방법: λͺ¨λΈμ˜ κΈ°μ‘΄ ꡬ쑰λ₯Ό μœ μ§€ν•˜λ©΄μ„œ μ μ§„μ μœΌλ‘œ μƒˆλ‘œμš΄ 데이터λ₯Ό ν†΅ν•©ν•©λ‹ˆλ‹€.
    • ν•™μŠ΅ 방법: μƒˆλ‘œμš΄ 데이터가 좔가될 λ•Œλ§ˆλ‹€ κΈ°μ‘΄ λͺ¨λΈμ„ λΆ€λΆ„μ μœΌλ‘œ μ—…λ°μ΄νŠΈν•©λ‹ˆλ‹€.
    • 연ꡬ μ˜ˆμ‹œ: 이미지 λΆ„λ₯˜ μž‘μ—…μ—μ„œ μƒˆλ‘œμš΄ ν΄λž˜μŠ€κ°€ μ§€μ†μ μœΌλ‘œ μΆ”κ°€λ˜λŠ” ν™˜κ²½μ—μ„œ ν™œμš©λ©λ‹ˆλ‹€.

2.2.4 Online Learning (온라인 ν•™μŠ΅)

  • μ •μ˜: Online Learning은 데이터가 순차적으둜 도착할 λ•Œ μ‹€μ‹œκ°„μœΌλ‘œ λͺ¨λΈμ„ μ—…λ°μ΄νŠΈν•˜λŠ” λ°©λ²•μž…λ‹ˆλ‹€. 각 데이터 ν¬μΈνŠΈμ— λŒ€ν•΄ μ¦‰μ‹œ ν•™μŠ΅ 및 μ˜ˆμΈ‘μ„ μˆ˜ν–‰ν•©λ‹ˆλ‹€.

    • μ‚¬μš© λͺ©μ : μ‹€μ‹œκ°„ 데이터 처리 및 즉각적인 λͺ¨λΈ μ—…λ°μ΄νŠΈκ°€ ν•„μš”ν•œ 경우 μ‚¬μš©. 예: 슀트리밍 데이터 뢄석, 금육 거래.
    • 적용 방법: 데이터가 슀트림 ν˜•νƒœλ‘œ μ§€μ†μ μœΌλ‘œ μœ μž…λ  λ•Œ λͺ¨λΈμ„ μ‹€μ‹œκ°„μœΌλ‘œ ν•™μŠ΅ 및 μ—…λ°μ΄νŠΈν•©λ‹ˆλ‹€.
    • ν•™μŠ΅ 방법: 각 데이터 ν¬μΈνŠΈκ°€ 도착할 λ•Œλ§ˆλ‹€ λͺ¨λΈμ„ μ¦‰μ‹œ ν•™μŠ΅ν•˜κ³  μ˜ˆμΈ‘μ„ μ—…λ°μ΄νŠΈν•©λ‹ˆλ‹€.
    • 연ꡬ μ˜ˆμ‹œ: μ‹€μ‹œκ°„ μ£Όκ°€ μ˜ˆμΈ‘μ—μ„œ λ§€μˆœκ°„ λ„μ°©ν•˜λŠ” μƒˆλ‘œμš΄ 데이터λ₯Ό λ°˜μ˜ν•΄ λͺ¨λΈμ„ μ—…λ°μ΄νŠΈν•©λ‹ˆλ‹€.

2.2.5 Meta Learning (메타 ν•™μŠ΅)

  • μ •μ˜: Meta Learning은 β€œν•™μŠ΅μ„ ν•™μŠ΅ν•˜λŠ”β€ λ°©λ²•λ‘ μœΌλ‘œ, μƒˆλ‘œμš΄ μž‘μ—…μ„ λΉ λ₯΄κ²Œ ν•™μŠ΅ν•  수 μžˆλŠ” λͺ¨λΈμ„ λ§Œλ“œλŠ” 데 쀑점을 λ‘‘λ‹ˆλ‹€. λ‹€μ–‘ν•œ μž‘μ—…μ„ ν•™μŠ΅ν•˜λ©° μΌλ°˜ν™”λœ ν•™μŠ΅ μ „λž΅μ„ ν„°λ“ν•˜λŠ” 것이 λͺ©ν‘œμž…λ‹ˆλ‹€.

    • μ‚¬μš© λͺ©μ : μƒˆλ‘œμš΄ μž‘μ—…μ— λŒ€ν•œ ν•™μŠ΅ 속도λ₯Ό 높이고, μ†ŒλŸ‰μ˜ λ°μ΄ν„°λ‘œλ„ 효과적으둜 ν•™μŠ΅ν•  수 μžˆλ„λ‘ ν•˜κΈ° μœ„ν•΄ μ‚¬μš©. 예: Few-shot Learning.
    • 적용 방법: λͺ¨λΈμ€ λ‹€μˆ˜μ˜ μž‘μ—…μ„ ν•™μŠ΅ν•˜λ©΄μ„œ, μƒˆλ‘œμš΄ μž‘μ—…μ— λΉ λ₯΄κ²Œ 적응할 수 μžˆλŠ” λŠ₯λ ₯을 κ°œλ°œν•©λ‹ˆλ‹€.
    • ν•™μŠ΅ 방법: MAML, Reptile, Prototypical Networks λ“±μ˜ μ•Œκ³ λ¦¬μ¦˜μ΄ μ‚¬μš©λ©λ‹ˆλ‹€.
    • 연ꡬ μ˜ˆμ‹œ: MAML μ•Œκ³ λ¦¬μ¦˜μ€ μƒˆλ‘œμš΄ μž‘μ—…μ— λŒ€ν•œ 적응성을 λ†’μ΄λŠ” 메타 ν•™μŠ΅ 방법을 μ œκ³΅ν•©λ‹ˆλ‹€.
  1. λ°μ΄ν„°μ˜ μ–‘κ³Ό μ§ˆμ— λ”°λ₯Έ λΆ„λ₯˜

3.1 데이터가 적은 경우

3.1.1 Zero-shot Learning (μ œλ‘œμƒ· ν•™μŠ΅)

  • μ •μ˜: Zero-shot Learning은 ν•™μŠ΅μ— μ‚¬μš©λ˜μ§€ μ•Šμ€ μƒˆλ‘œμš΄ ν΄λž˜μŠ€μ— λŒ€ν•΄ μ˜ˆμΈ‘μ„ μˆ˜ν–‰ν•˜λŠ” λ°©λ²•μž…λ‹ˆλ‹€. λͺ¨λΈμ΄ 기쑴의 지식과 νŠΉμ„±μ„ μΌλ°˜ν™”ν•˜μ—¬, 이전에 λ³Έ 적 μ—†λŠ” 클래슀λ₯Ό μΈμ‹ν•˜λŠ” 것이 λͺ©ν‘œμž…λ‹ˆλ‹€.

    • μ‚¬μš© λͺ©μ : μƒˆλ‘œμš΄ 클래슀의 라벨링 데이터가 μ „ν˜€ 없을 λ•Œ μ‚¬μš©. 예: μƒˆλ‘œμš΄ μ œν’ˆ μΉ΄ν…Œκ³ λ¦¬μ˜ μžλ™ λΆ„λ₯˜.
    • 적용 방법: ν•™μŠ΅ 쀑에 보지 λͺ»ν•œ 클래슀의 μ„€λͺ…(예: ν…μŠ€νŠΈ μ„€λͺ…, 속성 벑터)κ³Ό κΈ°μ‘΄ 클래슀의 νŠΉμ„±μ„ 기반으둜 μ˜ˆμΈ‘ν•©λ‹ˆλ‹€.
    • ν•™μŠ΅ 방법: Attribute-based λͺ¨λΈ, Semantic Embedding λͺ¨λΈ, Knowledge Transfer λͺ¨λΈ 등이 μ‚¬μš©λ©λ‹ˆλ‹€.
    • 연ꡬ μ˜ˆμ‹œ: Xian et al.은 Zero-shot Learning의 벀치마크 데이터셋을 μ œμ•ˆν•˜κ³ , μƒˆλ‘œμš΄ 클래슀 인식 μ„±λŠ₯을 ν‰κ°€ν–ˆμŠ΅λ‹ˆλ‹€.

3.1.2 One-shot Learning (원샷 ν•™μŠ΅)

  • μ •μ˜: One-shot Learning은 μƒˆλ‘œμš΄ 클래슀λ₯Ό ν•™μŠ΅ν•˜κΈ° μœ„ν•΄ 단 ν•˜λ‚˜μ˜ μ˜ˆμ œλ§Œμ„ μ‚¬μš©ν•˜λŠ” ν•™μŠ΅ λ°©λ²•μž…λ‹ˆλ‹€. Few-shot Learning의 νŠΉμˆ˜ν•œ ν˜•νƒœλ‘œ λ³Ό 수 μžˆμŠ΅λ‹ˆλ‹€.

    • μ‚¬μš© λͺ©μ : 단일 μ˜ˆμ œλ§ŒμœΌλ‘œλ„ μƒˆλ‘œμš΄ 클래슀λ₯Ό ν•™μŠ΅ν•˜κ³  μ˜ˆμΈ‘ν•˜κΈ° μœ„ν•΄ μ‚¬μš©. 예: μ–Όκ΅΄ 인식, 생물쒅 인식.
    • 적용 방법: 이전에 ν•™μŠ΅ν•œ μœ μ‚¬ν•œ μž‘μ—…μ˜ 정보λ₯Ό ν™œμš©ν•˜μ—¬, μƒˆλ‘œμš΄ 클래슀λ₯Ό 단일 예제만으둜 ν•™μŠ΅ν•©λ‹ˆλ‹€.
    • ν•™μŠ΅ 방법: Siamese Networks, Matching Networks 등이 μ‚¬μš©λ˜λ©°, 두 μž…λ ₯ κ°„μ˜ μœ μ‚¬μ„±μ„ ν•™μŠ΅ν•©λ‹ˆλ‹€.
    • 연ꡬ μ˜ˆμ‹œ: Vinyals et al. (2016)의 Matching NetworksλŠ” One-shot Learning을 톡해 단일 예제만으둜 μƒˆλ‘œμš΄ 클래슀λ₯Ό ν•™μŠ΅ν•˜λŠ” 데 μ„±κ³΅ν–ˆμŠ΅λ‹ˆλ‹€.

3.1.3 Few-shot Learning (μ†ŒλŸ‰ ν•™μŠ΅)

  • μ •μ˜: Few-shot Learning은 맀우 적은 수의 ν•™μŠ΅ λ°μ΄ν„°λ‘œλ„ 높은 μ„±λŠ₯을 λ°œνœ˜ν•  수 μžˆλŠ” λͺ¨λΈμ„ ν•™μŠ΅ν•˜λŠ” λ°©λ²•μž…λ‹ˆλ‹€. 일반적으둜 μ†ŒλŸ‰μ˜ 예제(예: 1-shot, 5-shot)둜 μƒˆλ‘œμš΄ 클래슀λ₯Ό ν•™μŠ΅ν•  수 μžˆλŠ” λͺ¨λΈμ„ λͺ©ν‘œλ‘œ ν•©λ‹ˆλ‹€.

    • μ‚¬μš© λͺ©μ : 라벨링된 데이터가 극히 적은 μƒν™©μ—μ„œ μ‚¬μš©. 예: λ“œλ¬Όκ²Œ λ°œμƒν•˜λŠ” μ§ˆλ³‘μ˜ 진단, λ“œλ¬Έ 물체의 인식.
    • 적용 방법: 이전에 ν•™μŠ΅ν•œ μœ μ‚¬ν•œ μž‘μ—…μ—μ„œ 얻은 κ²½ν—˜μ„ ν™œμš©ν•΄ μ†ŒλŸ‰μ˜ 데이터λ₯Ό λΉ λ₯΄κ²Œ ν•™μŠ΅ν•©λ‹ˆλ‹€.
    • ν•™μŠ΅ 방법: Prototypical Networks, Matching Networks, Relation Networks 등이 μ‚¬μš©λ©λ‹ˆλ‹€.
    • 연ꡬ μ˜ˆμ‹œ: Matching NetworksλŠ” μ†ŒλŸ‰μ˜ ν•™μŠ΅ λ°μ΄ν„°λ‘œλ„ μƒˆλ‘œμš΄ ν΄λž˜μŠ€μ— λΉ λ₯΄κ²Œ 적응할 수 μžˆλŠ” Few-shot Learning λͺ¨λΈμž…λ‹ˆλ‹€.

3.3 데이터 증강 및 λŒ€μ‘° ν•™μŠ΅

3.3.1 데이터 증강 (Data Augmentation)

  • μ •μ˜: 데이터 증강은 ν•™μŠ΅μ— μ‚¬μš©λ˜λŠ” 원본 데이터λ₯Ό λ‹€μ–‘ν•œ λ°©μ‹μœΌλ‘œ λ³€ν˜•ν•˜μ—¬ 데이터셋을 ν™•μž₯ν•˜λŠ” λ°©λ²•μž…λ‹ˆλ‹€. μ΄λŠ” λͺ¨λΈμ΄ λ‹€μ–‘ν•œ μž…λ ₯ ν˜•νƒœμ— λŒ€ν•΄ κ°•μΈν•΄μ§ˆ 수 μžˆλ„λ‘ λ„μ™€μ€λ‹ˆλ‹€.

    • μ‚¬μš© λͺ©μ : 데이터가 λΆ€μ‘±ν•˜κ±°λ‚˜ λΆˆκ· ν˜•ν•œ μƒν™©μ—μ„œ λ°μ΄ν„°μ˜ 닀양성을 높이고, 과적합을 λ°©μ§€ν•˜λ©° λͺ¨λΈμ˜ μΌλ°˜ν™” μ„±λŠ₯을 ν–₯μƒμ‹œν‚€κΈ° μœ„ν•΄ μ‚¬μš©λ©λ‹ˆλ‹€.
    • 적용 방법: 이미지 νšŒμ „, 크둭, 색상 λ³€ν™”, μŠ€μΌ€μΌ 쑰절 λ“±κ³Ό 같은 λ³€ν˜• 기법을 μ μš©ν•˜μ—¬ μƒˆλ‘œμš΄ ν•™μŠ΅ 데이터λ₯Ό μƒμ„±ν•©λ‹ˆλ‹€.
    • ν•™μŠ΅ 방법:
      • 이미지 증강 기법: νšŒμ „, 자λ₯΄κΈ°, ν™•λŒ€/μΆ•μ†Œ, 색상 λ³€ν™˜, λ’€μ§‘κΈ° λ“±.
      • μŒμ„± 증강 기법: μ†ŒμŒ μΆ”κ°€, μ‹œκ°„ μ™œκ³‘, 속도 λ³€ν™” λ“±.
      • ν…μŠ€νŠΈ 증강 기법: 단어 μ‚½μž…, μ‚­μ œ, ꡐ체, μˆœμ„œ λ³€κ²½ λ“±.
      • κ³ κΈ‰ 증강 기법: CutMix, MixUp, CutOut 등을 μ‚¬μš©ν•΄ 데이터λ₯Ό ν˜Όν•©ν•˜κ±°λ‚˜ 일뢀λ₯Ό μ œκ±°ν•˜λŠ” 방식.
    • 연ꡬ μ˜ˆμ‹œ:
      • CutMix: 두 이미지λ₯Ό ν˜Όν•©ν•˜μ—¬ μƒˆλ‘œμš΄ ν•™μŠ΅ 데이터λ₯Ό 생성, λ‹€μ–‘ν•œ 이미지 λΆ„λ₯˜ μž‘μ—…μ—μ„œ μ„±λŠ₯을 κ°œμ„ .
      • MixUp: 두 이미지λ₯Ό μ„ ν˜• κ²°ν•©ν•˜μ—¬ μƒˆλ‘œμš΄ ν•™μŠ΅ μƒ˜ν”Œμ„ λ§Œλ“€μ–΄, λͺ¨λΈμ˜ μΌλ°˜ν™” λŠ₯λ ₯을 ν–₯μƒμ‹œν‚΄.
      • GANs 기반 증강: StyleGAN 등은 μƒˆλ‘œμš΄ 이미지λ₯Ό 생성해 데이터셋을 ν™•μž₯ν•˜κ³  μ„±λŠ₯을 λ†’μž„.

3.3.2 λŒ€μ‘° ν•™μŠ΅ (Contrastive Learning)

  • μ •μ˜: λŒ€μ‘° ν•™μŠ΅μ€ ν•™μŠ΅ κ³Όμ •μ—μ„œ λ°μ΄ν„°μ˜ μœ μ‚¬μ„±κ³Ό 차이λ₯Ό ν•™μŠ΅ν•˜μ—¬ λͺ¨λΈμ˜ μ„±λŠ₯을 ν–₯μƒμ‹œν‚€λŠ” λ°©λ²•μž…λ‹ˆλ‹€. 이 기법은 λ°μ΄ν„°μ˜ 잠재적 ν‘œν˜„μ„ κ°œμ„ ν•˜κ³ , νŠΉμ • λͺ©μ μ— λ§žλŠ” κ³ ν’ˆμ§ˆμ˜ μž„λ² λ”©μ„ μƒμ„±ν•˜λŠ” 데 μ΄ˆμ μ„ 맞μΆ₯λ‹ˆλ‹€.

    • μ‚¬μš© λͺ©μ : 데이터 κ°„μ˜ μœ μ‚¬μ„±μ„ κ°•μ‘°ν•˜κ³  차이λ₯Ό ν•™μŠ΅ν•¨μœΌλ‘œμ¨ 고차원 λ°μ΄ν„°μ˜ 잠재 ν‘œν˜„μ„ μ΅œμ ν™”ν•˜κΈ° μœ„ν•΄ μ‚¬μš©λ©λ‹ˆλ‹€. 특히, 데이터가 λ³΅μž‘ν•˜κ±°λ‚˜ λ‹€μ–‘ν•œ κ²½μš°μ— μœ μš©ν•©λ‹ˆλ‹€.
    • 적용 방법: 데이터 포인트 κ°„μ˜ μœ μ‚¬μ„±μ„ κ·ΉλŒ€ν™”ν•˜κ³ , λ‹€λ₯Έ 데이터 ν¬μΈνŠΈμ™€μ˜ 차이λ₯Ό κ·ΉλŒ€ν™”ν•˜λŠ” λ°©μ‹μœΌλ‘œ ν•™μŠ΅ν•©λ‹ˆλ‹€. 주둜 λŒ€μ‘°μ  손싀 ν•¨μˆ˜(Contrastive Loss) λ˜λŠ” 삼쀑 ν•­ 손싀(Triplet Loss)λ₯Ό μ‚¬μš©ν•©λ‹ˆλ‹€.
    • ν•™μŠ΅ 방법:
      • Contrastive Loss: μœ μ‚¬ν•œ 데이터 μŒμ€ κ°€κΉκ²Œ, λ‹€λ₯Έ 데이터 μŒμ€ 멀리 떨어지도둝 ν•™μŠ΅.
      • Triplet Loss: 액컀(anchor) μƒ˜ν”Œ, μ–‘μ„±(positive) μƒ˜ν”Œ, μŒμ„±(negative) μƒ˜ν”Œ κ°„μ˜ 거리 관계λ₯Ό μ΅œμ ν™”ν•˜μ—¬ ν•™μŠ΅.
      • Self-Supervised Learning 기법: SimCLR, MoCo 등은 λŒ€μ‘° ν•™μŠ΅μ„ 톡해 κ°•λ ₯ν•œ 데이터 ν‘œν˜„μ„ ν•™μŠ΅ν•¨.
    • 연ꡬ μ˜ˆμ‹œ:
      • SimCLR: Self-Supervised Learningμ—μ„œ λŒ€μ‘°μ  손싀을 μ‚¬μš©ν•΄ 이미지 ν‘œν˜„μ„ ν•™μŠ΅ν•˜λ©°, 지도 ν•™μŠ΅ 없이도 κ°•λ ₯ν•œ μ„±λŠ₯을 발휘.
      • Triplet Loss: μ–Όκ΅΄ 인식 λͺ¨λΈμ—μ„œ μœ μ‚¬ν•œ 얼꡴은 κ°€κΉκ²Œ, λ‹€λ₯Έ 얼꡴은 멀리 λ°°μΉ˜λ˜λ„λ‘ ν•™μŠ΅ν•΄ 높은 인식 정확도λ₯Ό 달성.

  1. Unsupervised Learning의 μ€‘μš”μ„±

Unsupervised Learning은 라벨이 μ—†λŠ” λ°μ΄ν„°μ—μ„œ νŒ¨ν„΄κ³Ό ꡬ쑰λ₯Ό ν•™μŠ΅ν•˜λŠ” λ°©λ²•μœΌλ‘œ, λ°μ΄ν„°μ˜ μˆ¨κ²¨μ§„ ꡬ쑰λ₯Ό λ°œκ²¬ν•˜κ±°λ‚˜ λ°μ΄ν„°μ˜ 압좕을 톡해 더 효율적인 λͺ¨λΈμ„ λ§Œλ“œλŠ” 데 μ‚¬μš©λ©λ‹ˆλ‹€.

1. Geoffrey Hinton의 관점

Geoffrey Hinton은 그의 2014λ…„ AMA(Ask Me Anything) μ„Έμ…˜μ—μ„œ, μΈκ°„μ˜ λ‡Œκ°€ μ•½ 101410^141014개의 μ‹œλƒ…μŠ€λ₯Ό κ°€μ§€κ³  있고 μš°λ¦¬κ°€ μ•½ 10910^9109초λ₯Ό μ‚΄κΈ° λ•Œλ¬Έμ— 데이터보닀 훨씬 λ§Žμ€ νŒŒλΌλ―Έν„°λ₯Ό κ°€μ§€κ³  μžˆλ‹€κ³  μ–ΈκΈ‰ν–ˆμŠ΅λ‹ˆλ‹€. μ΄λŠ” μš°λ¦¬κ°€ 더 λ§Žμ€ μ–‘μ˜ Unsupervised Learning을 ν•΄μ•Ό 함을 μ˜λ―Έν•©λ‹ˆλ‹€. κ·ΈλŠ” μΈκ°„μ˜ 지각 μž…λ ₯(Perceptual Input)μ—μ„œ 얻을 수 μžˆλŠ” μ œμ•½ 쑰건의 μˆ˜κ°€ 많기 λ•Œλ¬Έμ—, Unsupervised Learning이 ν•„μš”ν•˜λ‹€κ³  μ„€λͺ…ν–ˆμŠ΅λ‹ˆλ‹€. μ΄λŸ¬ν•œ μ„€λͺ…은 λ°μ΄ν„°μ˜ νŒ¨ν„΄μ„ ν•™μŠ΅ν•˜κ³  μ••μΆ•(Compression)ν•˜λŠ” 것이 μΈκ°„μ˜ μ§€λŠ₯κ³Ό μ–΄λ–»κ²Œ μ—°κ²°λ˜λŠ”μ§€λ₯Ό μ‹œμ‚¬ν•©λ‹ˆλ‹€.

2. Yann LeCun의 β€œLeCake” λΉ„μœ 

Yann LeCun은 2016λ…„ NeurIPS ν‚€λ…ΈνŠΈ κ°•μ—°μ—μ„œ β€œLeCake” λΉ„μœ λ₯Ό 톡해 Unsupervised Learning의 μ€‘μš”μ„±μ„ κ°•μ‘°ν–ˆμŠ΅λ‹ˆλ‹€. κ·ΈλŠ” κ°•ν™” ν•™μŠ΅μ΄ μΌ€μ΄ν¬μ˜ 체리에 ν•΄λ‹Ήν•˜κ³ , 지도 ν•™μŠ΅μ΄ 아이싱에 ν•΄λ‹Ήν•˜λŠ” 반면, Unsupervised Learning은 μΌ€μ΄ν¬μ˜ λŒ€λΆ€λΆ„μ„ μ°¨μ§€ν•œλ‹€κ³  μ„€λͺ…ν–ˆμŠ΅λ‹ˆλ‹€. μ΄λŠ” Unsupervised Learning이 맀우 큰 데이터 λ³Όλ₯¨μ„ μ²˜λ¦¬ν•˜κ³  μΌλ°˜ν™”λœ ν•™μŠ΅μ„ κ°€λŠ₯ν•˜κ²Œ ν•˜λŠ” 핡심 κΈ°μˆ μž„μ„ λ‚˜νƒ€λƒ…λ‹ˆλ‹€. LeCun은 기계가 상식을 κ°€μ§€κ³  μΌλ°˜ν™”ν•˜λ €λ©΄ μ—„μ²­λ‚œ μ–‘μ˜ 정보가 ν•„μš”ν•˜λ©°, 이λ₯Ό λ‹¬μ„±ν•˜λŠ” 방법이 λ°”λ‘œ Unsupervised Learning이라고 κ°•μ‘°ν–ˆμŠ΅λ‹ˆλ‹€.

3. Ideal Intelligence와 Compression

Unsupervised Learning의 또 λ‹€λ₯Έ μ€‘μš”ν•œ 츑면은 β€œIdeal Intelligenceβ€λ‘œ μ •μ˜λ˜λŠ” κ°œλ…μž…λ‹ˆλ‹€. 이 κ°œλ…μ— λ”°λ₯΄λ©΄, μ§€λŠ₯은 데이터λ₯Ό μ••μΆ•ν•˜κ³  νŒ¨ν„΄μ„ μ°ΎλŠ” λŠ₯λ ₯으둜 츑정될 수 μžˆμŠ΅λ‹ˆλ‹€. Kolmogorov Complexity 이둠에 λ”°λ₯΄λ©΄, νŒ¨ν„΄μ„ λͺ¨λ‘ μ°Ύμ•„λ‚΄λŠ” 것은 λ°μ΄ν„°μ˜ 짧은 μ„€λͺ…을 μ˜λ―Έν•˜λ©°, μ΄λŠ” 졜적의 μΆ”λ‘ (Optimal Inference)κ³Ό μ—°κ²°λ©λ‹ˆλ‹€. μ΄λŸ¬ν•œ 압좕을 톡해 μ–»μ–΄μ§„ μ •λ³΄λŠ” 졜적의 행동을 κ²°μ •ν•˜λŠ” 인곡지λŠ₯(AI) μ‹œμŠ€ν…œμ—λ„ 적용될 수 μžˆμŠ΅λ‹ˆλ‹€. 예λ₯Ό λ“€μ–΄, Unsupervised Learning을 톡해 D1 데이터 λΆ„ν¬μ—μ„œ 사전 ν•™μŠ΅ν•œ ν›„, D2 데이터 λΆ„ν¬μ—μ„œ λ―Έμ„Έ 쑰정을 μ§„ν–‰ν•˜λ©΄ 더 λΉ λ₯΄κ²Œ ν•™μŠ΅ν•  수 μžˆμŠ΅λ‹ˆλ‹€.

4. μ‘μš© λΆ„μ•Ό

Unsupervised Learning은 이미지 생성, ν…μŠ€νŠΈ-이미지 λ³€ν™˜, μ˜€λ””μ˜€ 생성, ν…μŠ€νŠΈ 생성, λΉ„λ””μ˜€ 생성 λ“± λ‹€μ–‘ν•œ λΆ„μ•Όμ—μ„œ κ°•λ ₯ν•œ μ‘μš©λ ₯을 λ°œνœ˜ν•˜κ³  μžˆμŠ΅λ‹ˆλ‹€. μ‹€μ œλ‘œ, Google 검색 엔진은 BERT와 같은 Unsupervised Learning λͺ¨λΈμ„ ν™œμš©ν•˜μ—¬ 검색 κ²°κ³Όλ₯Ό κ°œμ„ ν•˜μ˜€μœΌλ©°, μ΄λŠ” Unsupervised Learning이 μ‹€μ œ μ‚°μ—…μ—μ„œ μ–΄λ–»κ²Œ 생산 μˆ˜μ€€μ˜ μž„νŒ©νŠΈλ₯Ό 쀄 수 μžˆλŠ”μ§€λ₯Ό λ³΄μ—¬μ€λ‹ˆλ‹€. BERTλŠ” λ°©λŒ€ν•œ μ–‘μ˜ ν…μŠ€νŠΈ 데이터λ₯Ό 비지도 ν•™μŠ΅μ„ 톡해 단어 κ°„μ˜ 관계λ₯Ό μ΄ν•΄ν•˜κ³ , 이λ₯Ό 기반으둜 μžμ—°μ–΄ 처리 μž‘μ—…μ—μ„œ νƒμ›”ν•œ μ„±λŠ₯을 λ°œνœ˜ν•©λ‹ˆλ‹€.

Unsupervised Learning은 λ°μ΄ν„°μ˜ 라벨링 없이도 ν’λΆ€ν•œ νŒ¨ν„΄μ„ ν•™μŠ΅ν•  수 μžˆλŠ” λŠ₯λ ₯ 덕뢄에 점점 더 λ§Žμ€ μ‚°μ—…κ³Ό 연ꡬ λΆ„μ•Όμ—μ„œ μ€‘μš”μ„±μ΄ κ°•μ‘°λ˜κ³  μžˆμŠ΅λ‹ˆλ‹€. 이λ₯Ό 톡해 Unsupervised Learning은 기쑴의 지도 ν•™μŠ΅κ³Ό 비ꡐ해 라벨링에 μ˜μ‘΄ν•˜μ§€ μ•ŠμœΌλ©΄μ„œλ„ ν’λΆ€ν•œ 정보λ₯Ό μΆ”μΆœν•  수 μžˆμ–΄, 미래의 데이터 뢄석 및 인곡지λŠ₯ 기술의 핡심이 될 κ²ƒμœΌλ‘œ κΈ°λŒ€λ©λ‹ˆλ‹€.


Conclusion

λ³Έ κ°•μ˜μ—μ„œ μ–ΈκΈ‰ν•˜λ“―μ΄, Unsupervised Learning의 μ€‘μš”μ„±μ€ λ°μ΄ν„°μ˜ 라벨링 없이도 μˆ¨κ²¨μ§„ νŒ¨ν„΄κ³Ό ꡬ쑰λ₯Ό ν•™μŠ΅ν•  수 μžˆλ‹€λŠ” 점에 μžˆμŠ΅λ‹ˆλ‹€. μ΄λŠ” λŒ€κ·œλͺ¨ λ°μ΄ν„°μ—μ„œ μœ μ˜λ―Έν•œ 정보λ₯Ό μΆ”μΆœν•  수 μžˆλŠ” κ°•λ ₯ν•œ λ„κ΅¬λ‘œμ„œ, 라벨링 λΉ„μš©κ³Ό μ‹œκ°„μ„ μ ˆκ°ν•˜λ©°, μƒˆλ‘œμš΄ λ„λ©”μΈμ΄λ‚˜ μž‘μ—…μ— μ‹ μ†ν•˜κ²Œ 적응할 수 μžˆλŠ” μœ μ—°μ„±μ„ μ œκ³΅ν•©λ‹ˆλ‹€.

μ΄λŸ¬ν•œ 이유둜 Unsupervised Learning은 λ‹€μ–‘ν•œ μ‚°μ—… 및 연ꡬ λΆ„μ•Όμ—μ„œ 점점 더 μ€‘μš”ν•œ 역할을 λ§‘κ³  있으며, 미래의 인곡지λŠ₯ 기술 λ°œμ „μ— ν•„μˆ˜μ μΈ μš”μ†Œλ‘œ μžλ¦¬λ§€κΉ€ν•˜κ³  μžˆμŠ΅λ‹ˆλ‹€.

μ•žμœΌλ‘œμ˜ κ°•μ˜ ν•™μŠ΅ 및 정리λ₯Ό 톡해 Unsupervised Learning의 핡심 κ°œλ…κ³Ό λ‹€μ–‘ν•œ μ‘μš© 사둀λ₯Ό μ²΄κ³„μ μœΌλ‘œ ν•™μŠ΅ν•¨μœΌλ‘œμ¨, 이 방법둠이 μ œκ³΅ν•˜λŠ” κ°•λ ₯ν•œ 잠재λ ₯을 깊이 μ΄ν•΄ν•˜κ³ , 이λ₯Ό 싀무에 효과적으둜 μ μš©ν•  수 μžˆλŠ” λŠ₯λ ₯을 ν‚€μ›Œλ‚˜κ°€κ³ μž ν•©λ‹ˆλ‹€.



-->