[λ„μ„œλ¦¬λ·°] λ”₯λŸ¬λ‹ μž…λ¬Έμžλ₯Ό μœ„ν•œ μ±… μΆ”μ²œ, ν˜νŽœν•˜μž„ γ€ŽEasy! λ”₯λŸ¬λ‹γ€

Posted by Euisuk's Dev Log on January 25, 2025

[λ„μ„œλ¦¬λ·°] λ”₯λŸ¬λ‹ μž…λ¬Έμžλ₯Ό μœ„ν•œ μ±… μΆ”μ²œ, ν˜νŽœν•˜μž„ γ€ŽEasy! λ”₯λŸ¬λ‹γ€

원본 κ²Œμ‹œκΈ€: https://velog.io/@euisuk-chung/γ€ŽEasy-λ”₯λŸ¬λ‹γ€-λ”₯λŸ¬λ‹-μž…λ¬Έμžλ₯Ό-μœ„ν•œ-졜고의-κ°€μ΄λ“œ

졜근 λ”₯λŸ¬λ‹μ— λŒ€ν•œ 관심이 λœ¨κ²μŠ΅λ‹ˆλ‹€. λ³΅μž‘ν•΄ λ³΄μ΄λŠ” AI κΈ°μˆ μ„ μ²΄κ³„μ μœΌλ‘œ 이해할 수 μžˆλŠ” 책을 μ°ΎλŠ” λΆ„λ“€κ»˜ ν˜νŽœν•˜μž„μ˜ γ€ŽEasy! λ”₯λŸ¬λ‹γ€μ„ μ†Œκ°œν•©λ‹ˆλ‹€. 이 책은 AI, λ¨Έμ‹ λŸ¬λ‹, λ”₯λŸ¬λ‹μ— λŒ€ν•œ κΈ°μ΄ˆλΆ€ν„° μ‹œμž‘ν•΄ CNN, RNN, 트랜슀포머 λ“± 심화 μ£Όμ œκΉŒμ§€ ν­λ„“κ²Œ λ‹€λ£Ήλ‹ˆλ‹€.

  • 특히, μ €μžμ΄μ‹  ν˜νŽœν•˜μž„λ‹˜μ€ μœ νŠœλ²„μ™€ κ°•μ‚¬λ‘œ ν™œλ™ν•˜λ©° 얻은 ν’λΆ€ν•œ κ²½ν—˜μ„ λ°”νƒ•μœΌλ‘œ, 직관적인 λΉ„μœ μ™€ λͺ…ν™•ν•œ μ„€λͺ…μœΌλ‘œ λ…μžκ°€ μ–΄λ €μš΄ κ°œλ…μ„ μ‰½κ²Œ 이해할 수 μžˆλ„λ‘ κ΅¬μ„±λ˜μ–΄ μžˆμŠ΅λ‹ˆλ‹€.

이λ₯Ό 톡해 μ΄ˆλ³΄μžλ“€λ„ λ”₯λŸ¬λ‹μ΄λΌλŠ” λ³΅μž‘ν•œ 학문을 μ°¨κ·Όμ°¨κ·Ό λ”°λΌκ°ˆ 수 있으며, μ‹€λ¬΄μ—μ„œλ„ λ°”λ‘œ ν™œμš© κ°€λŠ₯ν•œ 지식을 μŒ“μ„ 수 μžˆμŠ΅λ‹ˆλ‹€.

❓ ν˜νŽœν•˜μž„, κ·ΈλŠ” λˆ„κ΅¬μΈκ°€

  • ν˜νŽœν•˜μž„μ€ λ”₯λŸ¬λ‹ μž…λ¬Έμ„œ γ€ŽEasy! λ”₯λŸ¬λ‹γ€μ˜ μ €μžμ΄μž, AI 및 λ”₯λŸ¬λ‹ λΆ„μ•Όμ˜ κ°•μ‚¬λ‘œ ν™œλ™ν•˜λŠ” μ „λ¬Έκ°€μž…λ‹ˆλ‹€.- 그의 λ‹‰λ„€μž„ β€˜ν˜νŽœν•˜μž„β€™μ€ μ‹ ν˜Έμ²˜λ¦¬ λΆ„μ•Όμ˜ κΆŒμœ„μžμΈ μ˜€νŽœν•˜μž„ κ΅μˆ˜μ—κ²Œμ„œ μ˜κ°μ„ λ°›μ•„ 지은 κ²ƒμœΌλ‘œ μ•Œλ €μ Έ μžˆμŠ΅λ‹ˆλ‹€.
    • 그의 λ‹‰λ„€μž„ β€˜ν˜νŽœν•˜μž„β€™μ€ μ‹ ν˜Έμ²˜λ¦¬ λΆ„μ•Όμ˜ κΆŒμœ„μžμΈ μ˜€νŽœν•˜μž„ κ΅μˆ˜μ—κ²Œμ„œ μ˜κ°μ„ λ°›μ•„ 지은 κ²ƒμœΌλ‘œ μ•Œλ €μ Έ μžˆμŠ΅λ‹ˆλ‹€.

ν˜νŽœν•˜μž„ κ·ΈλŠ”, λ”₯λŸ¬λ‹κ³„μ˜ ν•œμ„μ› 🦾

  • ν˜νŽœν•˜μž„μ€ 유튜브 채널을 톡해 λ”₯λŸ¬λ‹κ³Ό AI κ΄€λ ¨ κ°•μ˜λ₯Ό μ œκ³΅ν•˜λ©°, λ³΅μž‘ν•œ κ°œλ…μ„ μ‰½κ²Œ μ„€λͺ…ν•˜λŠ” κ²ƒμœΌλ‘œ 유λͺ…ν•©λ‹ˆλ‹€. 그의 κ°•μ˜λŠ” λ”₯λŸ¬λ‹ μž…λ¬Έμžλ“€μ—κ²Œ 큰 도움을 μ£Όκ³  μžˆμŠ΅λ‹ˆλ‹€.
    • λ˜ν•œ, κ·ΈλŠ” νŒ¨μŠ€νŠΈμΊ νΌμŠ€μ™€ ν˜‘λ ₯ν•˜μ—¬ β€˜ν˜νŽœν•˜μž„μ˜ AI DEEP DIVEβ€™λΌλŠ” 온라인 κ°•μ˜λ₯Ό μ œμž‘ν•˜μ˜€μœΌλ©°, 이λ₯Ό 톡해 λ”₯λŸ¬λ‹μ˜ κΈ°μ΄ˆλΆ€ν„° 심화 λ‚΄μš©κΉŒμ§€ μ²΄κ³„μ μœΌλ‘œ μ „λ‹¬ν•˜κ³  μžˆμŠ΅λ‹ˆλ‹€.

▢️ YouTube 링크: https://www.youtube.com/@hyukppen/

μ € μ—­μ‹œ μž¬ν•™μƒ μ‹œμ ˆ, ν˜νŽœν•˜μž„λ‹˜μ˜ 유튜브 채널을 μ• μ²­ν•˜λ©° μ‹ ν˜Έμ²˜λ¦¬, 푸리에 λ³€ν™˜κ³Ό 같은 μ–΄λ €μš΄ κ°œλ…μ„ μ‰½κ²Œ 이해할 수 μžˆμ—ˆμŠ΅λ‹ˆλ‹€.

  • λ‹Ήμ‹œ 그의 직관적이고 λͺ…ν™•ν•œ μ„€λͺ… 덕뢄에 λ³΅μž‘ν•œ κ°œλ…μ„ μ‰½κ²Œ μ†Œν™”ν•  수 μžˆμ—ˆκ³ , 이 κ²½ν—˜μ€ μ œκ°€ AI와 λ”₯λŸ¬λ‹μ— ν₯λ―Έλ₯Ό κ°€μ§€κ²Œ 된 계기 쀑 ν•˜λ‚˜μ˜€μŠ΅λ‹ˆλ‹€.

μ§€κΈˆλ„ λ§Žμ€ μ‚¬λžŒλ“€μ΄ 그의 κ°•μ˜λ₯Ό 톡해 λ”₯λŸ¬λ‹μ˜ λ³Έμ§ˆμ„ 배우고 μžˆμŠ΅λ‹ˆλ‹€.


이 μ±…μ˜ μ£Όμš” νŠΉμ§•

γ€ŽEasy! λ”₯λŸ¬λ‹γ€μ˜ 책에 λŒ€ν•œ νŠΉμ§•μ€ μ•„λž˜μ™€ κ°™μŠ΅λ‹ˆλ‹€:

  1. μ΄ˆλ³΄μžλ„ μ‰½κ²Œ 이해할 수 μžˆλŠ” μ„€λͺ…

    • λ”₯λŸ¬λ‹ κ°œλ…μ„ λΉ„μœ μ μœΌλ‘œ ν’€μ–΄λ‚΄λ©° μΉœμ ˆν•˜κ²Œ μ„€λͺ…ν•©λ‹ˆλ‹€.
    • μ–΄λ €μš΄ μˆ˜ν•™μ  κ°œλ…λ„ μ§κ΄€μ μœΌλ‘œ λ‹€λ£° 수 μžˆλ„λ‘ λΆ€λ‘μ—μ„œ μƒμ„Ένžˆ μ†Œκ°œν•©λ‹ˆλ‹€.
    • λ”₯λŸ¬λ‹μ„ μ „ν˜€ λͺ¨λ₯΄λŠ” λ…μžλ“€λ„ μΆ©λΆ„νžˆ 이해할 수 μžˆλŠ” μ‰¬μš΄ μ˜ˆμ‹œμ™€ μ„€λͺ…μœΌλ‘œ κ΅¬μ„±λ˜μ–΄ μžˆμŠ΅λ‹ˆλ‹€.
  2. ν’λΆ€ν•œ μ‹œκ° μžλ£Œμ™€ λ™μ˜μƒ κ°•μ˜ 제곡

    • 280μ—¬ 개의 삽화와 μ±… λ‚΄μš©μ— 맞좘 λ™μ˜μƒ κ°•μ˜λ₯Ό 톡해 ν•™μŠ΅ 효과λ₯Ό κ·ΉλŒ€ν™”ν•  수 μžˆμŠ΅λ‹ˆλ‹€.
    • μ‹œκ° 자료λ₯Ό 톡해 λ³΅μž‘ν•œ κ°œλ…μ„ 더 μ‰½κ²Œ μ‹œκ°ν™”ν•˜λ©°, λ™μ˜μƒ κ°•μ˜λŠ” λ…μžμ˜ 이해λ₯Ό λ”μš± ν’λΆ€ν•˜κ²Œ λ§Œλ“€μ–΄ μ€λ‹ˆλ‹€.
  3. 이둠과 μ‹€μŠ΅μ˜ μ™„λ²½ν•œ μ‘°ν™”

    • κΈ°λ³Έ κ°œλ…λΆ€ν„° μ‹€μ œ λͺ¨λΈ 섀계 및 데이터 처리 λ°©λ²•κΉŒμ§€ μ²΄κ³„μ μœΌλ‘œ 배우게 λ©λ‹ˆλ‹€.
    • 이둠적인 μ„€λͺ…κ³Ό ν•¨κ»˜ ꡬ체적인 μ‹€μŠ΅ 예제λ₯Ό ν¬ν•¨ν•˜μ—¬, λ…μžκ°€ 이둠을 싀무에 λ°”λ‘œ μ μš©ν•  수 μžˆλ„λ‘ λ•μŠ΅λ‹ˆλ‹€.
  4. μˆ˜ν•™μ  기초 제곡

    • λ”₯λŸ¬λ‹μ„ μ΄ν•΄ν•˜λŠ” 데 ν•„μš”ν•œ ν•¨μˆ˜, 미적뢄, ν™•λ₯ κ³Ό 톡계 λ“± 기초 μˆ˜ν•™μ„ λΆ€λ‘μœΌλ‘œ μ œκ³΅ν•©λ‹ˆλ‹€.
    • 특히, κΈ°μ΄ˆκ°€ λΆ€μ‘±ν•œ λ…μžλ“€μ„ μœ„ν•΄ 각 μˆ˜ν•™ κ°œλ…μ„ μ‰½κ²Œ μ„€λͺ…ν•˜λ©°, λ”₯λŸ¬λ‹μ˜ 이둠적 이해λ₯Ό λ•λŠ” κΈ°λ°˜μ„ μ œκ³΅ν•©λ‹ˆλ‹€.
  5. 싀무와 연ꡬ λͺ¨λ‘λ₯Ό μ•„μš°λ₯΄λŠ” ꡬ성

    • 이 책은 λ‹¨μˆœνžˆ 이둠적 ν•™μŠ΅μ— κ·ΈμΉ˜μ§€ μ•Šκ³ , μ‹€λ¬΄μ—μ„œ ν™œμš© κ°€λŠ₯ν•œ 지식과 νŒμ„ μ œκ³΅ν•©λ‹ˆλ‹€.
    • 연ꡬ와 싀무에 λͺ¨λ‘ μ ν•©ν•œ 폭넓은 주제λ₯Ό 닀루며, λ…μžκ°€ AI ν”„λ‘œμ νŠΈλ₯Ό μˆ˜ν–‰ν•˜λŠ” 데 ν•„μš”ν•œ 핡심적인 도ꡬ와 방법둠을 읡힐 수 μžˆμŠ΅λ‹ˆλ‹€.

(μ°Έκ³ ) μž‘μ„± μ‹œμ  κΈ°μ€€ μ „μžμ±…μ€ 아직 μ—†μ§€λ§Œ, κ³§ μΆœμ‹œλ  μ˜ˆμ •μ΄λΌκ³  ν•©λ‹ˆλ‹€! (κ°œλ΄‰λ°•λ‘!)


λ‹€λ£¨λŠ” λ‚΄μš©κ³Ό λͺ©μ°¨

이 책은 크게 8개의 챕터와 λΆ€λ‘μœΌλ‘œ κ΅¬μ„±λ˜μ–΄ 있으며, λ”₯λŸ¬λ‹μ˜ κΈ°λ³Έ κ°œλ…λΆ€ν„° μ΅œμ‹  νŠΈλ Œλ“œκΉŒμ§€ μ²΄κ³„μ μœΌλ‘œ μ„€λͺ…ν•©λ‹ˆλ‹€.

각 μž₯은 λ”₯λŸ¬λ‹μ˜ 핡심 주제λ₯Ό 닀루며, μ΄ˆλ³΄μžλΆ€ν„° 쀑급 λ…μžκΉŒμ§€ λͺ¨λ‘μ—κ²Œ μ ν•©ν•œ λ‚΄μš©μœΌλ‘œ κ΅¬μ„±λ˜μ–΄ μžˆμŠ΅λ‹ˆλ‹€.

Chapter 1 - μ™œ ν˜„μž¬ AIκ°€ κ°€μž₯ ν•«ν• κΉŒ?

  • AI와 λ¨Έμ‹ λŸ¬λ‹, λ”₯λŸ¬λ‹μ˜ 차이점을 λΉ„κ΅ν•˜λ©°, AIκ°€ 뜨거운 μ£Όμ œκ°€ 된 이유λ₯Ό μ„€λͺ…ν•©λ‹ˆλ‹€. κ·œμΉ™ 기반 접근법과 데이터 기반 μ ‘κ·Όλ²•μ˜ 차이λ₯Ό 배우며, 지도 ν•™μŠ΅, 비지도 ν•™μŠ΅, κ°•ν™” ν•™μŠ΅κ³Ό 같은 λ”₯λŸ¬λ‹μ˜ λ‹€μ–‘ν•œ ν•™μŠ΅ 방식을 κ°œκ΄„ν•©λ‹ˆλ‹€.

Chapter 2 - 인곡 신경망과 μ„ ν˜• νšŒκ·€, 그리고 μ΅œμ ν™” 기법듀

  • 인곡 μ‹ κ²½λ§μ˜ κΈ°λ³Έ ꡬ쑰λ₯Ό μ΄ν•΄ν•˜κ³ , μ„ ν˜• νšŒκ·€λΆ€ν„° μ‹œμž‘ν•΄ λ”₯λŸ¬λ‹μ—μ„œ μ‚¬μš©ν•˜λŠ” λ‹€μ–‘ν•œ μ΅œμ ν™” μ•Œκ³ λ¦¬μ¦˜μ„ λ‹€λ£Ήλ‹ˆλ‹€. 경사 ν•˜κ°•λ²•, Adamκ³Ό 같은 μ΅œμ ν™” μ•Œκ³ λ¦¬μ¦˜μ΄ ν¬ν•¨λ©λ‹ˆλ‹€.

Chapter 3 - λ”₯λŸ¬λ‹, 그것이 μ•Œκ³  μ‹Άλ‹€.

  • λ”₯λŸ¬λ‹μ˜ 핡심 ꡬ성 μš”μ†ŒμΈ λ‹€μΈ΅ νΌμ…‰νŠΈλ‘ (MLP)κ³Ό μ—­μ „νŒŒ(backpropagation)λ₯Ό ν¬ν•¨ν•œ μ£Όμš” κΈ°μˆ μ„ μ„€λͺ…ν•©λ‹ˆλ‹€.

Chapter 4 - 이진 λΆ„λ₯˜μ™€ 닀쀑 λΆ„λ₯˜

  • 이진 λΆ„λ₯˜μ™€ 닀쀑 λΆ„λ₯˜ 문제λ₯Ό ν•΄κ²°ν•˜κΈ° μœ„ν•΄ μ‚¬μš©λ˜λŠ” Sigmoid와 Softmax ν•¨μˆ˜, 그리고 손싀 ν•¨μˆ˜ 섀계에 λŒ€ν•΄ λ‹€λ£Ήλ‹ˆλ‹€.

Chapter 5 - 인곡 신경망, κ·Έ ν•œκ³„λŠ” μ–΄λ””κΉŒμ§€μΈκ°€?

  • Universal Approximation Theorem(보편 근사 정리)을 μ€‘μ‹¬μœΌλ‘œ 인곡 μ‹ κ²½λ§μ˜ 이둠적 κ°€λŠ₯μ„±κ³Ό μ‹€μ œ ν•œκ³„μ— λŒ€ν•΄ λ…Όμ˜ν•©λ‹ˆλ‹€.

Chapter 6 - κΉŠμ€ 인곡 μ‹ κ²½λ§μ˜ 고질적 λ¬Έμ œμ™€ ν•΄κ²° λ°©μ•ˆ

  • κΉŠμ€ 인곡 μ‹ κ²½λ§μ—μ„œ λ°œμƒν•˜λŠ” 기울기 μ†Œμ‹€, 과적합 λ¬Έμ œμ™€ 이λ₯Ό κ·Ήλ³΅ν•˜κΈ° μœ„ν•œ 배치 μ •κ·œν™”(Batch Normalization), λ ˆμ΄μ–΄ μ •κ·œν™”(Layer Normalization) λ“±μ˜ μ •κ·œν™” 기법을 μ„€λͺ…ν•©λ‹ˆλ‹€.

Chapter 7 - μ™œ CNN이 이미지 데이터에 많이 μ“°μΌκΉŒ?

  • μ»¨λ³Όλ£¨μ…˜ 신경망(CNN)의 ꡬ쑰와 원리λ₯Ό μ€‘μ‹¬μœΌλ‘œ, 이미지 데이터 μ²˜λ¦¬μ—μ„œ CNN이 μ™œ νš¨κ³Όμ μΈμ§€ μ„€λͺ…ν•©λ‹ˆλ‹€. VGGNetκ³Ό 같은 λͺ¨λΈλ„ λ‹€λ£Ήλ‹ˆλ‹€.

Chapter 8 - μ™œ RNN보닀 νŠΈλžœμŠ€ν¬λ¨Έκ°€ 더 μ’‹λ‹€λŠ” 걸까?

  • RNN의 ν•œκ³„λ₯Ό κ·Ήλ³΅ν•˜κΈ° μœ„ν•œ Attention λ©”μ»€λ‹ˆμ¦˜κ³Ό Transformer ꡬ쑰λ₯Ό μ€‘μ‹¬μœΌλ‘œ λ”₯λŸ¬λ‹ λͺ¨λΈμ˜ μ΅œμ‹  νŠΈλ Œλ“œλ₯Ό λ°°μ›λ‹ˆλ‹€.

뢀둝: λ”₯λŸ¬λ‹μ„ μœ„ν•œ ν•„μˆ˜ 기초 μˆ˜ν•™

  • ν•¨μˆ˜, 미적뢄, ν™•λ₯ κ³Ό 톡계 λ“± λ”₯λŸ¬λ‹μ„ κ³΅λΆ€ν•˜λŠ” 데 ν•„μš”ν•œ 기초 μˆ˜ν•™ κ°œλ…μ„ μ •λ¦¬ν•©λ‹ˆλ‹€. 특히 정보 이둠 기초 λΆ€λΆ„μ—μ„œλŠ” Cross-Entropy와 KL-Divergence와 같은 핡심 μˆ˜ν•™ κ°œλ…μ„ λ‹€λ£Ήλ‹ˆλ‹€.

λ¦¬λ·°μ—μ„œ λ‹€λ£° λ‚΄μš©λ“€

μ΄μ–΄μ§€λŠ” λ„μ„œλ¦¬λ·°μ—μ„œλŠ” 특히 β€œChapter 6: κΉŠμ€ 인곡 μ‹ κ²½λ§μ˜ 고질적 λ¬Έμ œμ™€ ν•΄κ²° λ°©μ•ˆβ€μ„ μ€‘μ‹¬μœΌλ‘œ λ‹€λ£° μ˜ˆμ •μž…λ‹ˆλ‹€.

  • 이 μž₯μ—μ„œλŠ” λ”₯λŸ¬λ‹μ—μ„œ λ°œμƒν•˜λŠ” μ£Όμš” λ¬Έμ œλ“€, 예λ₯Ό λ“€μ–΄ 기울기 μ†Œμ‹€(Vanishing Gradient)κ³Ό 과적합(Overfitting) 문제λ₯Ό 닀루며 이λ₯Ό κ·Ήλ³΅ν•˜κΈ° μœ„ν•œ ν˜„λŒ€μ μΈ 기법을 μ œμ‹œν•©λ‹ˆλ‹€.
  • 특히, 배치 μ •κ·œν™”(Batch Normalization)와 λ ˆμ΄μ–΄ μ •κ·œν™”(Layer Normalization)의 원리, μž₯단점, 그리고 이λ₯Ό μ‹€μ œλ‘œ μ μš©ν•œ μ‹€ν—˜ κ²°κ³Όλ₯Ό 심도 있게 μ‚΄νŽ΄λ³Ό κ³„νšμž…λ‹ˆλ‹€.

μΆ”κ°€μ μœΌλ‘œ μ‹œκ°„ μ—¬μœ κ°€ μžˆλ‹€λ©΄, λΆ€λ‘μ˜ 6κ°• 정보 이둠 기초 뢀뢄도 ν•¨κ»˜ 리뷰할 μ˜ˆμ •μž…λ‹ˆλ‹€.

  • μ—¬κΈ°μ—μ„œλŠ” Cross-Entropy와 KL-Divergence의 μˆ˜ν•™μ  λ°°κ²½κ³Ό 이듀이 λ”₯λŸ¬λ‹ 손싀 ν•¨μˆ˜λ‘œ μ–΄λ–»κ²Œ ν™œμš©λ˜λŠ”μ§€λ₯Ό μ„€λͺ…ν•  μ˜ˆμ •μž…λ‹ˆλ‹€.
  • μ΄λŸ¬ν•œ λ‚΄μš©μ€ λ”₯λŸ¬λ‹ 이둠과 싀무λ₯Ό μ—°κ²°ν•˜λŠ” 데 μ€‘μš”ν•œ 역할을 ν•©λ‹ˆλ‹€.

πŸ’‘ Info

λ³Έ κ²Œμ‹œκΈ€μ€ ν˜νŽœν•˜μž„μ˜ γ€ŽEasy! λ”₯λŸ¬λ‹γ€ μ±…μ˜ 리뷰어 ν™œλ™μœΌλ‘œ μž‘μ„±λ˜μ—ˆμŠ΅λ‹ˆλ‹€.

μ½μ–΄μ£Όμ…”μ„œ κ°μ‚¬ν•©λ‹ˆλ‹€! 🌱



-->