AI를 공부하는 좋은 방법

🏷️ 정보 딥러닝 LLM

이 블로그에는 AI와 관련된 많은 지식이 있습니다. 더 좋은 지식 저장소로 거듭나기 위해서는 여러분들의 많은 도움이 필요합니다.

1단계 — 머신러닝의 기초: CS229

*CS229 머신러닝 강의 목차* (20장)

Andrew Ng의 스탠퍼드 CS229. 머신러닝이 뭔지 모르는 상태에서 시작해도 됩니다. 선형 회귀부터 강화 학습까지 20장에 걸쳐 수학적 직관과 함께 쌓아올립니다.

이런 분께 추천합니다: 코딩은 할 줄 알지만 ML이 처음인 분, 개념을 제대로 짚고 싶은 분

핵심만 뽑으면 이렇습니다.

2단계로 넘어가기 전 체크: "역전파가 왜 동작하는지" 설명할 수 있다면 준비됐습니다.


2단계 — 딥러닝 심화: CS230

*CS230 딥러닝 강의 시리즈* (10장)

같은 Andrew Ng, 같은 스탠퍼드. CS229가 ML의 넓이라면 CS230은 딥러닝의 깊이입니다. 왜 스케일이 성능을 결정하는지, 실무에서 모델을 어떻게 디버깅하는지까지 다룹니다.

CS229를 끝냈다면 1장부터 바로 이어서 읽어도 됩니다. 개념이 자연스럽게 이어집니다.

2단계 포인트: "스케일링 법칙"과 "에이전트"가 연결되는 순간이 옵니다. 그게 3단계로 가는 신호입니다.


3단계 — 트랜스포머와 LLM: CME295

*CME295 트랜스포머와 LLM 강의 목차* (9장)

Afshine Amidi의 CME295. 트랜스포머 구조부터 LLM 훈련·튜닝·추론·에이전트·평가까지 현재 AI 산업의 핵심을 한 강의로 정리합니다.

이 강의를 끝내면 "GPT가 어떻게 동작하는지", "왜 프롬프트 엔지니어링이 효과가 있는지"에 대해 직관적으로 이해하게 됩니다.


4단계 — 딥러닝의 역사를 논문으로: Geoffrey Hinton 시리즈

*Geoffrey Hinton 시리즈* (26편)

딥러닝이 왜 지금 이 모습인지 이해하고 싶다면, 그 역사를 만든 사람의 논문을 시간 순서대로 읽는 것만큼 좋은 방법은 없습니다.

1986년 역전파 논문부터 2023년 포워드-포워드 알고리즘까지. 단순한 논문 요약이 아니라, 각 아이디어가 왜 나왔고 어떻게 이어지는지를 따라갑니다.

시작 추천 순서:

  1. Learning representations by back-propagating errors (1986) — 역전파의 시작
  2. ImageNet Classification with Deep Convolutional Neural Networks (2012) — 딥러닝 부활
  3. Dropout - A Simple Way to Prevent Neural Networks from Overfitting (2014) — 아직도 쓰는 기법
  4. Attention Is All You Needs (2017) — 트랜스포머의 탄생
  5. The Forward-Forward Algorithm - Some Preliminary Investigations (2023) — 역전파의 대안?

빠른 용어 조회: Dictionary

강의와 논문을 읽다가 모르는 단어가 나오면 Dictionary 섹션을 활용하세요. 벤치마크, 인물, 모델, 하드웨어까지 200개 이상의 항목이 정리돼 있습니다.

자주 찾는 항목들: Andrew Ng, Andrej Karpathy, ARC-AGI-2, BrowseComp, ChatGPT, Claude


내 레벨에 맞는 시작점

상황

시작점

ML이 처음이다

CS229 1장

ML은 알고 딥러닝이 궁금하다

CS230 1장

딥러닝은 알고 LLM이 궁금하다

CME295 1장

역사와 원리가 궁금하다

Hinton 시리즈 역전파 논문

특정 용어가 궁금하다

Dictionary

순서대로 읽지 않아도 됩니다. 궁금한 곳에서 시작해서 모르는 것을 찾아가면 됩니다.