공부할 챕터
챕터 | 주제 | 간단 설명 |
1 | 머신러닝이란 무엇인가 | 머신러닝의 정의, 동작 원리, AI와의 관계 |
2 | 머신러닝의 분류 | 지도학습, 비지도학습, 강화학습의 차이 |
3 | 데이터와 전처리 | 데이터가 왜 중요한가, 어떻게 다듬는가 |
4 | 특징(Feature)과 레이블(Label) | 입력과 출력의 개념, 특징 추출 |
5 | 학습과 예측 | 모델 훈련(training), 예측(predict)의 의미 |
6 | 성능 평가 | 정확도, 정밀도, 재현율, F1 Score 등 |
7 | 대표 알고리즘 이해 | 회귀, 분류, 군집 등 알고리즘 소개 |
8 | 과적합과 일반화 | 학습을 너무 많이/적게 했을 때 문제 |
9 | 실습과 프로젝트 | 간단한 실전 예제, 모델 만들기 |
학습(Training) 이란?
데이터를 기반으로 모델이 패턴을 찾아내는 과정
기본 구조
- 입력(X)을 넣는다.
- 예측값(Y')을 얻는다.
- 실제 정답(Y)과 비교한다.
- 오차(loss)를 계산한다.
- 가중치(weight)를 조정한다.
- 더 나은 예측이 되도록 모델을 개선 한다.
예측(Inference)이란?
학습이 끝난 모델이 새로운 데이터에 대해 결과를 예측하는 과정
- 학습은 X와 Y가 모두 있는 상태에서 이루어진다.
- 예측은 오직 X만 가지고 Y를 추정한다.
Training: (X_train, y_train) → 학습
Inference: X_test → 예측된 y_pred
학습은 내부적으로 어떻게 일어날까?
모델 = 함수
모델은 결국 수학적 함수
f(x; θ) ≈ y
- x: 입력 데이터 (feature)
- 0: 학습 가능한 파라미터(가중치)
- y: 출력(label)
학습이란 결국 최적의 0을 찾는 것
오차(Loss)의 개념
모델이 얼마나 틀렸는지를 수치로 측정하는 함수
문제 유형 | Loss 함수 | 설명 |
회귀 | MSE (Mean Squared Error) | 예측값과 실제값 차이의 제곱 평균 |
분류 | Cross |
최적화(Optimization)
Loss를 최소화하도록 파라미터를 조정하는 과정
대표적인 최적화 알고리즘: 경사하강법(Gradient Descent)
경사하강법이 하는일?
오차(Loss)의 기울기(Gradient)를 계산해서 반대 방향으로 파라미터를 조금씩 수정한다.α: 학습률(Learning Rate) 너무크면 튀고, 너무 작으면 느림
학습 반복 구조
- Epoch: 전체 데이터를 한 번 학습시키는 것
- Batch: 데이터를 나눠서 학습시키는 단위(미니배치 학습)
- 보통 수십, 수백 epoch를 반복 수행.
과적합(Overfitting) 주의
훈련 데이터에 너무 맞춰져서, 새로운 데이터에선 성능이 나빠진다.
- 검증 데이터(validation set) 사용
- 정규화(Regularization)
- Dropout, Early Stopping 등의 기법 사용
하 뭐라뭐라 공부는 했는데 너무 졸립다... 가을 학기 시작전에 배웠던거 다시 복습하고 예습하고..
할께 너무 많은데 힘들고 눕고싶고 자고싶고 오또케...?
개념 빨리하고 프로젝트 하면서 잠을 이겨내는 시간이 오길.. 개념공부가 젤 힘두렁
https://labelyourdata.com/articles/machine-learning-and-training-data
Machine Learning & Training Data
Training data is a set of samples with assigned relevant and comprehensive labels.
labelyourdata.com
https://data-scientist-jeong.tistory.com/46
경사 하강법 Gradient Descent 에 대한 수학적 이해와 활용
인생의 내리막은 성장이 멈춘 순간부터 온다 여러분, 인생에서 이런 경험 있으신가요?우리 주변의 문제를 해결하려고 고민할수록 점점 더 복잡해지고, 어디서부터 시작해야 할지 몰라서 막막
data-scientist-jeong.tistory.com
https://denev6.tistory.com/entry/Gradient-Descent
경사하강법과 학습률
1번에서 전체 개념을 가볍게 설명하고, 2번부터 자세하고 차근차근 설명해 두었습니다. 그러니 첫 부분이 이해되지 않아도 일단은 넘어가서 뒷부분을 읽고 돌아오시면 이해하기 더 편할 겁니다.
denev6.tistory.com
** 그냥 하루하루 개인 공부한 것을 끄적 거리는 공간입니다.
이곳 저곳에서 구글링한 것과 강의 들은 내용이 정리가 되었습니다.
그림들은 그림밑에 출처표시를 해놓았습니다.
문제가 될시 말씀해주시면 해당 부분은 삭제 하도록하겠습니다. **
'public void static main > AI' 카테고리의 다른 글
[AI] 챕터07 - 대표 알고리즘 (5) | 2025.07.22 |
---|---|
[AI] 챕터06 - 성능 평가 (7) | 2025.07.21 |
[AI] 챕터04 - 특징과 레이블 (3) | 2025.07.17 |
[AI] 챕터03 - 데이터와 전처리 (4) | 2025.07.16 |
[AI] 챕터02 - Machine Learning의 분류 (3) | 2025.07.16 |
댓글