본문 바로가기
public void static main/AI

[AI] 챕터05 - 학습과 예측

by 햄리뮤 2025. 7. 17.
반응형

공부할 챕터

챕터 주제 간단 설명
1 머신러닝이란 무엇인가 머신러닝의 정의, 동작 원리, AI와의 관계
2 머신러닝의 분류 지도학습, 비지도학습, 강화학습의 차이
3 데이터와 전처리 데이터가 왜 중요한가, 어떻게 다듬는가
4 특징(Feature)과 레이블(Label) 입력과 출력의 개념, 특징 추출
5 학습과 예측 모델 훈련(training), 예측(predict)의 의미
6 성능 평가 정확도, 정밀도, 재현율, F1 Score 등
7 대표 알고리즘 이해 회귀, 분류, 군집 등 알고리즘 소개
8 과적합과 일반화 학습을 너무 많이/적게 했을 때 문제
9 실습과 프로젝트 간단한 실전 예제, 모델 만들기

학습(Training) 이란?

데이터를 기반으로 모델이 패턴을 찾아내는 과정

기본 구조

  1. 입력(X)을 넣는다.
  2. 예측값(Y')을 얻는다.
  3. 실제 정답(Y)과 비교한다.
  4. 오차(loss)를 계산한다.
  5. 가중치(weight)를 조정한다.
  6. 더 나은 예측이 되도록 모델을 개선 한다.

예측(Inference)이란?

학습이 끝난 모델이 새로운 데이터에 대해 결과를 예측하는 과정

  • 학습은 X와 Y가 모두 있는 상태에서 이루어진다.
  • 예측은 오직 X만 가지고 Y를 추정한다.
Training: (X_train, y_train) → 학습
Inference: X_test → 예측된 y_pred

학습은 내부적으로 어떻게 일어날까?

모델 = 함수

모델은 결국 수학적 함수

f(x; θ) ≈ y
  • x: 입력 데이터 (feature)
  • 0: 학습 가능한 파라미터(가중치)
  • y: 출력(label)

학습이란 결국 최적의 0을 찾는 것

오차(Loss)의 개념

모델이 얼마나 틀렸는지를 수치로 측정하는 함수

문제 유형 Loss 함수 설명
회귀 MSE (Mean Squared Error) 예측값과 실제값 차이의 제곱 평균
분류 Cross  

최적화(Optimization)

Loss를 최소화하도록 파라미터를 조정하는 과정

대표적인 최적화 알고리즘: 경사하강법(Gradient Descent)

경사하강법이 하는일?
오차(Loss)의 기울기(Gradient)를 계산해서 반대 방향으로 파라미터를 조금씩 수정한다.

α: 학습률(Learning Rate) 너무크면 튀고, 너무 작으면 느림

학습 반복 구조

  • Epoch: 전체 데이터를 한 번 학습시키는 것
  • Batch: 데이터를 나눠서 학습시키는 단위(미니배치 학습)
  • 보통 수십, 수백 epoch를 반복 수행.

과적합(Overfitting) 주의

훈련 데이터에 너무 맞춰져서, 새로운 데이터에선 성능이 나빠진다.

  • 검증 데이터(validation set) 사용
  • 정규화(Regularization)
  • Dropout, Early Stopping 등의 기법 사용

하 뭐라뭐라 공부는 했는데 너무 졸립다... 가을 학기 시작전에 배웠던거 다시 복습하고 예습하고..

할께 너무 많은데 힘들고 눕고싶고 자고싶고 오또케...?

개념 빨리하고 프로젝트 하면서 잠을 이겨내는 시간이 오길.. 개념공부가 젤 힘두렁

 

https://labelyourdata.com/articles/machine-learning-and-training-data

 

Machine Learning & Training Data

Training data is a set of samples with assigned relevant and comprehensive labels.

labelyourdata.com

https://data-scientist-jeong.tistory.com/46

 

경사 하강법 Gradient Descent 에 대한 수학적 이해와 활용

인생의 내리막은 성장이 멈춘 순간부터 온다 여러분, 인생에서 이런 경험 있으신가요?우리 주변의 문제를 해결하려고 고민할수록 점점 더 복잡해지고, 어디서부터 시작해야 할지 몰라서 막막

data-scientist-jeong.tistory.com

https://denev6.tistory.com/entry/Gradient-Descent

 

경사하강법과 학습률

1번에서 전체 개념을 가볍게 설명하고, 2번부터 자세하고 차근차근 설명해 두었습니다. 그러니 첫 부분이 이해되지 않아도 일단은 넘어가서 뒷부분을 읽고 돌아오시면 이해하기 더 편할 겁니다.

denev6.tistory.com

 

 

 

 

 

 

 

 

 

** 그냥 하루하루 개인 공부한 것을 끄적 거리는 공간입니다.

이곳 저곳에서 구글링한 것과 강의 들은 내용이 정리가 되었습니다.

그림들은 그림밑에 출처표시를 해놓았습니다.

문제가 될시 말씀해주시면 해당 부분은 삭제 하도록하겠습니다. **

반응형

댓글