공부할 챕터
챕터 | 주제 | 간단 설명 |
1 | 머신러닝이란 무엇인가 | 머신러닝의 정의, 동작 원리, AI와의 관계 |
2 | 머신러닝의 분류 | 지도학습, 비지도학습, 강화학습의 차이 |
3 | 데이터와 전처리 | 데이터가 왜 중요한가, 어떻게 다듬는가 |
4 | 특징(Feature)과 레이블(Label) | 입력과 출력의 개념, 특징 추출 |
5 | 학습과 예측 | 모델 훈련(training), 예측(predict)의 의미 |
6 | 성능 평가 | 정확도, 정밀도, 재현율, F1 Score 등 |
7 | 대표 알고리즘 이해 | 회귀, 분류, 군집 등 알고리즘 소개 |
8 | 과적합과 일반화 | 학습을 너무 많이/적게 했을 때 문제 |
9 | 실습과 프로젝트 | 간단한 실전 예제, 모델 만들기 |
으아아아아ㅏㅏㅏㅏㅏ 이악물고 의자에 앉아서 공부한다 강의만 틀면 왜이렇게 졸린걸까? 나만 이래? 대학원 하면서 어느정도 공부는 해놔서 이번에도 가볍게 복습하는겸 개념만 잡고 가자!
일단 머신러닝에서 알고리즘에 왜 중요한지 생각해보았다!
데이터가 주어졌을 때 "어떻게 패턴을 학습할 것인가?" 를 결정하는 핵심 로직이 바로 알 고 리 즘!
알고리즘 분류를 먼저 이해해보자!
분류 기준 | 종류 | 설명 |
학습 방식 | 지도학습(Supervised) | 정답(label)이 있는 데이터로 학습 |
비지도학습(Unsupervised) | 정답 없이 패턴만 찾음 | |
강화학습(Reinforcement) | 보상 기반의 의사결정 학습 | |
문제 유형 | 분류(Classification) | 카테고리를 예측 |
회귀(Regression) | 수치값을 예측 | |
클러스터링(Clustering) | 그룹을 자동으로 나눔 |
선형 회귀(Linear Regression)
숫자 예측 문제에 사용한다. 데이터의 관계가 직선 이라고 가정하고 최적의 직선을 찾는 알고리즘.
장점: 빠르고 간단하고 해석이 쉽다.
단점: 비선형 패턴은 잡지 못한다.
로지스틱 회귀(Logistic Regression)
이진 분류 문제에 사용한다. 선형 회귀 결과를 시그모이드 함수로 0 ~ 1 사이 확률로 바꾼다. 일정 기준 이상이면 1(positive), 이하면 0(negative)
장점: 빠르고 간단하고 확률 해석이 가능하다.
단점: 선형 결정경계만 가능하다(복잡한 패턴은 어렵다)
K-NN
간단한 분류나 회귀문제에 사용한다. 새로운 데이터가 오면, 가까운 K개 이웃의 라벨을 보고 예측한다!
장점: 직관적이고 구현이 쉽다.
단점: 데이터 많아지면 느리다.
의사 결정 나무(Decision Tree)
분류 또는 회귀 모두 사용 가능하다 (고객 이탈 예측가능). 데이터를 조건에 따라 트리 형태로 분할하면서 예측한다.
장점: 해석이 쉽다. 시각화도 가능하다.
단점: 과적합 위험이 있다. (가지치기가 필요하다)
랜덤 포레스트 (Random Forest)
결정 트리의 단점을 보완하고 싶을때 사용한다. 여러개의 결정 트리를 학습하고 투표/평균을 통해 예측한다. (앙상블 기법의 대표주자님이시다)
장점: 강력하고 안정적, 과적합 감소
단점: 느릴 수 있고 해석이 어려움
SVM (Support Vector Machine)
마진(여백)을 최대화하며 깔끔한 분류가 필요할 때 사용한다. 두 클래스 사이를 최대한 멀게 나누는 경계선을 찾는다.
장점: 고차원에서도 잘 작동
단점: 데이터가 많거나 noise 많으면 성능이 저하됨
나이브 베이즈(Naive Bayes)
텍스트 분류 문제에 사용한다. 확률 기반 분류기. 각 특징이 독립이라는 가정 하에 베이즈 정리를 이용한다.
장점: 매우 빠르고 가볍다.
단점: 독립성 가정이 실제엔 잘 안맞는다.
https://databasecamp.de/en/ml/naive-bayes-algorithm
What is the Naive Bayes Algorithm? | Data Basecamp
Overview of Naive Bayes, including how it works, its applications, and its advantages and disadvantages.
databasecamp.de
https://vitalflux.com/classification-model-svm-classifier-python-example/
Support Vector Machine (SVM) Python Example - Analytics Yogi
Support vector machine, SVM, SVC, Classifier, Concepts, Examples, Python, Data Science, Machine Learning, R, Tutorials, Interviews, AI
vitalflux.com
https://www.grammarly.com/blog/ai/what-is-random-forest/
Random Forests in Machine Learning: What They Are and How They Work
Random forests are a powerful and versatile technique in machine learning (ML). This guide will help you understand random forests, how they work and…
www.grammarly.com
https://blog.gopenai.com/decision-tree-algorithm-484ec33387f9
Decision Tree Algorithm
Demystifying Decision Tree Classifier: Unveiling the Inner Workings and Python Implementation
blog.gopenai.com
https://www.geeksforgeeks.org/machine-learning/ml-linear-regression/
Linear Regression in Machine learning - GeeksforGeeks
Your All-in-One Learning Portal: GeeksforGeeks is a comprehensive educational platform that empowers learners across domains-spanning computer science and programming, school education, upskilling, commerce, software tools, competitive exams, and more.
www.geeksforgeeks.org
https://www.spiceworks.com/tech/artificial-intelligence/articles/what-is-logistic-regression/
https://intuitivetutorial.com/2023/04/07/k-nearest-neighbors-algorithm/
** 그냥 하루하루 개인 공부한 것을 끄적 거리는 공간입니다.
이곳 저곳에서 구글링한 것과 강의 들은 내용이 정리가 되었습니다.
그림들은 그림밑에 출처표시를 해놓았습니다.
문제가 될시 말씀해주시면 해당 부분은 삭제 하도록하겠습니다. **
'public void static main > AI' 카테고리의 다른 글
[AI] 챕터01 - RAG & Agent 구조 개념-1 (6) | 2025.07.29 |
---|---|
[AI] 챕터08 - 과적합과 일반 (2) | 2025.07.24 |
[AI] 챕터06 - 성능 평가 (7) | 2025.07.21 |
[AI] 챕터05 - 학습과 예측 (3) | 2025.07.17 |
[AI] 챕터04 - 특징과 레이블 (3) | 2025.07.17 |
댓글