본문 바로가기
public void static main/AI

[AI] 챕터07 - 대표 알고리즘

by 햄리뮤 2025. 7. 22.
반응형

공부할 챕터

챕터 주제 간단 설명
1 머신러닝이란 무엇인가 머신러닝의 정의, 동작 원리, AI와의 관계
2 머신러닝의 분류 지도학습, 비지도학습, 강화학습의 차이
3 데이터와 전처리 데이터가 왜 중요한가, 어떻게 다듬는가
4 특징(Feature)과 레이블(Label) 입력과 출력의 개념, 특징 추출
5 학습과 예측 모델 훈련(training), 예측(predict)의 의미
6 성능 평가 정확도, 정밀도, 재현율, F1 Score 등
7 대표 알고리즘 이해 회귀, 분류, 군집 등 알고리즘 소개
8 과적합과 일반화 학습을 너무 많이/적게 했을 때 문제
9 실습과 프로젝트 간단한 실전 예제, 모델 만들기

으아아아아ㅏㅏㅏㅏㅏ 이악물고 의자에 앉아서 공부한다 강의만 틀면 왜이렇게 졸린걸까? 나만 이래? 대학원 하면서 어느정도 공부는 해놔서 이번에도 가볍게 복습하는겸 개념만 잡고 가자!

 

일단 머신러닝에서 알고리즘에 왜 중요한지 생각해보았다!

데이터가 주어졌을 때 "어떻게 패턴을 학습할 것인가?" 를 결정하는 핵심 로직이 바로 알 고 리 즘!

알고리즘 분류를 먼저 이해해보자!

분류 기준 종류 설명
학습 방식 지도학습(Supervised) 정답(label)이 있는 데이터로 학습
비지도학습(Unsupervised) 정답 없이 패턴만 찾음
강화학습(Reinforcement) 보상 기반의 의사결정 학습
문제 유형 분류(Classification) 카테고리를 예측
회귀(Regression) 수치값을 예측
클러스터링(Clustering) 그룹을 자동으로 나눔

선형 회귀(Linear Regression)

숫자 예측 문제에 사용한다. 데이터의 관계가 직선 이라고 가정하고 최적의 직선을 찾는 알고리즘.

장점: 빠르고 간단하고 해석이 쉽다.

단점: 비선형 패턴은 잡지 못한다.

 

로지스틱 회귀(Logistic Regression)

이진 분류 문제에 사용한다. 선형 회귀 결과를 시그모이드 함수로 0 ~ 1 사이 확률로 바꾼다. 일정 기준 이상이면 1(positive), 이하면 0(negative)

장점: 빠르고 간단하고 확률 해석이 가능하다.

단점: 선형 결정경계만 가능하다(복잡한 패턴은 어렵다)

K-NN

간단한 분류나 회귀문제에 사용한다. 새로운 데이터가 오면, 가까운 K개 이웃의 라벨을 보고 예측한다!

장점: 직관적이고 구현이 쉽다.

단점: 데이터 많아지면 느리다.

의사 결정 나무(Decision Tree)

분류 또는 회귀 모두 사용 가능하다 (고객 이탈 예측가능). 데이터를 조건에 따라 트리 형태로 분할하면서 예측한다.

장점: 해석이 쉽다. 시각화도 가능하다.

단점: 과적합 위험이 있다. (가지치기가 필요하다)

랜덤 포레스트 (Random Forest)

결정 트리의 단점을 보완하고 싶을때 사용한다. 여러개의 결정 트리를 학습하고 투표/평균을 통해 예측한다. (앙상블 기법의 대표주자님이시다)

장점: 강력하고 안정적, 과적합 감소

단점: 느릴 수 있고 해석이 어려움

SVM (Support Vector Machine)

마진(여백)을 최대화하며 깔끔한 분류가 필요할 때 사용한다. 두 클래스 사이를 최대한 멀게 나누는 경계선을 찾는다.

장점: 고차원에서도 잘 작동

단점: 데이터가 많거나 noise 많으면 성능이 저하됨

나이브 베이즈(Naive Bayes)

텍스트 분류 문제에 사용한다. 확률 기반 분류기. 각 특징이 독립이라는 가정 하에 베이즈 정리를 이용한다.

장점: 매우 빠르고 가볍다.

단점: 독립성 가정이 실제엔 잘 안맞는다.

 

 


https://databasecamp.de/en/ml/naive-bayes-algorithm

 

What is the Naive Bayes Algorithm? | Data Basecamp

Overview of Naive Bayes, including how it works, its applications, and its advantages and disadvantages.

databasecamp.de

 

https://vitalflux.com/classification-model-svm-classifier-python-example/

 

Support Vector Machine (SVM) Python Example - Analytics Yogi

Support vector machine, SVM, SVC, Classifier, Concepts, Examples, Python, Data Science, Machine Learning, R, Tutorials, Interviews, AI

vitalflux.com

 

https://www.grammarly.com/blog/ai/what-is-random-forest/

 

Random Forests in Machine Learning: What They Are and How They Work

Random forests are a powerful and versatile technique in machine learning (ML). This guide will help you understand random forests, how they work and…

www.grammarly.com

 

https://blog.gopenai.com/decision-tree-algorithm-484ec33387f9

 

Decision Tree Algorithm

Demystifying Decision Tree Classifier: Unveiling the Inner Workings and Python Implementation

blog.gopenai.com

 

https://www.geeksforgeeks.org/machine-learning/ml-linear-regression/

 

Linear Regression in Machine learning - GeeksforGeeks

Your All-in-One Learning Portal: GeeksforGeeks is a comprehensive educational platform that empowers learners across domains-spanning computer science and programming, school education, upskilling, commerce, software tools, competitive exams, and more.

www.geeksforgeeks.org

https://www.spiceworks.com/tech/artificial-intelligence/articles/what-is-logistic-regression/

https://intuitivetutorial.com/2023/04/07/k-nearest-neighbors-algorithm/

 

 

** 그냥 하루하루 개인 공부한 것을 끄적 거리는 공간입니다.

이곳 저곳에서 구글링한 것과 강의 들은 내용이 정리가 되었습니다.

그림들은 그림밑에 출처표시를 해놓았습니다.

문제가 될시 말씀해주시면 해당 부분은 삭제 하도록하겠습니다. **

반응형

댓글