머신러닝의 학습방식과 알고리즘
2025. 9. 9. 14:01ㆍAI 서비스/AI 기초지식
1. 머신러닝의 학습방식 3가지

1) 지도학습 (Supervised Learning)
- 개념: 정답(Label)이 있는 데이터를 모델에 주고 학습시키는 방식
- 목표: 입력(Input) → 출력(Output)의 매핑 함수를 학습
- 예시
- 분류(Classification, 어디에 해당하는지 맞히기): 자동차 모델 이름 맞히기, 스팸메일 vs 정상메일, 고양이 vs 강아지
- 회귀(Regression, 수치 맞히기): 집 가격 예측, 시험 점수 예측, 사람 나이 예측
- 대표 알고리즘: 선형 회귀(Linear Regression), SVM, 의사결정나무, 신경망(Neural Network)
2) 비지도학습 (Unsupervised Learning)
- 개념: 정답(Label) 없이 입력 데이터만 주고 데이터 속 패턴, 구조를 찾는 방식
- 목표: 숨겨진 군집, 차원 축소, 데이터 압축 등
- 예시
- 군집화(Clustering, 집합 만들기): 자동차 그룹화, 고객 데이터를 자동으로 그룹화(K-Means)
- 차원 축소(변환 중 차원을 줄이는데 특화): 데이터 시각화(PCA)
- 대표 알고리즘: K-Means, 계층적 군집화, PCA(주성분 분석), 오토인코더(Autoencoder)
3) 강화학습 (Reinforcement Learning)
- 개념: 좋은 선택을 반복하게 만드는 학습, 결과로서 가져야 할 상태로 이끄는 학습.
에이전트(Agent)가 환경(Environment)과 상호작용하며 보상(Reward)을 최대화하도록 학습 - 목표: 시퀀스 행동 중 가장 높은 보상을 주는 최적 정책(Policy) 찾기
- 예시: 알파고(Go 게임), 로봇 제어, 자율주행차 / 게임에서 승리 시 +점수, 패배 시 -점수 → 시도와 실패를 반복하며 전략 학습
- 대표 알고리즘: Q-Learning, DQN(Deep Q Network), Policy Gradient
2. 딥러닝 이전 머신러닝 알고리즘
| 구분 | 알고리즘 | 설명 | 사용 예시 |
| 지도학습 | 선형 회귀(Linear Regression) | 입력→출력 간 선형 관계를 학습 | 가격 예측, 수요 예측 |
| 로지스틱 회귀(Logistic Regression) | 분류 문제에 사용 | 스팸메일 분류 | |
| SVM(Support Vector Machine) | 최대 마진 분류, 커널 기법 활용 가능 | 이미지 분류, 텍스트 분류 | |
| K-최근접이웃(KNN) | 가장 가까운 데이터 기반 분류/예측 | 추천 시스템, 패턴 인식 | |
| 결정트리(Decision Tree) | 트리 구조 기반 분류·회귀 | 고객 세분화, 대출 심사 | |
| 랜덤 포레스트(Random Forest) | 다수 결정트리 앙상블 | 피처 중요도 분석, 분류 | |
| 그래디언트 부스팅 (GBM, XGBoost, LightGBM) |
성능 좋은 앙상블 회귀·분류 기법 | 캐글 대회, 예측 모델 | |
| 비지도학습 | K-Means | 데이터를 K개의 그룹으로 자동 군집화 | 고객 세분화, 패턴 탐색 |
| 계층적 군집화(Hierarchical Clustering) | 계층적으로 군집화 | 유전자 데이터 분석 | |
| PCA(주성분 분석) | 차원 축소 기법, 데이터 시각화 | 피처 압축, 노이즈 제거 | |
| 오토인코더(Autoencoder) | 비지도 신경망 기반 차원 축소 | 이상 탐지, 노이즈 제거 | |
| 강화학습 | Q-Learning | 가치 함수 기반 행동 최적화 | 게임 AI, 로봇 제어 |
| SARSA | 온-폴리시 강화학습 | 경로 탐색 |
3. 딥러닝의 인공 신경망

1) 인공 신경망의 기본 아이디어
- 인공 신경망(Artificial Neural Network, ANN)은 딥러닝의 기반이 되는 아이디어로
인간 뇌의 신경세포(뉴런)을 수학적으로 모델링해서 만든 것 - 입력 → 가중치(weight) → 활성화 함수(activation function) → 출력 과정을 거쳐 학습함
2) 인공 신경망 구조
구성 요소 역할
| 구성 요소 | 역할 |
| 입력층(Input Layer) | 원본 데이터를 입력받는 층 |
| 은닉층(Hidden Layer) | 가중치·편향·활성화 함수로 데이터 특징 추출 |
| 출력층(Output Layer) | 최종 결과(분류, 예측 값) 생성 |
3) 학습 과정 이해 : 순전파 → 손실 계산 → 역전파
- Forward Propagation(순전파): 입력 데이터 → 은닉층 → 출력층 순서로 결과 계산
은닉층에서 뉴런 연결마다 가중치(정보의 굵기)가 곱해짐 - Loss 계산: 모델이 낸 출력 vs 정답 차이를 손실 함수(Loss Function)로 계산
- Backward Propagation(역전파): 손실을 줄이기 위해 가중치를 미세 조정 → 학습 반복
4. 딥러닝 주요 아키텍쳐
| 계열 | 핵심 아키텍쳐 | 설명 | 대표 모델/기술 |
| 컴퓨터 비전 | CNN (합성곱신경망) | 이미지·영상 처리에 특화 | LeNet, AlexNet, VGG, ResNet, YOLO |
| 시계열·언어 | RNN (순환신경망) | 순차 데이터(시계열, 텍스트) 처리 | RNN, LSTM, GRU |
| 트랜스포머 | Transformer | Attention 기반, 병렬 처리 효율적 | BERT(Encoder), GPT(Decoder), T5 |
| 생성 모델 | Generative Models | 새로운 데이터 생성 | GAN, VAE, Diffusion |
| 강화학습+DL | DRL | 딥러닝 + 강화학습 결합 | DQN, A3C, AlphaGo |
5. 딥러닝의 학습 방식
| 학습 방식 | 딥러닝 모델 | 활용 예시 |
| 지도학습 | CNN, RNN/LSTM, Transformer(GPT 사전학습) |
이미지 분류, 음성 인식, 번역, 질의응답 |
| 비지도학습 | Autoencoder, GAN, VAE, Diffusion | 이상 탐지, 이미지 생성, 데이터 압축 |
| 강화학습 | DQN, A3C, AlphaGo, PPO | 로봇 제어, 게임 AI, ChatGPT RLHF 단계 |
| 자기지도학습 | BERT, MAE, SimCLR | 대규모 언어모델 사전학습, 문장 임베딩 |
| 반지도학습 | Semi-Supervised GAN, MixMatch | 의료 데이터 분석, 라벨 부족 상황 |