머신러닝의 학습방식과 알고리즘

2025. 9. 9. 14:01AI 서비스/AI 기초지식

1. 머신러닝의 학습방식 3가지 

https://wikidocs.net/222890

1) 지도학습 (Supervised Learning)

  • 개념: 정답(Label)이 있는 데이터를 모델에 주고 학습시키는 방식
  • 목표: 입력(Input) → 출력(Output)의 매핑 함수를 학습
  • 예시
    • 분류(Classification, 어디에 해당하는지 맞히기): 자동차 모델 이름 맞히기, 스팸메일 vs 정상메일, 고양이 vs 강아지
    • 회귀(Regression, 수치 맞히기): 집 가격 예측, 시험 점수 예측, 사람 나이 예측 
  • 대표 알고리즘: 선형 회귀(Linear Regression), SVM, 의사결정나무, 신경망(Neural Network)

2) 비지도학습 (Unsupervised Learning)

  • 개념: 정답(Label) 없이 입력 데이터만 주고 데이터 속 패턴, 구조를 찾는 방식
  • 목표: 숨겨진 군집, 차원 축소, 데이터 압축 등
  • 예시
    • 군집화(Clustering, 집합 만들기): 자동차 그룹화, 고객 데이터를 자동으로 그룹화(K-Means)
    • 차원 축소(변환 중 차원을 줄이는데 특화): 데이터 시각화(PCA)
  • 대표 알고리즘: K-Means, 계층적 군집화, PCA(주성분 분석), 오토인코더(Autoencoder)

3) 강화학습 (Reinforcement Learning)

  • 개념: 좋은 선택을 반복하게 만드는 학습, 결과로서 가져야 할 상태로 이끄는 학습.
    에이전트(Agent)가 환경(Environment)과 상호작용하며 보상(Reward)을 최대화하도록 학습
  • 목표: 시퀀스 행동 중 가장 높은 보상을 주는 최적 정책(Policy) 찾기
  • 예시: 알파고(Go 게임), 로봇 제어, 자율주행차 / 게임에서 승리 시 +점수, 패배 시 -점수 → 시도와 실패를 반복하며 전략 학습
  • 대표 알고리즘: Q-Learning, DQN(Deep Q Network), Policy Gradient

2. 딥러닝 이전 머신러닝 알고리즘

구분 알고리즘 설명 사용 예시 
지도학습 선형 회귀(Linear Regression) 입력→출력 간 선형 관계를 학습 가격 예측, 수요 예측
로지스틱 회귀(Logistic Regression) 분류 문제에 사용 스팸메일 분류
SVM(Support Vector Machine) 최대 마진 분류, 커널 기법 활용 가능 이미지 분류, 텍스트 분류
K-최근접이웃(KNN) 가장 가까운 데이터 기반 분류/예측 추천 시스템, 패턴 인식
결정트리(Decision Tree) 트리 구조 기반 분류·회귀 고객 세분화, 대출 심사
랜덤 포레스트(Random Forest) 다수 결정트리 앙상블 피처 중요도 분석, 분류
그래디언트 부스팅
(GBM, XGBoost, LightGBM)
성능 좋은 앙상블 회귀·분류 기법 캐글 대회, 예측 모델
비지도학습 K-Means 데이터를 K개의 그룹으로 자동 군집화 고객 세분화, 패턴 탐색
계층적 군집화(Hierarchical Clustering) 계층적으로 군집화 유전자 데이터 분석
PCA(주성분 분석) 차원 축소 기법, 데이터 시각화 피처 압축, 노이즈 제거
오토인코더(Autoencoder) 비지도 신경망 기반 차원 축소 이상 탐지, 노이즈 제거
강화학습 Q-Learning 가치 함수 기반 행동 최적화 게임 AI, 로봇 제어
SARSA 온-폴리시 강화학습 경로 탐색


3. 딥러닝의 인공 신경망 

 

1) 인공 신경망의 기본 아이디어

  • 인공 신경망(Artificial Neural Network, ANN)은 딥러닝의 기반이 되는 아이디어로 
    인간 뇌의 신경세포(뉴런)을 수학적으로 모델링해서 만든 것
  • 입력 → 가중치(weight) → 활성화 함수(activation function) → 출력 과정을 거쳐 학습함

2) 인공 신경망 구조 

구성 요소 역할

구성 요소 역할
입력층(Input Layer) 원본 데이터를 입력받는 층
은닉층(Hidden Layer) 가중치·편향·활성화 함수로 데이터 특징 추출
출력층(Output Layer) 최종 결과(분류, 예측 값) 생성

 

3) 학습 과정 이해 : 순전파 → 손실 계산 → 역전파

  • Forward Propagation(순전파): 입력 데이터 → 은닉층 → 출력층 순서로 결과 계산
    은닉층에서 뉴런 연결마다 가중치(정보의 굵기)가 곱해짐
  • Loss 계산: 모델이 낸 출력 vs 정답 차이를 손실 함수(Loss Function)로 계산
  • Backward Propagation(역전파): 손실을 줄이기 위해 가중치를 미세 조정 → 학습 반복

 

4. 딥러닝 주요 아키텍쳐 

계열 핵심 아키텍쳐 설명 대표 모델/기술 
컴퓨터 비전 CNN (합성곱신경망) 이미지·영상 처리에 특화 LeNet, AlexNet, VGG, ResNet, YOLO
시계열·언어 RNN (순환신경망) 순차 데이터(시계열, 텍스트) 처리 RNN, LSTM, GRU
트랜스포머 Transformer  Attention 기반, 병렬 처리 효율적 BERT(Encoder), GPT(Decoder), T5
생성 모델 Generative Models 새로운 데이터 생성 GAN, VAE, Diffusion
강화학습+DL DRL 딥러닝 + 강화학습 결합 DQN, A3C, AlphaGo

 

5. 딥러닝의 학습 방식 

학습 방식 딥러닝 모델  활용 예시 
지도학습 CNN, RNN/LSTM,
Transformer(GPT 사전학습)
이미지 분류, 음성 인식, 번역, 질의응답
비지도학습 Autoencoder, GAN, VAE, Diffusion 이상 탐지, 이미지 생성, 데이터 압축
강화학습 DQN, A3C, AlphaGo, PPO 로봇 제어, 게임 AI, ChatGPT RLHF 단계
자기지도학습 BERT, MAE, SimCLR 대규모 언어모델 사전학습, 문장 임베딩
반지도학습 Semi-Supervised GAN, MixMatch 의료 데이터 분석, 라벨 부족 상황