AI, 머신러닝, 딥러닝의 관계 | 딥러닝 기술 발전 타임라인

2025. 9. 9. 13:33AI 서비스/AI 기초지식

1. AI, 머신러닝, 딥러닝의 관계

https://blog.naver.com/kjh920411/221889422562

1) AI, 머신러닝, 딥러닝

  • AI: 인간처럼 지능적 행동을 하는 모든 기술
  • 머신러닝(ML): AI의 한 종류로, 데이터를 통해 스스로 학습하여 특정 업무를 실행.
    주로 사람이 특징(주목할 곳)을 정의한다. 
  • 딥러닝(DL): 머신러닝의 한 종류로, 인간 뇌의 신경세포(뉴런)를 흉내낸 인공신경망(딥러닝)을 사용하는 기술.
    주로 기계가 특징(주목할 곳)을 자동으로 정의한다. 

2) ML이 아닌 AI: 학습 없이 규칙만으로 지능적으로 행동하는 AI

  설명 예시 
전문가 시스템 1980~1990년대 초기에 많이 쓰였던 AI 방식
사람이 직접 규칙(If-Then 룰)을 잔뜩 만들어서 문제를 해결
의료 진단 시스템에서 “체온>38도 & 기침=Yes → 감기” 같은 식으로 규칙을 수백 개 만들어서 진단
검색 기반 챗봇 학습 안 하고, 질문-답변 쌍을 DB에 저장해두고 그대로 찾아주는 방식 “업무 시간?” → DB에 저장된 “09:00~18:00” 답변 그대로 출력
미니맥스 알고리즘 딥러닝 이전 체스 챔피언을 이긴 IBM의 Deep Blue(1997)는
학습 없이 탐색 + 휴리스틱 규칙으로만 승부
체스, 바둑 초기 AI

 

3) DL이 아닌 ML: 인공신경망을 쓰지 않는 고전적인 머신러닝 기법

  설명 예시
선형 회귀(Linear Regression) 데이터를 보고 직선을 하나 그어서 예측하는 방식 공부 시간 → 시험 점수 예측
의사결정나무(Decision Tree) 데이터를 분류하는 트리 구조를 자동으로 학습 고객 정보로 “대출 승인/거절” 분류
SVM
(Support Vector Machine)
데이터를 두 개 이상의 클래스로 분류할 때,
클래스 사이의 간격(Margin)을 최대화하는
결정 경계선(Hyperplane)을 찾는 알고리즘
스팸 메일 분류, 고양이/강아지 분류
K-Means 클러스터링 비지도학습으로 데이터의 패턴을 보고 군집(cluster)으로 나눔 고객 세분화, 이미지 색상 분류

 

2. AI 붐 & 딥러닝 기술 발전 타임라인

시기 AI 붐 & 딥러닝 관련 사건
1950~1960s
[제 1차 AI 붐]
  • 1956년 다트머스 회의에서 "AI"라는 용어 등장
  • 기호주의 AI: 규칙, 논리 기반 접근 (체스, 퍼즐, 수학 정리 증명)
  • 한계: 컴퓨터 성능 부족, 현실 문제 해결 불가 → AI 겨울 1차

[딥러닝] 신경망 아이디어 탄생 
  • 1950: Alan Turing, Computing Machinery and Intelligence → 기계가 지능 가질 수 있나?
  • 1958: 퍼셉트론(Perceptron) – Frank Rosenblatt, 최초의 인공 뉴런 모델.
    단층 신경망이라 XOR 같은 문제 못 푸는 한계 존재
1980s [제 2차 AI 붐]
  • 전문가 시스템(Expert System): 사람이 지식을 If-Then 규칙으로 입력
  • 문제: 지식 입력·관리 한계 → “지식 획득 병목(Knowledge Acquisition Bottleneck)” 발생
[딥러닝] 다층 신경망 + 역전파 알고리즘 + RNN 아키텍쳐 
  • 1986: Backpropagation(역전파) – Rumelhart, Hinton, Williams
    다층 퍼셉트론(MLP)을 효율적으로 학습 가능하게 만든 핵심 아이디어
  • 같은 시기 RNN 개념 등장 (시계열 데이터 처리) 
여전히 컴퓨팅 파워 부족 + 데이터 부족 → 2차 AI 겨울
1990s [AI 겨울 지속] 

[딥러닝] CNN, LSTM 아키텍처 발전 
  • 1989~1998: CNN(Convolutional Neural Network) – Yann LeCun, LeNet-5 / 이미지 처리 혁신
  • 1997: LSTM(Long Short-Term Memory) – Hochreiter & Schmidhuber / 장기 의존성 해결 
  • 아키텍처 발전은 있었지만 GPU/데이터 부족으로 여전히 실용화 어려움
2006 제3차 AI 붐: 딥러닝 용어 본격 등장
  • Geoffrey Hinton, Deep Belief Network(DBN) 논문 발표
  • 여러 층(layer)의 신경망을 사전학습(Pre-training) + 미세조정(Fine-tuning) 방식으로 학습
    → "Deep"하게 쌓을 수 있음 증명
  • 여기서부터 Deep Learning이라는 용어가 본격적으로 자리 잡음
2012 딥러닝 르네상스
  • AlexNet – Alex Krizhevsky, Ilya Sutskever, Hinton
  • ImageNet 대회에서 압도적 성능 → 딥러닝 대중화
  • 딥러닝 발전 3요소: GPU + 빅데이터 + 알고리즘 발전(ReLU, Dropout 등) 
2017 Transformer 아키텍쳐 
  • Google Brain의 Attention is All You Need
  • 기존 RNN, LSTM이 시퀀스 데이터를 순차적으로 처리해서 속도가 느렸는데,
    Self-Attention + 병렬 처리로 긴 문장도 빠르고 정확하게 학습 가능해짐.
  • 이후 언어모델의 기반 아키텍처가 됨.
2018년 Transformer아키텍쳐 기반의 언어모델 등장 

1) BERT (Bidirectional Encoder Representations from Transformers)
  • 구글이 발표한 모델, 문장 이해 특화(NLU) 
  • 양방향(Bidirectional) 문맥 이해 → 문장 이해·분류·질의응답 같은 자연어 이해(NLU) 작업에서 혁신적 성능
2) GPT-1 (Generative Pre-trained Transformer)
  • OpenAI가 발표한 모델, 문장 생성 특화(NLG) 
  • 단방향(왼→오른쪽) 문맥 이해 → 문장 생성·요약·번역 같은 자연어 생성(NLG) 작업에 활용
2020년 이후  거대 언어모델(LLM) & 생성형 AI 시대
  • GPT-2, GPT-3: GPT-1보다 훨씬 더 큰 파라미터(수억~수천억 개) 사용 → 거대 언어모델(LLM) 시대 개막
  • ChatGPT: GPT-3.5/4 기반 + 대화형 인터페이스 + RLHF(사람 피드백 학습) 적용
  • 멀티모달 AI: 텍스트 + 이미지 + 음성까지 한 모델에서 처리 (예: GPT-4, Gemini)