Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 |
Tags
- 딥러닝
- posec3d
- Deep Learning
- CNN
- deformable covolution
- OpenGL
- mobilenet
- depthwise convolution
- 모수 추정 방법
- Vision Transformer
- 티스토리챌린지
- 오블완
- Swin Transformer
- convolution
- Unreal Engine
- Focal loss
- computer graphics
- covolution
- 최대 가능도 추정
- 최대 사후 확률
- C++
- DDPM
- Image denoising
- 포인터
- Diffusion
- Action Recognition
Archives
- Today
- Total
심드렁하게 저장
Bayes Rule 과 Naive Bayes에 대한 이해 본문
1. Bayes Rule
- Bayes Rule은 조건부 확률을 계산하는 식이다.
- 주어진 사건의 prior와 evidence에 기반하여 사건의 사후 확률인 posterior를 계산할 수 있기에, 사전 지식을 새로운 관측 데이터로 갱신할 때 유용하게 사용된다.
- 한마디로 "어떤 사건 A가 일어났다는 정보를 기반으로, 사건 B가 일어날 확률을 업데이트하는 방법"
- 수식은 아래와 같이 표현된다.

- Posterior P(A|B) : 사건 B가 발생했을 때, 사건 A가 일어날 확률
- Likelihood P(B|A) : 사건 A가 발생했을 때, 사건 B가 일어날 확률
- prior P(A): 사건 A가 발생할 사전 확률
- evidence P(B): 사건 B가 발생할 확률
2. Naive Bayes Rule
- Naive Bayes는 베이즈 정리를 기반으로 하는 분류 알고리즘이다.
- Naive Bayes는 Bayes Rule을 확장해서 여러 특성(feature)을 기반으로 사건의 확률을 계산하는 간단한 분류 알고리즘
- 이 모델은 각 feature가 서로 독립적이라고 가정한다.
- 분류 순서는 다음과 같다.
- 분류할 데이터의 클래스 Ck에 대해, 주어진 입력 데이터 x1,x2,...,xn에 대한 조건부 확률을 구한다.
- 모든 feature가 서로 독립적이라는 가정을 적용하면 아래와 같이 식을 작성할 수 있다. 사후 확률이 가장 높은 클래스를 선택하여 분류를 수행한다.

'Artificial intelligence > AI Fundamental' 카테고리의 다른 글
| 시그모이드 Cross Entropy 정의식 도출 과정 (0) | 2025.03.27 |
|---|---|
| 고유값(Eigenvalue)과 고유벡터(Eigenvector), 고유값 분해(Eigen Decomposition) (0) | 2025.03.03 |
| 모수추정 방법 두 가지 - Maximum Likelihood Estimation & Maximum A Posteriori (1) | 2025.02.17 |
| KL Divergence와 Cross Entropy: 개념과 차이점 (1) | 2025.02.03 |
| 손실 함수에 대한 기본 이론과 예시 (1) | 2024.11.21 |