🎲
Configure os parâmetros e clique em Treinar Naive Bayes.
Dataset Iris carregado • 150 amostras
📊 Distribuições
📐 Fronteira
🎲 Posteriores
📈 Métricas
📋 Dados
📊 Distribuições Gaussianas por Classe × Feature
O Gaussian Naive Bayes assume que cada feature segue uma distribuição normal (gaussiana) dentro de cada classe.
Para cada classe y e feature x_j, estimamos μ e σ² dos dados de treino:
P(x_j | y) = (1 / √(2π·σ²)) · exp(−(x_j − μ)² / (2σ²))
A suposição "naïve" (ingênua) é que as features são condicionalmente independentes dada a classe.
P(x_j | y) = (1 / √(2π·σ²)) · exp(−(x_j − μ)² / (2σ²))
A suposição "naïve" (ingênua) é que as features são condicionalmente independentes dada a classe.
📐 Fronteira de Decisão (projeção 2D)
A fronteira do Gaussian NB é quadrática (QDA-like), resultando de funções discriminantes log-gaussianas.
🎲 Probabilidades Posteriores (amostras de teste)
Para cada amostra x, o modelo calcula P(y | x) ∝ P(y) · ∏ P(x_j | y)
e prediz a classe com maior posterior. Navegue pelas amostras de teste e veja como o modelo "pensa".