As estatísticas Bayesianas é uma abordagem matemática para o cálculo da probabilidade na qual as conclusões são subjetivas e atualizadas conforme dados adicionais são coletados. Esta abordagem pode ser contrastada com a estatística clássica ou frequentista, na qual a probabilidade é calculada através da análise da frequência de eventos aleatórios particulares numa longa série de testes repetidos, e as conclusões são consideradas objetivas.
Inferência estatística, em geral, é o processo de tirar conclusões de um grande conjunto de dados através da análise de conjuntos menores de dados amostrais. Os cientistas de dados Bayesianos primeiro analisam os dados da amostra e tiram uma conclusão. Isto é chamado de inferência prévia. Em seguida, eles analisam outra amostra e revisam sua conclusão. A conclusão revista é chamada de inferência posterior. Usando o conhecimento de eventos anteriores para prever eventos futuros é conhecido como lógica Bayesiana.
As estatísticas Bayesianas é nomeado para Thomas Bayes, um clérigo e matemático do século 18, que estava interessado em probabilidade como uma forma de medir a crença de uma pessoa em uma determinada hipótese. Embora a teoria Bayesiana tenha raízes no século 18, o conceito voou em meados do século 20 e tornou-se mais popular nas últimas décadas para aplicações incluindo a criação de animais nos anos 50, medição da educação nos anos 60 e 70, estatísticas espaciais nos anos 80, e marketing e ciência política nos anos 90.
A abordagem iterativa permite aos cientistas de dados fazer previsões mais precisas do que seria possível usando um ou outro conjunto de dados sozinho. Hoje, as estatísticas Bayesianas desempenham um papel importante na aprendizagem de máquinas, devido à flexibilidade que proporcionam aos cientistas de dados que trabalham com grandes dados. Os modelos e métodos Bayesianos são usados em muitas indústrias, incluindo previsão financeira, previsão do tempo, pesquisa médica e tecnologia da informação (TI).