A importância de estudar teorias probabilísticas no momento atual
Pesquisas Acadêmicas: A importância de estudar teorias probabilísticas no momento atual. Pesquise 861.000+ trabalhos acadêmicosPor: melsusin • 14/4/2014 • Pesquisas Acadêmicas • 1.479 Palavras (6 Páginas) • 546 Visualizações
1. Toda pesquisa estatística precisa atender a um público alvo, pois é com base nesse conjunto de pessoas que os dados são coletados e analisados de acordo com o princípio da pesquisa. Esse público alvo recebe o nome de população e constitui um conjunto de pessoas que apresentam características próprias, por exemplo: os funcionários de uma empresa, os eleitores de um município, estado ou país, os integrantes de uma casa e várias situações que envolvem um grupo geral de elementos. A população também pode ser relacionada a um conjunto de objetos ou informações. Na estatística, a população é classificada como finita e infinita.
População finita: nesses casos o número de elementos de um grupo não é muito grande, a entrevista e a análise das informações devem abordar a todos do grupo. Por exemplo:
As condições das escolas públicas na cidade de Porto Alegre. Se observarmos o grupo chegaremos à conclusão de que o número de escolas públicas é considerado finito.
População infinita: o número de elementos nesse caso é muito elevado, sendo considerado infinito. Por exemplo:
A população da cidade de Porto Alegre.
Amostra diz respeito a um subconjunto da população, fração ou uma parte do grupo. Em alguns casos seria impossível entrevistar todos os elementos de uma população, pois levaria muito tempo para concluir o trabalho ou até mesmo seria financeiramente inviável, dessa forma, o número de entrevistados corresponde a uma quantidade determinada de elementos do conjunto, uma amostra.
2. TÉCNICAS DE AMOSTRAGEM
A técnica de amostragem define o melhor caminho para a escolha dos elementos que irão compor a amostra possibilitando a inferência. São:
Amostra casual simples: Elementos são retirados ao acaso da população, assim todo elemento da população tem igual probabilidade de ser escolhido para a amostra.
Amostra sistemática: Elementos são retirados da população por algum método.
Amostra estratificada: Composta por elementos de todos os estratos da população.
Amostra de conveniência: Formada por elementos que o pesquisador reuniu simplesmente porque dispunha deles.
3. Antes da exposição dos dados coletados é necessário que se faça um trabalho de revisão e correção nos dados coletados na tentativa de eliminar possíveis enganos na elaboração do relatório. Inicialmente, os dados podem ser classificados como "qualitativos" ou "quantitativos". Através desta classificação, vamos definir algumas técnicas para resumir o conjunto de dados.
Dados qualitativos: representam uma característica da qualidade (ou atributo) associado ao item pesquisado. Por exemplo, podemos classificar um produto em: bom, razoável ou ruim. Os dados qualitativos podem ser divididos em dois tipos:
• Dado qualitativo nominal - Para o qual não existe nenhuma ordenação nas possíveis realizações;
• Dado qualitativo ordinal - Para o qual existe uma ordem em seus resultados.
Dados quantitativos: Neste caso, a característica observada assume valores numéricos que podem ser classificados em "discretos" ou "contínuos".
Dados quantitativos discretos
Os dados quantitativos discretos assumem valores dentro de um conjunto com os números especifiados. Por exemplo, o número de produtos produzidos por uma máquina em um determinado período de tempo pode ser 0,1,2,3,4,... Neste caso, os dados observados formam um conjunto finito (ou enumerável) de números. Geralmente, quando contamos defeitos, temos dados quantitativos discretos.
Dados quantitativos contínuos
Os dados quantitativos contínuos assumem valores em um intervalo contínuo de números. Em geral, este tipo de dado é proveniente de medições de uma característica da qualidade de uma peça ou produto. Os possíveis valores incluem "todos" os números do intervalo de variação da característica medida. Por exemplo, ao medirmos os diâmetros dos eixos de determinados motores com uma célula eletrônica, obtemos dados quantitativos contínuos.
4. Breve relato histórico (muito interessante)
O surgimento da probabilidade está fundamentado em relatos históricos relacionados à disseminação dos jogos de azar na Idade Média, o qual era praticado envolvendo apostas. Os italianos Gerônimo Cardano (1501 – 1576), Galileu Galilei (1564 – 1642), Luca Pacioli (1445 – 1517) e Niccolo Tartaglia (1499 – 1557) foram os matemáticos responsáveis pelo desenvolvimento das primeiras teorias envolvendo jogos e apostas. Eles deram início aos estudos envolvendo o jogo de dados, trabalhando as ideias do conjunto universo e dos eventos pertencentes a este conjunto.
O interesse por situações mais complexas fez com que outros matemáticos aprofundassem os estudos no intuito de estabelecer novas teorias. Entre os mais importantes podemos citar:
Blaise Pascal (1623 – 1662)
Pierre de Fermat (1601 – 1655)
Christiaan Huygens (1629 – 1695)
Jacob Bernoulli (1654 – 1705)
Pierre Simon Laplace (1749 – 1827)
Carl Friedrich Gauss (1777 – 1855)
Lenis Poisson (1781 – 1840)
Abraham de Moivre (1667 – 1754)
Pafnuti Tchebycheff (1821 – 1894)
Andrei Andreyevitch Markov (1856 – 1922)
Andrei Nikolaevich Kolmogorov (1903 – 1987)
Pascal e Fermat foram os responsáveis por estabelecer as bases da teoria do cálculo probabilístico e inúmeras hipóteses foram levantadas envolvendo possíveis resultados, marcando o início da teoria das probabilidades como ciência. A abordagem de Bernoulli envolveu os grandes números, surgindo as combinações, permutações e classificação binomial. A contribuição de Laplace foi através da regra de sucessão e Gauss estabeleceu o método dos mínimos quadrados e a lei das distribuições.
Atualmente, o estudo das teorias probabilísticas é de grande importância, em virtude de seus axiomas, teorema e
...