TrabalhosGratuitos.com - Trabalhos, Monografias, Artigos, Exames, Resumos de livros, Dissertações
Pesquisar

Notação Científica

Artigo: Notação Científica. Pesquise 861.000+ trabalhos acadêmicos

Por:   •  19/3/2015  •  527 Palavras (3 Páginas)  •  514 Visualizações

Página 1 de 3

Notação Científica

Definição

Com a finalidade de facilitar os cálculos e registros de números demasiadamente grandes ou pequenos, criou-se uma maneira de reduzir esses valores transformando-os em multiplicações por potências de base 10. Essa transformação de números reais é denominada de notação científica.

Aplicação

Para escrevermos uma notação científica, devemos seguir o seguinte modelo:

m x 10²

No exemplo acima, a incógnita m é denominada mantissa e e a ordem da grandeza.

Mantissa: É o fator que será multiplicado pela potência de base 10. Esse fator só poderá ser um de 1 a 9.

Ordem da grandeza: É o expoente que elevará o número 10. Esse expoente varia conforme o valor absoluto do número real.

Exemplos de alguns números escritos em notações científicas:

a) 123000000 = 1,23 x 108

b) 38243000000000 = 3,8243 x 1013

c) 0,0000015 = 1,5 x 10-6

d) 0,000000000000004765 = 4,765 x 10-15

Notação E

Muitas vezes, as notações cientificas apresentam os resultados muito grandes. Como os números de caracteres do resultado, às vezes, ultrapassa o limite dos computadores ou calculadoras é necessário utilizar um formato alternativo: adotar a letra "E" ou "e" que sempre será igual a “vezes dez elevado à potência”, substituindo então o “× 10n”. Assim, o número pode ser escrito nas máquinas sem que aja repetição.

História

O filósofo e matemático grego Arquimedes foi o primeiro a tentar a representação de números demasiadamente extensos. Tendo descrito o feito em sua obra O Contador de Areia no século III a.C., ele desenvolveu um método de representação numérica para estimar quantos grãos de areia seria precisos para preencher o universo. O número estimado por ele foi de 1 × 1063 grãos.

E foi através também da notação científica que foi concebido o modelo de representação de números reais através de ponto flutuante. Essa ideia foi proposta independentemente por Leonardo Torres y Quevedo (1914), Konrad Zuse (1936) e George Robert Stibitz (1939). A codificação em ponto flutuante dos computadores atuais é basicamente uma notação científica de base dois.

CONCLUSÃO

Com este trabalho, concluo que a notação cientifica é um método eficaz de escrever números extensos e que ela pode ser usada não somente em áreas como a Matemática, mas como também em campos da Química, Física e até mesmo da Informática.

...

Baixar como (para membros premium)  txt (2.6 Kb)  
Continuar por mais 2 páginas »
Disponível apenas no TrabalhosGratuitos.com