Notação Científica
Artigo: Notação Científica. Pesquise 861.000+ trabalhos acadêmicosPor: biahzinha2020 • 19/3/2015 • 527 Palavras (3 Páginas) • 514 Visualizações
Notação Científica
Definição
Com a finalidade de facilitar os cálculos e registros de números demasiadamente grandes ou pequenos, criou-se uma maneira de reduzir esses valores transformando-os em multiplicações por potências de base 10. Essa transformação de números reais é denominada de notação científica.
Aplicação
Para escrevermos uma notação científica, devemos seguir o seguinte modelo:
m x 10²
No exemplo acima, a incógnita m é denominada mantissa e e a ordem da grandeza.
Mantissa: É o fator que será multiplicado pela potência de base 10. Esse fator só poderá ser um de 1 a 9.
Ordem da grandeza: É o expoente que elevará o número 10. Esse expoente varia conforme o valor absoluto do número real.
Exemplos de alguns números escritos em notações científicas:
a) 123000000 = 1,23 x 108
b) 38243000000000 = 3,8243 x 1013
c) 0,0000015 = 1,5 x 10-6
d) 0,000000000000004765 = 4,765 x 10-15
Notação E
Muitas vezes, as notações cientificas apresentam os resultados muito grandes. Como os números de caracteres do resultado, às vezes, ultrapassa o limite dos computadores ou calculadoras é necessário utilizar um formato alternativo: adotar a letra "E" ou "e" que sempre será igual a “vezes dez elevado à potência”, substituindo então o “× 10n”. Assim, o número pode ser escrito nas máquinas sem que aja repetição.
História
O filósofo e matemático grego Arquimedes foi o primeiro a tentar a representação de números demasiadamente extensos. Tendo descrito o feito em sua obra O Contador de Areia no século III a.C., ele desenvolveu um método de representação numérica para estimar quantos grãos de areia seria precisos para preencher o universo. O número estimado por ele foi de 1 × 1063 grãos.
E foi através também da notação científica que foi concebido o modelo de representação de números reais através de ponto flutuante. Essa ideia foi proposta independentemente por Leonardo Torres y Quevedo (1914), Konrad Zuse (1936) e George Robert Stibitz (1939). A codificação em ponto flutuante dos computadores atuais é basicamente uma notação científica de base dois.
CONCLUSÃO
Com este trabalho, concluo que a notação cientifica é um método eficaz de escrever números extensos e que ela pode ser usada não somente em áreas como a Matemática, mas como também em campos da Química, Física e até mesmo da Informática.
...