A POSIÇÃO DOS ALGORITMOS
Tese: A POSIÇÃO DOS ALGORITMOS. Pesquise 862.000+ trabalhos acadêmicosPor: MarcusBueno • 5/11/2014 • Tese • 2.294 Palavras (10 Páginas) • 381 Visualizações
NOÇÃO DE ALGORITMOS.
Quando se cria um programa de computador, o objetivo principal é propor a solução de um problema. Para isso, faz-se necessário uma análise da situação, ou seja, verificar o passo a passo e definir os limites, descrevendo a sequencia de operações que resultam na solução. Essa sequencia lógica que é usada para escrever o resultado da análise é chamada de Algoritmo. Uma boa definição de algoritmo seria “a especificação da sequência ordenada de passos que deve ser seguida para a realização de uma tarefa, garantindo a sua repetibilidade ou ainda, “a sequencia finita e ordenada de comandos executáveis e não-ambíguos, que levam a aplicação de um método para a execução de uma tarefa ou resolução de um problema”.
Para maior eficiência e precisão, o algoritmo precisa de algumas características:
Legível: Para que qualquer pessoa possa compreender;
De Alto Nível: Para que possa ser traduzido em qualquer Linguagem de Programação; não deve fazer uso de códigos e comandos específicos de um programa, para que não haja conflitos caso seja traduzido para uma linguagem alternativa.
Preciso: Não pode abrir margens para ambiguidades. A máquina entende situações binárias: Sim e não, verdadeiro e falso, zero e um, etc...
Estruturado: Deve ser finito e composto de várias partes facilmente identificáveis.
PSEUDO LINGUAGEM
O próximo passo seria traduzir esse algoritmo para uma linguagem de programação, que é um método padronizado para expressar instruções para a máquina. É um conjunto de regras sintáticas e semânticas usadas para definir um programa de computador. Uma linguagem permite que um programador especifique precisamente sobre quais dados um computador vai atuar, como estes dados serão armazenados ou transmitidos e quais ações devem ser tomadas sob várias circunstâncias. O algoritmo nada mais é do que o enunciado, numa linguagem que o computador compreenda, a fim de trazer a solução para determinado problema.
Basicamente, é um “meio-termo” entre uma linguagem natural e de uma linguagem de programação que representa um algoritmo. Ela apresenta um conjunto único de palavras- chave de uma língua do programador, que tem seu proporcional nas linguagens de programação para se executar os comandos. As etapas seguintes expressam melhor essa idéia:
1 – CÓDIGO-FONTE: O texto que contém palavras e/ou símbolos de maneira a fornecer instruções numa linguagem de programação, de maneira lógica. Há aquelas que são compiladas e as interpretadas, que se tornam softwares ou executáveis.
2 – COMPILADOR: Programa que cria outro programa a partir de um código-fonte. Interpreta uma linguagem e converte essa linguagem em um programa semanticamente equivalente, porém traduzido em outra linguagem: O compilador produz um código básico, conhecido como código-objeto (normalmente com a extensão “.obj”).
3 – CÓDIGO EXECUTÁVEL ou CÓDIGO OBJETO: Sequencia de Instruções gerada a partir da compilação de um Código Fonte.
4 – LINK EDITOR: é um programa de computador que une (“linka”) um ou mais arquivos de objetos gerados pelo compilador e os combina em um único programa executável. Ele constrói um código executável único a partir de vários módulos de código objeto.
ESTRUTURA DE UM PROGRAMA.
A estrutura básica inicial geralmente apresenta um formato mínimo, como por exemplo:
int main( )
{
return0;
}
main( ) → reservado para a função que inicia a execução do programa.
Consideraremos que o programa descrito é do tipo int, ou seja, a função deverá
retornar um número inteiro.
No nosso caso, deveremos considerar : return0;
Toda função em C precisa começar com uma chave de abertura de bloco ( { ) , correspondendo ao inicio do corpo da função, e terminar com uma chave de fechamento de bloco ( } ) , correspondendo ao fim do corpo da função.
Toda instrução em C deve terminar com um ponto e virgula .
Necessário também definir as constantes e as variáveis (por exemplo, as numéricas).
TIPOS PRIMITIVOS PARA REPRESENTAÇÃO DE DADOS E VARIÁVEIS.
No processamento, um programa tem que armazenar e manipular dados. Esses dados são valores, como se vários símbolos ou números fossem equivalentes ao nome de um funcionário ou um valor numérico que representa seu salário bruto. Esses dados devem ser organizados para atingirem o resultado necessário.
As instruções de um software determinam quais são os dados de entrada que se esperam, como será o processamento sobre esses dados e como informar o resultado produzido. Os dados de precisam ser representados com base em um sistema de numeração binário, onde apenas dois valores diferentes são distinguidos. Normalmente são representados como 0 (zero) e 1 (um) e são chamados de dígitos binários, ou simplesmente bit (binary digit), a menor unidade de informação no computador.
Apenas com esses dígitos podemos representar um imenso número de estados distintos através de várias combinações sobre conjuntos de bits. A unidade básica de tratamento de dados é um agrupamento de 8 (oito) bits, conhecido como byte (binary term). Um byte com 8 (oito) bits é capaz de representar combinações distintas, ou seja, 256 diferentes valores.
Os tipos primitivos de dados são atômicos, no sentido em que não podem ser decompostos em tipos mais simples. Alguns tipos primitivos relacionam-se diretamente à sua representação interna, como é o caso dos números inteiros. Outros tipos primitivos, como o tipo caractere, precisam de um pequeno suporte de hardware ou software para serem representados internamente.
OPERADORES ARITMÉTICOS, LÓGICOS E RELACIONAIS.
Tipos numéricos
Os tipos numéricos estão entre os primeiros implementados pelas linguagens de programação. A maioria das linguagens oferece tanto representações dos números inteiros, , como representações
...