Conceitos gerais
Resenha: Conceitos gerais. Pesquise 862.000+ trabalhos acadêmicosPor: • 7/9/2014 • Resenha • 4.047 Palavras (17 Páginas) • 378 Visualizações
Conceitos Gerais
Introdução
Define-se como sistema o conjunto de objetos ou pessoas
intrinsecamente relacionados entre si para um determinado fim
ou propósito. Nesse sentido, uma rede de comunicações é um
sistema de dispositivos eletrônicos, objetos e pessoas
intrinsecamente conectadas tendo como objetivo básico o
compartilhamento de recursos uns com outros. As redes estão ao nosso redor, até mesmo
dentro de nós.
Nosso próprio organismo é uma rede interligada de órgãos. Na atual sociedade, as redes
estão presentes na comunicação (TV/Rádio, celular, Internet, telefone, compra com cartão de
crédito/débito), nas necessidades básicas (rede de esgoto, rede de energia elétrica, rede de
abastecimento de água) e na nossa vida social (relacionamentos, amizades, família). Enfim,
estamos e fazemos parte de várias redes.
Desde os primórdios a comunicação é uma das maiores necessidades da sociedade
humana. Portanto tornou-se um desafio aproximar as comunidades mais distantes e facilitar
a comunicação entre elas. Com a união dos computadores e das comunicações os sistemas
computacionais sofreram uma profunda mudança na sua organização.
Como dito inicialmente, as redes de computadores surgiram da necessidade de se
compartilhar recursos especializados para uma maior comunidade de usuários
geograficamente dispersos.
Histórico
As redes de computadores foram criadas inicialmente para suprir uma necessidade militar. A
década dos anos 60 foi um período de grande tensão entre as duas maiores potencias dessa
época, isto é, os Estados Unidos da América e a União Soviética. Os americanos iniciaram
programas de pesquisas para encontrar uma forma de interconectar os vários centros de
comando do país, de modo que o seu sistema de informações seja robusto, ou seja, que
continuasse funcionando mesmo que houvesse um conflito nuclear. Com o fim da guerra fria,
esta estrutura passou a ser utilizada para uso científico e educacional.
No Brasil, as universidades foram as primeiras a se beneficiarem com essa estrutura de
rede. Os serviços disponíveis restringiam-se a correio eletrônico e transferência de arquivos.
Somente em 1990, a Fapesp (Fundação de Amparo à Pesquisa de São Paulo) conectou-se
com a Internet. A partir de abril de 1995, o Ministério das Comunicações e o Ministério da
Ciência e Tecnologia decidiram lançar um esforço comum de implantação de uma rede
integrada entre instituições acadêmicas e comerciais. Desde então vários fornecedores de
acesso e serviços privados começaram a operar no Brasil.
A seguir estão algumas datas importantes na evolução das redes de computadores e dos
protocolos:
1968 - Foi desenvolvido pela ARPA (Advanced Research Projects Agency) o primeiro
backbone. O objetivo desse projeto era interligar as universidades e também a área
militar.
1975 - A DARPA (Defence Advanced Research Projects Agency) que deu lugar a
ARPA começou a desenvolver os protocolos TCP/IP.
1979 – Foi formado um comitê para comandar o desenvolvimento desses protocolos.
Esse comitê se chamava ICCB - Internet Control and Configuration Board.
1983 - A DARPA concedeu os direitos do código dos protocolos TCP/IP à
Universidade da Califórnia para que fosse distribuído em sua versão UNIX. A DARPA
pediu a todos os computadores que estavam conectados a ARPANET para que usassem os protocolos TCP/IP. Esses protocolos se difundiram rapidamente, em
razão de não ser um aplicativo comercial.
1985 - A Fundação Nacional de Ciência dos Estados Unidos (NSF) criou a NSFNET,
que era uma rede de alta capacidade destinada a atender, tanto nos EUA como em
outros paises, as entidades científicas e de pesquisa.
1989 - A ARPANET deu lugar a NSFNET, bem como o ICCB foi substituído pela
Internet Advisory Board (IAB). A IAB possuía dois grupos principais: o IRTF (Internet
Research Task Force) e o IETF (Internet Engeneering Task Force).
1995 - Muitas redes foram criadas ou desenvolvidas objetivando a melhora do tráfego
de informações via Internet. Deu-se ainda nessa década a conexão de muitos setores
à Internet, visando prestar e obter serviços pela rede.
Evolução dos Sistemas de Computação
Na década de 50, computadores eram máquinas grandes e complexas, operadas por
pessoas altamente especializadas. Usuários enfileiravam-se para submeter suas leitoras de
cartões ou fitas magnéticas que eram processados em lote. Não havia nenhuma forma de
interação direta entre usuários e máquina.
Graças ao avanço na década de 60, foram desenvolvidos os primeiros terminais interativos,
que permitiam aos usuários acesso ao computador central através de linhas de
comunicação. Foi criado um mecanismo que viabilizava a interação direta com o
computador, e outros avanços nas técnicas de processamento deram origem aos sistemas
de tempo compartilhado (time-sharing), permitindo que várias tarefas dos diferentes usuários
ocupassem simultaneamente o computador central, revezando o tempo de execução do
processador.
Na década seguinte, foram feitas mudanças nos sistemas de computação, onde um sistema
único centralizado transformou-se em um de grande porte, que estava disponível para todos os usuários de uma determinada organização. Com o desenvolvimento dos
microcomputadores, tornou-se viável a instalação em locais distintos, pois não era mais
necessário concentrar esses equipamentos em determinada área específica.
Tornava-se então cada vez mais necessário que os dados ficassem armazenados em
sistemas de grande porte e centralizados e compartilhados e os periféricos interconectados.
Foi possível então trabalhar em ambientes de trabalho cooperativos interligando recursos
não só no âmbito industrial como no acadêmico.
Problemas de desempenho surgiram, mas em resposta foram criadas novas arquiteturas que
possibilitavam a distribuição e o paralelismo melhorando o desempenho, a confiabilidade e
modularidade dos sistemas computacionais.
Sistemas Operacionais de Rede
O Que é um Sistema Operacional de Rede
Basicamente, um sistema operacional de rede é um conjunto de módulos que ampliam as
tarefas dos sistemas operacionais locais, complementando-os com um conjunto de funções
básicas, e de uso geral, que tornam transparente o uso de recursos compartilhados da rede.
Portanto, um computador de rede tem o sistema operacional local interagindo com o sistema
operacional de rede, para que possam ser utilizados os recursos de rede tão facilmente
quanto os recursos na máquina local. Em efeito, o sistema operacional de rede coloca um
redirecionador entre o aplicativo do cliente e o sistema operacional local para redirecionar as
solicitações de recursos da rede para o programa de comunicação que vai buscar os
recursos na própria rede.
O sistema operacional de rede, portanto, controla os sistemas e dispositivos dos
computadores em uma rede e permite que se comuniquem uns com os outros. Normalmente
o modelo de operação do sistema operacional de rede é o modelo Cliente/ Servidor, ou seja,
o ambiente onde o processamento da aplicação é compartilhado com outro cliente (que
solicita um serviço) e um ou mais servidores (prestam esses serviços). Os tipos de
arquiteturas para sistemas operacionais de rede podem ser:
Peer-to-Peer: Nestas redes todos poderiam ser (ou não) servidores, mas certamente
todos são clientes, normalmente neste tipo de redes os servidores são não dedicados,
mas nada impediria o contrario.
Cliente/Servidor: Nestas redes podem existir dois tipos:
o Servidor Dedicado
o Servidor não Dedicado
No caso dos sistemas Cliente/Servidor o sistema cliente possui características mais simples,
voltadas para a utilização de serviços, enquanto que o sistema do servidor possui maior
quantidade de recursos, com o único propósito de serem disponibilizados aos clientes da
rede. Os sistemas baseados em Unix são potencialmente clientes e servidores, sendo feita a
escolha durante a instalação dos pacotes, enquanto que os sistemas Windows, existem
versões clientes (Windows 2000 Professional, Windows XP) e versões servidores (Windows
2000 Server, Windows 2003 R2 e Windows 2008 Server). A seguir os principais sistemas
operacionais de rede.
Sistemas UNIX
O sistema UNIX foi criado nos Laboratórios Bell em 1970 por Ken Thompson, Dennis Ritchie
e Brian Kernigham, entre outros, para ajudar no controle dos projetos internos do próprio
laboratório. Era um sistema básico e voltado principalmente para programadores e cientistas.
Durante o ano de 1975, Ken Thompson quando trabalhava como professor assistente na
Universidade da Califórnia, em Berkeley, continuou a desenvolver o sistema UNIX projetado
inicialmente nos laboratórios da Bell (Bell Lab). Este desenvolvimento foi tomado pelos
outros professores e alunos, que desenvolveram uma série de melhorias no sistema original.
Estas melhorias geraram um sistema operacional com algumas diferenças em relação ao
sistema UNIX do Bell Lab. e passou a ser conhecido como o "UNIX de Berkeley". Algumas
empresas começaram a comercializar esta versão do sistema operacional, sendo a mais
conhecida a versão chamada SunOS da Sun Microsystems.
Em 1979, a AT&T resolveu lançar comercialmente o UNIX. Esta versão ficou sendo
conhecida como "Versão 7". Após algum tempo, em 1982, alguns problemas da versão 7 Copyright © 2007, ESAB – Escola Superior Aberta do Brasil 19
foram corrigidos e foi lançada a versão chamada de "System III" (Sistema Três). A partir
deste ponto, houve uma evolução paralela de dois "tipos" de UNIX. Uma comercializada pela
AT&T e outra proveniente da Universidade da Califórnia.
Até 1983, o uso do UNIX estava principalmente voltado para aplicações científicas, sendo o
sistema mais utilizado no meio acadêmico. Neste ano, a AT&T resolveu agregar uma série
de características e facilidades, visando assim, o usuário comercial. Este procedimento
sempre encontrou barreiras, pois o usuário comercial achava que o UNIX era por demais
científico e nada user friendly (amigável), sendo só usado por programadores e cientistas. A
versão comercial ficou sendo conhecida como "System V" (Sistema Cinco).
A partir de 1989 foram formados pelas maiores empresas na área de computação dois
grandes consórcios, visando uma unificação e padronização de todos os sistemas UNIX
existentes no mercado. Esta padronização é necessária para que se tenha uma portabilidade
de todas as aplicações desenvolvidas para UNIX, dando assim uma força maior de
penetração do UNIX no mercado comercial. Ao contrário do que aconteceu no Brasil, onde o
UNIX foi um substituto para minicomputadores e movia basicamente sistemas multiusuários
com terminais burros, no exterior o UNIX era o sistema High-end, de alto desempenho, em
redes e gráfico, só encontrando alguma concorrência no NT.
Sistemas Distribuídos
Assim como nos sistemas operacionais de rede, cada estação (de um sistema distribuído)
também possui seu próprio sistema operacional, mas o que caracteriza como sendo um
sistema distribuído (também conhecido como cluster) é a existência de um relacionamento
mais forte entre os seus componentes (processadores), onde geralmente (mas não
necessariamente) os sistemas operacionais são os mesmos, funcionando como um único
sistema centralizado. Um sistema Distribuído é formado por um conjunto de módulos
processadores interligados por um sistema de comunicação (cabos de rede ou canais de
transmissão de dados).
Como as aplicações são distribuídas, a redundância é uma grande vantagem, pois quando
há problema com um dos componentes (processador) outro assume a tarefa em questão.
Alguns fabricantes, juntamente com órgãos de padronização, definiram padrões para a
implementação de sistemas distribuídos. O Distributed Computing Enviroment (DCE), o
Common Object Request Broker Architecture (CORBA) e o Object Linking and Embedding
(OLE) são alguns dos padrões para o desenvolvimento de aplicações em ambientes
distribuídos.Copyright © 2007, ESAB – Escola Superior Aberta do Brasil 36
Um sistema de computo com arquitetura distribuída pode possuir um número ilimitado de
módulos autônomos para processamento, interconectados de tal forma que, para o usuário
final, o sistema todo se apresente como uma única máquina, no qual o controle geral é
implementado através da cooperação de elementos descentralizados. Uma rede de
computadores também pode (em teoria) estar formada por um número ilimitado de estações,
mas a independência dos vários módulos de processamento é preservada em razão da
tarefa de compartilhamento de recursos e troca de informações, em outras palavras, em uma
rede de computadores a troca de informações entre os diferentes computadores não é tão
elevada se comparada com um sistema de computo com arquitetura distribuída onde a
comunicação entre os diferentes processadores é crítica e extremamente elevada.
Lembrar que o objetivo de um sistema distribuído é comum para todos os módulos de
processamento, todos eles devem desenvolver tarefas intimamente relacionadas para um
determinado objetivo, daí que a comunicação entre todos os processadores do sistema deve
ser elevada e muito bem coordenada.
Um exemplo prático (e muito interessante) de um sistema distribuído é o projeto SETI
(Search for Extra Terrestrial Intelligence). O projeto SETI, desenvolvido pela Universidade de
Berkeley na Califórnia, é um experimento científico que utiliza o tempo ocioso dos
computadores conectados à Internet para seu
objetivo principal de procura por vida
inteligente extraterrestre. Qualquer pessoa
conectada à Internet pode participar basta
rodar o programa gratuito disponível no site
BOINC (http://boinc.berkeley.edu).
Basicamente, este programa permite que sua
máquina disponibilize o tempo ocioso dela para
fazer parte de projetos científicos, o projeto
esta constituído por diferentes protetores de
tela e é disponibilizado para as plataformas
Windows, MacOS, e Linux.
Conceitos Gerais
Introdução
Define-se como sistema o conjunto de objetos ou pessoas
intrinsecamente relacionados entre si para um determinado fim
ou propósito. Nesse sentido, uma rede de comunicações é um
sistema de dispositivos eletrônicos, objetos e pessoas
intrinsecamente conectadas tendo como objetivo básico o
compartilhamento de recursos uns com outros. As redes estão ao nosso redor, até mesmo
dentro de nós.
Nosso próprio organismo é uma rede interligada de órgãos. Na atual sociedade, as redes
estão presentes na comunicação (TV/Rádio, celular, Internet, telefone, compra com cartão de
crédito/débito), nas necessidades básicas (rede de esgoto, rede de energia elétrica, rede de
abastecimento de água) e na nossa vida social (relacionamentos, amizades, família). Enfim,
estamos e fazemos parte de várias redes.
Desde os primórdios a comunicação é uma das maiores necessidades da sociedade
humana. Portanto tornou-se um desafio aproximar as comunidades mais distantes e facilitar
a comunicação entre elas. Com a união dos computadores e das comunicações os sistemas
computacionais sofreram uma profunda mudança na sua organização.
Como dito inicialmente, as redes de computadores surgiram da necessidade de se
compartilhar recursos especializados para uma maior comunidade de usuários
geograficamente dispersos.
Histórico
As redes de computadores foram criadas inicialmente para suprir uma necessidade militar. A
década dos anos 60 foi um período de grande tensão entre as duas maiores potencias dessa
época, isto é, os Estados Unidos da América e a União Soviética. Os americanos iniciaram
programas de pesquisas para encontrar uma forma de interconectar os vários centros de
comando do país, de modo que o seu sistema de informações seja robusto, ou seja, que
continuasse funcionando mesmo que houvesse um conflito nuclear. Com o fim da guerra fria,
esta estrutura passou a ser utilizada para uso científico e educacional.
No Brasil, as universidades foram as primeiras a se beneficiarem com essa estrutura de
rede. Os serviços disponíveis restringiam-se a correio eletrônico e transferência de arquivos.
Somente em 1990, a Fapesp (Fundação de Amparo à Pesquisa de São Paulo) conectou-se
com a Internet. A partir de abril de 1995, o Ministério das Comunicações e o Ministério da
Ciência e Tecnologia decidiram lançar um esforço comum de implantação de uma rede
integrada entre instituições acadêmicas e comerciais. Desde então vários fornecedores de
acesso e serviços privados começaram a operar no Brasil.
A seguir estão algumas datas importantes na evolução das redes de computadores e dos
protocolos:
1968 - Foi desenvolvido pela ARPA (Advanced Research Projects Agency) o primeiro
backbone. O objetivo desse projeto era interligar as universidades e também a área
militar.
1975 - A DARPA (Defence Advanced Research Projects Agency) que deu lugar a
ARPA começou a desenvolver os protocolos TCP/IP.
1979 – Foi formado um comitê para comandar o desenvolvimento desses protocolos.
Esse comitê se chamava ICCB - Internet Control and Configuration Board.
1983 - A DARPA concedeu os direitos do código dos protocolos TCP/IP à
Universidade da Califórnia para que fosse distribuído em sua versão UNIX. A DARPA
pediu a todos os computadores que estavam conectados a ARPANET para que usassem os protocolos TCP/IP. Esses protocolos se difundiram rapidamente, em
razão de não ser um aplicativo comercial.
1985 - A Fundação Nacional de Ciência dos Estados Unidos (NSF) criou a NSFNET,
que era uma rede de alta capacidade destinada a atender, tanto nos EUA como em
outros paises, as entidades científicas e de pesquisa.
1989 - A ARPANET deu lugar a NSFNET, bem como o ICCB foi substituído pela
Internet Advisory Board (IAB). A IAB possuía dois grupos principais: o IRTF (Internet
Research Task Force) e o IETF (Internet Engeneering Task Force).
1995 - Muitas redes foram criadas ou desenvolvidas objetivando a melhora do tráfego
de informações via Internet. Deu-se ainda nessa década a conexão de muitos setores
à Internet, visando prestar e obter serviços pela rede.
Evolução dos Sistemas de Computação
Na década de 50, computadores eram máquinas grandes e complexas, operadas por
pessoas altamente especializadas. Usuários enfileiravam-se para submeter suas leitoras de
cartões ou fitas magnéticas que eram processados em lote. Não havia nenhuma forma de
interação direta entre usuários e máquina.
Graças ao avanço na década de 60, foram desenvolvidos os primeiros terminais interativos,
que permitiam aos usuários acesso ao computador central através de linhas de
comunicação. Foi criado um mecanismo que viabilizava a interação direta com o
computador, e outros avanços nas técnicas de processamento deram origem aos sistemas
de tempo compartilhado (time-sharing), permitindo que várias tarefas dos diferentes usuários
ocupassem simultaneamente o computador central, revezando o tempo de execução do
processador.
Na década seguinte, foram feitas mudanças nos sistemas de computação, onde um sistema
único centralizado transformou-se em um de grande porte, que estava disponível para todos os usuários de uma determinada organização. Com o desenvolvimento dos
microcomputadores, tornou-se viável a instalação em locais distintos, pois não era mais
necessário concentrar esses equipamentos em determinada área específica.
Tornava-se então cada vez mais necessário que os dados ficassem armazenados em
sistemas de grande porte e centralizados e compartilhados e os periféricos interconectados.
Foi possível então trabalhar em ambientes de trabalho cooperativos interligando recursos
não só no âmbito industrial como no acadêmico.
Problemas de desempenho surgiram, mas em resposta foram criadas novas arquiteturas que
possibilitavam a distribuição e o paralelismo melhorando o desempenho, a confiabilidade e
modularidade dos sistemas computacionais.
Sistemas Operacionais de Rede
O Que é um Sistema Operacional de Rede
Basicamente, um sistema operacional de rede é um conjunto de módulos que ampliam as
tarefas dos sistemas operacionais locais, complementando-os com um conjunto de funções
básicas, e de uso geral, que tornam transparente o uso de recursos compartilhados da rede.
Portanto, um computador de rede tem o sistema operacional local interagindo com o sistema
operacional de rede, para que possam ser utilizados os recursos de rede tão facilmente
quanto os recursos na máquina local. Em efeito, o sistema operacional de rede coloca um
redirecionador entre o aplicativo do cliente e o sistema operacional local para redirecionar as
solicitações de recursos da rede para o programa de comunicação que vai buscar os
recursos na própria rede.
O sistema operacional de rede, portanto, controla os sistemas e dispositivos dos
computadores em uma rede e permite que se comuniquem uns com os outros. Normalmente
o modelo de operação do sistema operacional de rede é o modelo Cliente/ Servidor, ou seja,
o ambiente onde o processamento da aplicação é compartilhado com outro cliente (que
solicita um serviço) e um ou mais servidores (prestam esses serviços). Os tipos de
arquiteturas para sistemas operacionais de rede podem ser:
Peer-to-Peer: Nestas redes todos poderiam ser (ou não) servidores, mas certamente
todos são clientes, normalmente neste tipo de redes os servidores são não dedicados,
mas nada impediria o contrario.
Cliente/Servidor: Nestas redes podem existir dois tipos:
o Servidor Dedicado
o Servidor não Dedicado
No caso dos sistemas Cliente/Servidor o sistema cliente possui características mais simples,
voltadas para a utilização de serviços, enquanto que o sistema do servidor possui maior
quantidade de recursos, com o único propósito de serem disponibilizados aos clientes da
rede. Os sistemas baseados em Unix são potencialmente clientes e servidores, sendo feita a
escolha durante a instalação dos pacotes, enquanto que os sistemas Windows, existem
versões clientes (Windows 2000 Professional, Windows XP) e versões servidores (Windows
2000 Server, Windows 2003 R2 e Windows 2008 Server). A seguir os principais sistemas
operacionais de rede.
Sistemas UNIX
O sistema UNIX foi criado nos Laboratórios Bell em 1970 por Ken Thompson, Dennis Ritchie
e Brian Kernigham, entre outros, para ajudar no controle dos projetos internos do próprio
laboratório. Era um sistema básico e voltado principalmente para programadores e cientistas.
Durante o ano de 1975, Ken Thompson quando trabalhava como professor assistente na
Universidade da Califórnia, em Berkeley, continuou a desenvolver o sistema UNIX projetado
inicialmente nos laboratórios da Bell (Bell Lab). Este desenvolvimento foi tomado pelos
outros professores e alunos, que desenvolveram uma série de melhorias no sistema original.
Estas melhorias geraram um sistema operacional com algumas diferenças em relação ao
sistema UNIX do Bell Lab. e passou a ser conhecido como o "UNIX de Berkeley". Algumas
empresas começaram a comercializar esta versão do sistema operacional, sendo a mais
conhecida a versão chamada SunOS da Sun Microsystems.
Em 1979, a AT&T resolveu lançar comercialmente o UNIX. Esta versão ficou sendo
conhecida como "Versão 7". Após algum tempo, em 1982, alguns problemas da versão 7 Copyright © 2007, ESAB – Escola Superior Aberta do Brasil 19
foram corrigidos e foi lançada a versão chamada de "System III" (Sistema Três). A partir
deste ponto, houve uma evolução paralela de dois "tipos" de UNIX. Uma comercializada pela
AT&T e outra proveniente da Universidade da Califórnia.
Até 1983, o uso do UNIX estava principalmente voltado para aplicações científicas, sendo o
sistema mais utilizado no meio acadêmico. Neste ano, a AT&T resolveu agregar uma série
de características e facilidades, visando assim, o usuário comercial. Este procedimento
sempre encontrou barreiras, pois o usuário comercial achava que o UNIX era por demais
científico e nada user friendly (amigável), sendo só usado por programadores e cientistas. A
versão comercial ficou sendo conhecida como "System V" (Sistema Cinco).
A partir de 1989 foram formados pelas maiores empresas na área de computação dois
grandes consórcios, visando uma unificação e padronização de todos os sistemas UNIX
existentes no mercado. Esta padronização é necessária para que se tenha uma portabilidade
de todas as aplicações desenvolvidas para UNIX, dando assim uma força maior de
penetração do UNIX no mercado comercial. Ao contrário do que aconteceu no Brasil, onde o
UNIX foi um substituto para minicomputadores e movia basicamente sistemas multiusuários
com terminais burros, no exterior o UNIX era o sistema High-end, de alto desempenho, em
redes e gráfico, só encontrando alguma concorrência no NT.
Sistemas Distribuídos
Assim como nos sistemas operacionais de rede, cada estação (de um sistema distribuído)
também possui seu próprio sistema operacional, mas o que caracteriza como sendo um
sistema distribuído (também conhecido como cluster) é a existência de um relacionamento
mais forte entre os seus componentes (processadores), onde geralmente (mas não
necessariamente) os sistemas operacionais são os mesmos, funcionando como um único
sistema centralizado. Um sistema Distribuído é formado por um conjunto de módulos
processadores interligados por um sistema de comunicação (cabos de rede ou canais de
transmissão de dados).
Como as aplicações são distribuídas, a redundância é uma grande vantagem, pois quando
há problema com um dos componentes (processador) outro assume a tarefa em questão.
Alguns fabricantes, juntamente com órgãos de padronização, definiram padrões para a
implementação de sistemas distribuídos. O Distributed Computing Enviroment (DCE), o
Common Object Request Broker Architecture (CORBA) e o Object Linking and Embedding
(OLE) são alguns dos padrões para o desenvolvimento de aplicações em ambientes
distribuídos.Copyright © 2007, ESAB – Escola Superior Aberta do Brasil 36
Um sistema de computo com arquitetura distribuída pode possuir um número ilimitado de
módulos autônomos para processamento, interconectados de tal forma que, para o usuário
final, o sistema todo se apresente como uma única máquina, no qual o controle geral é
implementado através da cooperação de elementos descentralizados. Uma rede de
computadores também pode (em teoria) estar formada por um número ilimitado de estações,
mas a independência dos vários módulos de processamento é preservada em razão da
tarefa de compartilhamento de recursos e troca de informações, em outras palavras, em uma
rede de computadores a troca de informações entre os diferentes computadores não é tão
elevada se comparada com um sistema de computo com arquitetura distribuída onde a
comunicação entre os diferentes processadores é crítica e extremamente elevada.
Lembrar que o objetivo de um sistema distribuído é comum para todos os módulos de
processamento, todos eles devem desenvolver tarefas intimamente relacionadas para um
determinado objetivo, daí que a comunicação entre todos os processadores do sistema deve
ser elevada e muito bem coordenada.
Um exemplo prático (e muito interessante) de um sistema distribuído é o projeto SETI
(Search for Extra Terrestrial Intelligence). O projeto SETI, desenvolvido pela Universidade de
Berkeley na Califórnia, é um experimento científico que utiliza o tempo ocioso dos
computadores conectados à Internet para seu
objetivo principal de procura por vida
inteligente extraterrestre. Qualquer pessoa
conectada à Internet pode participar basta
rodar o programa gratuito disponível no site
BOINC (http://boinc.berkeley.edu).
Basicamente, este programa permite que sua
máquina disponibilize o tempo ocioso dela para
fazer parte de projetos científicos, o projeto
esta constituído por diferentes protetores de
tela e é disponibilizado para as plataformas
Windows, MacOS, e Linux.
...