TrabalhosGratuitos.com - Trabalhos, Monografias, Artigos, Exames, Resumos de livros, Dissertações
Pesquisar

Conceitos gerais

Resenha: Conceitos gerais. Pesquise 862.000+ trabalhos acadêmicos

Por:   •  7/9/2014  •  Resenha  •  4.047 Palavras (17 Páginas)  •  380 Visualizações

Página 1 de 17

Conceitos Gerais

Introdução

Define-se como sistema o conjunto de objetos ou pessoas

intrinsecamente relacionados entre si para um determinado fim

ou propósito. Nesse sentido, uma rede de comunicações é um

sistema de dispositivos eletrônicos, objetos e pessoas

intrinsecamente conectadas tendo como objetivo básico o

compartilhamento de recursos uns com outros. As redes estão ao nosso redor, até mesmo

dentro de nós.

Nosso próprio organismo é uma rede interligada de órgãos. Na atual sociedade, as redes

estão presentes na comunicação (TV/Rádio, celular, Internet, telefone, compra com cartão de

crédito/débito), nas necessidades básicas (rede de esgoto, rede de energia elétrica, rede de

abastecimento de água) e na nossa vida social (relacionamentos, amizades, família). Enfim,

estamos e fazemos parte de várias redes.

Desde os primórdios a comunicação é uma das maiores necessidades da sociedade

humana. Portanto tornou-se um desafio aproximar as comunidades mais distantes e facilitar

a comunicação entre elas. Com a união dos computadores e das comunicações os sistemas

computacionais sofreram uma profunda mudança na sua organização.

Como dito inicialmente, as redes de computadores surgiram da necessidade de se

compartilhar recursos especializados para uma maior comunidade de usuários

geograficamente dispersos.

Histórico

As redes de computadores foram criadas inicialmente para suprir uma necessidade militar. A

década dos anos 60 foi um período de grande tensão entre as duas maiores potencias dessa

época, isto é, os Estados Unidos da América e a União Soviética. Os americanos iniciaram

programas de pesquisas para encontrar uma forma de interconectar os vários centros de

comando do país, de modo que o seu sistema de informações seja robusto, ou seja, que

continuasse funcionando mesmo que houvesse um conflito nuclear. Com o fim da guerra fria,

esta estrutura passou a ser utilizada para uso científico e educacional.

No Brasil, as universidades foram as primeiras a se beneficiarem com essa estrutura de

rede. Os serviços disponíveis restringiam-se a correio eletrônico e transferência de arquivos.

Somente em 1990, a Fapesp (Fundação de Amparo à Pesquisa de São Paulo) conectou-se

com a Internet. A partir de abril de 1995, o Ministério das Comunicações e o Ministério da

Ciência e Tecnologia decidiram lançar um esforço comum de implantação de uma rede

integrada entre instituições acadêmicas e comerciais. Desde então vários fornecedores de

acesso e serviços privados começaram a operar no Brasil.

A seguir estão algumas datas importantes na evolução das redes de computadores e dos

protocolos:

 1968 - Foi desenvolvido pela ARPA (Advanced Research Projects Agency) o primeiro

backbone. O objetivo desse projeto era interligar as universidades e também a área

militar.

 1975 - A DARPA (Defence Advanced Research Projects Agency) que deu lugar a

ARPA começou a desenvolver os protocolos TCP/IP.

 1979 – Foi formado um comitê para comandar o desenvolvimento desses protocolos.

Esse comitê se chamava ICCB - Internet Control and Configuration Board.

 1983 - A DARPA concedeu os direitos do código dos protocolos TCP/IP à

Universidade da Califórnia para que fosse distribuído em sua versão UNIX. A DARPA

pediu a todos os computadores que estavam conectados a ARPANET para que usassem os protocolos TCP/IP. Esses protocolos se difundiram rapidamente, em

razão de não ser um aplicativo comercial.

 1985 - A Fundação Nacional de Ciência dos Estados Unidos (NSF) criou a NSFNET,

que era uma rede de alta capacidade destinada a atender, tanto nos EUA como em

outros paises, as entidades científicas e de pesquisa.

 1989 - A ARPANET deu lugar a NSFNET, bem como o ICCB foi substituído pela

Internet Advisory Board (IAB). A IAB possuía dois grupos principais: o IRTF (Internet

Research Task Force) e o IETF (Internet Engeneering Task Force).

 1995 - Muitas redes foram criadas ou desenvolvidas objetivando a melhora do tráfego

de informações via Internet. Deu-se ainda nessa década a conexão de muitos setores

à Internet, visando prestar e obter serviços pela rede.

Evolução dos Sistemas de Computação

Na década de 50, computadores eram máquinas grandes e complexas, operadas por

pessoas altamente especializadas. Usuários enfileiravam-se para submeter suas leitoras de

cartões ou fitas magnéticas que eram processados em lote. Não havia nenhuma forma de

interação direta entre usuários e máquina.

Graças ao avanço na década de 60, foram desenvolvidos os primeiros terminais interativos,

que permitiam aos usuários acesso ao computador central através de linhas de

comunicação. Foi criado um mecanismo que viabilizava a interação direta com o

computador, e outros avanços nas técnicas de processamento deram origem aos sistemas

de tempo compartilhado (time-sharing), permitindo que várias tarefas dos diferentes usuários

ocupassem simultaneamente o computador central, revezando o tempo de execução do

processador.

Na década seguinte, foram feitas mudanças nos sistemas de computação, onde um sistema

único centralizado transformou-se em um de grande porte, que estava disponível para todos os usuários de uma determinada organização. Com o desenvolvimento dos

microcomputadores, tornou-se viável a instalação em locais distintos, pois não era mais

necessário concentrar esses equipamentos em determinada área específica.

Tornava-se então cada vez mais necessário que os dados ficassem armazenados em

sistemas de grande porte e centralizados e compartilhados e os periféricos interconectados.

Foi possível então trabalhar em ambientes de trabalho cooperativos interligando recursos

não só no âmbito industrial como no acadêmico.

Problemas de desempenho surgiram, mas em resposta foram criadas novas arquiteturas que

possibilitavam a distribuição e o paralelismo melhorando o desempenho, a confiabilidade e

modularidade dos sistemas computacionais.

Sistemas Operacionais de Rede

O Que é um Sistema Operacional de Rede

Basicamente, um sistema operacional de rede é um conjunto de módulos que ampliam as

tarefas dos sistemas operacionais locais, complementando-os com um conjunto de funções

básicas, e de uso geral, que tornam transparente o uso de recursos compartilhados da rede.

Portanto, um computador de rede tem o sistema operacional local interagindo com o sistema

operacional de rede, para que possam ser utilizados os recursos de rede tão facilmente

quanto os recursos na máquina local. Em efeito, o sistema operacional de rede coloca um

redirecionador entre o aplicativo do cliente e o sistema operacional local para redirecionar as

solicitações de recursos da rede para o programa de comunicação que vai buscar os

recursos na própria rede.

O sistema operacional de rede, portanto, controla os sistemas e dispositivos dos

computadores em uma rede e permite que se comuniquem uns com os outros. Normalmente

o modelo de operação do sistema operacional de rede é o modelo Cliente/ Servidor, ou seja,

o ambiente onde o processamento da aplicação é compartilhado com outro cliente (que

solicita um serviço) e um ou mais servidores (prestam esses serviços). Os tipos de

arquiteturas para sistemas operacionais de rede podem ser:

 Peer-to-Peer: Nestas redes todos poderiam ser (ou não) servidores, mas certamente

todos são clientes, normalmente neste tipo de redes os servidores são não dedicados,

mas nada impediria o contrario.

 Cliente/Servidor: Nestas redes podem existir dois tipos:

o Servidor Dedicado

o Servidor não Dedicado

No caso dos sistemas Cliente/Servidor o sistema cliente possui características mais simples,

voltadas para a utilização de serviços, enquanto que o sistema do servidor possui maior

quantidade de recursos, com o único propósito de serem disponibilizados aos clientes da

rede. Os sistemas baseados em Unix são potencialmente clientes e servidores, sendo feita a

escolha durante a instalação dos pacotes, enquanto que os sistemas Windows, existem

versões clientes (Windows 2000 Professional, Windows XP) e versões servidores (Windows

2000 Server, Windows 2003 R2 e Windows 2008 Server). A seguir os principais sistemas

operacionais de rede.

Sistemas UNIX

O sistema UNIX foi criado nos Laboratórios Bell em 1970 por Ken Thompson, Dennis Ritchie

e Brian Kernigham, entre outros, para ajudar no controle dos projetos internos do próprio

laboratório. Era um sistema básico e voltado principalmente para programadores e cientistas.

Durante o ano de 1975, Ken Thompson quando trabalhava como professor assistente na

Universidade da Califórnia, em Berkeley, continuou a desenvolver o sistema UNIX projetado

inicialmente nos laboratórios da Bell (Bell Lab). Este desenvolvimento foi tomado pelos

outros professores e alunos, que desenvolveram uma série de melhorias no sistema original.

Estas melhorias geraram um sistema operacional com algumas diferenças em relação ao

sistema UNIX do Bell Lab. e passou a ser conhecido como o "UNIX de Berkeley". Algumas

empresas começaram a comercializar esta versão do sistema operacional, sendo a mais

conhecida a versão chamada SunOS da Sun Microsystems.

Em 1979, a AT&T resolveu lançar comercialmente o UNIX. Esta versão ficou sendo

conhecida como "Versão 7". Após algum tempo, em 1982, alguns problemas da versão 7 Copyright © 2007, ESAB – Escola Superior Aberta do Brasil 19

foram corrigidos e foi lançada a versão chamada de "System III" (Sistema Três). A partir

deste ponto, houve uma evolução paralela de dois "tipos" de UNIX. Uma comercializada pela

AT&T e outra proveniente da Universidade da Califórnia.

Até 1983, o uso do UNIX estava principalmente voltado para aplicações científicas, sendo o

sistema mais utilizado no meio acadêmico. Neste ano, a AT&T resolveu agregar uma série

de características e facilidades, visando assim, o usuário comercial. Este procedimento

sempre encontrou barreiras, pois o usuário comercial achava que o UNIX era por demais

científico e nada user friendly (amigável), sendo só usado por programadores e cientistas. A

versão comercial ficou sendo conhecida como "System V" (Sistema Cinco).

A partir de 1989 foram formados pelas maiores empresas na área de computação dois

grandes consórcios, visando uma unificação e padronização de todos os sistemas UNIX

existentes no mercado. Esta padronização é necessária para que se tenha uma portabilidade

de todas as aplicações desenvolvidas para UNIX, dando assim uma força maior de

penetração do UNIX no mercado comercial. Ao contrário do que aconteceu no Brasil, onde o

UNIX foi um substituto para minicomputadores e movia basicamente sistemas multiusuários

com terminais burros, no exterior o UNIX era o sistema High-end, de alto desempenho, em

redes e gráfico, só encontrando alguma concorrência no NT.

Sistemas Distribuídos

Assim como nos sistemas operacionais de rede, cada estação (de um sistema distribuído)

também possui seu próprio sistema operacional, mas o que caracteriza como sendo um

sistema distribuído (também conhecido como cluster) é a existência de um relacionamento

mais forte entre os seus componentes (processadores), onde geralmente (mas não

necessariamente) os sistemas operacionais são os mesmos, funcionando como um único

sistema centralizado. Um sistema Distribuído é formado por um conjunto de módulos

processadores interligados por um sistema de comunicação (cabos de rede ou canais de

transmissão de dados).

Como as aplicações são distribuídas, a redundância é uma grande vantagem, pois quando

há problema com um dos componentes (processador) outro assume a tarefa em questão.

Alguns fabricantes, juntamente com órgãos de padronização, definiram padrões para a

implementação de sistemas distribuídos. O Distributed Computing Enviroment (DCE), o

Common Object Request Broker Architecture (CORBA) e o Object Linking and Embedding

(OLE) são alguns dos padrões para o desenvolvimento de aplicações em ambientes

distribuídos.Copyright © 2007, ESAB – Escola Superior Aberta do Brasil 36

Um sistema de computo com arquitetura distribuída pode possuir um número ilimitado de

módulos autônomos para processamento, interconectados de tal forma que, para o usuário

final, o sistema todo se apresente como uma única máquina, no qual o controle geral é

implementado através da cooperação de elementos descentralizados. Uma rede de

computadores também pode (em teoria) estar formada por um número ilimitado de estações,

mas a independência dos vários módulos de processamento é preservada em razão da

tarefa de compartilhamento de recursos e troca de informações, em outras palavras, em uma

rede de computadores a troca de informações entre os diferentes computadores não é tão

elevada se comparada com um sistema de computo com arquitetura distribuída onde a

comunicação entre os diferentes processadores é crítica e extremamente elevada.

Lembrar que o objetivo de um sistema distribuído é comum para todos os módulos de

processamento, todos eles devem desenvolver tarefas intimamente relacionadas para um

determinado objetivo, daí que a comunicação entre todos os processadores do sistema deve

ser elevada e muito bem coordenada.

Um exemplo prático (e muito interessante) de um sistema distribuído é o projeto SETI

(Search for Extra Terrestrial Intelligence). O projeto SETI, desenvolvido pela Universidade de

Berkeley na Califórnia, é um experimento científico que utiliza o tempo ocioso dos

computadores conectados à Internet para seu

objetivo principal de procura por vida

inteligente extraterrestre. Qualquer pessoa

conectada à Internet pode participar basta

rodar o programa gratuito disponível no site

BOINC (http://boinc.berkeley.edu).

Basicamente, este programa permite que sua

máquina disponibilize o tempo ocioso dela para

fazer parte de projetos científicos, o projeto

esta constituído por diferentes protetores de

tela e é disponibilizado para as plataformas

Windows, MacOS, e Linux.

Conceitos Gerais

Introdução

Define-se como sistema o conjunto de objetos ou pessoas

intrinsecamente relacionados entre si para um determinado fim

ou propósito. Nesse sentido, uma rede de comunicações é um

sistema de dispositivos eletrônicos, objetos e pessoas

intrinsecamente conectadas tendo como objetivo básico o

compartilhamento de recursos uns com outros. As redes estão ao nosso redor, até mesmo

dentro de nós.

Nosso próprio organismo é uma rede interligada de órgãos. Na atual sociedade, as redes

estão presentes na comunicação (TV/Rádio, celular, Internet, telefone, compra com cartão de

crédito/débito), nas necessidades básicas (rede de esgoto, rede de energia elétrica, rede de

abastecimento de água) e na nossa vida social (relacionamentos, amizades, família). Enfim,

estamos e fazemos parte de várias redes.

Desde os primórdios a comunicação é uma das maiores necessidades da sociedade

humana. Portanto tornou-se um desafio aproximar as comunidades mais distantes e facilitar

a comunicação entre elas. Com a união dos computadores e das comunicações os sistemas

computacionais sofreram uma profunda mudança na sua organização.

Como dito inicialmente, as redes de computadores surgiram da necessidade de se

compartilhar recursos especializados para uma maior comunidade de usuários

geograficamente dispersos.

Histórico

As redes de computadores foram criadas inicialmente para suprir uma necessidade militar. A

década dos anos 60 foi um período de grande tensão entre as duas maiores potencias dessa

época, isto é, os Estados Unidos da América e a União Soviética. Os americanos iniciaram

programas de pesquisas para encontrar uma forma de interconectar os vários centros de

comando do país, de modo que o seu sistema de informações seja robusto, ou seja, que

continuasse funcionando mesmo que houvesse um conflito nuclear. Com o fim da guerra fria,

esta estrutura passou a ser utilizada para uso científico e educacional.

No Brasil, as universidades foram as primeiras a se beneficiarem com essa estrutura de

rede. Os serviços disponíveis restringiam-se a correio eletrônico e transferência de arquivos.

Somente em 1990, a Fapesp (Fundação de Amparo à Pesquisa de São Paulo) conectou-se

com a Internet. A partir de abril de 1995, o Ministério das Comunicações e o Ministério da

Ciência e Tecnologia decidiram lançar um esforço comum de implantação de uma rede

integrada entre instituições acadêmicas e comerciais. Desde então vários fornecedores de

acesso e serviços privados começaram a operar no Brasil.

A seguir estão algumas datas importantes na evolução das redes de computadores e dos

protocolos:

 1968 - Foi desenvolvido pela ARPA (Advanced Research Projects Agency) o primeiro

backbone. O objetivo desse projeto era interligar as universidades e também a área

militar.

 1975 - A DARPA (Defence Advanced Research Projects Agency) que deu lugar a

ARPA começou a desenvolver os protocolos TCP/IP.

 1979 – Foi formado um comitê para comandar o desenvolvimento desses protocolos.

Esse comitê se chamava ICCB - Internet Control and Configuration Board.

 1983 - A DARPA concedeu os direitos do código dos protocolos TCP/IP à

Universidade da Califórnia para que fosse distribuído em sua versão UNIX. A DARPA

pediu a todos os computadores que estavam conectados a ARPANET para que usassem os protocolos TCP/IP. Esses protocolos se difundiram rapidamente, em

razão de não ser um aplicativo comercial.

 1985 - A Fundação Nacional de Ciência dos Estados Unidos (NSF) criou a NSFNET,

que era uma rede de alta capacidade destinada a atender, tanto nos EUA como em

outros paises, as entidades científicas e de pesquisa.

 1989 - A ARPANET deu lugar a NSFNET, bem como o ICCB foi substituído pela

Internet Advisory Board (IAB). A IAB possuía dois grupos principais: o IRTF (Internet

Research Task Force) e o IETF (Internet Engeneering Task Force).

 1995 - Muitas redes foram criadas ou desenvolvidas objetivando a melhora do tráfego

de informações via Internet. Deu-se ainda nessa década a conexão de muitos setores

à Internet, visando prestar e obter serviços pela rede.

Evolução dos Sistemas de Computação

Na década de 50, computadores eram máquinas grandes e complexas, operadas por

pessoas altamente especializadas. Usuários enfileiravam-se para submeter suas leitoras de

cartões ou fitas magnéticas que eram processados em lote. Não havia nenhuma forma de

interação direta entre usuários e máquina.

Graças ao avanço na década de 60, foram desenvolvidos os primeiros terminais interativos,

que permitiam aos usuários acesso ao computador central através de linhas de

comunicação. Foi criado um mecanismo que viabilizava a interação direta com o

computador, e outros avanços nas técnicas de processamento deram origem aos sistemas

de tempo compartilhado (time-sharing), permitindo que várias tarefas dos diferentes usuários

ocupassem simultaneamente o computador central, revezando o tempo de execução do

processador.

Na década seguinte, foram feitas mudanças nos sistemas de computação, onde um sistema

único centralizado transformou-se em um de grande porte, que estava disponível para todos os usuários de uma determinada organização. Com o desenvolvimento dos

microcomputadores, tornou-se viável a instalação em locais distintos, pois não era mais

necessário concentrar esses equipamentos em determinada área específica.

Tornava-se então cada vez mais necessário que os dados ficassem armazenados em

sistemas de grande porte e centralizados e compartilhados e os periféricos interconectados.

Foi possível então trabalhar em ambientes de trabalho cooperativos interligando recursos

não só no âmbito industrial como no acadêmico.

Problemas de desempenho surgiram, mas em resposta foram criadas novas arquiteturas que

possibilitavam a distribuição e o paralelismo melhorando o desempenho, a confiabilidade e

modularidade dos sistemas computacionais.

Sistemas Operacionais de Rede

O Que é um Sistema Operacional de Rede

Basicamente, um sistema operacional de rede é um conjunto de módulos que ampliam as

tarefas dos sistemas operacionais locais, complementando-os com um conjunto de funções

básicas, e de uso geral, que tornam transparente o uso de recursos compartilhados da rede.

Portanto, um computador de rede tem o sistema operacional local interagindo com o sistema

operacional de rede, para que possam ser utilizados os recursos de rede tão facilmente

quanto os recursos na máquina local. Em efeito, o sistema operacional de rede coloca um

redirecionador entre o aplicativo do cliente e o sistema operacional local para redirecionar as

solicitações de recursos da rede para o programa de comunicação que vai buscar os

recursos na própria rede.

O sistema operacional de rede, portanto, controla os sistemas e dispositivos dos

computadores em uma rede e permite que se comuniquem uns com os outros. Normalmente

o modelo de operação do sistema operacional de rede é o modelo Cliente/ Servidor, ou seja,

o ambiente onde o processamento da aplicação é compartilhado com outro cliente (que

solicita um serviço) e um ou mais servidores (prestam esses serviços). Os tipos de

arquiteturas para sistemas operacionais de rede podem ser:

 Peer-to-Peer: Nestas redes todos poderiam ser (ou não) servidores, mas certamente

todos são clientes, normalmente neste tipo de redes os servidores são não dedicados,

mas nada impediria o contrario.

 Cliente/Servidor: Nestas redes podem existir dois tipos:

o Servidor Dedicado

o Servidor não Dedicado

No caso dos sistemas Cliente/Servidor o sistema cliente possui características mais simples,

voltadas para a utilização de serviços, enquanto que o sistema do servidor possui maior

quantidade de recursos, com o único propósito de serem disponibilizados aos clientes da

rede. Os sistemas baseados em Unix são potencialmente clientes e servidores, sendo feita a

escolha durante a instalação dos pacotes, enquanto que os sistemas Windows, existem

versões clientes (Windows 2000 Professional, Windows XP) e versões servidores (Windows

2000 Server, Windows 2003 R2 e Windows 2008 Server). A seguir os principais sistemas

operacionais de rede.

Sistemas UNIX

O sistema UNIX foi criado nos Laboratórios Bell em 1970 por Ken Thompson, Dennis Ritchie

e Brian Kernigham, entre outros, para ajudar no controle dos projetos internos do próprio

laboratório. Era um sistema básico e voltado principalmente para programadores e cientistas.

Durante o ano de 1975, Ken Thompson quando trabalhava como professor assistente na

Universidade da Califórnia, em Berkeley, continuou a desenvolver o sistema UNIX projetado

inicialmente nos laboratórios da Bell (Bell Lab). Este desenvolvimento foi tomado pelos

outros professores e alunos, que desenvolveram uma série de melhorias no sistema original.

Estas melhorias geraram um sistema operacional com algumas diferenças em relação ao

sistema UNIX do Bell Lab. e passou a ser conhecido como o "UNIX de Berkeley". Algumas

empresas começaram a comercializar esta versão do sistema operacional, sendo a mais

conhecida a versão chamada SunOS da Sun Microsystems.

Em 1979, a AT&T resolveu lançar comercialmente o UNIX. Esta versão ficou sendo

conhecida como "Versão 7". Após algum tempo, em 1982, alguns problemas da versão 7 Copyright © 2007, ESAB – Escola Superior Aberta do Brasil 19

foram corrigidos e foi lançada a versão chamada de "System III" (Sistema Três). A partir

deste ponto, houve uma evolução paralela de dois "tipos" de UNIX. Uma comercializada pela

AT&T e outra proveniente da Universidade da Califórnia.

Até 1983, o uso do UNIX estava principalmente voltado para aplicações científicas, sendo o

sistema mais utilizado no meio acadêmico. Neste ano, a AT&T resolveu agregar uma série

de características e facilidades, visando assim, o usuário comercial. Este procedimento

sempre encontrou barreiras, pois o usuário comercial achava que o UNIX era por demais

científico e nada user friendly (amigável), sendo só usado por programadores e cientistas. A

versão comercial ficou sendo conhecida como "System V" (Sistema Cinco).

A partir de 1989 foram formados pelas maiores empresas na área de computação dois

grandes consórcios, visando uma unificação e padronização de todos os sistemas UNIX

existentes no mercado. Esta padronização é necessária para que se tenha uma portabilidade

de todas as aplicações desenvolvidas para UNIX, dando assim uma força maior de

penetração do UNIX no mercado comercial. Ao contrário do que aconteceu no Brasil, onde o

UNIX foi um substituto para minicomputadores e movia basicamente sistemas multiusuários

com terminais burros, no exterior o UNIX era o sistema High-end, de alto desempenho, em

redes e gráfico, só encontrando alguma concorrência no NT.

Sistemas Distribuídos

Assim como nos sistemas operacionais de rede, cada estação (de um sistema distribuído)

também possui seu próprio sistema operacional, mas o que caracteriza como sendo um

sistema distribuído (também conhecido como cluster) é a existência de um relacionamento

mais forte entre os seus componentes (processadores), onde geralmente (mas não

necessariamente) os sistemas operacionais são os mesmos, funcionando como um único

sistema centralizado. Um sistema Distribuído é formado por um conjunto de módulos

processadores interligados por um sistema de comunicação (cabos de rede ou canais de

transmissão de dados).

Como as aplicações são distribuídas, a redundância é uma grande vantagem, pois quando

há problema com um dos componentes (processador) outro assume a tarefa em questão.

Alguns fabricantes, juntamente com órgãos de padronização, definiram padrões para a

implementação de sistemas distribuídos. O Distributed Computing Enviroment (DCE), o

Common Object Request Broker Architecture (CORBA) e o Object Linking and Embedding

(OLE) são alguns dos padrões para o desenvolvimento de aplicações em ambientes

distribuídos.Copyright © 2007, ESAB – Escola Superior Aberta do Brasil 36

Um sistema de computo com arquitetura distribuída pode possuir um número ilimitado de

módulos autônomos para processamento, interconectados de tal forma que, para o usuário

final, o sistema todo se apresente como uma única máquina, no qual o controle geral é

implementado através da cooperação de elementos descentralizados. Uma rede de

computadores também pode (em teoria) estar formada por um número ilimitado de estações,

mas a independência dos vários módulos de processamento é preservada em razão da

tarefa de compartilhamento de recursos e troca de informações, em outras palavras, em uma

rede de computadores a troca de informações entre os diferentes computadores não é tão

elevada se comparada com um sistema de computo com arquitetura distribuída onde a

comunicação entre os diferentes processadores é crítica e extremamente elevada.

Lembrar que o objetivo de um sistema distribuído é comum para todos os módulos de

processamento, todos eles devem desenvolver tarefas intimamente relacionadas para um

determinado objetivo, daí que a comunicação entre todos os processadores do sistema deve

ser elevada e muito bem coordenada.

Um exemplo prático (e muito interessante) de um sistema distribuído é o projeto SETI

(Search for Extra Terrestrial Intelligence). O projeto SETI, desenvolvido pela Universidade de

Berkeley na Califórnia, é um experimento científico que utiliza o tempo ocioso dos

computadores conectados à Internet para seu

objetivo principal de procura por vida

inteligente extraterrestre. Qualquer pessoa

conectada à Internet pode participar basta

rodar o programa gratuito disponível no site

BOINC (http://boinc.berkeley.edu).

Basicamente, este programa permite que sua

máquina disponibilize o tempo ocioso dela para

fazer parte de projetos científicos, o projeto

esta constituído por diferentes protetores de

tela e é disponibilizado para as plataformas

Windows, MacOS, e Linux.

...

Baixar como  txt (28.3 Kb)  
Continuar por mais 16 páginas »