TrabalhosGratuitos.com - Trabalhos, Monografias, Artigos, Exames, Resumos de livros, Dissertações
Pesquisar

A Segurança de Sistemas

Por:   •  29/9/2019  •  Trabalho acadêmico  •  707 Palavras (3 Páginas)  •  101 Visualizações

Página 1 de 3

GPU Computing in medical physics: A review

Nos últimos trinta anos, os processadores single-core de uso geral desfrutaram de uma duplicação de seu desempenho a cada 18 meses (Ley de Moore), um feito possibilitado pelo pipeline superescalar, aumentando o paralelismo de nível de instrução e a freqüência de clock mais alta.

Essas características aumentaram o entusiasmo em muitas disciplinas, como álgebra linear, equações diferenciais, bancos de dados, mineração de dados, biofísica computacional, dinâmica molecular, dinâmica de fluidos, imagens sísmicas, física de jogos e programação dinâmica. Na física médica, a capacidade de realizar computação de propósito geral na GPU foi demonstrada pela primeira vez em 1994, quando um grupo de pesquisa da SGI implementou a reconstrução de imagem em uma estação de trabalho Onyx usando o RealityEngine.

Um processador single-core em 2004 poderia executar a reconstrução de imagem 100 vezes mais rápida do que em 1994, e tão rápida quanto a implementação de hardware gráfico. No entanto, o desempenho de processadores single-core recentes sugere que a duplicação período pode agora ser de 5 anos. Como resultado, os fornecedores mudaram para arquiteturas multicore para continuar melhorando o desempenho de suas CPUs, uma mudança que deu um forte incentivo para os pesquisadores considerarem a paralelização de seus cálculos.

A maioria das aplicações computacionais analisadas nesta pesquisa pode ser formulada como multiplicações matriciais vetoriais. Quando possível, eles usam memória compartilhada para minimizar as transferências de dados custosas para e da memória global ou coalescem transações de memória global.

Outra questão é que as implementações de GPU atualmente publicadas tendem a superestimar a aceleração que alcançam comparando implementações de GPU otimizadas com implementações de CPU single-threaded não-automatizadas.

Um problema complicado é que em grandes pacotes de software, partes substanciais do código são seqüenciais e não podem ser aceleradas pelas GPUs, o que limita a aceleração geral que as GPUs podem alcançar.

Enquanto muitos desenvolvedores foram levados para a GPU porque eles não estavam mais recebendo uma carona da lei de Moore, outros simplesmente acharam a GPU um dispositivo fascinante que, nos primeiros dias, apresentava uma nova fonte de poder computacional que poderia ser aproveitada por engenhosamente programar o pipeline gráfico.

Introdução a computação paralela com OpenMPI

Um dos grandes desafios da Ciência da Computação atualmente é viabilizar soluções computacionais que reduzam o tempo de processamento e forneçam respostas ainda mais precisas.

Uma das grandes áreas que se dedica a propor tais melhorias é a computação paralela e de alto desempenho, que tem como base várias subáreas da Ciência da Computação, como por exemplo, arquitetura de computadores, linguagens de programação, compiladores, teoria da computação e computabilidade, recebendo ainda influências de várias outras áreas, tais como computação gráfica.

Técnicas que otimizem o tempo de processamento, algoritmos mais eficientes e computadores mais rápidos abrem novos horizontes possibilitando realizar tarefas que antes eram inviáveis ou mesmo levariam muito tempo para

...

Baixar como (para membros premium)  txt (4.9 Kb)   pdf (36.7 Kb)   docx (8.9 Kb)  
Continuar por mais 2 páginas »
Disponível apenas no TrabalhosGratuitos.com