A Segurança de Sistemas
Por: Brocaneli • 29/9/2019 • Trabalho acadêmico • 707 Palavras (3 Páginas) • 102 Visualizações
GPU Computing in medical physics: A review
Nos últimos trinta anos, os processadores single-core de uso geral desfrutaram de uma duplicação de seu desempenho a cada 18 meses (Ley de Moore), um feito possibilitado pelo pipeline superescalar, aumentando o paralelismo de nível de instrução e a freqüência de clock mais alta.
Essas características aumentaram o entusiasmo em muitas disciplinas, como álgebra linear, equações diferenciais, bancos de dados, mineração de dados, biofísica computacional, dinâmica molecular, dinâmica de fluidos, imagens sísmicas, física de jogos e programação dinâmica. Na física médica, a capacidade de realizar computação de propósito geral na GPU foi demonstrada pela primeira vez em 1994, quando um grupo de pesquisa da SGI implementou a reconstrução de imagem em uma estação de trabalho Onyx usando o RealityEngine.
Um processador single-core em 2004 poderia executar a reconstrução de imagem 100 vezes mais rápida do que em 1994, e tão rápida quanto a implementação de hardware gráfico. No entanto, o desempenho de processadores single-core recentes sugere que a duplicação período pode agora ser de 5 anos. Como resultado, os fornecedores mudaram para arquiteturas multicore para continuar melhorando o desempenho de suas CPUs, uma mudança que deu um forte incentivo para os pesquisadores considerarem a paralelização de seus cálculos.
A maioria das aplicações computacionais analisadas nesta pesquisa pode ser formulada como multiplicações matriciais vetoriais. Quando possível, eles usam memória compartilhada para minimizar as transferências de dados custosas para e da memória global ou coalescem transações de memória global.
Outra questão é que as implementações de GPU atualmente publicadas tendem a superestimar a aceleração que alcançam comparando implementações de GPU otimizadas com implementações de CPU single-threaded não-automatizadas.
Um problema complicado é que em grandes pacotes de software, partes substanciais do código são seqüenciais e não podem ser aceleradas pelas GPUs, o que limita a aceleração geral que as GPUs podem alcançar.
Enquanto muitos desenvolvedores foram levados para a GPU porque eles não estavam mais recebendo uma carona da lei de Moore, outros simplesmente acharam a GPU um dispositivo fascinante que, nos primeiros dias, apresentava uma nova fonte de poder computacional que poderia ser aproveitada por engenhosamente programar o pipeline gráfico.
Introdução a computação paralela com OpenMPI
Um dos grandes desafios da Ciência da Computação atualmente é viabilizar soluções computacionais que reduzam o tempo de processamento e forneçam respostas ainda mais precisas.
Uma das grandes áreas que se dedica a propor tais melhorias é a computação paralela e de alto desempenho, que tem como base várias subáreas da Ciência da Computação, como por exemplo, arquitetura de computadores, linguagens de programação, compiladores, teoria da computação e computabilidade, recebendo ainda influências de várias outras áreas, tais como computação gráfica.
Técnicas que otimizem o tempo de processamento, algoritmos mais eficientes e computadores mais rápidos abrem novos horizontes possibilitando realizar tarefas que antes eram inviáveis ou mesmo levariam muito tempo para
...