• Nenhum resultado encontrado

Arquitetura de GPUs Nvidia e Memória em Aplicações CUDA

N/A
N/A
Protected

Academic year: 2022

Share "Arquitetura de GPUs Nvidia e Memória em Aplicações CUDA"

Copied!
7
0
0

Texto

(1)

Arquitetura de GPUs Nvidia e Memória em Aplicações CUDA

Danilo Ehrhardt Ferreira Bento <danilo@bento.eti.br> - mestrando em Ciência da Computação no IME-USP -

orientador: Prof. Dr. Marco Dimas Gubitoso

2010-12-03

(2)

I

Processadores numéricos especializados em:

I transformações de vértices e matrizes

I tarefas de preenchimento de regiões

I

Eficientes:

I muitas operações pré-definidas para tarefas de processamento do pipeline de operações em gráficos 2D e 3D

I operações parametrizadas

I pouca ou nenhuma programabilidade

I

Capazes de explorar o grande paralelismo de aplicações de Computação Gráfica:

I grandes quantidades operações em grandes quantidades de dados

I a maoiria dados podem ser manipulados de forma independente, com pouca ou nenhuma dependência

(3)

GPUs atuais da Nvidia

I

Processadores numéricos:

I ainda muito eficientes para as operações de Computação Gráfica

I tiveram uma redução na área de operações pré-definidas, proporcionalmente

I ganharam programabilidade

I

Eficiência:

I ainda mantém as operações que são utilizadas para Computação Gráfica em 2D e 3D

I operações podem ser combinadas de forma mais flexível:

I possibilita o desenvolvimento de novos algoritmos

I traz efeitos que eram somente possíveis no processamento

"off-line" para a Computação Gráfica iterativa

(4)

I grande número de núcleos de processamento (cores) que cresce continuamente

I modelo SIMD simplifica o desenho dos processadores

I caminhos diferentes de execução (branches) diminuem significamente a ocupação dos cores

Data Pool

Instruction Pool

PU PU PU PU

SIMD

(5)

GPUs atuais da Nvidia

I

grande número de linhas de execução com pequeno custo de criação e troca de contexto (lightweight threads) em cada core

I pipeline (waves) procura maximizar a ocupação dos cores e ocultar latência de:

I acessos à memória

I operações que consomem muitos ciclos de processamento

(6)

I

Por core:

I registradores

I cada thread tem sua visão de registradores

I

Por multiprocessador (stream multi processor - SMP):

I memória compartilhada

I possibilita sincronismo entre cores do mesmo SMP

I não compartilhada entre SMPs I

Global:

I todos podem acessar

I alta latência

I instruções para sincronismo global disponíveis a um alto custo

(7)

Organização de memória na GPU

Referências

Documentos relacionados

Um serviço pode ser entendido também como as relações de negócios que acontecem entre um prestador do serviço e um cliente, ou pode representar a forma como a empresa deseja que os

[r]

Chamamos de matriz transposta de uma nova matriz obtida pela troca, ordenadamente , das linhas pelas colunas da matriz original. Indicamos essa

Quando utilizar o MULTI-SENSOR para conexão direta com a tubulação, ou escutar tubulações enterradas em superfícies macias ou que não sejam sólidas, você precisará

 Se uma oferta limitada for introduzida no livro de ofertas no qual existam ofertas ao mercado ou ofertas limitadas no outro lado então a oferta introduzida é executada con- tra

[r]

Barbosa-Póvoa, Pinho de Sousa, (2013), A new general discrete-time scheduling model for multipurpose batch plants, Ind. Barbosa-Póvoa, Pinho de Sousa, (2014) Simultaneous regular

Nota: Quando a unidade é utilizada com o controlo da temperatura ambiente (pelo controlo remoto ou termóstato externo de ambiente opcional), a temperatura ambiente