manboipig
|
29-08-08, 18:14
#2
cabei de ver novéio, ioaheioaheioa massa pra caralho, bem tipico deles mesmo
|
Banned
|
29-08-08, 18:15
#3
roulixit
|
Trooper
|
29-08-08, 18:17
#4
ah.
a do Leonardo ainda é melhor |
Trooper
|
29-08-08, 18:31
#5
euHUEHuehUHEU só um pouco
|
Trooper
|
29-08-08, 18:42
#6
Acabei de ver no Adrenaline iuaheuiae.
Isso foi feito num evento da nVidia, o nVision, eles tavam comparando CPU com GPU iuaheiae |
Trooper
|
29-08-08, 20:39
#7
Eu sinceramente não sei qual a diferença, alguém explica?
|
🌀 Trooper
|
29-08-08, 20:41
#8
engraçado foi um cara gritando "IT'S NOT HER!"
|
Trooper
|
29-08-08, 20:50
#9
uahuehauehuaheuahe
muito foda |
Trooper
|
29-08-08, 21:21
#10
to na mesmo do ww
|
Trooper
|
29-08-08, 21:39
#11
É a briga atual que tá rolando entre a Intel e a nVidia. Intel diz que CPU é mais importante do que GPU, nVidia diz que GPU é mais importante do que CPU e por aí vai.
Eu tô mais pro lado da nVidia, GPU FODA > CPU FODA. |
Trooper
|
29-08-08, 21:57
#12
Quote:
vc poderia me dar uma breve explicaçao sobre a diferença dos 2 neh |
|
The real (1)
|
29-08-08, 22:04
#13
AEYAEUAUHEa
que loco |
Trooper
|
29-08-08, 22:07
#14
eu vou dar um parecer tosco
acho que GPU é a força de processamento grafico e CPU é pra processamento de calculo mesmo. Dependendo do que voce for usar e do jogo, é mais importante voce ter um processamento grafico forte (usando assassins creed como exemplo), mas tem outros que voce precisa de mais CPU (no caso de jogos tipo cs/tf2 onde um otimo processador ja ajuda mto voce a jogar). Acho que é uma discussao meio do tipo "politica e religiosa"... vai de cada um |
Trooper
|
29-08-08, 22:21
#15
esqueci de por isso, mas caso eu tenho falado alguma merda, por favor me corrijam (é com G?). Acho que fui bem superficial na minha comparaçao
|
Trooper
|
29-08-08, 22:30
#16
Ok, vou dar uma nova visão pro debate. Lembrando qeu eu sou noob.
Que CPU é central processing unit, um processador, todo mundo sabe. Eles vem em dois, tres, quatro núcleos comercialmente, e a intel produziu um de uns 80, no máximo, até agora. Eles são MUITO mais potentes para problemas parelelizaveis - e muitos problemas, especialmente os mais simples, nao sao. Wikipedia on it. Uma GPU é uma Graphic processing unit, placa de vídeo. Ok? Ela é especificamente construída para fazer cálculos DE CERTO TIPO muito mais rápido, e a função principal é tacar uma que, trabalhando em conunto com teu CPU, faz tu poder jogar Warcraft 3 na velocidade aceitável. Se teu CPU tivesse que processar TUDO ele ia se peidar. Como a GPU processa todos os calculos de vetorizacao e etc etc, o CPU só preocupa com tarefas que desempenha melhor e assim o jogo roda susse. O debate todo surge quando entram na jogada os GPGPUS - general purpose GPUs. Isso surgiu porque nego descobriu que wtf, é só juntar umas GPUs aqui e ali, alterar um caralhaço de coisas (talvez nem tantas) e PRESTO, temos um superpoder de processamento. Talvez voces tenham lido porae que os computadores mais rapidos do mundo usam trecos de playstation, suponho que sejam as GPUs de plays 3. Assim, ninguem sabe o que será o futuro do processamento. GPGPUS? Processadores de muitos-core? Existem ainda outros tipos de placas de processamento que sao ate configuraveis (a nivel de hardware) atraves de software, como é o caso do CRAY X alguma coisa que um cara da minha faculdade vai fazer o TG em cima (tem dois no Brasil), onde eles só tacam um modulozinho de expansao em cada blade do processador e atraves de software-meio-termo podem configurar o HARDWARE pra ser melhor pra certos tipo de calculo. It's all very crazy, indeed. Eu, pessoalmente, acho que GPGPU's tem potencial pra ownar, mas como eu disse no começo, eu sou noob. Nem li nada aqui, mas sei que existe: http://www.gpgpu.org/ edit: só li o negocim do lado ali, agora, e posto aqui proces verem Quote:
|
|
Forever Young
|
29-08-08, 23:01
#17
é, mas, por enquanto, uma máquina com GPU mas sem CPU não há funcionamento.
|
Trooper
|
29-08-08, 23:32
#18
Fato, mas a questão é
Pra que um CPU de mais do que 3.4ghz? Pra que dual core? Coloca uma GPGPU atracada ali, tudo que der pra paralelizar será paralelizado, o que não der vai ser processado mais rápido de qualquer forma... |
Trooper
|
29-08-08, 23:46
#19
Então, a briga da Intel com a nVidia é que a Intel diz ser MUITO mais importante ter uma CPU foda e uma GPU Mid-end, quando a nVidia diz que um CPU regular é o suficiente, se vc tem uma GPU fodona.
E de fato a nVidia tem razão, uma vez que foram realizados vários testes e que o ganho de CPU em certo ponto é mínimo, já alterando a GPU muda bastante. |
Pit
|
30-08-08, 00:19
#20
Pra entender o video, basta saber que processador são poucos nucleos com alto poder de processamento e GPU são MUITOS nucleos com poder de processamento menor e mais especializado.
Estabelecendo o paralelo com o video, CPU é o canhão que da um tiro gigante, mas somente um tiro por vez (single core nesse exemplo). Jã o gpu, da inúmeros tirinhos ao mesmo tempo e formam um resultado especializado (uma pintura) em mto menos tempo e com mais qualidade (numero de cores, etc). Um artigo legal para contribuir com o assunto: University of Antwerp makes 4000EUR NVIDIA supercomputer http://www.dvhardware.net/article27538.html E um fundamental pra quem quer saber oq anda rolando sobre utilizar GPU para outros fins: CUDA (Compute Unified Device Architecture) http://en.wikipedia.org/wiki/CUDA |
#NPNÃO
|
30-08-08, 00:52
#21
|
Forever Young
|
30-08-08, 00:56
#22
CPU e GPU são 2 coisas distintas, cada um pra uma função.... um não vive sem o outro.
|
Trooper
|
30-08-08, 01:00
#23
interessante esse negócio de gpu x cpu. Nunca tinha ouvido falar.
fiquei interessado agora |
Trooper
|
30-08-08, 02:10
#24
vou tentar explicar em poucas palavras, complementando o PitBicha
PPS: nao foram em poucas palavras, mas acho q ficou bem newbie-friendly a CPU segue um modelo de maquina de "fluxo de instrucoes": vc tem um bloco de memoria com um conjunto de instruções, e uma regiao com dados que podem ser acessadas livremente pelas instruções. essas instruções sao executadas sequencialmente, alterando o estado da regiao de dados como elas bem quiserem, de forma sequencial a GPU segue um modelo de maquina de "fluxo de dados": vc tem um conjunto de instruções e um conjunto de blocos de dados. as instruções NAO PODEM alterar livremente o conteudo dos blocos de dados. agora, considerando q os blocos tenham por exemplo 512 bytes, e vc tenha 512 processadores. 1) digamos q vc tenha 4 blocos de dados, sendo q vc pega 2 deles para dar aos processadores. 2) agora cada processador vai ser dono de 1 byte em cada bloco, por exemplo: o primeiro byte do bloco 1 e mais o primeiro byte do bloco 2 pertencem ao primeiro processador.. o segundo byte de ambos os blocos pertencem ao segundo processador.. assim por diante. 3) os processadores vao executar as mesmas instruções, sendo que eles podem acessar livremente o conteudo dos 2 blocos que NAO foram associados aos processadores 4) os processadores podem escrever APENAS nos bytes os quais eles possuem.. em todos os blocos q foram reservados para os processadores o 4 garante que nao vai ter problema de concorrencia.. o cara soh pode escrever ali e deu, como SOH ele pode escrever ali, nao tem problema de sobrescrever o trabalho do outro o 3 garante q vc pode ter certeza doq vc vai ler. nao tem problema de ler enqt um cara tah escrevendo ou seja, o 3 e 4 garantem q nao vao existir os classicos problemas de exclusao mutua em programação paralela, ou seja, nao tem overhead de semaforos, mutex, etc dito isso, a GPU fica ABSURDAMENTE mais rapida pra CPU pra processamento grafico, pq quase todos os algoritimos se enquandram nessa caracteristica: vc quer executar A MESMA COISA para TODOS OS PIXELS. por exemplo, se eu quero fazer um blend com 2 imagens, o processador soh se importa com o pixel q ele tah escrevendo.. ou mesmo para fazer um blur, a entrada eh um bloco 3x3 (por ex) da imagem fonte, mas a saida eh soh 1 pixel com CPU de 8 cores, por exemplo, por ser orientada a instrução, aquelas premissas 3 e 4 nao existem, 2 cpus podem querer acessar a mesma regiao de memoria.. dae uma tem q esperar pela outra.. e a CPU eh um canhao, extremamente complexo por causa da arquiteturação orientada a instrução e a propaganda da nvidia eh essa: a GPU eh mais barata e mais rapida, entao usem GPUs a vantagem eh obvia (dps doq eu falei), a desvantagem eh q nem todo algoritimo consegue respeitar essas premissas PS: qd eu disse 512 processadores, um para cada byte, eh claro q isso eh um nivel de abstração pra facilitar a explicação.. as GPUs fodas devem ter 256 ou 512 processadores mesmo, mas costuma ser de 32 a 128 PPPS: se vc tem 500 unidades no starcraft com 5 de hp, vc mandaria 100 zerglings com ataque 1, ou 8 battlecruisers com ataque 1000? PPPPS: note q nao dah nem pra fazer algoritimos recursivos com esse modelo q eu disse, afinal nao tem uma memoria pra livre acesso e de read/write (ou eh readonly ou writeonly), logo nao tem como salvar as variaveis da funcao Last edited by ZeroCarontE; 30-08-08 at 02:19.. |
Trooper
|
30-08-08, 03:28
#25
|
Trooper
|
30-08-08, 04:16
#26
|
Pit
|
30-08-08, 05:28
#27
zero, a intenção era pra que pessoas fora da area de info pudessem entender sem ficar entediados no meio do texto. uhdauhdasuhsad
Mas seu reply ficou otimo. Eu não adicionaria nada. Btw, o paralelo com SC foi a melhor parte pro pessoal entender. uhsadhudahuhud boa! |
Trooper
|
30-08-08, 12:35
#28
Nao sei se eu sei errado, Zero, mas que eu saiba tem uma diferença quanto ao que chamam de paralelizacao do problema e paralelizacao de calculo
Tipo, dado o problema "Saber uma informacao, calcular isso pra cada pixel, display na tela, ???, profit" paralelizar o problema (o algoritmo) seria poder buscar a informacao e calcular isso pra cada pixel AO MESMO TEMPO. Ou seja, fazer dois passos do algoritmo ao mesmo tempo. PRocessadores multicore seriam bons pra isso. Paralelizar o calculo seria poder fazer isso que voce disse. Sem paralelizar o problema, voce teria que primeiro buscar TODA a informacao, no meu problema exemplo, para depois fazer todos os calculos (so que esses seriam feitos todos "ao mesmo tempo"). To certo, errado, viajando? |
Trooper
|
30-08-08, 12:43
#29
Quote:
Quote:
Quote:
como eu disse antes, a GPU eh rapida pq existem restrições sobre oq vc pode rodar nela, nem tudo pode ser modelado seguindo o esquema dela e nao adianta rodar algo extremamente sequencial na GPU achando q vai ficar mais rapido de qq forma, vai ficar MUITO mais lento nesses casos vc vai ter um corredor de zealots com 500hp, e os 1000000 de zerglings vao ter q entrar nesse corredor 1 por 1.. o battlecruiser vale mais a pena |
|||
Trooper
|
30-08-08, 12:51
#30
Quote:
"buscar a informação" seria um acesso a memoria (a uma textura, no caso de GPU) e fazer o calculo seria sei lah, somar 1 no valor do pixel, e entao escrever na textura de saida (q podemos chamar de display) vc se preocupa em fazer isso para cada pixel, entao nao importa a ordem q os pixels vao ser gerados, importa q no final todos tenham sido escritos a jogada tah nessa parte de "o algoritimo nao requer ordem", por exemplo: for i = 0 to 1000: a[i] = a[i] + 3 na verdade nao importa a ordem desse for, o i pode ser escolhido aleatorio, DESDE q no final tds os i cubram tds os valores e apenas uma vez em linguagem funcional, um "frame" da gpu seria aplicar um MAP sobre uma textura, sendo o programa de gpu a funcao lambda a ser aplicada, e o resultado eh escrito na tela |
|
Trooper
|
30-08-08, 19:59
#31
Sim, tu entendeu a idéia, mas era pra considerar que obrigatoriamente deveriam ser calculados os pixels em certa ordem por blocos
AUhaUAH tá muito estranho isso Mas eu entendi o que tu quis dizer, me elucidou realmente (to começando a estudar isso só esse semestre, o que sabia até agora era por osmose) |
|
|