Ir ao conteúdo
  • Cadastre-se

9800PRO 32bits


felipexavier

Posts recomendados

Postado Originalmente por felipexavier@13 nov 2004, 14:28

quando eu vou no painel de controle pra muda pra 256 bits aparece 32bits(maxima) sendo q a minha 9800pro é 256 o que que eu posso faze?

affe <_<:tantan:

tu ta confundindo largura de banda de memoria com profundidade de cores no windows :tantan:

assim:

256bits da placa= largura de banda de memoria

32bits no painel do win= profundidade de cores.

uma coisa não tem nada a ver com a outra.

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por Ichigeki+14 nov 2004, 04:04QUOTE (Ichigeki @ 14 nov 2004, 04:04) Irvin@13 nov 2004, 15:45

É isso e errando que se aprende, qualquer placa de 8 mega ja consegue gerar 32 bits de cores ate meu palm ja gera 16bit....

Nem todas. As finadas Voodoo 4 só suportam 16 bits de cores.

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por hmaqueda@14 nov 2004, 15:53

Quando será q os fabricantes irão implementar 64bits de cor nas placas e nos monitores... hehe vai ser bem mais real q apenas os 65535~6 cores :P

ue, eu achava que as "65535~6" cores ja é mais do que o olho humano consegue distinguir.

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por hmaqueda@14 nov 2004, 15:53

Quando será q os fabricantes irão implementar 64bits de cor nas placas e nos monitores... hehe vai ser bem mais real q apenas os 65535~6 cores :P

32 bits de cores são suficientes para o olho humano. Porém nas operações com shaders são usados 128 bits de precisão.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Postado Originalmente por hmaqueda@14 nov 2004, 15:53

Quando será q os fabricantes irão implementar 64bits de cor nas placas e nos monitores... hehe vai ser bem mais real q apenas os 65535~6 cores :P

Não há necessidade para isso, você errou quando disse 65.536, essa é a quantidade de cores em 16bits, se fôssemos levar em consideração as cores totais em 32bits, teríamos um total de 4.294.967.296, quer dizer, acho que nem as águias conseguiriam distinguir tantas cores diferentes, porém mesmo usando 32bits são exibidas "somente" 24bits de cor (16.777.216).

O olho humano só é capaz de distinguir (e muito mal) cerca de 10 milhões de tonalidades diferentes (e isso para as pessoas com as melhores visões).

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por Sombra_XXI+14 nov 2004, 19:00QUOTE (Sombra_XXI @ 14 nov 2004, 19:00) hmaqueda@14 nov 2004, 15:53

Quando será q os fabricantes irão implementar 64bits de cor nas placas e nos monitores... hehe vai ser bem mais real q apenas os 65535~6 cores  :P

Não há necessidade para isso, você errou quando disse 65.536, essa é a quantidade de cores em 16bits, se fôssemos levar em consideração as cores totais em 32bits, teríamos um total de 4.294.967.296, quer dizer, acho que nem as águias conseguiriam distinguir tantas cores diferentes, porém mesmo usando 32bits são exibidas "somente" 24bits de cor (16.777.216).

O olho humano só é capaz de distinguir (e muito mal) cerca de 10 milhões de tonalidades diferentes (e isso para as pessoas com as melhores visões).

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por T-X@14 nov 2004, 19:04

aproveitando o topico

existe diferença de performace em termos de velocidade entre 16bits e 32bits esquecendo os atributos graficos?

Sim, quanto mais cores forem necessárias processar, mais lento vai ser...

Nas placas atuais a diferença é infima.

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por Ichigeki+14 nov 2004, 04:04QUOTE (Ichigeki @ 14 nov 2004, 04:04) Irvin@13 nov 2004, 15:45

É isso e errando que se aprende, qualquer placa de 8 mega ja consegue gerar 32 bits de cores ate meu palm ja gera 16bit....

Nem todas. As finadas Voodoo 4 só suportam 16 bits de cores.

Link para o comentário
Compartilhar em outros sites

Bem, o olho humano não é capaz de notar mais de 16 milhões de cores, por isso 24bits é chamado true color.

Mas porque existe 32bits de cor?

32bits de cor também é chamado de true color, esse padrão só é usado, apesar de consumir mais memória de vídeo, porque para o processador gráfico é mais rápido processar uma textura em 32bits de cor que em 24bits de cor, como a quantidade de memória de vídeo nos PC's atuais é bem exuberante, optou-se pela velocidade.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Postado Originalmente por readme.txt@14 nov 2004, 19:02

edit: então porque usamos 32 e não 24 bits?

É um tanto coplicado de explicar o motivo, mas basta dizer que com 32bits é mais fácil para o processador gráfico fazer cálculos do que com 24bits, o que de certa forma é até simples entender.

Para chegar aos 32bits é necessário fazer o cálculo 2 elevado a 5, seria apenas uma base, já para 24bits, seria algo como 2 elevado a 4 + 2 elevado a 3, ou seja, haveria mais um passo de adição no meio dos milhares de cálculos existentes para a exibição de gráficos 3D, e creio que justamente por ficar um pouco mais complexo as empresas prefiram utilizar 32bits de cor.

Link para o comentário
Compartilhar em outros sites

Arquivado

Este tópico foi arquivado e está fechado para novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...