Ir ao conteúdo
  • Cadastre-se

aziebert

Membro Pleno
  • Posts

    353
  • Cadastrado em

  • Última visita

Reputação

167
  1. FYI a Dell lançou um monitor G-SYNC bem parecido com o ROG SWIFT e já está disponível no Brasil: http://accessories.la.dell.com/sna/productdetail.aspx?c=br&l=pt&s=dhs&cs=brdhs1&sku=210-AGJR
  2. O SWIFT casa muito bem com uma GTX 980 Ti. 4K precisa do SLI e ainda é limitado a 60Hz. Entre um SLI de 980 Ti e um monitor 4K a 60Hz ou apenas uma 980 Ti com um SWIFT eu acho a segunda opção muito melhor
  3. Como o sdriver respondeu, um monitor de 144Hz se G-SYNC trabalha sempre a 144Hz, independente do frame rate do jogo. O que por si só (mesmo sem G-SYNC) já ajuda bastante, pois cada varredura de tela é mais rápida (dura 7ms em vez de 16ms), portanto o tearing é menos visível e o tempo de resposta é menor. Agora, para um SLI de GTX 980 Ti eu acho que um monitor Full HD, mesmo de 144Hz é um desperdício, é melhor partir logo pra 4K, pois esse conjunto vai conseguir manter mais de 60FPS em 4K com tudo no máximo na grande maioria dos jogos. Quanto à sua dúvida, sdriver; você pode escolher se quer que o driver limite o processamento ao limite do monitor (144fps no caso) ou deixar o jogo correr solto e apresentar tearing, como um monitor normal, caso o jogo rode a uma taxa maior que a atualização do monitor.
  4. @Correr, aqui estão listados todos os modelos http://www.geforce.com/hardware/technology/g-sync/where-to-buy-g-sync-monitors-and-modules No Brasil estão disponíveis o Philips 272G5 e o Asus ROG SWIFT http://www.megamamute.com.br/produto/monitor-gaming-wled-27-wqhd-144hz-com-g-sync-rog-swift-pg278q-asus-75131 http://www.kabum.com.br/produto/61238/monitor-philips-led-27-widescreen-gamer-nvidia-vesa-3d-vision-ready-display-port-272g5dyeb-57/?tag=monitor%20philips
  5. Eu que agradeço o espaço para poder esclarecer essas diferenças. O G-SYNC é uma tecnologia que pela qual me apaixonei instantaneamente, não só pelos benefícios, mas porque me permitiu entender melhor o funcionamento do sistema. E muita gente o desmerece por achar que os problemas de tearing e stutter só se manifestam em alguns casos, quando na verdade na maior parte do tempo você fica preso a um ou outro, o raro é tudo funcionar corretamente. Tearing não existe só quando o jogo roda a um frame rate maior que o refresh do monitor, mas SEMPRE que o v-sync está desligado (alias, 60fps com v-sync desligado é uma das piores experiências que existem pois a "tear line" fica sempre no mesmo lugar da tela). E ao ligar o v-sync o comportamento do sistema muda muito, pois cada frame vira uma corrida contra o tempo e se não for concluído no prazo (o intervalo de 16ms de um refresh de 60Hz, por exemplo) ele necessariamente terá que esperar até a atualização seguinte, não importa se o frame ficou pronto 1 ou 15ms após o prazo inicial/previsto. Assim você acaba jogando a 30fps a maior parte do tempo e com um input lag medonho, o que é péssimo principalmente para jogos que usam o mouse para movimentar a câmera (seja em 1a ou 3a pessoa), pois há um grande intervalo de tempo entre o movimento realizado e o resultado disso na tela. Com o G-SYNC dá pra aproveitar ao máximo o desempenho da GPU e ter uma excelente experiência sempre. Eu preparei um demo uma vez que mostrava bem isso. Uma GTX 760 roda o Batman Arkham Origins a quase 60fps com tudo no máximo. Para usar o v-sync e garantir os 60fps seria necessário desativar alguns detalhes. Enquanto que o jogo rodando a perto de 60fps com v-sync desligado provocava muito tearing. Com o G-SYNC é possível jogar tranquilamente a 57fps, por exemplo, com tudo no máximo. E ainda trouxe um benefício adicional de dar um melhor tempo de resposta, você sente o mouse mais "conectado" ao movimento de câmera; o que torna a experiência ainda mais satisfatória. Isso fica ainda mais evidente quando o jogo roda a mais de 60fps. Você pode não conseguir ver a diferença simplesmente olhando para um vídeo de 60, 90 ou 120fps, mas dá pra sentir isso jogando, o que acaba se tornando uma vantagem competitiva e colabora para deixar teus sentidos mais "aguçados".
  6. Meus queridos, embora ambas tecnologias tenham os mesmos objetivos, elas funcionam de formas um tanto diferentes, então gostaria de aproveitar o espaço para esclarecer um pouco isso. Quando a NVIDIA desenvolveu o G-SYNC não havia um padrão nem scallers que permitissem o controle da taxa de atualização de forma variável. Então em vez de esperar até que todas as peças estivessem no lugar ela resolveu desenvolver um módulo que não só permitisse isso, como também mais alguns recursos que simplesmente não seriam possíveis de outro modo e de quebra garantindo compatibilidade com as GPUs já disponíveis no mercado (todas Kepler em diante que tenham displayport). O módulo possui um "processador" FPGA (o que permite que o próprio projeto do "chip" seja atualizado) e generosos 768MB de memória, o que permite armazenar alguns quadros completos, sem compressão, o que facilita a análise deles para calcular não só a cor de cada pixel/sub-pixel, mas principalmente o nível de de overdrive, para eliminar o efeito ghosting. Algo que ainda afeta os monitores freesync, justamente porque os scallers não tem poder de processamento suficiente para calcular corretamente o overdrive em um cenário de refresh variável. (calcular o overdrive em refresh estático é fácil, fazer isso quando você não sabe quando o próximo frame vai chegar é que são elas...) Outro ponto onde as duas tecnologias divergem de forma significativa é a estratégia tomada no limite inferior do painel. A maioria dos painéis de LCD tem um "limite inferior" na taxa de atualização ao redor dos 35Hz. Ou seja, não podem ficar mais de uns 28ms sem sofrer atualização, caso contrário a imagem começará a desaparecer e isso é percebido pelo usuário como flicker (por mais que o backlight seja constante, o próprio painel sofreria uma variação na quantidade de luz que deixa passar). Para evitar que isso aconteça, o freesync reverte para v-sync ligado ou desligado quando o frame rate do jogo cai para um ritmo menor que o limite inferior do painel, trazendo de volta os problemas que ele deveria resolver (tearing com v-sync desligado ou stutter com v-sync ligado) que ficam ainda mais evidentes devido à baixa taxa de atualização (o tearing ou o stutter ficam ainda mais pronunciados porque o painel estará trabalhando a 40Hz, por exemplo). Enquanto isso o G-SYNC adota uma estratégia mais eficiente, ele re-escreve a tela para evitar que o painel perca carga. O usuário não vê essa varredura já que a imagem não muda e isso evita que haja flicker. E essa varredura é feita em um intervalo intermediário, tomado pela média do intervalo dos últimos quadros. Para evitar que essa varredura conflite com a chegada do próximo frame. (o que pioraria o tempo de resposta, pois atrasaria a exibição da nova imagem). Fora isso a NVIDIA vem integrando mais funções ao módulo, como o ULMB, a mira que pode ser projetada na tela e, recentemente, overclock do painel; o que permite que um monitor com painel certificado para 75Hz possa trabalhar a até 100Hz, por exemplo. Tudo de forma fácil, acessível pelo painel do próprio monitor, sem depender de um programa instalado no PC por exemplo.
  7. Por enquanto não há nenhuma informação sobre um FX baseado em Steamroller, ou mesmo sobre um FX baseado no Piledriver com as melhorias feitas no Richland... O Kaveri é bem interessante e é bom ver a AMD, finalmente, colocando todo o foco na plataforma das APUs (enquanto hoje ainda temos CPUs AM3 e AM3+ tirando foco das APUs). Futuramente pode ser interessante eles lançarem uma APU FX.
  8. A ideia é que alguns notebooks usem memórias GDDR5 (em vez de DDR3) como memória RAM. Assim como é feito no PS4. O custo de uns 8GB de GDDR5 não é absurdo, o único problema é que o sistema não teria espaço para upgrades (as GDDR5 precisam vir soldadas na placa, não dá pra fazer módulos de memória). Porém nos ultrabooks isso não é tanto problema (a maioria já não oferece espaço pra upgrades)
  9. @EL ETRO já foi confirmado que a GPU do Kaveri tem 512SPs.
  10. aziebert

    Intel Haswell

    Comparando o die do Haswell quad core com GT2 com o Haswell quad core com GT3 o tio Anand estima que a GT3 ocupe cerca de 174mm^2 dentro do die de 264mm^2 ou cerca de 65%. Isso é uma proporção maior até do que a AMD aloca para a GPU dentro do Trinity (não estou achando números exatos agora, mas se não me engano a GPU representa cerca de 60% do chip), por exemplo, sem falar que o chip é maior (o Trinity tem 246mm^2). E interessante que o Crystalwell é um cache L4, serve tanto para a CPU quanto para a GPU e "particiona" dinamicamente quanto dos 128MB serão reservados para cada, para os dados de um não "sujarem" os do outro e também para não limitar sua utilidade caso um dos dois (CPU ou GPU) não esteja em uso. Só achei estranho que a banda ainda é meio baixa ("apenas" 50GB/s) e que ele não é usado como frame buffer, o que (imagino) permitiria economizar bastante energia... A Intel ainda não deu um "all in" com o Crystalwell (ela poderia ter usado eSRAM em vez de eDRAM, como a MS/AMD fez no SoC do Xbox One, e usado o melhor processo de fabricação possível, o mesmo em que o Haswell é feito); mas para uma primeira versão o resultado é muio bom, tanto pelos ganhos de performance (a GT3e é competitiva com a GT650M em vários cenários) quanto pela eficiência energética.
  11. sirroman, a NVIDIA está desenvolvendo o Denver, um núcleo ARM v8 (64 bits) próprio de alto desempenho, para competir com o Cortex A57 (e a próxima geração da Qualcomm). A ideia é lançar Teslas e Tegras com esse núcleo (+GPU Maxwell). Smartphones não, tablets sim.
  12. jonny, a própria Sony anunciou que uma das vantagens do PS4 é o endereçamento unificado de memória entre CPU e GPU
  13. Temash A6 1450 é 1GHz com Turbo para 1.4GHz Substituto do C-60 Não sei se ser quad core ajuda nesse caso... http://www.cpu-world.com/CPUs/Jaguar/AMD-A6-Series%20A6-1450.html
  14. Sirroman, a AMD deve falar em mais detalhes no próximo Hotchips, mas pelo que eu vi, na APU do PS4 os 8 núcleos estão organizados em dois grupos de 4, cada grupo com seu cache L2; do mesmo jeito que os 4 núcleos do Kabini. E tudo indica que a GPU é uma Pitcairn completa mas com duas CUs desabilitadas (para garantir a produção mesmo que os chips apresentem pequenos defeitos). A APU é semi custom no sentido de que não foi necessário desenvolver tudo, mas foi necessário desenvolver um chip novo a partir de blocos já existentes. Por mais que esses blocos já existiam, foi necessário desenvolver toda a "cola" para grudá-los (a parte "uncore" do chip) e ainda deve haver tecnologia da Sony integrada dentro do chip. (3rd party IP)
  15. Não deve ser FM2 porque a APU do PS4 deve ser um SoC (System on a Chip, integra tudo, até o chipset, no mesmo chip). Provavelmente nem terá socket, deve ser BGA (soldado na placa). E deve ser bem inferior ao PS4 porque deve ser em capado (chips defeituosos)...

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...