Categoria: Hardware

Auto Added by WPeMatico

  • Galax RTX 5090D HOF Edition com OC quebra todos os recordes do 3DMark, superando a 5090

    Galax RTX 5090D HOF Edition com OC quebra todos os recordes do 3DMark, superando a 5090

    A RTX 5090D tem reinado absoluta no ranking do HWBot para testes de benchmark com overclock extremo. Até o momento desta postagem, a placa aparece em primeiro lugar em todos os testes do 3DMark, além de alguns outros menos conhecidos também. E a explicação pode estar no modelo que tem sido usado para obter essas pontuações.

    Na geração atual de placas de vídeo para o segmento doméstico, tanto AMD como Intel decidiram não concorrer com a NVIDIA em modelos high-end. Assim, seria de se esperar que a RTX 5090 ficasse na frente em rankings de pontuação obtida com overclock. No entanto, é o modelo 5090D exclusivo para a China que tem se saído melhor.

    Fonte: HWBot

    O que chama a atenção neste caso é que a RTX 5090D é justamente uma 5090 “piorada”, para que a NVIDIA consiga permissão de vender a GPU na China. O segredo estaria no modelo customizado usado nos testes, a Galax HOF Edition.

    Captura do HWBot com recordes do 3DMark Vantage
    Fonte: HWBot

    Essa placa nem teve seu lançamento oficial ainda e já apareceu nas notícias no início de março, quando quebrou o recorde do 3DMark Speed Way. Como mostram as imagens neste post, agora a placa também fica na frente no Port Royal, Vantage Extreme, Time Spy Extreme e Fire Strike Extreme. Ela também leva vantagem no Unigine Superposition:

    Captura do HWBot com recordes do Unigine Superposition
    Fonte: HWBot

    Por que a Galax RTX 5090D HOF Edition fica na frente da RTX 5090?

    O grande diferencial deste modelo específico da RTX 5090D é a presença de dois conectores de 16 pinos para energia. Nos resultados recordistas podemos ver a GPU alcançando entre 1.500W a 1.600W no consumo de energia.

    Detalhes do hardware mostra RTX 5090D e 1600W no sistema
    Fonte: HWBot

    Obviamente, não basta oferecer tanta energia para uma placa sem tomar medidas para garantir que ela não vai queimar. É por isso que o PCB das Galax HOF Edition vem preparado para facilitar o uso de resfriamento por nitrogênio líquido (LN2), voltado para overclock extremo.

    Notícias relacionadas:

    A Galax RTX 5090D HOF Edition provavelmente continuará restrita à China em sua distribuição oficial. Segundo o Tom’s Hardware, no momento não existe uma RTX 5090 com dois conectores de 16 pinos, então é possível que os chineses continuarão dominando o ranking do HWBot por um bom tempo ainda.

  • ViewSonic lança monitor gamer 4K com taxa de atualização ajustável

    ViewSonic lança monitor gamer 4K com taxa de atualização ajustável

    A ViewSonic lançou seu mais novo monitor 4k Ultra HD para gamers: o XG275D-4K. Ele foi projetado com recursos exclusivos de funcionalidade e desempenho para gamers profissionais e entusiastas de jogos.

    Com um botão, os usuários podem selecionar taxas de atualização ultrarrápida de 320 Hz com resolução Full HD (1080p) ou 160 Hz em 4K Ultra HD. Essa funcionalidade entrega ao XG275D-4K um desempenho fluido e adaptável ao usuário que pode escolher entre taxa de aceleração ou gráficos melhores, conforme o jogo que estiver jogando.

    Notícias Relacionadas:

    Características Gerais

    O ViewSonic XG275D-4K é um monitor de 27 polegadas com resolução nativa 4K Ultra HD. Como já destacado, ele suporta taxas de atualização de até 320 Hz. O monitor também pode alternar para uma exibição de 24,5 polegadas para jogadores competitivos de FPS.

    Ele vem com duas entradas HDMI 2.1, sendo ideal para configurações com múltiplos dispositivos, desde Xbox e PS5 em Full HD até PCs em 4K. Também inclui uma porta USB-C com carregamento de 65W, permitindo manter outros dispositivos conectados durante o uso e uma conexão DisplayPort 1.4.

    O tempo de resposta MPRT de 0,5 ms e o XG275D-4K suporta AMD FreeSync Premium e NVIDIA G-SYNC. E o suporte é ergonômico com base compacta para posicionamento próximo de teclado e mouse.

    Outras características

    Créditos: ViewSonic.

    O monitor ViewSonic XG275D-4K usa um painel IPS, com luz LED e taxas de proporção 4:3, 5:4, 16:9 e 16:10. A vida útil da luz de fundo é estimada em 30.000 horas, no mínimo. Com curvatura plana, ele vem certificado para Windows 10/11.

    Ele também conta com a tecnologia Flicker-Free e uma solução de software para Low Blue Light. Além disso, ele vem com iluminação RGB, com os usuários podendo escolher entre uma paleta expansiva de cores e efeitos dinâmicos.

    Por fim, o monitor também conta com uma saída de áudio para fones.

    Fonte: ViewSonic.

  • Começa a pré-venda do Evo-X2, mini PC com Strix Halo que custa mais de US$ 2.000

    Começa a pré-venda do Evo-X2, mini PC com Strix Halo que custa mais de US$ 2.000

    A GMKTec começou a pré-venda do Evo-X2, seu novo mini PC equipado com um Ryzen AI Max+ 395, da série Strix Halo. Com distribuição prevista para as “próximas semanas”, esse deve ser o primeiro computador do tipo com a nova APU topo de linha da AMD oferecendo gráficos integrados avantajados.

    A pré-venda do Evo-X2 está disponível na China, pelo preço que a fabricante revelou anteriormente: 14.999 yuans. É o equivalente a US$ 2.052, ou R$ 12.164 na cotação atual. E esse ainda é um preço com desconto de pré-venda, porque o valor tabelado do produto seria de 15.799 yuans, que já vai para US$ 2.161, ou R$ 12.813.

    Fonte: JD

    O grande atrativo do mini PC é o Ryzen AI Max+ 395. Baseado em Zen 5, o processador traz 16 núcleos e 32 threads. Seu grande diferencial é a presença de uma Radeon 8060S para gráficos integrados, baseada em RDNA 3.5 com 40 Compute Units (CU). É em cima da iGPU que a AMD promove a linha Strix Halo em relação aos Strix Point, lançados anteriormente.

    Imagens do GMK Tec Evo-X2 em diferentes ângulos
    Fonte: VideoCardz

    O GMKTec Evo-X2 traz ainda 2TB de armazenamento e um total de 128GB de memória LPDDR5X em suas configurações mais avançadas. Isso porque a fabricante está apostando muito em IA para vender seu novo mini PC.

    Evo-X2 com Strix Halo promete ser o primeiro mini PC a oferecer 70B LLM

    Quem acompanha as novidades do mercado de mini PCs sabe que a GMKTec está promovendo o Evo-X2 como uma máquina para IA. Logo na revelação do preço, a empresa ressaltou que seu sistema compacto oferece performance total para inferência melhor do que uma RTX 5090D.

    Equipado com sua CPU Strix Halo e grande quantidade de memória, o Evo-X2 deve ser capaz de computação 70B LLM, o que significa dizer que ele é capaz de processar um modelo grande de linguagem (LLM) treinado com 70 bilhões de parâmetros.

    Notícias relacionadas:

    Testes de terceiros dirão se o Evo-X2 entrega mais do que uma RTX 5090D, mas o WCCFTech já afirma categoricamente que o mini PC será capaz de superar uma RTX 4090 em processamento IA local.

    A GMKTec vai abrir encomendas do novo produto para Estados Unidos e Europa a partir do dia 15 de abril.

    Via: VideoCardz

  • AIDA64 v7.65 já detecta GPUs RTX 5060 Ti e melhora suporte a Panther Lake

    AIDA64 v7.65 já detecta GPUs RTX 5060 Ti e melhora suporte a Panther Lake

    O popular software de diagnóstico AIDA64 chega à sua versão 7.65 com atualizações importantes em sua lista de hardware compatível. Agora GPUs RTX 5060 Ti já são reconhecidas e detalhadas pelo app, e o suporte a Panther Lake, que começou preliminarmente ainda em 2023, foi melhorado.

    Segundo o VideoCardz, essa atualização aproveitou o vazamento recente das novas placas da NVIDIA no Furmark. O aparecimento de resultados do teste sintético com a RTX 5060 Ti revelaram a ID de dispositivo do PCI para a placa, permitindo que o AIDA64 fizesse seu update.

    Fonte: VideoCardz

    DOWNLOAD do AIDA64 v7.65

    O AIDA64 v7.65 traz compatibilidade também para a Radeon RX 7650 GRE, recentemente lançada apenas na China. Confira abaixo a lista de destaques da atualização, em tradução livre:

    • Localização para o grego
    • Suporte melhorado a CPUs Panther Lake
    • Suporte aos sensores da série ASUS Astral RTX 5000
    • Nova opção de hot key para resetar a posição do SensorPanel
    • Suporte melhorado para processadores Zhaoxin KX-6000G e KX-7000
    • Suporte aos sensores da fonte MSI MEG Ai1600T
    • Detalhes para GPUs AMD Radeon RX 7650 GRE
    • Detalhes para NVIDIA GeForce RTX 5060 Ti
    Slide mostra Panther Lake para 2026 para clientes.
    Fonte: Intel

    Suporte do AIDA64 para RTX 5060 Ti inclui benchmarks

    A descrição da nova versão do AIDA64 em seu site oficial diz que o app agora suporta benchmarks multithread OpenCL GPGPU nas placas RTX 5060 Ti, além de monitoramento de fan, resfriamento e temperaturas.

    Mas não são apenas essas placas para os consumidores da NVIDIA que recebem suporte no update. Modelos RTX PRO 6000 Blackwell Max-Q e não Max-Q também passam a ter seus detalhes corretamente diagnosticados pelos software.

    Notícias relacionadas:

    A lista completa de detalhes e mudanças da atualização – incluindo patches de segurança – está disponível na página do produto, onde interessados podem também fazer seu download. Não é um app gratuito, mas inclui versão de testes por 30 dias com funcionalidade limitada.

  • Alemanha volta ao jogo da memória com nova tecnologia que une DRAM e armazenamento persistente

    Alemanha volta ao jogo da memória com nova tecnologia que une DRAM e armazenamento persistente

    Uma nova parceria entre a startup alemã Ferroelectric Memory Company (FMC) e a empresa de testes Neumonda marca o renascimento da fabricação de memória na Europa. As duas companhias anunciaram o desenvolvimento da DRAM+, uma memória baseada em tecnologia FeRAM que pretende unir velocidade comparável à DRAM tradicional com a vantagem de manter os dados mesmo sem energia, como um SSD.

    FeRAM baseada em óxido de háfnio: o pulo do gato

    Diferente das antigas versões da FeRAM que utilizavam materiais como PZT (zirconato-titanato de chumbo), a inovação da FMC está no uso de óxido de háfnio (HfO₂) como material ferroelétrico.

    Tal tecnologia traz duas grandes vantagens: o material é compatível com processos CMOS (os mesmos usados em semicondutores modernos) e escala bem abaixo dos 10 nanômetros, permitindo produção em larga escala com alta densidade.

    Ao aplicar o efeito ferroelétrico do HfO₂ a uma DRAM, transformamos o capacitor tradicional em um dispositivo de armazenamento de baixa potência e não volátil, mantendo o desempenho elevado da DRAM

    Thomas Rueckes, CEO da FMC

    Reprodução/Ferroelectric Memory Company (FMC)

    Comparativo entre tipos de memória

    Memória Volátil? Velocidade Consumo de Energia Retém Dados sem Energia? Densidade Custo Aplicações Comuns
    DRAM Sim 🟢 Muito alta 🔴 Alto ❌ Não 🟢 Alta 🟡 Médio Memória RAM de PCs, servidores e dispositivos móveis
    NAND Flash Não 🟡 Média 🟢 Baixo ✅ Sim 🟢 Muito alta 🟢 Baixo SSDs, pen drives, cartões de memória
    FeRAM (PZT) Não 🟡 Média 🟢 Muito baixo ✅ Sim 🔴 Muito baixa 🔴 Alto Smartcards, sensores, dispositivos industriais
    DRAM+ (HfO₂) Não 🟢 Muito alta (≈DRAM) 🟢 Baixo ✅ Sim 🟡 Alta (em evolução) 🟡 Médio-alto IA, automotivo, medicina, edge computin

    🔍 Notas explicativas:

    • Volatilidade: memórias voláteis perdem os dados ao desligar o equipamento. As não voláteis retêm as informações mesmo sem energia.
    • Velocidade: DRAM e DRAM+ são muito mais rápidas para leitura/escrita do que NAND e FeRAM comum.
    • Consumo: FeRAM e DRAM+ consomem menos energia que DRAM tradicional, o que as torna ideais para aplicações sensíveis a consumo.
    • Densidade: NAND Flash ainda é a campeã em capacidade por chip, mas DRAM+ está evoluindo rápido com o uso de HfO₂.
    • Custo: NAND é barata, DRAM é razoável, mas FeRAM tradicional é cara e limitada. DRAM+ promete equilibrar performance e viabilidade.
    Divulgação/Micron

    Memória para IA, automóveis, medicina e mais

    A FMC acredita que sua nova memória pode atender a uma variedade de setores, como inteligência artificial, indústria automotiva, dispositivos médicos, aplicações industriais e eletrônicos de consumo.

    O foco está em equipamentos que exigem alta velocidade e consumo de energia otimizado, além da capacidade de manter dados mesmo em situações de queda de energia.

    Aplicações práticas da nova memória DRAM+ (FeRAM com HfO₂)

    • Aeronáutica, espaço e defesa: aplicações em ambientes extremos, como satélites ou aeronaves, onde falhas elétricas são comuns e a memória precisa ser confiável e resistente.
    • Carros autônomos: armazena dados de sensores e decisões críticas em tempo real, sem risco de perda em caso de queda de energia, mantendo a segurança do sistema mesmo em falhas.
    • Dispositivos de IA embarcada (edge AI): permite que câmeras inteligentes, drones e dispositivos médicos tomem decisões rápidas localmente, sem depender da nuvem, com baixo consumo e dados preservados.
    • Equipamentos médicos portáteis: ideal para armazenar registros vitais de pacientes ou históricos clínicos em dispositivos móveis, mantendo os dados mesmo após desligamentos inesperados.
    • Controle industrial e automação: registra configurações e logs de processos em tempo real, mesmo em ambientes sujeitos a interrupções de energia frequentes.
    • Substituto para RAM em computadores críticos: indicado para servidores e estações de trabalho que exigem velocidade de DRAM, mas não podem correr o risco de perder dados em reinicializações.
    • Eletrônicos de consumo com boot instantâneo: possibilita smartphones ou notebooks que ligam instantaneamente, sem necessidade de recarregar o sistema operacional, pois os dados permanecem na memória.

    Histórico e evolução da FeRAM

    A FeRAM não é novidade, mas sempre esbarrou em limitações técnicas. As versões anteriores, baseadas em PZT, tinham dificuldades para se integrar aos processos padrão da indústria e ofereciam capacidades muito limitadas — geralmente entre 4MB e 8MB. Além disso, suas estruturas como a 1T1C (um transistor e um capacitor) ocupavam muito mais espaço que as células de memória convencionais.

    A virada veio com o HfO₂, que permite fabricar chips muito mais densos, com capacidade na faixa de Gigabits até GigaBytes, aproximando-se do desempenho e da capacidade da DRAM, mas com benefícios adicionais como não volatilidade e menor consumo energético.

    Linha do tempo da FeRAM (Memória Ferroelétrica)

    Ano / Período Marco
    1952 Primeiro conceito de memória ferroelétrica é proposto, mas ainda sem aplicação prática.
    1980s Início dos primeiros protótipos de FeRAM usando materiais como PZT (zirconato-titanato de chumbo).
    1995 Lançamento dos primeiros chips comerciais de FeRAM com capacidade limitada (KBs a poucos MBs).
    2000–2010 FeRAM começa a ser usada em aplicações específicas: cartões inteligentes, sensores industriais, RFID.
    Limite técnico Apesar do sucesso em nichos, o uso de PZT limita a escalabilidade da FeRAM — difícil integração com CMOS.
    2011 Pesquisadores descobrem efeito ferroelétrico em óxido de háfnio (HfO₂), compatível com CMOS.
    2015–2018 Laboratórios e startups iniciam testes com FeRAM baseada em HfO₂, superando barreiras de densidade.
    2020 Ferroelectric Memory Company (FMC) é fundada para comercializar essa nova geração de memória.
    2024–2025 FMC anuncia parceria com Neumonda para desenvolver a DRAM+ — memória rápida, não volátil e de alta capacidade.
    Futuro próximo Espera-se que DRAM+ seja aplicada em IA, automotivo, medicina, edge computing e muito mais.

    Neumonda: a aliada nos testes e no retorno da indústria europeia

    Para testar e validar a nova tecnologia com eficiência e baixo custo, a FMC contará com a expertise da Neumonda, que oferecerá acesso às suas plataformas avançadas de testes: Rhinoe, Octopus e Raptor.

    Esses sistemas permitem uma análise detalhada e energeticamente eficiente, superando o desempenho dos equipamentos de teste tradicionais.

    Um dos meus objetivos ao fundar a Neumonda foi trazer a indústria de semicondutores de memória de volta para a Europa. Esta colaboração nos leva um passo mais perto disso

    Peter Poechmueller, CEO da Neumonda

    Leia também:

    Mais do que um chip: uma missão continental

    Com a união de forças entre FMC e Neumonda, além de um novo produto promissor, a Europa ganha uma nova chance de reconstruir sua presença no setor de semicondutores, particularmente no segmento de memória — hoje dominado por fabricantes asiáticos. Afinal, a DRAM+ pode impulsionar a inovação em áreas críticas e também reforçar a autonomia tecnológica europeia.

    Fonte: Ferroelectric Memory Company (FMC)

  • GeForce RTX 5070 vs GeForce RTX 4070 – Veja as diferenças

    GeForce RTX 5070 vs GeForce RTX 4070 – Veja as diferenças

    Após quase dois anos do anuncio da GeForce RTX 4070, a NVIDIA anunciou no inicio de 2025 a GPU / placa de vídeo GeForce RTX 5070 com peço de US$ 549. Porém, o que chamou mais atenção foi que o CEO da NVIDIA, Jensen Huang, falou que a GeForce RTX 5070 tem desempenho de uma GeForce RTX 4090, placa lançada por US$ 1.599, quase 3 vezes o valor da RTX 5070.

    No Brasil as placas GeForce RTX 5070 custam a partir de R$ 5.499 enquanto modelos GeForce RTX 4070 podem ser encontrados por preços a partir de R$ 4.999.

    Quais os benefícios da GeForce RTX 5070 comparada com a GeForce RTX 4070 lançada a quase dois anos atrás?

    Nesse artigo você confere as diferenças técnicas entre as placas GeForce RTX 5070 e a GeForce RTX 4070, incluindo fotos e gráficos de desempenho.

    Em outro artigo vou falar da RTX 5070 e RTX 4090, mostrando as diferenças de especificações, fotos lado a lado e é claro, gráficos de desempenho. Em suma, tudo que você precisa saber.

    Mais conteúdos sobre GeForce RTX 50

    Vídeo análise / Review da GeForce RTX 5070

    Principais características do GPU GeForce RTX 5070

    • GPU da arquitetura Blackwell 2.0 (chip GB205) desenvolvido em 5 nm
    • GPU alcançando até 2512 MHz em modo turbo
    • 12 GB de memória RAM GDDR7 com 192-bit trabalhando em 28 Gbps
    • 6144 unidades de processamento, 192 TMUs e 192 Tensor cores
    • TDP de 250W com 1 conector de 16 pinos e recomendação de fonte de 600W
    • Conexões HDMI 2.1b e DisplayPort 2.1a
    • Interface de conexão PCIe 5.0 x16
    • Preço do lançamento = US$549 internacionalmente, atualmente a partir de R$5.499 no Brasil

    Principais características do GPU GeForce RTX 4070

    • GPU da arquitetura Ada Lovelace (chip AD104) desenvolvido em 5 nm
    • GPU alcançando até 2470 MHz em modo turbo
    • 12 GB de memória RAM GDDR6X com 192-bit trabalhando em 21 Gbps
    • 5888 unidades de processamento, 184 TMUs e 184 Tensor cores
    • TDP de 200W com 1 conector de 16 pinos e recomendação de fonte de 550W
    • Conexões HDMI 2.1 e DisplayPort 1.4a
    • Interface de conexão PCIe 4.0 x16
    • Preço no lançamento = US$599 internacionalmente, atualmente a partir de R$4.999 no Brasil

    Diferenças de especificações técnicas entre GeForce RTX 5070 e RTX 4070

    GeForce RTX 5070

    NVIDIA GeForce RTX 5070



    NVIDIA GeForce RTX 4070

    NVIDIA GeForce RTX 4070



    Comparativo

    Preço de Lançamento
    Preço de Lançamento
    US$549,00

    05/03/2025
    US$599,00

    10/04/2023
    Preço Atualizado
    Preço Atualizado
    R$5.499,00
    07/04/2025


    Comprar

    R$4.999,00
    07/04/2024


    Comprar

    Especificações da GPU

    Processo de fabricação
    Processo de fabricação 5 nm 5nm
    PCI-Express bus
    PCI-Express bus 5.0 x16 4.0 x16
    Chip
    Chip Blackwell (GB205) Ada Lovelace (AD104)
    Clock do GPU
    Clock do GPU 2325 MHz 1920 MHz
    Clock do GPU (Turbo)
    Clock do GPU (Turbo) 2512 MHz 2475 MHz

    Especificações das Memórias

    Tecnologia da RAM
    Tecnologia da RAM GDDR7 GDDR6X
    Interface de largura de BUS
    Interface de largura de BUS 192-bit 192-bit
    Quantidade de RAM
    Quantidade de RAM 12 GB 12 GB
    Clock das memórias
    Clock das memórias 1750 MHz 1313 MHz
    Clock efetivo das memórias
    Clock efetivo das memórias 28 Gbps 21 Gbps
    Largura de banda
    Largura de banda 672 GB/s 504.2 GB/s

    Características Gerais

    Shading Units
    Shading Units 6144 5888
    TMUs
    TMUs 192 184
    ROPs
    ROPs 80 64
    Pixel Rate
    Pixel Rate 201.0 GPixel/s 158.4 GPixel/s
    Texture Rate
    Texture Rate 482.3 GTexel/s 455.4 GTexel/s
    Performance de pontos flutuantes FP16
    Performance de pontos flutuantes FP16 30.87 TFLOPS 29.15 TFLOPS

    Design

    Tipo de Slot
    Tipo de Slot Dois slots Dois slots
    Suporte à combinação de placas
    Suporte à combinação de placas NÃO NÃO
    Pinos de alimentação
    Pinos de alimentação 1x 16 pinos PCIe 5.0 1x 16 pinos
    Comprimento da placa
    Comprimento da placa 245 240 mm
    TDP
    TDP 250 W 200 W
    Fonte recomendada
    Fonte recomendada 600 W 550 W
    Conexões de vídeo
    Conexões de vídeo 3x DisplayPort 2.1b, 1x HDMI 2.1b 3x DisplayPort 1.4a, 1x HDMI 2.1

    Recursos

    DirectX
    DirectX 12 Ultimate 12 Ultimate
    OpenCL
    OpenCL 3.0 3.0
    OpenGL
    OpenGL 4.6 4.6
    Shader
    Shader 6.8 6.7

    Fotos da GeForce RTX 5070 e RTX 4070

    Abaixo algumas fotos de uma GeForce RTX 5070 modelo Zotac SOLID ao lado da GeForce RTX 4070 Founders Edition da NVIDIA.

    Testes de desempenho entre GeForce RTX 5070 e RTX 4070

    Entretanto, não para por aí. Para finalizar, alguns testes de desempenho com placas utilizando esses dois GPUs.

    Conclusão

    Comparando a GeForce RTX 5070 com a GeForce RTX 4070, o ganho de desempenho varia e fica em média 15% superior no novo modelo, isso falando de velocidade, já que a nova placa consome cerca de 25% a mais do que a geração passada, o que não faz muito sentido na questão de evolução no aspecto de eficiência energética.

    Como falamos em nossa review em texto e também no vídeo, enquanto a RTX 4060 Ti era praticamente indistinguível da RTX 3060 Ti, a RTX 5070 consegue superar esse feito, e ser, na prática, a RTX 4070 Super de novo. Contudo, as vezes poucos FPS a frente, outras vezes, pasmem, poucos FPS atrás.

    Na prática, se alguém trocar uma RTX 4070 Super em uma máquina por uma RTX 5070, o dono nem vai saber que algo aconteceu. Quer dizer, vai poder ligar o gerador de múltiplos quadros do DLSS e “desbloquear” uma RTX 4090 por IA.

    Recomendo conferir nossa review em texto onde colocamos uma série de testes da placa, ou mesmo a review em vídeo onde também é possível ver como ela se sai em um gameplay.

  • Nintendo confirma que Switch 2 não terá Joy-Con com Hall Effect

    Nintendo confirma que Switch 2 não terá Joy-Con com Hall Effect

    Os Joy-Con do Switch 2 não utilizarão sticks com tecnologia Hall Effect, segundo informações obtidas pelo portal Nintendo Life durante uma entrevista com Nate Bihldorff, da Nintendo of America. A confirmação reforça que, mesmo com o histórico de reclamações envolvendo o drift nos controles da geração atual, a empresa optou por outro tipo de solução.

    A ausência da tecnologia Hall Effect foi revelada após uma pergunta direta feita pela equipe do Nintendo Life, que participou de uma sessão de testes dos novos controles.

    Ao ser questionado se os Joy-Con do Switch 2 utilizavam essa tecnologia, que é atualmente considerada por muitos como a mais eficiente para evitar desgaste físico e problemas de deriva, Bihldorff respondeu:

    “Eles não usam Hall Effect, mas foram projetados do zero e têm uma sensação muito boa.”

    Apesar da negativa, o representante não entrou em detalhes técnicos sobre o funcionamento dos novos analógicos. Ele também desviou rapidamente para outros aspectos dos controles, como o conforto e a sonoridade ao utilizá-los.

    Projeto redesenhado, mas sem garantias contra o drift

    Desde o lançamento do Nintendo Switch em 2017, o drift dos Joy-Con se tornou uma das principais críticas ao hardware da empresa. O problema gerou diversas reclamações formais, ações judiciais em diferentes países e um elevado volume de solicitações de reparo.

    Foto: Divulgação/Nintendo

    Um ex-supervisor de consertos da Nintendo of America chegou a descrever o fluxo de trabalho para reparos dos Joy-Con como “muito estressante”.

    Embora a nova geração de Joy-Con tenha sido “desenvolvida do zero”, como afirmou Bihldorff, não há detalhes sobre quais medidas foram adotadas para evitar a reincidência do problema.

    A ausência dos sticks com sensor magnético (Hall Effect), que evitam contato físico interno e, portanto, desgaste mecânico, levanta dúvidas sobre a durabilidade do novo modelo.

    Pro Controller também deve seguir o mesmo caminho

    Durante a mesma entrevista, Bihldorff comentou brevemente sobre o Pro Controller do Switch 2, destacando o conforto, o som reduzido durante o uso e o que chamou de sensação familiar, semelhante ao controle do GameCube.

    No entanto, quando questionado diretamente se o modelo utilizaria Hall Effect, o executivo evitou responder.

    Teaser do Nintendo Switch 2 confirma funcionalidade de mouse
    Divulgação/Nintendo

    Informações complementares vêm da entrevista da série “Ask the Developer”, publicada pela própria Nintendo. Nela, o produtor Kouichi Kawamoto, o diretor Takuhiro Dohta e o gerente geral Tetsuya Sasaki comentaram sobre a sonoridade e suavidade dos novos analógicos, denominados internamente como “smooth-gliding sticks”.

    Segundo eles, os analógicos do Pro Controller são mais silenciosos e se movem de forma mais fluida, mesmo quando usados com força.

    Sasaki mencionou que há um projeto de longo prazo em andamento dentro da Nintendo para alcançar o que chamaram de “controle definitivo”, mas não confirmou se os novos modelos representam a realização dessa meta.

    Hall Effect segue como demanda da comunidade

    A decisão de não utilizar tecnologia Hall Effect nos novos controles já tem gerado reações negativas entre parte da comunidade.

    Nos últimos anos, diversos fabricantes terceirizados passaram a adotar esse tipo de sensor magnético em seus produtos, incluindo marcas que oferecem substituições para Joy-Con ou versões alternativas de Pro Controllers.

    NVIDIA afirma que Switch 2 tem 10 vezes o potencial gráfico do antecessor
    Divulgação/Nintendo

    O principal argumento a favor do Hall Effect é a ausência de atrito entre as peças internas dos analógicos, o que evita o desgaste e, por consequência, o drift, problema causado por detecção incorreta de movimento mesmo quando o stick está parado.

    Apesar da resistência da Nintendo em adotar esse tipo de solução, o lançamento oficial do Switch 2, previsto para 5 de junho de 2025, deve oferecer os primeiros testes práticos para avaliar o comportamento dos novos Joy-Con com o passar do tempo.

    Infelizmente, apesar das muitas qualidades do hardware do Switch 2, esse é um dos pontos em que os rumores anteriores ao anúncio não acertaram.

    Fonte: Nintendo Life.

  • RTX 5060 Ti e 5060 aparecem com GDDR7 de 128-bit em manifesto de transporte

    RTX 5060 Ti e 5060 aparecem com GDDR7 de 128-bit em manifesto de transporte

    As placas RTX 5060 Ti e 5060 devem usar módulos GDDR7 de memória, mas vão manter o barramento de 128-bit. É isso que indica ainda mais um vazamento sobre as próximas GPUs da NVIDIA, que têm aparecido frequentemente em rumores do tipo. Como de costume, temos um manifesto de transporte indicando as especificações.

    Segundo informações do VideoCardz, o codinome PG152 parece se referir a todas as três RTX 5060, incluindo as duas variantes de capacidade na versão Ti e o modelo padrão. Os dados do NBD também indicam que as placas usarão a GPU GB206.

    Fonte: NBD

    A informação de que as placas RTX 5060 Ti e 5060 teriam memória de 128-bits já apareceu em vazamentos anteriores, mas esse tipo de descrição em manifestos de transporte costuma conferir mais credibilidade a informações não oficiais.

    O que chama a atenção neste caso é que os modelos da geração passada, a RTX 4060 Ti e RTX 4060, já ofereciam um barramento de 128-bit, então podemos ver que a NVIDIA optou por não fazer um upgrade nessa configuração em específico. No entanto, só a mudança de GDDR6 para GDDR7 deve resultar num aumento de 55% na banda total de memória das placas, chegando a 448GB/s nas RTX 5060.

    RTX 5060 Ti pode chegar pelo mesmo preço da geração anterior

    Até o momento muitos dos vazamentos parecem corretos para as RTX 5060 Ti e 5060, com informações semelhantes aparecendo em diferentes fontes. Porém, não tivemos ainda muitos rumores com embasamento sobre os possíveis preços das GPUs.

    Tabela comparativa das RTX 50
    Fonte: VideoCardz

    Um post no Board Channels afirma que a NVIDIA deve manter o mesmo preço de lançamento em relação à geração passada, o que pode resultar em US$ 499 pela 5060 Ti de 16GB e US$ 399 pela 5060.

    Notícias relacionadas:

    Seria interessante mais algum vazamento neste sentido para ajudar na credibilidade das comparações, mas o lançamento oficial das placas parece estar muito próximo. Ao que tudo indica, a NVIDIA vai falar sobre suas novas RTX 50 mais acessíveis no dia 15 de abril.

  • Gamer Nexus confirma problemas de drivers e chama RTX 50 de “pior lançamento da NVIDIA”

    Gamer Nexus confirma problemas de drivers e chama RTX 50 de “pior lançamento da NVIDIA”

    Desde o lançamento oficial da série RTX 50 e a introdução de novos drivers da NVIDIA para essas GPUs, alguns usuários têm relatado problemas variados com os updates – em especial nas gerações anteriores de placas, como as RTX 40. Por isso, no último domingo, dia 6, o pessoal do Gamer Nexus publicou um vídeo com extensivos testes dos drivers da empresa, concluindo que realmente os problemas são generalizados.

    “Esse tem sido um lançamento absolutamente abominável e completamente vergonhoso para a NVIDIA”, diz Steve Burke, editor do Gamer Nexus, no vídeo. “(…) no tempo em que eu tenho feito isso, desde 2008, focando em hardware desde 2010… Nesse tempo, esse foi o pior lançamento que eu já vi da NVIDIA.”

    Burke busca alguns problemas comumente relatados e tenta replicá-los em seu ambiente de testes. Infelizmente ele consegue em muitos casos. O VideoCardz organizou uma lista dos bugs em jogos que o canal conseguiu replicar de maneira “consistente”:

    • Star Wars Outlaws: escolher “continuar” causou crash
    • Marvel Rivals: ligar o Frame Generation causou crash
    • Cyberpunk 2077: crashes ao caregar o jogo
    • Shadow of the Tomb Raider: crash no benchmark do jogo, com aviso de erro do driver
    Fonte: Gamer Nexus

    Esses testes foram feitos com o driver 572.83. Segundo Burke, diferentes versões entregaram diferentes resultados, mas voltar ao driver 566.36 resolveu os problemas nesses quatro exemplos.

    Drivers da NVIDIA apresentam problemas em situações variadas

    Além dos problemas em jogos, bugs apareciam em situações variadas. Usar mais de um monitor, por exemplo, foi algo que causou bugs, especialmente com o G-Sync ligado em displays de alta taxa de atualização.

    Imagem ilustrativa, NVIDIA
    Imagem: NVIDIA

    Burke diz ainda que faz diferença as combinações entre GPUs e monitores, o que deve tornar mais difícil aos usuários de tentarem contornar o problema sem usar versões antigas do driver.

    Notícias relacionadas:

    Por fim, o anfitrião do Gamer Nexus recomenda para quem está enfrentando dificuldades desligar recursos como G-Sync, DLSS4 e Frame Generation, que parecem ser os principais causadores de bugs nos novos drivers. Ironicamente, é justamente nessas ferramentas que a NVIDIA mais tem promovido seus produtos nos últimos tempos.

  • Engenheiro da NVIDIA resolve problema de GPUs AMD no Linux que ele mesmo tinha criado

    Engenheiro da NVIDIA resolve problema de GPUs AMD no Linux que ele mesmo tinha criado

    Um engenheiro da NVIDIA corrigiu um problema que estava afetando negativamente a performance de GPUs AMD no Linux. A atitude, no entanto, não foi completamente altruísta, uma vez que o bug foi introduzido por ele mesmo.

    É importante ressaltar que não há indícios de que o problema foi criado por má fé. Na semana passada ele tentou aumentar o espaço do PCI BAR para valores acima de 10TiB em placas AMD, mas isso acabou fazendo o sistema identificar a GPU instalada como limitada, prejudicando sua performance.

    Fonte: Tom’s Hardware

    A situação chama a atenção por envolver um engenheiro da NVIDIA mexendo nos drivers de uma empresa rival, a AMD. No entanto, nada disso é incomum no segmento de software aberto (FOSS – Free Open Source Software). Inclusive também não é raro que tentativas saiam pela culatra e introduzam novos problemas, então é uma “regra não escrita” que os responsáveis corrijam seus próprios erros.

    O bug acontecia porque o Linux divide a memória em zonas diferentes, associando uma delas à GPU. O bug fazia o kernel aumentar artificialmente a RAM total para GPUs AMD Radeon para 64TiB. Como a placa de vídeo não tem acesso a uma gama tão ampla, acontecia o efeito contrário, com o sistema identificando o componente como limitado e oferecendo apenas 4GB de memória para trabalhar.

    Linux 6.15-rc1 já inclui a correção para GPUs AMD

    O pessoal do Phoronix ressalta – e elogia – o esforço do engenheiro da NVIDIA em entregar a correção antes do fim de semana. Aparentemente, o novo código estava pronto no dia 4, o que permitiu ser incluído no Linux 6.15-rc1, disponibilizado no último domingo, dia 6 de abril.

    Notícias relacionadas:

    Em outubro do ano passado tivemos a estimativa de que 4,4% dos usuários de computadores desktop usam Linux, e isso representou um crescimento. É uma fração pequena de pessoas, e dentro dessa fatia, apenas as pessoas com GPUs AMD eram afetadas, o que não deve ter somado muita gente.

    No entanto, é justamente esse tipo de agilidade e disposição para resolver problemas vindo da própria comunidade que atrai pessoas para o software em código aberto.

    Via: Tom’s Hardware