akualung
26/11/2015, 14:38
buenas, a ver si alguien me puede echar un cable con una duda. En principio ya me he buscado yo la vida investigando, pero es más que nada para que alguien que sepa más me lo confirme.
En mi pc principal tengo una placa (asus m3n-h/hdmi) con una vga integrada geforce 8300. quisiera saber la velocidad de esa cpu. He probado el HWInfo32 pero me dice que el core va a 100mhz (obviamente no debe detectarla bien o lo que sea) y el cpu-z me dice: core: 500mhz - shader: 1500mhz
Luego he encontrado esta página (classic tomshardware xDD) donde dice que va a 1500mhz: http://www.tomshardware.com/reviews/amd-nvidia-chipset,1972-9.html
¿Por qué hay tanta diferencia entre las velocidades de core y shader? ¿Cuál sería entonces la velocidad real de ese vga, sería la suma de ambas velocidades, o solo la del shader, o cómo va eso?
Merci, cracks.
En mi pc principal tengo una placa (asus m3n-h/hdmi) con una vga integrada geforce 8300. quisiera saber la velocidad de esa cpu. He probado el HWInfo32 pero me dice que el core va a 100mhz (obviamente no debe detectarla bien o lo que sea) y el cpu-z me dice: core: 500mhz - shader: 1500mhz
Luego he encontrado esta página (classic tomshardware xDD) donde dice que va a 1500mhz: http://www.tomshardware.com/reviews/amd-nvidia-chipset,1972-9.html
¿Por qué hay tanta diferencia entre las velocidades de core y shader? ¿Cuál sería entonces la velocidad real de ese vga, sería la suma de ambas velocidades, o solo la del shader, o cómo va eso?
Merci, cracks.