PDA

Ver la versión completa : DEP Intel



Páginas : 1 2 [3]

zhorro
15/09/2020, 16:53
Pues el auge de RISC puede suponer la caída de la computación. CISC es computación y RISC es **** basura portatil.

PowerPC llama a tu puerta .. RISC y son los que mueven los hosts de IBM y algunos de los superordenadores mas grandes, y por cierto el superordenador mas potente ahora mismos esta fabricado por Fujitsu y solo lleva cores ARM (no utiliza gpus para procesar). Aparte de que los procesadores intel modernos son 'hibridos' recogen una instruccion CISC y la transforman en instrucciones mas simples (RISC) que son las que ejecuta internamente.

http://sunnyeves.blogspot.com/2009/07/intel-x86-processors-cisc-or-risc-or.html

-----Actualizado-----


Según las condiciones que ponga Nvidia, este movimiento puede favorecer al auge de RISC V, por ejemplo Huawei no tiene elección, habrá que ver cómo se posicionan el resto de compañías.

A china le han dejado la opción bien clara van a ir a por RISC V a muerte, es lo unico que les garantiza que EEUU no les va a tocar los huevos, despues hay bastantes compañias que van a usarlo para no tener que pagar licencias (curiosamente Nvidia era una de ellas :D). Tambien van a abandonar Android por la misma razon ya aunque se siga diciendo que es opensource, no lo es. Cada vez esta mas bloqueado por los servicios y aplicaciones de Google (navegador, correo y SMS eran aplicaciones open y ahora son de google Chrome, gmail y mensajes) y hay bastantes aplicaciones que no funcionan sin los servicios de google.
Huawei por ejemplo ya ha anunciado que abandona Android en favor de un sistema operativo propio, pero seguira utilizando procesadores ARM (de otro fabricante ya que no puede ni diseñar ni fabricar los suyos) hasta que RISC V u otro procesador movil este maduro.

swapd0
15/09/2020, 17:12
Aparte de que los procesadores intel modernos son 'hibridos' recogen una instruccion CISC y la transforman en instrucciones mas simples (RISC) que son las que ejecuta internamente.

Cosa que en un RISC de verdad te ahorras esa circuiteria y puedes añadir lo que necesites, o ahorrar espacio.

Por cierto, no todo va respecto al numero de instrucciones, otra diferencia que tienen los RISC vs CISC es que tienen modos de direccionamiento mas simples (nada de offset(a0,d0.w) como en el 680x0) y todas las instrucciones operan con registros, no puedes hacer una suma con el contenido de una dirección de memoria. (nada de add.w (a0),d0 )

tartalo
15/09/2020, 18:54
Nadie abre hilo sobre la sacada de chorra encima de la mesa que ha echo nvidia con las nuevas 3xxxx ???
Sobre todo con este mounstruo:
https://www.nvidia.com/es-es/geforce/graphics-cards/30-series/rtx-3090/

selecter25
15/09/2020, 19:06
Creo que solo zhorro ha entendido lo de RISC V, no hablo del conjunto de instrucciones RISC a secas (menudo debate habéis montado en 0 coma :D), hablo del desarrollo de un procesador open source bajo el conjunto de instrucciones también open source RISC V, que es la única alternativa si no te licencia ARM (como le ha pasado a Huawei).

Me consta que hay empresas como Qualcomm que ya ha invertido pasta en ello, o Xiaomi que tiene alguno fabricado (la NPU del Amazfit Bip, creo recordar). Samsung era otra que para pequeños wereables la ha usado:

https://elandroidelibre.elespanol.com/2016/11/samsung-y-risc-v-arm.html

Y en China ya hay varias empresas dispuestas a fabricar por esta vía.

Es una buena adquisición la que ha hecho Nvidia, e independientemente de lo que haga ahora a la hora de licenciar, al menos el resto de compañías tienen una alternativa viable.

-----Actualizado-----


Nadie abre hilo sobre la sacada de chorra encima de la mesa que ha echo nvidia con las nuevas 3xxxx ???
Sobre todo con este mounstruo:
https://www.nvidia.com/es-es/geforce/graphics-cards/30-series/rtx-3090/

Yo voy a pillar una 3090 (no para jugar, para Deep/Machihe Learning), pero quiero ver las reviews mañana.

Me he mantenido muy escéptico con tanto hype y viendo las filtraciones de benchs reales, no iba muy desencaminado. La 3080 puede ser el doble de potente que una 2080 solo en ciertos escenarios, que son básicamente juego a 4K con RT activo y DLSS off. Saliendo de esto, no está tan lejos la 2080ti (al menos de momento), y comprar una para 1080p es un disparate, en Far Cry New Down a esa resolución (y a 1440p), rinde igual que una 2080ti:

https://videocardz.com/newz/nvidia-geforce-rtx-3080-synthetic-and-gaming-performance-leaked

Ya digo que quiero ver reviews reales.

tartalo
15/09/2020, 19:34
Yo voy a pillar una 3090 (no para jugar, para Deep/Machihe Learning), pero quiero ver las reviews mañana.

Me he mantenido muy escéptico con tanto hype y viendo las filtraciones de benchs reales, no iba muy desencaminado. La 3080 puede ser el doble de potente que una 2080 solo en ciertos escenarios, que son básicamente juego a 4K con RT activo y DLSS off. Saliendo de esto, no está tan lejos la 2080ti (al menos de momento), y comprar una para 1080p es un disparate, en Far Cry New Down a esa resolución (y a 1440p), rinde igual que una 2080ti:

https://videocardz.com/newz/nvidia-geforce-rtx-3080-synthetic-and-gaming-performance-leaked

Ya digo que quiero ver reviews reales.

Abre hilo que lo estás deseando, brivoncete, menudo bitxarraco te vas a pillar. Así nos cuentas más cosillas de ese mounstruo cuando lo tengas.

zhorro
15/09/2020, 19:41
Nadie abre hilo sobre la sacada de chorra encima de la mesa que ha echo nvidia con las nuevas 3xxxx ???
Sobre todo con este mounstruo:
https://www.nvidia.com/es-es/geforce/graphics-cards/30-series/rtx-3090/

No me fio ni un pelo de la publicidad de Nvidia y lo mismo de las review de Digital Foundry no por que ellos sean poco o mucho de fiar, sino porque no han probado realmente la grafica, han utilizado los programas y con las configuraciones que Nvidia les ha dejado que esta claro que son las que mas les benefician.
Y que las graficas serán bastante buenas seguro pero no creo que lleguen a lo que Nvidia esta promocionando, aparte de que consumen como bestias pardas.
Los benchmarks que se han filtrado (que pueden ser autenticos o no) van en esa linea y tambien que si le metes el mismo consumo a una 2080 y 2080 ti suben bastante las prestaciones y la diferencia es menor. Tambien comentaban que tanto la 3080 como la 3090 o estan muy overclokeadas de fabrica o el proceso de fabricación de Samsung no anda todo lo fino que debe.
Por eso prefiero ver que pasa mañana con las benchmarks de las distintas webs y youtubers (especialmente Gamer Nexus) para ver a que atenerme aunque esperare a ver lo que saca AMD porque este año tengo que comprar grafica si o si.
Y demasiado hype nunca es bueno.

zhorro
20/10/2020, 04:11
Acabo de ver que intel vende a SK Hinix todo el negocio de memorias flash (salvo Optane) por 9.000 millones de dolares aunque tenia ventas de 2.400 millones y beneficios de 600 millones anuales porque no cumplia la regla de obtener aproximadamente un 60% de beneficios sobre ventas (o sea 1.400 millones).
Realmente cada dia me asombran mas que con estos ejecutivos Intel no haya hecho que acabe en la ruina en cuanto ha encontrado competencia y me hace pensar que si ahora estan vendiendo los 8 cores a 400 euros y se supone que sacan un 60% (240 euros) cuando los vendian entre 800 y 1000 euros cuanto se supone que estaban sacando?

Karkayu
01/11/2020, 21:02
¿No se habla de la salida de Zen 3 en este hilo? Intel las está pasando pvtas...

Pongo un video random sobre el tema:

https://www.youtube.com/watch?v=y8xfEofYVEU

selecter25
04/11/2020, 13:49
Pues sí, Intel está en la mierda, ahora mismo no comprar un Ryzen es un error, pero quiero matizar algo (insisto, AMD>>Intel ahora mismo). Todas las presentaciones de AMD se limitan a gráficas de teórico rendimiento en escenarios absurdos o en desigualdad.

En la presentación de Zen 3, usan un 5900X para gaming a 1080p. De verdad alguien ve esa CPU en un budget orientado a gaming 1080p? A una resolución más acorde, la diferencia sería nula.

Sigamos con procesadores, presentan el 5600X, supuestamente este es el segmento con más ventas y orientado al gaming. Salen benchmarks y... oh, wait, un 10% de mejora en juegos con respecto al 3600, peeero, cuesta 100€ (un 50%) más!!!!!!!!!!!! (de qué me suena esto?? Intel, eres tú?). No me cuadran las cuentas. Lo triste viene cuando ves que un i5 10400F rinde prácticamente lo mismo (algo mejor) en gaming que un 3600 por la mitad de precio del 5600X (sí, cuesta 150€), mismos cores y mismos threads.

Ya que estamos, vayamos a las gráficas nuevas, sacan benchs y... oh, al nivel de las Nvidia siendo más baratas!!!! Mis respetos. Leamos la letra pequeña... Vaya, AMD AMDando, con las Nvidia han usado CPUs Intel y con las AMD los nuevos Ryzen, que supuestamente tienen boost extra solo con la serie 5000 (algo que implementará Nvidia con todas las CPU con RTX IO). Un poquito de rigor, pls!

Veamos benchs con Ray Tracing... Oh, espera, no hay!!!! Pero si han anunciado que soportan Ray Tracing!!! No será que al no tener hard dedicado (RT cores de Nvidia) rendirán mucho peor? Pues efectivamente, con "RT on" el rendimiento cae en picado, pero esto mejor no lo contamos. Y qué pasa si además activamos DLSS? Pueees, un saludo. "Ejqueee, eso es trampa, en AMD estamos trabajando en una IA similar, tú compra la GPU y ya la sacaremos si eso".

Lo dicho, que mis diez a AMD por todo lo que está haciendo, en CPUs no compraría Intel ahora ni borracho (en ningún segmento), pero tirón de orejas porque con tanta gloria se está "Intelizando" con subidas de precio, benchs trucadetes y fumadas varias. En gráficas, si quitamos RT y toooodas las cosas que hay hoy día en IA, pues bien, medio compiten, pero ni sombra a Nvidia en escenarios con estándares actuales (+1080p/RT on).

tartalo
04/11/2020, 18:37
Pues sí, Intel está en la mierda, ahora mismo no comprar un Ryzen es un error, pero quiero matizar algo (insisto, AMD>>Intel ahora mismo). Todas las presentaciones de AMD se limitan a gráficas de teórico rendimiento en escenarios absurdos o en desigualdad.

En la presentación de Zen 3, usan un 5900X para gaming a 1080p. De verdad alguien ve esa CPU en un budget orientado a gaming 1080p? A una resolución más acorde, la diferencia sería nula.



Cuando salgan a la venta se van a mear en los Intel sin necesidad de irse al tope de gama. El 5600x con todos los núcleos a 4,85ghz
https://www.noticias3d.com/noticia.asp?idnoticia=82245

masteries
04/11/2020, 19:08
Cosa que en un RISC de verdad te ahorras esa circuiteria y puedes añadir lo que necesites, o ahorrar espacio.

Por cierto, no todo va respecto al numero de instrucciones, otra diferencia que tienen los RISC vs CISC es que tienen modos de direccionamiento mas simples (nada de offset(a0,d0.w) como en el 680x0) y todas las instrucciones operan con registros, no puedes hacer una suma con el contenido de una dirección de memoria. (nada de add.w (a0),d0 )

Hmmm... ¡Qué rico ese 68000! ¡Qué buen sabor de boca!

Un CISC, inteligentemente diseñado y acompañado de compiladores buenos de verdad; da muchísimo de sí, y obtiene ventajas frente a un RISC. Para eso sirven las instrucciones complejas.

Recientemente he comprobado código máquina para un ARM-Cortex A9 @ 600 MHz con 512 KB de caché por núcleo, a pelo, sin sistema operativo ni nada; baremetal para dos núcleos (que vienen a ser dos CPUs diferenciadas) con el compilador comercial de ARM; frente a código que sale del compilador GNU y la diferencia es abismal. Para la misma tarea, una diferencia de +1152 microsegundos (de media); bastante peor que un ARM Cortex M7F @ 480 MHz con el compilador de ARM (este es un microcontrolador con tropecientos periféricos con consumo máximo de 0.25 W, no una CPU performance como un ARM Cortex A).

Pueden columpiarse mucho con el hardware, pero un buen compilador salva muchos muebles. El software también es importante, y no sólo la potencia bruta.

Hablando de 68000, que se lo digan a Vincent Riviere y su compilador de C / C++ para 68k, que se saca unos trucos optimizados de la manga...

selecter25
05/11/2020, 02:30
Cuando salgan a la venta se van a mear en los Intel sin necesidad de irse al tope de gama. El 5600x con todos los núcleos a 4,85ghz
https://www.noticias3d.com/noticia.asp?idnoticia=82245

Sabía que no debía de haber escrito el post, porque sabía que alguien me iba a contestar sin leerlo, o sin entenderlo. En qué momento he dicho que sea peor el AMD? He dicho justo todo lo contrario.

A lo que me refiero es:

Quién conyo compra un Ryzen 5900X (570€) para jugar a 1080p? Por qué muestran un bench tan poco práctico en la vida real?

Y ahora vienes tú y haces lo mismo con un bench de Cinebench y un 5600X xDDDDDDDDDDDDDDDDDDDDDDDD. Un Ryzen 5600X es una CPU para jugar, el 90% de ventas de esta CPU van a ser para eso. Y es ahí donde tienen el mayor parque de ventas, y es de lo que se vanaglorian ahora, el gaming. Cinebench es un benchmark para enfermos que no codifican, solo sacan numeritos y tiran screenshot :D.

Pues bien, saquemos de la ecuación a Intel, porque es leer Intel en un post y os volvéis locos. Comparemos el 5600X con un 3600X:


https://youtu.be/O1yoy0ww75o

De verdad me estás diciendo que merece la pena un sobrecoste de 100€ (en el mejor de los casos, siendo afortunados de que tengamos placa base compatible) con esa diferencia de rendimiento???? Pues yo creo que rotundamente no.

Y metamos a Intel en la ecuación, qué narices, ahora que han rebajado los procesadores. De verdad está tan lejos un 10600K (255€) del 5600X (299€)???

Pues tambien te lo digo yo, no:


https://youtu.be/XePFrl7mldc

Y si tenemos en cuenta que el 10400F rinde prácticamente como un 3600 (o algo mejor), y cuesta 150€... De verdad pensamos que AMD ofrece a día de hoy el mejor ratio de fps/€ del mercado? Pues adivina, no.

Quizás para otros propósitos (ámbito profesional, servers, diseño...) en gamas más altas sí, pero el el segmento en donde están las ventas de PCs gaming, a día de hoy no veo al 5600X como un procesador como para doblar campanas, no cuando el 3600 salió por 199€ a la venta.

zhorro
05/11/2020, 05:59
Pues sí, Intel está en la mierda, ahora mismo no comprar un Ryzen es un error, pero quiero matizar algo (insisto, AMD>>Intel ahora mismo). Todas las presentaciones de AMD se limitan a gráficas de teórico rendimiento en escenarios absurdos o en desigualdad.

En la presentación de Zen 3, usan un 5900X para gaming a 1080p. De verdad alguien ve esa CPU en un budget orientado a gaming 1080p? A una resolución más acorde, la diferencia sería nula.

Sigamos con procesadores, presentan el 5600X, supuestamente este es el segmento con más ventas y orientado al gaming. Salen benchmarks y... oh, wait, un 10% de mejora en juegos con respecto al 3600, peeero, cuesta 100€ (un 50%) más!!!!!!!!!!!! (de qué me suena esto?? Intel, eres tú?). No me cuadran las cuentas. Lo triste viene cuando ves que un i5 10400F rinde prácticamente lo mismo (algo mejor) en gaming que un 3600 por la mitad de precio del 5600X (sí, cuesta 150€), mismos cores y mismos threads.

Ya que estamos, vayamos a las gráficas nuevas, sacan benchs y... oh, al nivel de las Nvidia siendo más baratas!!!! Mis respetos. Leamos la letra pequeña... Vaya, AMD AMDando, con las Nvidia han usado CPUs Intel y con las AMD los nuevos Ryzen, que supuestamente tienen boost extra solo con la serie 5000 (algo que implementará Nvidia con todas las CPU con RTX IO). Un poquito de rigor, pls!

Veamos benchs con Ray Tracing... Oh, espera, no hay!!!! Pero si han anunciado que soportan Ray Tracing!!! No será que al no tener hard dedicado (RT cores de Nvidia) rendirán mucho peor? Pues efectivamente, con "RT on" el rendimiento cae en picado, pero esto mejor no lo contamos. Y qué pasa si además activamos DLSS? Pueees, un saludo. "Ejqueee, eso es trampa, en AMD estamos trabajando en una IA similar, tú compra la GPU y ya la sacaremos si eso".

Lo dicho, que mis diez a AMD por todo lo que está haciendo, en CPUs no compraría Intel ahora ni borracho (en ningún segmento), pero tirón de orejas porque con tanta gloria se está "Intelizando" con subidas de precio, benchs trucadetes y fumadas varias. En gráficas, si quitamos RT y toooodas las cosas que hay hoy día en IA, pues bien, medio compiten, pero ni sombra a Nvidia en escenarios con estándares actuales (+1080p/RT on).

Lo de usar 1080p para medir la potencia de un procesador no es un invento de AMD, es un estandar en los benchmarks, le ponen una grafica supertocha para que no genere cuello de botella y miden los fps que es capaz de 'producir' el procesador, lo que ha estado haciendo Intel TODA la vida para decir que sus procesadores son los mas rapidos en gaming. Y al igual que con Intel cuando la grafica genera cuello de botella (a 4K normalmente) te da practicamente igual la potencia del procesador.

El 5600X cuesta 50 euros mas que el 3600X que es sobre el que hay que poner el precio, no el 3600 y donde has visto que es un 10% mas rapido en juegos, yo no he visto ninguna comparativa oficial todavia y las pocas que se han filtrado (no se lo fiables que serán) son mas altas.

Por cierto el RTX IO no tiene nada que ver con la tecnologia que ha presentado AMD, el RTX IO es el acceso de la grafica al SSD sin practicamente participación de la CPU y tambien lo tienen las RTX 6000 (soporte de direct storage) y ya estaba anunciado antes de que salieran las rtx 3000 para ps5 y Xbox Series X, lo que han sacado los de AMD es una tecnologia en la que la CPU tiene acceso a todo el espacio de memoria de la grafica y no solo a una ventana de 256 Mb lo que acelera el acceso a la memoria de la grafica y para eso tienes que tener un procesador de la serie 5000, una grafica de la 6000 y placa base x570 y Nvidia no tiene nada similar.

Con respecto al RT SI tienen hardware dedicado y no es similar a los RT Cores de Nvidia, funcionan diferente, lo han confirmado varias veces y si, es mas lento que el de Nvidia, segun las filtraciones sobre un 20%.

Y el DLSS de Nvidia es la trapala para disimular la falta de rendimiento en algunos juegos con RT, en la version 2.0 reescalados de 1080p a 4k o de 1440p a 4k,pero no hay que preocuparse que segun Nvidia se ven mejor que hacer el rendering directamente a 4K y oye asi puedes poner en la publicidad que son las primeras tarjetas que 'soportan' juegos a 8K.

Y si, en los benchmarks no debian haber utilizado el smart access memory, aunque lo indicaba en las graficas de la presentación, no estaba oculto, el 'turbo' si porque las graficas de Nvidia nuevas van con OC de fabrica (y mas cuando curiosamente el driver inicial tenia subidos a tope el consumo de la grafica que por eso se hostiaban, pero eso si rendian un pelin mas)

Una grafica filtrada dlel cinebench y en single core es mas de un 20% mas rapido que el 3600XT, aunque para es mi mejor esperar a benchmarks oficiales, porque esto puede o no puede ser correcto. Supongo que hoy ya saldran los benchmarks porque ya salen a la venta los procesadores.

https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fhardzone.es%2Fapp%2Fup loads-hardzone.es%2F2020%2F11%2FRendimiento-5600X.jpg

selecter25
05/11/2020, 09:51
Lo sé, yo soy uno de esos idiotas que hacen benchs de CPUs, normalmente para esas prácticas se usan 720p, no 1080p, y es una peruanada que no veo apropiada para una presentación oficial de CPU. Al final no es un escenario real de juego, si quieres hacer eso, usa una CPU orientada a mid- low gaming, no un 5900X. Por un lado están hablando de estándar de juego a 4K, pero oye, qué bien va mi CPU a 1080p sin verse limitada por GPU. Nadie va a utilizar este escenario en la vida real, pero qué bien va.

El 3600X salió a 229€, me da lo mismo 100 que 70, y en esa generación el 3600 salió a la misma vez, no como en esta, que han hecho la guarrada de reservarlo para 2021 y que la gente pague un sobreprecio por lo mismo, porque en su día nadie en su sano juicio compró el 3600X.

Cierto, Smart Access Memory no es lo mismo que Infinity Caché, pero me sigue pareciendo una guarrada que para un bench de GPUs, utilices CPUS distintas.

Del Ray Tracing, tienen casi 1/3 de los núcleos dedicados que tiene su homónima en Nvidia, además de que no tiene extensiones propietarias en la API, utiliza DX Ray Tracing, que ya se ha visto en las consolas "next gen" que es un poco pocho en comparación.

Del DLSS, estás de broma? Lo has probado? Yo sí, y de trápala tiene poco. Que no se ve mejor, dices? Es un simple reescalado? :lol2: Cómo explicas que Death Stranding se vea así a 240p? (Sí, estás leyendo bien, 240p, 427x240):


https://youtu.be/_gQ202CFKzA

Y sí, hay un aumento de IPC del 20% en ese 5600X, habrá que ver cómo se traduce eso a juegos, en un test sintético siempre han ido lujo, pero en la práctica...

Por ejemplo de ese mismo bench, y con una supuesta igualdad de IPC en single core del 3700X y el 10600K y una ventaja en multi por los núcleos extra, no se traduce en una ventaja en juegos, de hecho el 10600K es más rápido en gaming.

Y repito, señores horda-AMD, tengo ya varios Ryzen en mi setup, no compraría un Intel a día de hoy casi en ningún escenario, solo vengo a decir que una vez que están arriba y ven que Intel no los viola, son el nuevo Intel, saco la misma CPU con algo más de IPC en single core, subo precios, limito chipsets compatibles con las nuevas CPU y me quedo tan pancho. La siguiente en 2021, Zen 4 con DDR5 en menos de un año y todo el mundo a cambiar de setup completo.

Se están convirtiendo en aquello que juraron destruir.

tartalo
06/11/2020, 22:37
Sabía que no debía de haber escrito el post, porque sabía que alguien me iba a contestar sin leerlo, o sin entenderlo. En qué momento he dicho que sea peor el AMD? He dicho justo todo lo contrario.


Joer que sensible estás.... No he dicho nada de que digas que AMD es peor ni nada, relajate.
Te contestaba eso precisamente por lo que comentas. No hará falta un tope de gama ni comparaciones absurdas con CPUs de diferente segmento.
Por lo que parece los humildes 5600x vendrán con unas buenas frecuencias de trabajo y eso unido a la mejora del IPC.... Pues eso.

El resto de lo que comentas pues poco mas puedo añadir :brindis:

selecter25
06/11/2020, 23:20
Joer que sensible estás.... No he dicho nada de que digas que AMD es peor ni nada, relajate.
Te contestaba eso precisamente por lo que comentas. No hará falta un tope de gama ni comparaciones absurdas con CPUs de diferente segmento.
Por lo que parece los humildes 5600x vendrán con unas buenas frecuencias de trabajo y eso unido a la mejora del IPC.... Pues eso.

El resto de lo que comentas pues poco mas puedo añadir :brindis:

Perdón si me he exaltado o he sonado borde, soy gili****as por maldición :D, no vodvedá a ocudid, pero me ha tocado mucho la moral que parezca que vengo de abogado del diablo, cuando si revisamos el hilo, le he pegado más palos a Intel que a las piñatas.

De hecho me ha pasado muchas veces en este post que entro, escribo una biblia y la borro porque la leo y sé que se me va a malinterpretar. Solo estoy diciendo que sí, que AMD tiene las mejores CPUs del mercado, pero que no nos olvidemos de que eso de ir a generación por año, mejorando solo un 15% del IPC en monocore, capando compatibiidad de socket, subiendo precios en el mismo segmento, falseando benchmarks, etc es lo mismo que hizo Intel cuando estaba arriba, y es por lo que se le crucificó en su día.

Que no nos ciegue el revanchismo :brindis:, cuando hacen las cosas bien, se aplaude, y cuando se hacen mal se critican.

Karkayu
07/11/2020, 09:58
Y repito, señores horda-AMD, tengo ya varios Ryzen en mi setup, no compraría un Intel a día de hoy casi en ningún escenario

Estáis(tamos) debatiendo solamente :) A mi me interesan las cosas que contáis tanto tú, Zhorro o Tártalo en este hilo porque aprendo y me ayudan a "estar al día". En ese sentido creo que todos opinamos lo mismo, no??

No creo que haya ningún señor-horda de AMD por aquí. En otros foros no te lo niego xD


solo vengo a decir que una vez que están arriba y ven que Intel no los viola, son el nuevo Intel, saco la misma CPU con algo más de IPC en single core, subo precios, limito chipsets compatibles con las nuevas CPU y me quedo tan pancho. La siguiente en 2021, Zen 4 con DDR5 en menos de un año y todo el mundo a cambiar de setup completo.

Se están convirtiendo en aquello que juraron destruir.

TODAS las empresas hacen esas mierdas cuando llegan al poder. Por eso no entiendo el 'fanboyismo'.

tartalo
07/11/2020, 18:43
Perdón si me he exaltado o he sonado borde, soy gili****as por maldición :D, no vodvedá a ocudid, pero me ha tocado mucho la moral que parezca que vengo de abogado del diablo, cuando si revisamos el hilo, le he pegado más palos a Intel que a las piñatas.

De hecho me ha pasado muchas veces en este post que entro, escribo una biblia y la borro porque la leo y sé que se me va a malinterpretar. Solo estoy diciendo que sí, que AMD tiene las mejores CPUs del mercado, pero que no nos olvidemos de que eso de ir a generación por año, mejorando solo un 15% del IPC en monocore, capando compatibiidad de socket, subiendo precios en el mismo segmento, falseando benchmarks, etc es lo mismo que hizo Intel cuando estaba arriba, y es por lo que se le crucificó en su día.

Que no nos ciegue el revanchismo :brindis:, cuando hacen las cosas bien, se aplaude, y cuando se hacen mal se critican.

No se, yo creo que vienes con algún vicio adquirido en algún otro foro. He visto discusiones en plan fanboy por otros foros con el tema de Nvidia vs AMD e Intel vs AMD que dan grima. A la peña se le va mucho la pinza XDDDD
Aquí ya sabemos que no eres un fanboy, nos lo has demostrado continuamente. Aquí todos peinamos canas ya como para esas movidas jeje

-----Actualizado-----



TODAS las empresas hacen esas mierdas cuando llegan al poder. Por eso no entiendo el 'fanboyismo'.
Eso es, lo hacen incluso cuando no son las que dominan el mercado así que......

Yo ahora espero que Intel se ponga las pilas y tenga algo a la altura de AMD para cuando esta saque los ZEN4 y halla competencia sana otra vez. Porque la columpiada que se están pegando los de Intel los últimos 5 años o más no es ni medio normal.
Busque las diferencias:
https://ark.intel.com/content/www/es/es/ark/products/126684/intel-core-i7-8700k-processor-12m-cache-up-to-4-70-ghz.html
https://ark.intel.com/content/www/es/es/ark/products/199271/intel-core-i5-10400-processor-12m-cache-up-to-4-30-ghz.html

Y de un 8700k a un 6700k hay un par de cores de difereencia y poca cosa más.... Lo dicho, no es ni medio normal.

Drumpi
09/11/2020, 12:45
Yo estoy con karkayu, esos debates son los que nos ayudan a los demás a entender algunas cosas... No todas porque a veces el nivel está demasiado alto, pero más o menos :D

De todas formas, voy a sacar el bastón de abuelo Cebolleta, y recordar que hasta hace unos años, es decir, hasta que no salió el PCIe, el ancho, comprar una gráfica nueva tenía un 50% de probabilidades de necesitar un cambio de placa, pero es que si cambiabas la CPU, el porcentaje se disparaba al 90% (98% si la torre tenía más de 3 años)... y eso incluía la RAM y puede que la gráfica, daba igual si tenías un Intel o un AMD. Hasta la aparición del "peor Sonic de la historia" (2006), no he conocido dos CPUs que fuesen compatibles con el mismo socket... o al menos no con una diferencia notable de velocidad.

Pero bueno, estoy viendo que ahora mismo no es buen momento para cambiar el PC, porque hay muchos anuncios nuevos, y lo que compre hoy se me va a quedar obsoleto el año que viene... O no sé, porque tampoco me iba a comprar algo a tope de gama, pero veo que los ríos andan bastante revueltos con nuevos anuncios.