Ver la versión completa : DEP Intel
selecter25
20/08/2019, 11:00
Lo decía porque el concepto de TDP ha cambiado mucho en Intel con los nuevos procesadores. Tanto el 9700k como el 9900k tienen un TDP de 95w según Intel.
Y la realidad es muy distinta, ni se acercan a esos 95w a plena carga. Por lo que yo he visto en los foros de hardware con pruebas de usuarios el 9700k pasa de los 120w y el 9900k de los 150w a plena carga y sin OC. Como le metas OC a uno de estos RL custom si o si.
Yo por lo que veo en los foros todo el mundo opta por RL o disipadores tochos para estos micros.
¿Ese 212x cuantos wat puede disipar?
Igual estoy yo equivocado y por 30€ es un disipador cojonudo.
Edit: Con doble ventilador este tipo de disipadores ganan mucho. por 10 euritos más yo ni me lo pensaba, pillaría este otro:
https://www.pccomponentes.com/cooler-master-hyper-212-led-turbo-red
Un poquito más caro y con muchas lucecitas de colores como le gusta a chipan
https://www.pccomponentes.com/cooler-master-masterair-ma410m-disipador-cpu
Más que falsear TDP, se ha prostituido un poco el término (no solo Intel). El TDP que indican ahora los procesadores, es únicamente para la frecuencia de stock (sin contar turbos ni historias), así que por lo general es más elevado en todos los procesadores. Además la diferencia entre la frecuencia base y la turbo cada vez es más bestia, por lo que cada vez te puedes fiar menos de ese valor.
El máximo TDP soportado por el 212 creo que eran 180w, no estoy seguro si con uno o con los dos ventiladores, donde sí sale perdiendo con otros más caros es en sonoridad, el venti es algo chustero.
180w !!!!
Vale es mucho mejor de lo que pensaba yo.
fumaflow
21/08/2019, 05:48
52752
Ya lo comenté por arriba, es una arquitectura nueva, básicamente una copia mejorada de la de Ryzen, también basada en chiplets pero con chips 3D:
https://www.youtube.com/watch?v=NZ8t2zdTo2c
https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fimages.idgesg.net%2Fim ages%2Farticle%2F2019%2F05%2F2019-05-08-40-100795894-large.jpg
Los primeros procesadores en incorporar esta arquitectura serán los nuevos Lakefield de portátiles.
https://www.3djuegos.com/noticias-ver/195514/intel-lanza-sus-primeros-procesadores-10-nm-de-10-generacin/
Me refería a la arquitectura interna del procesador, no a la de fabricación/interconexión/grafica que si son nuevas. Ahora mismo la mayoría de los problemas de seguridad los tiene con la ejecución especulativa (aunque algunos son con el modulo de control del chip) y es lo que me gustaria saber si han rediseñado de nuevo esa parte o han reutilizado la actual añadiendo mas 'mitigaciones'.
selecter25
22/08/2019, 00:35
Me refería a la arquitectura interna del procesador, no a la de fabricación/interconexión/grafica que si son nuevas. Ahora mismo la mayoría de los problemas de seguridad los tiene con la ejecución especulativa (aunque algunos son con el modulo de control del chip) y es lo que me gustaria saber si han rediseñado de nuevo esa parte o han reutilizado la actual añadiendo mas 'mitigaciones'.
Difícil saberlo a día de hoy, aunque si no parten de un diseño completamente nuevo y libre de vulnerabilidades, merecen la muerte xD (que se olviden de mi compra).
fumaflow
22/08/2019, 06:18
Me refería a la arquitectura interna del procesador, no a la de fabricación/interconexión/grafica que si son nuevas. Ahora mismo la mayoría de los problemas de seguridad los tiene con la ejecución especulativa (aunque algunos son con el modulo de control del chip) y es lo que me gustaria saber si han rediseñado de nuevo esa parte o han reutilizado la actual añadiendo mas 'mitigaciones'.
la virgen zhorro ni p idea de lo que dices pero vamos sabes latin tu de esto
-----Actualizado-----
tecnologia basada en chiclets pero en 3d
la virgen zhorro ni p idea de lo que dices pero vamos sabes latin tu de esto
-----Actualizado-----
tecnologia basada en chiclets pero en 3d
Mas quisera yo que saber latin de esto...
-----Actualizado-----
Por cierto he visto que habia rumores de que Intel iba a cambiar los objetivos de los 10nm relajando un poco los objetivos que tenia porque eran muy ambiciosos y que esta acelerando a tope los 7nm.
fumaflow
23/08/2019, 01:20
hasta donde van a llegar? a la constante de Planck?
Un poquito más caro y con muchas lucecitas de colores como le gusta a @chipan (https://www.gp32spain.com/foros/member.php?u=7125)
https://www.pccomponentes.com/cooler-master-masterair-ma410m-disipador-cpu
Con poner una caja opaca...
selecter25
27/08/2019, 01:56
Intel aprovechó la Gamescom para sacar pecho:
https://i11d.3djuegos.com/juegos/2264/_hardware_/fotos/noticias/_hardware_-4948775.jpg
“Hace un año, cuando lanzamos el i9-9900K”, dijo Troy Severson, de Intel: “se consideró el procesador para jugar más rápido del mundo. Puedo decir con sinceridad que esto no ha cambiado. Sigue siendo el procesador más rápido del mundo. Creo que la competencia ha hecho mucha publicidad al respecto, pero al hacer pruebas en usos reales, no en las pruebas sintéticas, de cómo funcionan los juegos en nuestra plataforma, nuestro 9900K queda por encima del Ryzen 9 3900X. En su caso, cuentan con 12 núcleos, mientras que nosotros tenemos ocho. Siendo todo lo directo que puedo, digo que han hecho un gran trabajo, pero todavía tenemos las mejores CPU para jugar del mercado, y vamos a seguir teniendo esa ventaja”.
Básicamente, Intel asegura que mientras que los Ryzen de AMD destacan en las pruebas sintéticas, donde realmente despuntan sus propios procesadores es en aplicaciones reales como Microsoft Office, Adobe Lightroom, Photoshop, etc., aparte de en juegos, en los que el popular Core i7-9700K “está a la par o mejora” los resultados del Ryzen 9 3900X en la mayoría de juegos.
Siguen anunciando mucho, pero sigue siendo mas de lo mismo. Ya se sabe que los intel van mejor en juegos que AMD (aunque ahora la diferencia es pequeña, pero lo importante es que siguen sin aparecer los procesadores a 10 nm y siguen teniendo que tirar de 14nm que ya no da mas de si. No se que problemas estaran teniendo porque en teoria ahora ya tendrían que estar saliendo del bache de fabricación y empezandose a ver procesadores de consumo a 10nm pero no hay nada de nada. Para mi que la fecha que se filtro que empezarian a verse en marzo/abril de 2020 va a ser cierta.
Jajajaj se agarran a un clavo ardiendo. Es lo único que hacen mejor, sacar unos poquísimos fps más en juegos. En TechPowerUP! manejan la cifra de un 4% más de media entre el 9900k y el 3900x. De risa a lo que se agarran los chicos de INTEL.
Dan un poco de penica porque la siguiente generación "Comet Lake" seguirá produciendose a 14nm y con la misma arquitectura llena de bugs de seguridad, tragona y cara de en relación calidad/precio.
Además como seguirán siendo calentorros y tragones no van a pasar de los 10 núcleos y AMD con el 3900x ya está en los 12 núcleos y aún se esperan los de 16 núcleos.
En cuanto a Ice Lake (fabricados a 10nm) no se espera que lleguen a PCs de escritorio hasta finales del 2020 o principios del 21...... Les espera una larga travesía por el desierto a los de INTEL.
-----Actualizado-----
Para mi que la fecha que se filtro que empezarian a verse en marzo/abril de 2020 va a ser cierta.
Eso es para portátiles. Para PCs de escritorio hasta finales de año si les sale todo perfecto. Como he dicho antes primero van a sacar una generación más a 14nm y más tarde la de 7nm en PC de escritorio y para entonces AMD ya tendrá listos los Zen3 así que la guerra seguirá.
selecter25
27/08/2019, 14:03
Jajajaj se agarran a un clavo ardiendo. Es lo único que hacen mejor, sacar unos poquísimos fps más en juegos. En TechPowerUP! manejan la cifra de un 4% más de media entre el 9900k y el 3900x. De risa a lo que se agarran los chicos de INTEL.
Dan un poco de penica porque la siguiente generación "Comet Lake" seguirá produciendose a 14nm y con la misma arquitectura llena de bugs de seguridad, tragona y cara de en relación calidad/precio.
Además como seguirán siendo calentorros y tragones no van a pasar de los 10 núcleos y AMD con el 3900x ya está en los 12 núcleos y aún se esperan los de 16 núcleos.
En cuanto a Ice Lake (fabricados a 10nm) no se espera que lleguen a PCs de escritorio hasta finales del 2020 o principios del 21...... Les espera una larga travesía por el desierto a los de INTEL.
-----Actualizado-----
Eso es para portátiles. Para PCs de escritorio hasta finales de año si les sale todo perfecto. Como he dicho antes primero van a sacar una generación más a 14nm y más tarde la de 7nm en PC de escritorio y para entonces AMD ya tendrá listos los Zen3 así que la guerra seguirá.
Para ser justos, al menos lo que dicen es verdad xD, Lisa Su mostró en el lanzamiento de Vega VII (a.k.a. humo VII) el combo Ryzen 3000 (sin especificar modelo) + Vega VII, y la presentó como la plataforma más potente en juegos del momento.
Y sí, AMD han encontrado una manera eficiente de apilar cores y cores, y una empresa que les fabrique sus flamantes chiplets a 7nm, ahora solo les queda conseguir que esos cores funcionen mejor que los vetustos y muertos de Intel en aplicaciones del día a día, y sobre todo en juegos, al final tienen una plataforma de escritorio en la que todo funciona peor que en un Intel si no la enfocas a tareas de workstation (para vosotros, currantes).
Cómo se consigue esto? Pues visto lo visto no apilando núcleos, sino dotando a un número de núcleos aprovechables por el software existente de la potencia necesaria, es decir, frecuencia e IPC, el talón de Aquiles de los Ryzen.
Ahora recurramos al mantra de que en un futuro los desarrolladores adaptarán el soft y los juegos a 256 núcleos, blablabla, lo llevo escuchando desde hace 10 años.
Para ser justos, al menos lo que dicen es verdad xD, Lisa Su mostró en el lanzamiento de Vega VII (a.k.a. humo VII) el combo Ryzen 3000 (sin especificar modelo) + Vega VII, y la presentó como la plataforma más potente en juegos del momento.
Y sí, AMD han encontrado una manera eficiente de apilar cores y cores, y una empresa que les fabrique sus flamantes chiplets a 7nm, ahora solo les queda conseguir que esos cores funcionen mejor que los vetustos y muertos de Intel en aplicaciones del día a día, y sobre todo en juegos, al final tienen una plataforma de escritorio en la que todo funciona peor que en un Intel si no la enfocas a tareas de workstation (para vosotros, currantes).
Cómo se consigue esto? Pues visto lo visto no apilando núcleos, sino dotando a un número de núcleos aprovechables por el software existente de la potencia necesaria, es decir, frecuencia e IPC, el talón de Aquiles de los Ryzen.
Ahora recurramos al mantra de que en un futuro los desarrolladores adaptarán el soft y los juegos a 256 núcleos, blablabla, lo llevo escuchando desde hace 10 años.
No hace falta llegar al futuro, el rendering de video y 3d ya utiliza todos los cores que tengas, tambien la compresión/descompresión de archivos, conversión de video, y algunas de las aplicaciones de office ya van mejor en AMD y eso que estan optimizadas para intel.
Y en los juegos el procesador es realmente importante solo a 1080p con una grafica decente y con eso consigues poco, porque en casi todos los casos superas el numero de frames de un monitor bueno a 120 FPS, el problema es que estos monitores son todos a 1440p o 4k (y valen un pastizal) y no tiene sentido usarlos a 1080p, no digamos de uno 1080 a 60 Hz que le sobran FPS para aburrir. Es por eso que los procesadores solo los prueban a 1080p, porque por encima el cuello de botella suele ser la tarjeta gráfica. O sea que por ejemplo el decir que intel tiene 165 frames en GTA V y AMD 159 no sirve de gran cosa, salvo para marketing puro y duro.
Project cars Intel 130 FPS AMD 120 FPS
The division 2 Intel 149 FPS AMD 149
World of tank Intel 262 FPS AMD 241
GTA V: Intel 165 AMD 159
selecter25
27/08/2019, 16:27
No hace falta llegar al futuro, el rendering de video y 3d ya utiliza todos los cores que tengas, tambien la compresión/descompresión de archivos, conversión de video, y algunas de las aplicaciones de office ya van mejor en AMD y eso que estan optimizadas para intel.
Y en los juegos el procesador es realmente importante solo a 1080p con una grafica decente y con eso consigues poco, porque en casi todos los casos superas el numero de frames de un monitor bueno a 120 FPS, el problema es que estos monitores son todos a 1440p o 4k (y valen un pastizal) y no tiene sentido usarlos a 1080p, no digamos de uno 1080 a 60 Hz que le sobran FPS para aburrir. Es por eso que los procesadores solo los prueban a 1080p, porque por encima el cuello de botella suele ser la tarjeta gráfica. O sea que por ejemplo el decir que intel tiene 165 frames en GTA V y AMD 159 no sirve de gran cosa, salvo para marketing puro y duro.
Project cars Intel 130 FPS AMD 120 FPS
The division 2 Intel 149 FPS AMD 149
World of tank Intel 262 FPS AMD 241
GTA V: Intel 165 AMD 159
Insisto, en un socket de escritorio, orientado al usuario medio, el porcentaje de gente que renderiza es marginal, me hace gracia que se diga que Intel gana en juegos por "unos pocos fps", pero luego en renderizado, 10 segundos de ventaja en Handbrake ya os parezca un mundo, parece que con un Intel no puedas hacer nada (en Premiere por ejemplo van mejor los Intel). Ya he dicho que para currar y para sacar numeritos en benchs sintéticos sí, para una plataforma de escritorio, con labores de escritorio a nivel consumidor, sigue funcionando mejor (en global) un Intel.
Y sí, los juegos se comparan a 1080p/1440p porque es el estándar de la generación, es en la resolución donde más porcentaje de usuarios juega y es la resolución (1080p) donde mayor importancia tiene una CPU, a 4K da lo mismo, con un i3 7100 sacas los mismos fps en The Witcher 3 que con un 3900X, también sería ventajista decir que va igual un i3 7100 que un Ryzen 9.
Quizás con una 2080ti sí pasas holgadamente esos 120fps, pero en un budget "realista" para 1080p, con una RTX 2060 Super/2070 es donde esos 5/10/20 fps "extra" que te da el Intel juegan un papel crucial. En los benchs simplemente tratan que la GPU no sea un factor limitante a la hora de compararlos, quien pille un i9/3900X con una 2080ti y juegue a 1080p es como si va a comprar el pan en un Harrier.
Estopero
29/08/2019, 22:51
EA, hoy me he comprado el Ryzen 3700x, vamos a darle un empujoncito a AMD que se lo merece
Y no solo eso, no me he comprado la rx 5700 xt porque estaba agotada, pero la semana que viene cae xDD
DarkDijkstra
29/08/2019, 23:34
Yo estoy empezando a darle vueltas a la idea de renovar mi equipo (que no lo he dicho en el hilo de cambios de ordenador, pero tiene ya sus añitos) aprovechando para desgravar cosas que luego hay que pagar IRPF XD
Ahora mismo tengo un i7 3700T con 8GB de ram, todo metido en una caja pequeñita, sin GPU ni nada. Para lo que uso (programar, algunas cosas en photoshop y jugar muy casualmente) me funciona perfectamente, pero se nota que cuando le metes caña ya no es un equipo "al día".
Además lo tengo en plan "hackintosh" pero con El Capitán, versiones más nuevas daban problemas de estabilidad y me pierdo algunas tonterías muy útiles como el airdrop y cosas así.
Al lío, le estoy dando muchas vueltas y no sé si tirar por Intel (lo que pensaba desde un principio por seguir con hackintosh) o liarme la manta a la cabeza y probar un ryzen de estos nuevos (que tengo ganas también, no uso amd desde un athlon XP 2400+) viendo que hay parches para hackintosh.
Un detalle es que (quitando el 3400G o alguno de esos) vienen sin GPU, verdad? Así que tendría que meterle una GPU (estoy entre usar una caja mini-itx muy mini tipo la Chopin o una de las que le pones la GPU en paralelo a la placa)
Querría que todo quedase muy muy compacto, pero casi la tarjeta que elegiría sería una Vega 56 (por aquello de maximizar la compatibilidad con hackintosh) y como solo está la Powercolor en formato mini, supongo que tocaría meter una "larga".
Pues eso, que barajo ahora mismo una configuración con un i7 8700 (no quiero la "k" para nada, quiero un equipo muy pequeño y no voy a subirle la frecuencia) con o sin gráfica (ambas opciones me valdrían, para unity las integradas de intel más o menos me hacen el apaño, siempre que no tenga que andar tirando lightmaps a saco ; ) o tirar por un... 3700X? 3600?
Supongo que para lo que uso (no voy a jugar mucho, aunque le metiese la GPU) el 3700X estaría muy bien, no? Luego el 3600 supongo que sería casi similar al 8700, ambos más baratos que el 3700X, aunque el 3600 algo más caro por la placa y la memoria, supongo... aunque con opción a ampliar en el futuro... No me importa gastar un poco, pero tampoco quiero tirar la casa por la ventana.
En fin, ¿opiniones sin fundamento? (para que luego pueda ignorarlas todas y hacer lo que me dé la gana, por supuesto... ; )
akualung
30/08/2019, 13:11
Un detalle es que (quitando el 3400G o alguno de esos) vienen sin GPU, verdad?
Creo que todos los Ryzen que acaban en G tienen gráfica integrada. Lo malo es que esas cpus no suelen ser las gamas más altas de Ryzen.
EA, hoy me he comprado el Ryzen 3700x, vamos a darle un empujoncito a AMD que se lo merece
Y no solo eso, no me he comprado la rx 5700 xt porque estaba agotada, pero la semana que viene cae xDD
Cuando la tengas, por fa comenta que tal anda de ruido que le estan dando bastante caña y es imposible de comprobar en las reviews de youtube.
Estopero
31/08/2019, 09:27
Cuando la tengas, por fa comenta que tal anda de ruido que le estan dando bastante caña y es imposible de comprobar en las reviews de youtube.
Sí que dicen que hacen bastante ruido y son calientes, pero parece que los modelos custom lo mejoran bastante, ya os contaré
Estopero
01/09/2019, 09:43
Pues ya he pedido la Sapphire 5700 xt Pulse, pero llega a final de semana, estaba pemsando si esperar a la Powercolor 5700 xt Red Devil, pero no me apetece esperar a que salga, que ya he vendido mi PC y estoy sin nada xD
Acabo de ver un video donde se explica muy bien la situación actual de Intel y AMD. El muchacho lo expone todo de forma sencilla y no hace falta ser un ingeniero para entender lo que va diciendo.
https://www.youtube.com/watch?v=pQgWQ7X32Pw
A mi me ha resultado interesante :)
Acabo de ver un video donde se explica muy bien la situación actual de Intel y AMD. El muchacho lo expone todo de forma sencilla y no hace falta ser un ingeniero para entender lo que va diciendo.
https://www.youtube.com/watch?v=pQgWQ7X32Pw
A mi me ha resultado interesante :)
Sí, el vídeo es muy interesante e instructivo. Muchas gracias.
... Pero no termino de ver por qué la configuración de AMD es más rápida que la de Intel. Le veo ventajas, como que se desperdicia menos superficie de silicio en caso de fallo, que es más sencillo y escalable... pero en cuanto empiezo a darle vueltas, no veo la razón por la que el sistema de AMD es mejor.
La configuración de grupos de 4 núcleos en estrella reduce el número de saltos, pero satura la parte central con datos que vienen y van, entre núcleos y fuera de la CPU. Aparte, una de las partes más costosas en velocidad en un CI es la conexión de la pastilla de silicio con los terminales del chip...
Y la gestión de recursos ya era complicado con un núcleo, no me lo imagino con 32 :awesome:
Pero bueno, si algo se ha demostrado en informática es que, cuanto más simple, mejor funciona, y esto es una explicación "a grosso modo", así que tampoco hay que darle muchas vueltas.
Y ya están hablando de construcciones de CPUs en 3D, que ya se hablaba en los 80, pero a nivel de CI, y no "apilando" chips. Sólo falta que den el paso y hagan por fin procesadores cuánticos :lol:
Sí, el vídeo es muy interesante e instructivo. Muchas gracias.
... Pero no termino de ver por qué la configuración de AMD es más rápida que la de Intel. Le veo ventajas, como que se desperdicia menos superficie de silicio en caso de fallo, que es más sencillo y escalable... pero en cuanto empiezo a darle vueltas, no veo la razón por la que el sistema de AMD es mejor.
La configuración de grupos de 4 núcleos en estrella reduce el número de saltos, pero satura la parte central con datos que vienen y van, entre núcleos y fuera de la CPU. Aparte, una de las partes más costosas en velocidad en un CI es la conexión de la pastilla de silicio con los terminales del chip...
Y la gestión de recursos ya era complicado con un núcleo, no me lo imagino con 32 :awesome:
Pero bueno, si algo se ha demostrado en informática es que, cuanto más simple, mejor funciona, y esto es una explicación "a grosso modo", así que tampoco hay que darle muchas vueltas.
Y ya están hablando de construcciones de CPUs en 3D, que ya se hablaba en los 80, pero a nivel de CI, y no "apilando" chips. Sólo falta que den el paso y hagan por fin procesadores cuánticos :lol:
Es un tema de costes y crecimiento, con el sistema de AMD es muy facil subir de nucleos añades mas 'pastillas¡ con cores y ya esta, ademas al ser mas pequeña la superficie es menos propensa a fallos y se pueden meter mas por oblea, en el caso de intel subir el numero de cores implica hacer un procesador que tenga una superficie mayor y con mayor numero de transistores y al ser mas grande aumenta las posibilidades de que tenga fallos, el coste (menos procesadores por oblea) y el consumo.
Ademas esa configuración le permite a AMD que solo fabricando una pastilla con los cores y otra con las entradas y salidas, montar un monton de configuraciónes de procesador (6, 8, 12, 16, ...) lo que hace que sea mas facil y barato sacar un procesador nuevo, si mañana quisieran sacar uno con 24 cores solo tendrían que poner tres pastillas con 8 cores y a tirar millas.
Estopero
18/09/2019, 22:48
Es un tema de costes y crecimiento, con el sistema de AMD es muy facil subir de nucleos añades mas 'pastillas¡ con cores y ya esta, ademas al ser mas pequeña la superficie es menos propensa a fallos y se pueden meter mas por oblea, en el caso de intel subir el numero de cores implica hacer un procesador que tenga una superficie mayor y con mayor numero de transistores y al ser mas grande aumenta las posibilidades de que tenga fallos, el coste (menos procesadores por oblea) y el consumo.
Ademas esa configuración le permite a AMD que solo fabricando una pastilla con los cores y otra con las entradas y salidas, montar un monton de configuraciónes de procesador (6, 8, 12, 16, ...) lo que hace que sea mas facil y barato sacar un procesador nuevo, si mañana quisieran sacar uno con 24 cores solo tendrían que poner tres pastillas con 8 cores y a tirar millas.
AMD ha llevado el escalado horizontal a nivel de cores xD
Es un tema de costes y crecimiento, con el sistema de AMD es muy facil subir de nucleos añades mas 'pastillas¡ con cores y ya esta, ademas al ser mas pequeña la superficie es menos propensa a fallos y se pueden meter mas por oblea, en el caso de intel subir el numero de cores implica hacer un procesador que tenga una superficie mayor y con mayor numero de transistores y al ser mas grande aumenta las posibilidades de que tenga fallos, el coste (menos procesadores por oblea) y el consumo.
Ademas esa configuración le permite a AMD que solo fabricando una pastilla con los cores y otra con las entradas y salidas, montar un monton de configuraciónes de procesador (6, 8, 12, 16, ...) lo que hace que sea mas facil y barato sacar un procesador nuevo, si mañana quisieran sacar uno con 24 cores solo tendrían que poner tres pastillas con 8 cores y a tirar millas.
Sí, todo eso se menciona en el vídeo.
El problema es que a la hora de pasar de, por ejemplo, los 14nm de las pistas de la oblea al ancho del terminal del chip (ponle 1000nm) se produce un efecto de retardo, no recuerdo si por efecto capacitivo o resistivo, que se puede reducir por diversas técnicas. El caso es que eran varios ciclos de reloj, y de ahí la tendencia de que todo se integrase en el mismo chip.
Por otra parte, vale que tengas 8, 16, 32 núcleos, conectados de 4 en 4, al chip central, pero el "bus de datos" del chip central es limitado. Imagina 16 núcleos mandando información de 32bits a la vez a través del chip central. La solución de Intel permite que, aunque un camino esté saturado, se pueda usar otro, aunque no sea el más corto, pero al menos no tiene que "esperar su turno".
Ya digo, parece que la solución de AMD no es óptima, pero parece que es tan sencilla que funciona, o hay algo más por ahí que no se nos cuenta... o a lo mejor es que los cores de AMD son más eficientes que los de Intel, y requieren menos intercambio de datos. No lo sé.
Sí, todo eso se menciona en el vídeo.
El problema es que a la hora de pasar de, por ejemplo, los 14nm de las pistas de la oblea al ancho del terminal del chip (ponle 1000nm) se produce un efecto de retardo, no recuerdo si por efecto capacitivo o resistivo, que se puede reducir por diversas técnicas. El caso es que eran varios ciclos de reloj, y de ahí la tendencia de que todo se integrase en el mismo chip.
Por otra parte, vale que tengas 8, 16, 32 núcleos, conectados de 4 en 4, al chip central, pero el "bus de datos" del chip central es limitado. Imagina 16 núcleos mandando información de 32bits a la vez a través del chip central. La solución de Intel permite que, aunque un camino esté saturado, se pueda usar otro, aunque no sea el más corto, pero al menos no tiene que "esperar su turno".
Ya digo, parece que la solución de AMD no es óptima, pero parece que es tan sencilla que funciona, o hay algo más por ahí que no se nos cuenta... o a lo mejor es que los cores de AMD son más eficientes que los de Intel, y requieren menos intercambio de datos. No lo sé.
AMD ha aumentado la cache de nivel 3 en los cada pastilla y ha aumentado la eficiencia en el resto de caches para minimizar el problema del acceso a memoria a traves del chip de E/S porque es mas lento que si se hicera desde las propias cores y por las pruebas no parece que funcione mal.
El sistema de malla de Intel es mejor y mas rapido pero tiene el problema de que todos cores tienen que estar en el mismo chip por lo que si quieres aumentar de cores aumentas el tamaño del chip con los problemas que eso conllleva, por eso Intel estaba probando con distintas arquitecturas de interconexion de pastillas de procesadores, porque el diseño monolitico ya no da mucho mas de si.
Parece que la ventas de AMD estan empezando a hacerle daño de verdad a Intel, acaban de anunciar una reducción del 50% del precio para la nueva linea de procesadores, buenas noticias para todos (no para ellos :D) En la tabla se pueden ver los precios de la novena generación y los de la decima, tambien los de Toms hardware son unos cachondos porque los comparan solo con los Thread Ripper y no con los Ryzen 9 y 7 ya que por numero de cores son similares (aunqe no sean la gama de altas prestaciones de AMD), supongo que porque salen mas baratos por core y con bastante menos consumo..
Intel 10th-Gen Cascade Lake-X Processor Lineup
Cores /
Threads
Base /
Boost (GHz)
L3 Cache
(MB)
PCIe 3.0
DRAM
TDP
MSRP/RCP
Price
Per Core
TR 2990WX
32 / 64
3.0 / 4.2
64
64 (4 to PCH)
Quad DDR4-2933
250W
$1799
$56
TR 2970WX
24 / 48
3.0 / 4.2
64
64 (4 to PCH)
Quad DDR4-2933
250W
$1299
$54
Core i9-10980XE
18 / 36
3.0 / 4.8
24.75
48
Quad DDR4-2933
165W
$979
$54.39
Core i9-9980XE
18 / 36
3.0 / 4.5
24.75
44
Quad DDR4-2666
165W
$1979
$110
Core i9-10940X
14 / 28
3.3 / 4.8
19.25
48
Quad DDR4-2933
165W
$784
$56
Core i9-9940X
14 / 28
3.3 / 4.5
19.25
44
Quad DDR4-2666
165W
$1387
$99
TR 2920X
12 / 24
3.5 / 4.3
32
64 (4 to PCH)
Quad DDR4-2933
180W
$649
$54
Core i9-10920X
12 / 24
3.5 / 4.8
19.25
48
Quad DDR4-2933
165W
$689
$57.41
Core i9-9920X
12 / 24
3.5 / 4.5
19.25
44
Quad DDR4-2666
165W
$1189
$99
Core i9-10900X
10 / 20
3.7 / 4.7
19.25
48
Quad DDR4-2933
165W
$590
$59
Core i9-9900X
10 / 20
3.5 / 4.5
19.25
44
Quad DDR4-2666
165W
$989
$98.9
Core i9-9820X
10 / 20
3.3 / 4.2
16.5
44
Quad DDR4-2666
165W
$889
$88.9
https://www.tomshardware.com/news/intel-cascade-lake-x-pricing-availability-launch-specifications-10th-generation,40526.html
eToiAqui
02/10/2019, 22:43
Tienen que salir los TR de la serie 3xxx en breve, ¿no? Es el mundo al revés, Intel sacando su nueva revisión para competir con la generación actual de AMD.
Tienen que salir los TR de la serie 3xxx en breve, ¿no? Es el mundo al revés, Intel sacando su nueva revisión para competir con la generación actual de AMD.
Si, salen en noviembre y los de intel curiosamente tambien. Esta claro que los ryzen estan forzando a Intel a hacer cosas que no quiere, tuvieron que sacar la 8 con mas cores, la novena muy rapido y con recortes en el precio y la decima tambien rapido y con un recorte de precios bestial. Tan rapido que solo esta ultima generación tiene las mitigaciones de las vulnerabilidades solo de Meltdown y Spectre en hardware, el resto de vulnerabilidades estan mitigadas en software o sin parchear.
Veremos que precio le ponen los de AMD o que sorpresa nos dan, porque esta claro que los precios que ha puesto Intel son para competir con la nueva generación de TR (filtraciones everywhere), pero podría pasar como con las tarjetas graficas que se descuelguen con precios aun mas bajos.
En cualquier caso bueno para nosotros que ahora no tenemos que vender un hijo para comprar un procesador de gama alta.
AMD le está comiendo la tostada a Intel como era de esperar:
https://www.noticias3d.com/noticia.asp?idnoticia=78704
Y la misma tabla de arriba pero más bonita ;)
https://www.noticias3d.com/imagenes/noticias/201910/intel%20core.jpg
Yo contento. Mi actual PC es un 7800x con una buena placa X299 que soporta todos esos micros :)
Por ahora voy sobrado, a ver si la guerra sigue y en un futuro puedo cambiar a un micro de esos con muchos cores aunque sea de 2a mano y a buen precio.
Entiendo que no es buen momento aun para cambiar/actualizar mi sobremesa, hasta que no se estabilice este baile de precios :awesome:
Los que se acaben de comprar un Intel serie X de la novena generación se deben de estar tirando de los pelos XD.
Entiendo que no es buen momento aun para cambiar/actualizar mi sobremesa, hasta que no se estabilice este baile de precios :awesome:
No tiene pinta de que sea un buen momento, salvo que compres un modelo antiguo de Ryzen o Intel, ahora habrá que ver como reacciona AMD a la bajada de precios de Intel, ademas AMD tiene que sacar todavia los Ryzen de gama 'media/baja' como el 3500 y el 3500x.
-----Actualizado-----
Los que se acaben de comprar un Intel serie X de la novena generación se deben de estar tirando de los pelos XD.
Si, porque no estaban baratos precisamente y los nuevos cuestan la mitad y son un poco mejores (mas pcis, mas turbo boost, varias mitigaciones en hardware y un autooverclock como el de AMD).
Uffff cada vez se lo pone más chungo AMD a los de Intel....
https://www.youtube.com/watch?v=oHftoLmoJkA
selecter25
29/10/2019, 13:02
Uffff cada vez se lo pone más chungo AMD a los de Intel....
https://www.youtube.com/watch?v=oHftoLmoJkA
Soy yo que tengo sueño? Yo veo dos CPU que rinden igual, siendo el Intel más barato.
Yo lo que veo más bien es un motivo para no comprar ahora el 3600 para jugar xD:
https://youtu.be/xz5JQrBoTLQ
Soy yo que tengo sueño? Yo veo dos CPU que rinden igual, siendo el Intel más barato.
Yo veo dos CPU que cuestan prácticamente lo mismo y el AMD rinde más....
Yo lo que veo más bien es un motivo para no comprar ahora el 9700f-9900k, etc para jugar xD:
Fixed!!!
En las gamas altas Intel se agarraba al clavo de que sacaba unos míseros frames más en los juegos. En las gamas bajas parece que ni eso.
selecter25
29/10/2019, 21:20
Yo veo dos CPU que cuestan prácticamente lo mismo y el AMD rinde más....
Fixed!!!
En las gamas altas Intel se agarraba al clavo de que sacaba unos míseros frames más en los juegos. En las gamas bajas parece que ni eso.
Si más son 3/4fps de media (por encima de los 100fps), pues sí.
Ahora, parece que has obviado un pequeño detalle, el Ryzen 3500 no se vende al público como tal, solo está reservado a equipos OEM. Jake mate haemede! :D
jaja seras pirata.... Es lo mismo que tu has hecho por 10$
Por ahora solo lo tienen los chinos pero tranquilo ya llegará el R5 3500x su hermano vitaminado con más caché ;)
selecter25
29/10/2019, 22:22
jaja seras pirata.... Es lo mismo que tu has hecho por 10$
Por ahora solo lo tienen los chinos pero tranquilo ya llegará el R5 3500x su hermano vitaminado con más caché ;)
Y más caro [wei4]
selecter25
29/10/2019, 22:25
Ya veremos....
Sería la primera variante X más barata que la "no X" :lol2:
Para cuando salga aquí el X el no X igual hasta lo regalan los txinos
selecter25
29/10/2019, 22:43
Para cuando salga aquí el X el no X igual hasta lo regalan los txinos
Chinito sel listo, chinito vende Xeon de la basula balato, chi ojos glandes compla mucho Xeon (E5 2689 por 45€), chinito sube plesio (por 70€ va ya). Chi ojos glandes compla mucho Lysen chinco en aliesples (1600 estaba por 75€ y el 2600 por 90€), chinito sube plesio.
Se van a ver 4 R5 3500 contados, como las 960/1060 OEM en su día, los chinos venden restos de oficinas y servers, no de premontados. Espero la review cuando te llegue el tuyo :brindis: :D.
selecter25
03/11/2019, 20:57
Vamos a darle alegría a esto. No sé si os acordáis de los procesadores Intel Confidential que os enseñé hace un tiempo, versiones de ingeniería de "muestra" que les dejaban a los fabricantes para probar el producto, normalmente con frecuencias muy bajas y blablabla (yo tengo un i7 6700 de estos subido a 4Ghz que ya enseñé en su día). Pues bien, salieron sus equivalentes en serie 7, 8 y... ahora 9. Con ustedes, el i9 9900T!
Hay 3 versiones, 35W,65W y 95W. La versión de 35W (QQC0) escala hasta los 3,6Ghz y ronda los 199€, la versión 65W (QQBZ)hasta los 4,2Ghz y ronda los 250€, la versión 95W (QQBY) escala hasta los 5Ghz sin AVX y 4,7 con AVX, 350€.
https://es.aliexpress.com/item/4000121140408.html
https://es.aliexpress.com/item/4000098360505.html
https://es.aliexpress.com/item/4000098267868.html
https://ae01.alicdn.com/kf/Ufc3e5d5b73004243ac01c4006b04a255H.jpg
https://ae01.alicdn.com/kf/Uc28e028fde6e4be893ee0826c6217c62o.jpg
Pssssssss me pàrecen caros. Aquí están a 479 y 459€ el K y KF respectivamente.
Un procesador que es un sample de esos, de segunda mano y de china deberia ser mucho más barato. A ver como evolucionan los precios, yo esperaria.
selecter25
03/11/2019, 22:19
Pssssssss me pàrecen caros. Aquí están a 479 y 459€ el K y KF respectivamente.
Un procesador que es un sample de esos, de segunda mano y de china deberia ser mucho más barato. A ver como evolucionan los precios, yo esperaria.
El de 199€ te parece caro? Con un TDP de 35W? Y qué me dices del Ryzen 3500X con el que saltaste hace 4 días, que sale por 150 pavos en las mismas condiciones (segunda mano y chino)? A 3.6Ghz (que es la velocidad del 9900K stock) sigue funcionando muuuy bien, y son 8 cores/16 hilos:
https://www.youtube.com/watch?v=JYwf1zqLO_A
https://www.youtube.com/watch?v=UZUKyS9CtQw
En serio es DEP?
Hablo de igualdad de condiciones. He comparado el K y KS que equivalen al del tercer link que has puesto (QQBY) que cuesta 354€. pongo captura porque estos precios flucuan mucho supongo...
53070
El de 199€ te parece caro? Con un TDP de 35W? Y qué me dices del Ryzen 3500X con el que saltaste hace 4 días, que sale por 150 pavos en las mismas condiciones (segunda mano y chino)? A 3.6Ghz (que es la velocidad del 9900K stock) sigue funcionando muuuy bien, y son 8 cores/16 hilos:
Si claro comparando un micro con garantia y todo en regla con un "sample" chino pedido en Aliexpres y enviado por chinapost para que no te pillen los de aduanas.....
Además que deberias comparar esos "samples" por ejemplo con el R7 3700 que cuesta lo mismo que ese sample de 354€
https://www.pccomponentes.com/amd-ryzen-7-3700x-36ghz-box
Me parecen carísimos esos samples. Por el mismo precio te montas el R7 3700 comprado aquí
selecter25
03/11/2019, 23:17
Hablo de igualdad de condiciones. He comparado el K y KS que equivalen al del tercer link que has puesto (QQBY) que cuesta 354€. pongo captura porque estos precios flucuan mucho supongo...
53070
Si claro comparando un micro con garantia y todo en regla con un "sample" chino pedido en Aliexpres y enviado por chinapost para que no te pillen los de aduanas.....
Además que deberias comparar esos "samples" por ejemplo con el R7 3700 que cuesta lo mismo que ese sample de 354€
https://www.pccomponentes.com/amd-ryzen-7-3700x-36ghz-box
Me parecen carísimos esos samples. Por el mismo precio te montas el R7 3700 comprado aquí
Los 3 samples son la misma CPU, con diferencia de frecuencia (algunos modelos anteriores con la igpu deshabilitada). En todos los samples de Intel sucede esto, el mío de serie 6 (QHQG) es de los que sube a 4.2Ghz por bclk, pero los hay más baratos (QH8G) que se quedan en 3.6/3.8Ghz. Con estos serie 9 igual, el de 199€ es igual, 8 cores 16 hilos con frecuencia a 3.6ghz, que es la comparativa que te he puesto yo, un 9900K de stock (a 3.6Ghz). Son 199€, un 3700 cuesta casi el doble.
Estos tambien hay que subirlos por bclk o vienen desbloqueados?????
selecter25
04/11/2019, 00:44
Estos tambien hay que subirlos por bclk o vienen desbloqueados?????
Estos serie 9 ya vienen así, si te fijas en las reviews de los usuarios, el primer ruso (la primera foto que yo pongo) lo tiene con boost a 3,6Ghz en una placa H310 de Gigabyte. En la otra imagen, con una Z390, se ve que el turbo llega a 3.8Ghz.
En los serie 6 solo aceptaba OC en placas Z170 (y en muchas había que flashear BIOS), en H110 solo soportaba poquitas placas y no dejaba hacer OC y el mío se quedaba en 2.2Ghz.
Está el i7 8700T por unos 135€, 6 cores/12 hilos, frecuencia base 2.9Ghz y boost a 3.4Ghz (tdp 35w), realmente son caros para lo que deberían costar, se están aprovechando los chinorris de la fiebre de estas CPU en Rusia. Los de serie 6 ya se pueden encontrar (algunos modelos) por 60€, así que imagino que acabarán bajando.
Si no estuviese tan sumamente pelado este mes, pillaba uno solo por el cacharreo y por comprobarlo personalmente.
Podría poner un i9 de esos en una placa que lleva un i7-6700?
Podría poner un i9 de esos en una placa que lleva un i7-6700?
Supongo que tendrás una placa base serie 100 o 200 así que no. Para estos micros hace falta una de la serie 300.
Edit:
Esa es la teoria si te apetece cacharrear....
https://elchapuzasinformatico.com/2018/11/ocean-un-intel-core-i9-9900k-5-50-ghz-con-una-placa-base-con-chipset-z170/
https://www.win-raid.com/t3413f16-GUIDE-Coffee-Lake-CPUs-on-Skylake-and-Kaby-Lake-motherboards.html
Si no estuviese tan sumamente pelado este mes, pillaba uno solo por el cacharreo y por comprobarlo personalmente.
SI quieres cacharrear con estos samples esperate un par de meses.
Yo creo que tienen que bajarlos de precio y mucho. Aparte de que son caros para lo que ofrecen, a finales de este mes salen los Cascade Lake X que van a tirar los precios de la relación cores por euro. Me imagino que tendrá efecto dominó en los 9900k etc....
¿que opinión os merece ésta noticia?
https://www.xataka.com/componentes/amd-saca-pecho-sus-nuevos-threadripper-32-nucleos-que-dejan-mordiendo-polvo-momento-a-intel
selecter25
07/11/2019, 22:59
¿que opinión os merece ésta noticia?
https://www.xataka.com/componentes/amd-saca-pecho-sus-nuevos-threadripper-32-nucleos-que-dejan-mordiendo-polvo-momento-a-intel
Que en este segmento Intel no tiene absolutamente nada que hacer, aquí es realmente donde la arquitectura de AMD cobra sentido.
Como "pega", pues lo que se le ha venido criticando a Intel y de lo que se aprovecha ahora AMD, ajusta el precio al máximo posible y se necesitan placas nuevas por meter un chipset nuevo "por la cara". Lo mismo para las APUs, refritos a 12nm hasta que salgan las nuevas consolas.
Que en este segmento Intel no tiene absolutamente nada que hacer, aquí es realmente donde la arquitectura de AMD cobra sentido.
Como "pega", pues lo que se le ha venido criticando a Intel y de lo que se aprovecha ahora AMD, ajusta el precio al máximo posible y se necesitan placas nuevas por meter un chipset nuevo "por la cara". Lo mismo para las APUs, refritos a 12nm hasta que salgan las nuevas consolas.
En el caso del threadripper nuevo el cambio no es por la cara, han aumentado las conexiones entre el procesador y el chipset a 8 lineas pci 4 (antes 4) para aumentar la velocidad de transmision de datos entre el procesador y han aumentado el numero de canales pci del procesador de 64 a 88. Aparte de eso AMD dejo claro que solo el AM4 temdria vigencia hasta el 2020, el TR4 no.
Aparte de que si quieres utilizar las conexiones PCI 4 (SSD de alta velocidad p.e.) tienes que cambiar de placa si o si porque las antiguas solo soportan pci 3.
selecter25
08/11/2019, 20:26
En el caso del threadripper nuevo el cambio no es por la cara, han aumentado las conexiones entre el procesador y el chipset a 8 lineas pci 4 (antes 4) para aumentar la velocidad de transmision de datos entre el procesador y han aumentado el numero de canales pci del procesador de 64 a 88. Aparte de eso AMD dejo claro que solo el AM4 temdria vigencia hasta el 2020, el TR4 no.
Aparte de que si quieres utilizar las conexiones PCI 4 (SSD de alta velocidad p.e.) tienes que cambiar de placa si o si porque las antiguas solo soportan pci 3.
Claro, claro, Intel hace lo mismo y nos escamamos. En serio tampoco podían ajustar los pines para que las placas nuevas soportasen CPUs de la anterior generación? La siguiente qué será? Dar soporte de máxima velocidad al USB 3.2 que han capado y otro chipset nuevo?
AMD es el Pablo Iglesias de los fabricantes de hard :D.
A mí el que más me gusta es el Athlon 3000G, si las placas de AMD no fuesen tan jodidamente caras (esto tampoco es casualidad) sería un buen candidato low cost para una plataforma de emulación.
Claro, claro, Intel hace lo mismo y nos escamamos. En serio tampoco podían ajustar los pines para que las placas nuevas soportasen CPUs de la anterior generación? La siguiente qué será? Dar soporte de máxima velocidad al USB 3.2 que han capado y otro chipset nuevo?
AMD es el Pablo Iglesias de los fabricantes de hard :D.
A mí el que más me gusta es el Athlon 3000G, si las placas de AMD no fuesen tan jodidamente caras (esto tampoco es casualidad) sería un buen candidato low cost para una plataforma de emulación.
AMD en la gama de consumo lleva 3 años con el mismo socket (AM4) y todavía aguantará un año mas o sea unos cuatro años y aunque en la gama profesional no garantizaban nada el socket TR4 lleva 2 años y poco.
Y para sacar mas lineas PCI (24 lineas mas que el anterior) no les queda mas remedio que utilizar mas pines y es bastante seguro que han tenido que reorganizar el pineado, no es colocar las lineas nuevas en los pines que haya vacios porque las conexiones pci4 son muy sensibles a la distancia y al ruido.
Que entiendes por caras (estoy un poco desconectado de los precios de las placas base), las que he visto andan entre 40 y 50 euros mas o menos.
selecter25
09/11/2019, 12:11
AMD en la gama de consumo lleva 3 años con el mismo socket (AM4) y todavía aguantará un año mas o sea unos cuatro años y aunque en la gama profesional no garantizaban nada el socket TR4 lleva 2 años y poco.
Y para sacar mas lineas PCI (24 lineas mas que el anterior) no les queda mas remedio que utilizar mas pines y es bastante seguro que han tenido que reorganizar el pineado, no es colocar las lineas nuevas en los pines que haya vacios porque las conexiones pci4 son muy sensibles a la distancia y al ruido.
Que entiendes por caras (estoy un poco desconectado de los precios de las placas base), las que he visto andan entre 40 y 50 euros mas o menos.
Creo que no me has entendido, me refería a que las placas nuevas fuesen compatibles con CPUs anteriores "reorganizando bien" el pinout, hay multitud de sockets que lo hacen, incluso en AMD. Para mí es un upgrade a destiempo, solo SSDs caros y el nuevo USB 3.2 Gen 2 se aprovechan de las líneas PCIE, pero... misteriosamente deciden capar este último de 20 Gb/s a 10 Gb/s, qué grandes!
Y sí, 4 años con AM4 porque cuando salió AM4, AMD seguía comiéndose los mocos por detrás de Intel, ha sido sacar Ryzen 2, acaparar mercado y cargarse el TR4 en 2 años. Y en AM4 desktop me reitero, 2 años de compatibilidad parcial con lo que "funciona mejor que Intel" cuando han cogido la delantera. Luchemos contra la casta hasta que me convierta en ella. Espero que con Ryzen 3 no me den la razón.
Lo de las placas? Un despropósito. Sacan los nuevos Ryzen, se enorgullecen de que sean compatibles con algunos chipsets actuales y... baia baia, las placas X470 han pasado a costar prácticamente lo mismo que las X570 en lugar de bajar de precio, las placas entry level como las de socket A320 de hace 3 años al mismo precio que una B450, no hay alternativa barata, sí vieja.
A mi parecer podían haberlo hecho mucho mejor.
Por menos de 70€ tienes palcas B450 de primeras marcas donde montar micros de hasta 8 nucleos... De ahí para arriba ya conviene meterse en placas X570 con más fases y tal para alimentar los 10, 12 cores.... El futuro 3950x con 16cores/32hilos.
Es una oferta muy amplia y muy buena.
selecter25
09/11/2019, 14:20
Por menos de 70€ tienes palcas B450 de primeras marcas donde montar micros de hasta 8 nucleos... De ahí para arriba ya conviene meterse en placas X570 con más fases y tal para alimentar los 10, 12 cores.... El futuro 3950x con 16cores/32hilos.
Es una oferta muy amplia y muy buena.
Que sí, pero de nada me sirve que saquen CPUs de entrada muy atractivas (Athlon 200GE, APUS, ahora el 3000GE) para tener que irme a una placa que cuesta más que la CPU, y ojo como te metas en builds mini itx (benditos tiempos cuando habían placas para las APUS mini itx por 70 pavos). En términos económicos, han jodido la gama de entrada y han situado la gama alta a precios monopolistas, lo normal es que las X470 hubiesen bajado a menos de 100€.
Y sí, puedes comprar B450 en formato microATX por menos de 70€, primeras marcas, con unas opciones en BIOS recortadísimas, con unas fases malas, sin disipación en estas... No son buenas placas.
Creo que no me has entendido, me refería a que las placas nuevas fuesen compatibles con CPUs anteriores "reorganizando bien" el pinout, hay multitud de sockets que lo hacen, incluso en AMD. Para mí es un upgrade a destiempo, solo SSDs caros y el nuevo USB 3.2 Gen 2 se aprovechan de las líneas PCIE, pero... misteriosamente deciden capar este último de 20 Gb/s a 10 Gb/s, qué grandes!
Y sí, 4 años con AM4 porque cuando salió AM4, AMD seguía comiéndose los mocos por detrás de Intel, ha sido sacar Ryzen 2, acaparar mercado y cargarse el TR4 en 2 años. Y en AM4 desktop me reitero, 2 años de compatibilidad parcial con lo que "funciona mejor que Intel" cuando han cogido la delantera. Luchemos contra la casta hasta que me convierta en ella. Espero que con Ryzen 3 no me den la razón.
Lo de las placas? Un despropósito. Sacan los nuevos Ryzen, se enorgullecen de que sean compatibles con algunos chipsets actuales y... baia baia, las placas X470 han pasado a costar prácticamente lo mismo que las X570 en lugar de bajar de precio, las placas entry level como las de socket A320 de hace 3 años al mismo precio que una B450, no hay alternativa barata, sí vieja.
A mi parecer podían haberlo hecho mucho mejor.
¿Compatibilidad parcial?, el socket y el chipset es compatible totalmente, otra cosa es que algunos fabricantes hayan pasado de actualizar el firmware de las placas mas baratas para que sean compatibles con los zen 2.
Sigo sin ver cual es el problema de que en 2 años hayan sacado un socket nuevo para TR2 cuando ya habian anunciado que no tenia garantizada la continuidad y no creo que meter 24 lineas PCI 4 (no se cuantos pines serán) se pueda hacer aprovechando los huecos sin reorganizar teniendo en cuenta lo sensible que es este bus.
Las A320 micro atx estan a 50 leuros y las B350 a 60 leuros, las B450 hay alguna por sesenta y poco, x470 a partir de 92 leuros, y las x570 a partir de 132, no veo que esten igualadas.
selecter25
09/11/2019, 18:34
¿Compatibilidad parcial?, el socket y el chipset es compatible totalmente, otra cosa es que algunos fabricantes hayan pasado de actualizar el firmware de las placas mas baratas para que sean compatibles con los zen 2.
Sigo sin ver cual es el problema de que en 2 años hayan sacado un socket nuevo para TR2 cuando ya habian anunciado que no tenia garantizada la continuidad y no creo que meter 24 lineas PCI 4 (no se cuantos pines serán) se pueda hacer aprovechando los huecos sin reorganizar teniendo en cuenta lo sensible que es este bus.
Las A320 micro atx estan a 50 leuros y las B350 a 60 leuros, las B450 hay alguna por sesenta y poco, x470 a partir de 92 leuros, y las x570 a partir de 132, no veo que esten igualadas.
a) Es exactamente lo mismo, en caso de tener una te tocaría cambiar de placa, ergo no es compatible con nueva CPU, ergo compatibilidad parcial.
b) El problema es el que te he dicho, en lugar de esperar a que se estandarice el PCIe 4.0 en GPUs, lanzan un socket nuevo con el pretexto de meter más líneas PCIe, y para más inri capan la velocidad de los puertos usb por la cara, que es el otro atractivo que tenía el upgrade de líneas PCIe. A mi parecer, una putada para los que se compraron un TR de los antiguos, que no son precisamente baratos, no creo que la gente migre de workstations cada 2 años.
Lo más gracioso y triste es que esto no es nuevo, se descubrió que en las placas X470 eran compatibles con PCIe 4.0, y cuando la gente empezó a activar dicha compatibilidad, sacaron BIOS que la deshabilitaban, BIOS que eran de instalación quasi mandatoria, porque de lo contrario te comías los múltiples early bugs, voltajes absurdos e incompatibilidades de sistema.
Las placas A320 son una basura con sobreprecio, a nivel de estabilidad, BIOS, fases, disipación y compatibilidad, placas de 30€ si me apuras, geniales si valiesen 30€ para meter procesadores de 35w. En un principio AMD anunció compatibilidad total y luego se bajó los pantalones y dejó decidir a los fabricantes, muchos cometieron la irresponsabilidad de hacerlas compatibles para no comerse el stock que no querían ni los perros, viene a ser como un chipset A55 en AM3/+, que no eran compatibles con CPUs de más de 65w, pero en este caso se lían la manta en la cabeza y listo.
No sé dónde has visto una placa x470 por ese precio, la más barata en pcc cuesta 134€, en el resto de tiendas ídem. Luego sigo mirando que empieza el fútbol xD.
a) Es exactamente lo mismo, en caso de tener una te tocaría cambiar de placa, ergo no es compatible con nueva CPU, ergo compatibilidad parcial.
b) El problema es el que te he dicho, en lugar de esperar a que se estandarice el PCIe 4.0 en GPUs, lanzan un socket nuevo con el pretexto de meter más líneas PCIe, y para más inri capan la velocidad de los puertos usb por la cara, que es el otro atractivo que tenía el upgrade de líneas PCIe. A mi parecer, una putada para los que se compraron un TR de los antiguos, que no son precisamente baratos, no creo que la gente migre de workstations cada 2 años.
Lo más gracioso y triste es que esto no es nuevo, se descubrió que en las placas X470 eran compatibles con PCIe 4.0, y cuando la gente empezó a activar dicha compatibilidad, sacaron BIOS que la deshabilitaban, BIOS que eran de instalación quasi mandatoria, porque de lo contrario te comías los múltiples early bugs, voltajes absurdos e incompatibilidades de sistema.
Las placas A320 son una basura con sobreprecio, a nivel de estabilidad, BIOS, fases, disipación y compatibilidad, placas de 30€ si me apuras, geniales si valiesen 30€ para meter procesadores de 35w. En un principio AMD anunció compatibilidad total y luego se bajó los pantalones y dejó decidir a los fabricantes, muchos cometieron la irresponsabilidad de hacerlas compatibles para no comerse el stock que no querían ni los perros, viene a ser como un chipset A55 en AM3/+, que no eran compatibles con CPUs de más de 65w, pero en este caso se lían la manta en la cabeza y listo.
No sé dónde has visto una placa x470 por ese precio, la más barata en pcc cuesta 134€, en el resto de tiendas ídem. Luego sigo mirando que empieza el fútbol xD.
En GPUS el pci 4.0 no tiene mucho sentido porque las GPUS actuales no saturan el PCI 3.0 actual, las que ha sacado AMD es por un tema de marketing claramente, donde si dan juego es en los SSD y en placas de ehternet con velocidades muy altas.
Lo del USB 3.0 gen 2 2x2 no lo habia visto por ningun lado, pero no lo veo un problema muy grande, si en un momento dado necesitas poner un disco externo que soporte ese estandar puedes comprar una placa PCI.
Las lineas PCI 3.0 pueden ser compatibles con 4.0 si estan muy cerca de la CPU y el trazado es muy 'limpio' porque han conseguido el doble de velocidad doblando la frecuencia en el bus, por lo que las placas antiguas podian tener algunos slots PCI 3.0 que pudieran funcionar como PCI 4.0 (normalmente los de los SSD que estan mas cerca de la CPU), AMD es una compañia americana si saca firmware que habilitan el PCI 4.0 en placas antiguas y algunas no funcionan y se sabe de antemano que va a pasar, se comeria un macrojuicio del carajo con imdenizaciones millonarias, resultado caparlo y que sean los fabricantes de placas los que lo habiliten si se atreven.
Perdon eran 96,90, cinco euros mas cara.
Biostar X470GTQ placa base Zócalo AM4 Micro ATX AMD X470 AMD, Zócalo AM4, AMD A,AMD Ryzen, DDR4-SDRAM, DIMM, 1866,2133,2400,2667,2933,3200 MHz µATX Chip de gráficos en la CPU, 2x PCIe x16 AM4 (https://www.alternate.es/Biostar/X470GTQ-placa-base-Zócalo-AM4-Micro-ATX-AMD-X470/html/product/1573455?) 0
Valoraciones
€ 96,90*
▸ (https://www.alternate.es/Biostar/X470GTQ-placa-base-Zócalo-AM4-Micro-ATX-AMD-X470/html/product/1573455?) (https://www.alternate.es/html/product/compare/page.html?cmd=add&articleId=1573455)
En stock
Biostar X470GTA placa base Zócalo AM4 ATX AMD X470 AMD, Zócalo AM4, AMD A,AMD Ryzen, DDR4-SDRAM, DIMM, 1866,2133,2400,2667,2933,3200 MHz ATX Chip de gráficos en la CPU, 3x PCIe x16, CrossFireX AM4 (https://www.alternate.es/Biostar/X470GTA-placa-base-Zócalo-AM4-ATX-AMD-X470/html/product/1570557?) 0
Valoraciones
€ 104,90*
▸ (https://www.alternate.es/Biostar/X470GTA-placa-base-Zócalo-AM4-ATX-AMD-X470/html/product/1570557?) (https://www.alternate.es/html/product/compare/page.html?cmd=add&articleId=1570557)
En stock
selecter25
09/11/2019, 20:55
En GPUS el pci 4.0 no tiene mucho sentido porque las GPUS actuales no saturan el PCI 3.0 actual, las que ha sacado AMD es por un tema de marketing claramente, donde si dan juego es en los SSD y en placas de ehternet con velocidades muy altas.
Lo del USB 3.0 gen 2 2x2 no lo habia visto por ningun lado, pero no lo veo un problema muy grande, si en un momento dado necesitas poner un disco externo que soporte ese estandar puedes comprar una placa PCI.
Las lineas PCI 3.0 pueden ser compatibles con 4.0 si estan muy cerca de la CPU y el trazado es muy 'limpio' porque han conseguido el doble de velocidad doblando la frecuencia en el bus, por lo que las placas antiguas podian tener algunos slots PCI 3.0 que pudieran funcionar como PCI 4.0 (normalmente los de los SSD que estan mas cerca de la CPU), AMD es una compañia americana si saca firmware que habilitan el PCI 4.0 en placas antiguas y algunas no funcionan y se sabe de antemano que va a pasar, se comeria un macrojuicio del carajo con imdenizaciones millonarias, resultado caparlo y que sean los fabricantes de placas los que lo habiliten si se atreven.
Perdon eran 96,90, cinco euros mas cara.
Es exactamente lo que te he dicho y me das la razón, no tiene sentido alguno meter más líneas de PCIe solo para modelos de SSD que a día de hoy tienen precios desorbitados, casi mejor esperar y sacar un nuevo socket cuando el upgrade sea significativo, es un cambio de socket por la cara, práctica muy del estilo de Intel.
Con respecto a las placas, placas taiwanesas sin soporte ni RMA en España, como poco toca enviarlas a Holanda. 96,90 + 8.99€ de envío en Alternate. Puede salir caro.
Es exactamente lo que te he dicho y me das la razón, no tiene sentido alguno meter más líneas de PCIe solo para modelos de SSD que a día de hoy tienen precios desorbitados, casi mejor esperar y sacar un nuevo socket cuando el upgrade sea significativo, es un cambio de socket por la cara, práctica muy del estilo de Intel.
Con respecto a las placas, placas taiwanesas sin soporte ni RMA en España, como poco toca enviarlas a Holanda. 96,90 + 8.99€ de envío en Alternate. Puede salir caro.
No te daba la razon :D, solo especificaba los usos, los threadripper son para workstations y los que trabajan en edición de video, 3d o similares necesitan que el acceso al disco sea lo mas rapido que sea posible, mucha disponibilidad de almacenamiento o sea pci 4 para mas velocidad en los discos y muchas lineas pci para no quedarte corto con el numero de dispositivos que puedes meter en la placa (solo con tener conectores para dos tarjetas graficas x 16, 4 discos m.2 y ya te comes 48 lineas pci + 8 con el chipset 56, si quieres una tercera grafica a x16 en el antiguo ya no cabria, tendría que funcionar a x8). Y esa gente esta dispuesta a pagar el premium de uno o varios ssd m.2 pci 4.0 de 1 Tb por 200 a 230 euros para disminuir los tiempos que para ellos son dinero, como pagan por el threadripper o una 2080ti/quadro o mas de 32 Gb de memoria.
selecter25
10/11/2019, 03:39
No te daba la razon :D, solo especificaba los usos, los threadripper son para workstations y los que trabajan en edición de video, 3d o similares necesitan que el acceso al disco sea lo mas rapido que sea posible, mucha disponibilidad de almacenamiento o sea pci 4 para mas velocidad en los discos y muchas lineas pci para no quedarte corto con el numero de dispositivos que puedes meter en la placa (solo con tener conectores para dos tarjetas graficas x 16, 4 discos m.2 y ya te comes 48 lineas pci + 8 con el chipset 56, si quieres una tercera grafica a x16 en el antiguo ya no cabria, tendría que funcionar a x8). Y esa gente esta dispuesta a pagar el premium de uno o varios ssd m.2 pci 4.0 de 1 Tb por 200 a 230 euros para disminuir los tiempos que para ellos son dinero, como pagan por el threadripper o una 2080ti/quadro o mas de 32 Gb de memoria.
Sí claro, súper necesario un tri-SLI a 16x en una workstation (a no ser que estés haciendo Avatar). Con dinero ilimitado igual queda hasta glorioso, pero vamos, las 66 líneas pcie del TR4 (64 usables) son más que suficientes para el 99% de los mortales (y para la Warner si me apuras), por 8 líneas pcie más del TRX 40(solo se aprovechan 72) me vas a decir que merece la pena un cambio de plataforma. Me parece puro y duro humo y marketing, cuando vea la review, si doblan en rendimiento a los actuales, pues aún aún, pero por el PCIe 4.0? Ya salieron reviews comparando PCIe 4.0 de AMD vs 3.0 de Intel, y no salieron muy bien parados:
https://www.purepc.pl/pamieci_masowe/corsair_force_mp600_pcie_40_test_ssd_na_platformac h_intel_i_amd?page=0,8
Inagino que en este socket volarán, pero vamos, que no es la panacea.
Sí claro, súper necesario un tri-SLI a 16x en una workstation (a no ser que estés haciendo Avatar). Con dinero ilimitado igual queda hasta glorioso, pero vamos, las 66 líneas pcie del TR4 (64 usables) son más que suficientes para el 99% de los mortales (y para la Warner si me apuras), por 8 líneas pcie más del TRX 40(solo se aprovechan 72) me vas a decir que merece la pena un cambio de plataforma. Me parece puro y duro humo y marketing, cuando vea la review, si doblan en rendimiento a los actuales, pues aún aún, pero por el PCIe 4.0? Ya salieron reviews comparando PCIe 4.0 de AMD vs 3.0 de Intel, y no salieron muy bien parados:
https://www.purepc.pl/pamieci_masowe/corsair_force_mp600_pcie_40_test_ssd_na_platformac h_intel_i_amd?page=0,8
Inagino que en este socket volarán, pero vamos, que no es la panacea.
Casi todas las placas antiguas de threadripper llevan 4 conectores para graficas y tienen el problema de que como no hay suficientes numero de lineas pci libres, dos de los conectores son x8 y estan compartidos con los conectores m.2, al subir el numero de lineas disponibles permites que esos dos slots no compartan ancho de bando con los ssd o ampliar uno a x16 y que este el otro compartido (En el antiguo son 64 en total pero hay que quitar las 4 del chipset por lo que tiene 60 disponibles, en el nuevo hay 72 disponibles [hay 8 lineas que no se para que las usan] por lo que la diferencia es de 16 lineas).
Los usuarios de las workstation no son el 99% de los mortales, ese 99% con un 3600 o similar van que se matan, ademas tampoco se lo podrían pagar :D.
No habia mirado esa web, pero es que esta en polaco y no se ni el test que están haciendo :D, pero en todas las que he visto hasta ahora la diferencia en lectura secuencial era bastante grande, con el controlador pci 4.0 con respecto a otro con pci 3.0, aunque tienen mas problemas de calentamiento que los actuales.
Pero que gruñon estás selecter.... Quejarse porque AMD renueva sus placas cada dos años para el sector profesional no tiene mucho sentido.
Que esperas que se renueven cada 3 o 4 años??? Eso es una eternidad en este sector.
Seguro que los ponias a parir tambien :quepalmo:
selecter25
10/11/2019, 11:25
Casi todas las placas antiguas de threadripper llevan 4 conectores para graficas y tienen el problema de que como no hay suficientes numero de lineas pci libres, dos de los conectores son x8 y estan compartidos con los conectores m.2, al subir el numero de lineas disponibles permites que esos dos slots no compartan ancho de bando con los ssd o ampliar uno a x16 y que este el otro compartido (En el antiguo son 64 en total pero hay que quitar las 4 del chipset por lo que tiene 60 disponibles, en el nuevo hay 72 disponibles [hay 8 lineas que no se para que las usan] por lo que la diferencia es de 16 lineas).
Los usuarios de las workstation no son el 99% de los mortales, ese 99% con un 3600 o similar van que se matan, ademas tampoco se lo podrían pagar :D.
No habia mirado esa web, pero es que esta en polaco y no se ni el test que están haciendo :D, pero en todas las que he visto hasta ahora la diferencia en lectura secuencial era bastante grande, con el controlador pci 4.0 con respecto a otro con pci 3.0, aunque tienen mas problemas de calentamiento que los actuales.
Si no me fallan las matemáticas, la diferencia entre 72 y 60 disponibles es 12 :D.
No he probado ninguno y no uso un Threadripper para mis tareas cotidianas, no sabría decirte si el upgrade merecería la pena, en mi ámbito frikeril solo conozco 2 personas con Threadripper 2990wx, uno me dijo que no estaba al tanto de los nuevos TR basados en TRX 40, el otro andaba a la espera de reviews y precios, pero que ni de coña cambiaba de plataforma después de un año por tener básicamente PCIe 4.0 con más líneas PCIe, al margen del rendimiento extra que ofrezca la CPU.
Ya digo que es mi impresión y me parece un upgrade muy "Intel like", esperaré reviews y sobre todo precios de placas, pero ya sabemos, lo que vende al final se acaba haciendo caro, véanse telefonos Xiaomi o Miguelitos de La Roda, y aquí no todo depende de AMD. Más builds AMD = más placas base, más disipadores, más ram rápida, al final todos los fabricantes quieren sacar tajada de esto.
-----Actualizado-----
Pero que gruñon estás selecter.... Quejarse porque AMD renueva sus placas cada dos años para el sector profesional no tiene mucho sentido.
Que esperas que se renueven cada 3 o 4 años??? Eso es una eternidad en este sector.
Seguro que los ponias a parir tambien :quepalmo:
Me quejo de que se renueva sin upgrade justificable aparente ni necesario, me parece exactamente igual que cuando Intel (entre otras muchas cosas) sacó Coffee Lake y solo admitían placas nuevas, para más inri sacaron solo las de socket Z390. Esto es como la mansión de Galapagar del coletas, hay quien hace la vista gorda y hay quien no.
En cuanto a renovar, cada uno que haga lo que quiera, pero las workstations suelen aguantar mucho (muchísimo) más que una configuración de sobremesa, un upgrade de 20/30 máquinas de estas es un gasto bastante bestia como para hacerlo anualmente, son 3/4000€ por máquina en el mejor de los casos, de hecho muchas empresas migraron estos dos últimos años a TR y venían de sockets de 2011 y 2014 (X79/X99).
Hay configuraciones duales con CPUs wellsburg de 2014 que rozan los 5000 puntos en Cinebench, y algunos Xeon de 18/20 cores que llegan a los 3500, no creas que a alguien que tenga esto le merece mucho la pena cambiar de máquina, al igual que los que comprasen los antiguos TR, que el 2990WX salió en Agosto del año pasado.... También conozco gente que migró directamente a Ryzen 3900X, al final si cubre tus expectativas, una plataforma de escritorio siempre tiene mejor valor de reventa, y el coste a asumir es mucho menor en caso de que quieras upgradear.
Es que esa es otra.... Con que comparariamos a los Threadripper????
Con la plataforma X299 de Intel o con los Xeons y tal????
Edit: Yo creo que está mas cerca de X299 pero sé poco sobre los Threadripper así que igual es una perceppcion equivocada, corregidme.
selecter25
10/11/2019, 11:43
Es que esa es otra.... Con que comparariamos a los Threadripper????
Con la plataforma X299 de Intel o con los Xeons y tal????
Edit: Yo creo que está mas cerca de X299 pero sé poco sobre los Threadripper así que igual es una perceppcion equivocada, corregidme.
Hay Xeon tanto en LGA2066 como en X299, aunque son los X299 los que compiten (o lo intentan xD) contra los TR.
Hay Xeon tanto en LGA2066 como en X299, aunque son los X299 los que compiten (o lo intentan xD) contra los TR.
COmo que hay Xeons en X299????
Yo tengo una Taichi X299 XE con un 7800x y creo que no le puedo meter Xeons a esta placa.
-----Actualizado-----
Hay algún metodo piratilla para hacerlo y no me he enterado?
selecter25
10/11/2019, 12:39
COmo que hay Xeons en X299????
Yo tengo una Taichi X299 XE con un 7800x y creo que no le puedo meter Xeons a esta placa.
-----Actualizado-----
Hay algún metodo piratilla para hacerlo y no me he enterado?
https://www.profesionalreview.com/2019/10/08/intel-xeon-w-2200/
Actualiza BIOS, reza y espera a que salgan, paga 1300€ y listo, están al caer.
https://hardwaresfera.com/noticias/hardware/msi-tres-nuevas-placas-base-x299-para-los-nuevos-intel-core-x-y-xeon-w-2200/
Calderilla...:D
Mi placa en toria no tiene soporte para Xeons. Me parece mucho más interesante lo que va a pasar con los Cascade lake-X que van a tirar los precios en relación a núcleos por euro. Igual dentro de un añito o así puedo hacerme con algo mucho mejor de lo que tengo de segunda zarpa tirado de precio.
-----Actualizado-----
Tambien tengo una placa MSI B350 que me regalaron con un Ryzen 1200 del wallapop y 16gb en la TV del salón así que cacharreo asegurado por mucho tiempo :brindis:
Más cagadas de Intel..... Los nuevos Cascade Lake X son un truñako del 15 !!!!
https://www.youtube.com/watch?v=H0vLYcPa3uk&feature=emb_title
-Menos IPC y menos rendimiento que la generación actual se supone que por los parches de seguridad por hardware.
-Las placas aparentemente hacen lo que le da la gana con los turbos. Todas ignoran las especificaciones oficiales y va un mundo de unas a otras.
-En Cinebench, Blender, Adobe Premiere, etc... de stock es similar (o muy ligeramente más rápido) al R9 3950X (dependiendo del programa), y ligeramente más lento que el i9-9980XE.
-En juegos es similar (o muy ligeramente más lento) al R9 3950X (ambos de stock).
-De stock consume 255W en Blender (vs 137W del R9 3950X)
-Con OC (4.9 GHz) consume 520W
Eso si, Intel tiene la ventaja del nombre más largo. Es la CPU con nombre más largo que han analizado nunca.:lol2:
Edit: Resumiendo que es el actual i9-9980XE con los parches de seguridad (lo que le hace perder IPC) y una mayor capacidad de OC a costa de un desmadre en consumos...... Por lo menos esperemos que sean más baratos como prometieron.
fumaflow
26/11/2019, 00:58
Dicen que con los Caskades esos se ve Xvideos de lujo y el Mame va muy bien
Fap+Arcade=caskade
Aquí arcade y porno lo que más
Intel de mal en peor..... Van a tener que tirar los precios hasta sacar algo competitivo.
En los Black Friday AMD se los ha comido:
https://www.muycomputer.com/2019/11/29/procesadores-de-amd-ventas/
https://hardwaresfera.com/noticias/hardware/el-82-de-los-procesadores-vendidos-en-alemania-son-de-amd/
En los EEUU los micros más vendidos tambien han sido de AMD y en todos lados ganando terreno e incluso superando a INTEL a pasos agigantados. Recordemos donde estaba AMD hace un año escaso.
Haber si podéis resolverme la duda. soy un pro intel de toda la vida, pero como un sonier, simplemente nunca me he planteado otra alternativa. La cosa es que quiero actualizar mi HTC, y actualmente tengo un intel n3700, y quería actualizar a Intel, pero veo que está cara la cosa, así que me he planteado el amd 3200g o el 3400g,pero tengo 2 limitaciones, una es que la fuente es de 120w y la otra es que la caja es pequeña, por lo que el disipador tendrá que ser un noctua nh-l9a.
He visto reviews y el 3400g a máximo rendimiento no llega a 115w reales de consumo y yo sólo lo voy a usar para ver pelis en 4k y jugar al mame. Creéis que merece la pena el 3400g frente al 3200g solo por la iGPU?
Gracias y hasta otra
selecter25
12/12/2019, 15:15
Haber si podéis resolverme la duda. soy un pro intel de toda la vida, pero como un sonier, simplemente nunca me he planteado otra alternativa. La cosa es que quiero actualizar mi HTC, y actualmente tengo un intel n3700, y quería actualizar a Intel, pero veo que está cara la cosa, así que me he planteado el amd 3200g o el 3400g,pero tengo 2 limitaciones, una es que la fuente es de 120w y la otra es que la caja es pequeña, por lo que el disipador tendrá que ser un noctua nh-l9a.
He visto reviews y el 3400g a máximo rendimiento no llega a 115w reales de consumo y yo sólo lo voy a usar para ver pelis en 4k y jugar al mame. Creéis que merece la pena el 3400g frente al 3200g solo por la iGPU?
Gracias y hasta otra
Solo pelis y mame? Mírate el Athlon 3000G, tdp de 35w y para lo que buscas, sobrado.
https://www.youtube.com/watch?v=qSslrVzQDMo
Solo pelis y mame? Mírate el Athlon 3000G, tdp de 35w y para lo que buscas, sobrado.
https://www.youtube.com/watch?v=qSslrVzQDMo
Ole!!!! perfecto, muchísimas gracias, ni sabía que existía ese modelo. Lo que realmente necesito es mejorar el actual para poder ver pelis 4k con codificación h265, que al de ahora se le atragantan.
Gracias!
DarkDijkstra
12/12/2019, 16:01
Ya que estáis comentando algunos modelos de amd con gráfica integrada (espero no ensuciar el hilo), que os parecen a los que sabéis del tema estos "bichillos"?
https://shop.udoo.org/products/bolt/udoo-bolt-v8.html
AMD Ryzen™ Embedded V1605B Quad Core/eight Thread @ 2.0ghz (3.6ghz Boost), con una Vega 8
Antes de responder, la idea de un bicho de esos (o su hermano pequeño el V3, aunque no creo) sería montar una pequeña "caja" a la que se le pudiesen concetar unas gafas VR o un par de gafas Tilt Five, y además teniendo conectores "arduino-like" poder montar una mesa de juegos, puzzles a medida con sensores, bla bla bla...
He visto los benchs que hay de esos cacharros, pero no estoy muy seguro de como se moverían con AR / VR...
selecter25
12/12/2019, 16:07
Ole!!!! perfecto, muchísimas gracias, ni sabía que existía ese modelo. Lo que realmente necesito es mejorar el actual para poder ver pelis 4k con codificación h265, que al de ahora se le atragantan.
Gracias!
Para ese fin, va perfecto. Es una actualización del Athlon 200GE, 2 cores/4 hilos y gráficos Vega 3, con la integrada dobla a un Pentium G5400 sin despeinarse, además de que es fresca de cojones y se puede overclockear. Algunos youtubers ya hacen virguerías con low settings y hasta juegan RDR2 y el nuevo de Star Wars:
https://www.youtube.com/watch?v=sRX5aFtneD0
-----Actualizado-----
Ya que estáis comentando algunos modelos de amd con gráfica integrada (espero no ensuciar el hilo), que os parecen a los que sabéis del tema estos "bichillos"?
https://shop.udoo.org/products/bolt/udoo-bolt-v8.html
AMD Ryzen™ Embedded V1605B Quad Core/eight Thread @ 2.0ghz (3.6ghz Boost), con una Vega 8
Antes de responder, la idea de un bicho de esos (o su hermano pequeño el V3, aunque no creo) sería montar una pequeña "caja" a la que se le pudiesen concetar unas gafas VR o un par de gafas Tilt Five, y además teniendo conectores "arduino-like" poder montar una mesa de juegos, puzzles a medida con sensores, bla bla bla...
He visto los benchs que hay de esos cacharros, pero no estoy muy seguro de como se moverían con AR / VR...
Yo los vi en el canal de ETA PRIME, para VR diría que se queda corto (aparte que es un bicho caro de cojones), aunque en ese factor de forma no creo que haya nada tan bruto. Aquí la review de ETA PRIME, y un experimento con una RX 590:
https://www.youtube.com/watch?v=s197a6u8sP0
https://youtu.be/VjFmzqpK0rM
AMD se saca otro AS de la manga.....
Renuevan su viejuno R5 1600 de los originales 14nm a los 12nm de los zen+ y lo venden a ¡¡¡95 eurillos!!!
Es decir un 6 cores 12 hilos por menos de cien euros:
https://www.pccomponentes.com/amd-ryzen-5-1600-stepping-af-36ghz-box
Rinde practicamente lo mismo que el ryzen 2600, incluso un pelín más ya que mantiene todos sus núcleos a 3,7ghz de stock (por encima del 1600 original) por lo que se ve en la review de abajo.
Si te haces con una placa de la serie 400 o incluso 300 y RAM a buen precio te puede quedar un equipo muy majo y tirado de precio.
https://www.youtube.com/watch?v=pouSUieEGTs
Una review más profesional con las mismas conclusiones. Es prácticamente un Ryzen 2600, pero por menos de 100€!
https://www.youtube.com/watch?v=tkxrM9AvT-4
fumaflow
29/01/2020, 19:51
Prefiero un ryzen 5 3600 por 180€
https://www.pccomponentes.com/amd-ryzen-5-3600-36ghz-box
Comparativa Ryzen 1600AF vs Ryzen 3600:
https://www.youtube.com/watch?v=Cpt5DZsUCkM&feature=emb_title
¿Merece la pena pagar el doble?
Edit: El resumen en juegos es este:
53380
El 2700x por 178€ Amazon:
https://www.amazon.es/AMD-Ryzen-2700X-Procesador-disipador/dp/B07B428M7F/ref=sr_1_1?__mk_es_ES=%C3%85M%C3%85%C5%BD%C3%95%C3 %91&keywords=ryzen%2B2700x&qid=1580546776&sr=8-1&th=1
Están limpiando stock y los Zen4 esán más cerca de lo que creemos?
selecter25
01/02/2020, 12:57
El 2700x por 178€ Amazon:
https://www.amazon.es/AMD-Ryzen-2700X-Procesador-disipador/dp/B07B428M7F/ref=sr_1_1?__mk_es_ES=%C3%85M%C3%85%C5%BD%C3%95%C3 %91&keywords=ryzen%2B2700x&qid=1580546776&sr=8-1&th=1
Están limpiando stock y los Zen4 esán más cerca de lo que creemos?
166 en Xtremmedia:
https://xtremmedia.com/AMD_Ryzen_7_2700X_BOX.html
166 en Xtremmedia:
https://xtremmedia.com/AMD_Ryzen_7_2700X_BOX.html
Jod3r el efecto ryzen está siendo lo mejor que ha pasado en este mundillo en años...
Segun parece a los fabricantes que estan mas orientados a la fabricación de placas para el usuario final les ha venido estupendamente el cambio a AMD, porque parece que como no habia procesadores intel no vendian placas intel y con las placas AMD han conseguido no solo rellenar el hueco sino ganar bastante dinero.
https://www.tomshardware.com/news/asrock-amd-revenue-growth-motherboards-2020
AMD refina los zen3.
AMD Ryzen 9 3900XT y Ryzen 7 3800XT confirman sus especificaciones tras pasearse por 3DMark:
https://elchapuzasinformatico.com/2020/05/el-amd-ryzen-9-3900xt-y-ryzen-7-3800xt-confirman-sus-especificaciones-tras-pasearse-por-3dmark/
Otra estocada más a Intel y sus nuevos Comet Lake
selecter25
28/05/2020, 23:17
La verdadera bomba es que se rumorea que la serie 4000 va a llegar en proceso de fabricación a 5nm y con un boost de IPC que va a acabar por hundir a Intel hasta el fondo de la piscina.
La verdadera bomba es que se rumorea que la serie 4000 va a llegar en proceso de fabricación a 5nm y con un boost de IPC que va a acabar por hundir a Intel hasta el fondo de la piscina.
Si, dicen que vienen con DDR5 y una subida decente de IPC, pero yo lo que habia leido es que seguian en 7nm porque toda la capacidad de fabricación de 5nm de TSMC se la habia quedado Apple.
Pero nos enteraremos pronto porque en Junio salen el nuevo chipset 'baratuno' y aparte estan empezando a hacer rebajas en algunos procesadores como el 3900x casi 100€, podría ser para bajar stock ante la salida cercana de los 4000 aunque tambien podría ser por la salida los nuevos procesadores de intel con el lomo limadito para que se calienten menos :D. Y seguro que para ese mes ya empezarán a salir las filtraciones de benchmarks y demas para calentar el terreno.
selecter25
29/05/2020, 01:08
Si, dicen que vienen con DDR5 y una subida decente de IPC, pero yo lo que habia leido es que seguian en 7nm porque toda la capacidad de fabricación de 5nm de TSMC se la habia quedado Apple.
Pero nos enteraremos pronto porque en Junio salen el nuevo chipset 'baratuno' y aparte estan empezando a hacer rebajas en algunos procesadores como el 3900x casi 100€, podría ser para bajar stock ante la salida cercana de los 4000 aunque tambien podría ser por la salida los nuevos procesadores de intel con el lomo limadito para que se calienten menos :D. Y seguro que para ese mes ya empezarán a salir las filtraciones de benchmarks y demas para calentar el terreno.
En caso de venir a 5nm, dicen que lo más probable es que se retrasaría su llegada a principios de 2021. Lo de la DDR5 ya lo veo más chungo, tal y como están concebidos tendrían que cambiar de socket (lo comentó Forrest Norrod), y los Ryzen 4000 son compatibles parcialmente con el actual.
El pequeño jarro de agua fría me ha caído con las APUS, pues hasta 2022 van a seguir usando arquitectura Vega en ellas, imagino que una APU Vermeer con una GPU basada en RDNA 3 pondría en jaque a las consolas, de hecho desde que se anunciaron PS5 y Xbox Series X, pararon en seco la progresión de las APUS.
Ya solo viendo las nuevas CPU Ryzen de portátiles, la serie 4900HS (que se rumorea que es algo similar a lo que montan las consolas) da mucho miedo. No sé si lo sabéis, pero Intel ha "prohibido" (o pactado xD) a los ensambladores montar portátiles que lleven GPUs más potentes que una RTX 2060 con estos Ryzen, porque destrozan a la gama alta de Intel.
En caso de venir a 5nm, dicen que lo más probable es que se retrasaría su llegada a principios de 2021. Lo de la DDR5 ya lo veo más chungo, tal y como están concebidos tendrían que cambiar de socket (lo comentó Forrest Norrod), y los Ryzen 4000 son compatibles parcialmente con el actual.
El pequeño jarro de agua fría me ha caído con las APUS, pues hasta 2022 van a seguir usando arquitectura Vega en ellas, imagino que una APU Vermeer con una GPU basada en RDNA 3 pondría en jaque a las consolas, de hecho desde que se anunciaron PS5 y Xbox Series X, pararon en seco la progresión de las APUS.
Ya solo viendo las nuevas CPU Ryzen de portátiles, la serie 4900HS (que se rumorea que es algo similar a lo que montan las consolas) da mucho miedo. No sé si lo sabéis, pero Intel ha "prohibido" (o pactado xD) a los ensambladores montar portátiles que lleven GPUs más potentes que una RTX 2060 con estos Ryzen, porque destrozan a la gama alta de Intel.
Llevas razon con lo de la memoria DDR5, sale con Zen 4 y no con Zen 3.
Si, lo de las APUS me huelo que es por exclusividad para las consolas, ahora mismo pueden 'presumir' de dar un rendimiento medio alto que no puede dar un PC nuevo de ese precio (ya veremos si eso es verdad cuando salgan y si realmente el precio sera sobre los 450$). Asi disponen de un año o más para venderlas sin que nadie pueda compararlas con un PC con un procesador similar.
Lo de la grafica me habia llamado la atención en una comparativa 'tope de gama' en la que el portatil AMD llevaba una 2060 (no recuerdo si max q o no) y el de Intel una 2070 Max Q (el fabricante era el mismo en los dos casos), me dije que si la duración de bateria era bastante mejor en AMD porque no llevaba la misma grafica que Intel, pero no pense que fuera por una 'prohibición', sino por la mania de los fabricantes de no poner a AMD tope de gama.
selecter25
29/05/2020, 14:17
Pues así es, lo comenta Hardware360 en un vídeo pasado de youtube, que al tener Intel una larga y estrecha relación con las ensambladoras en lo que a portátiles se refiere, y suplirles de gran cantidad de hard integrado en placas, les ha prohibido montar GPUs más potentes que la 2060.
Otra muy buena noticia es la llegada de AMD a los móviles, concretamente a las GPU, se dice que preparan una GPU para teléfonos el doble de potente que la Adreno tope de gama actual, los teléfonos van a ser muy bestias.
Pues así es, lo comenta Hardware360 en un vídeo pasado de youtube, que al tener Intel una larga y estrecha relación con las ensambladoras en lo que a portátiles se refiere, y suplirles de gran cantidad de hard integrado en placas, les ha prohibido montar GPUs más potentes que la 2060.
Otra muy buena noticia es la llegada de AMD a los móviles, concretamente a las GPU, se dice que preparan una GPU para teléfonos el doble de potente que la Adreno tope de gama actual, los teléfonos van a ser muy bestias.
Si, ya salio algun 'despiste' de Samsung en un portal de estos de benchmark donde estaba probando una gpu movil basada en la licencia que compro a AMD de RDNA. Curiosamente Adreno tambien era de AMD, lo compró qualcomm y lo renombró, como curiosidad adreno es radeon con las letras cambiadas de sitio :D
masteries
31/05/2020, 13:37
¿Entonces merece más la pena montarse un ordenador con placa nueva y una CPU de estas AMD con precio por debajo de los 200€, que montarte un reciclado de Xeon?
selecter25
31/05/2020, 17:53
¿Entonces merece más la pena montarse un ordenador con placa nueva y una CPU de estas AMD con precio por debajo de los 200€, que montarte un reciclado de Xeon?
Según para qué cosas, ahora mismo con los Ryzen 1600AF, 2600 o los nuevos 3100/300, casi renta más un Ryzen que cualquier Xeon para un PC "multiuso". Los que salgan de serie 4000 van a ser más caros, por 200€ pocas cosas habrán que merezcan la pena. Los Xeon siguen rentando y siguen siendo muy interesantes en escenarios muy concretos, por ejemplo en gamas muy low cost puedes montar un Xeon 2620 v3 con 6 cores 12 hilos a 3.2ghz que vale 12€ y rinde tal que así:
https://youtu.be/kDHOyPrOxhU
https://es.aliexpress.com/item/4000816412632.html
Por poco más de 100€ tienes este bichejo con su placa y sus 16Gb DDR4, imbatible en un rig low cost.
Por menos de 100€, hay packs con el 2620+ placa + 16Gb DDR3 que tampoco van mal:
https://youtu.be/cyfDYTe3x_c
https://es.aliexpress.com/item/4001029075926.html
Por encima de esto, siguen habiendo Xeon muy apetecibles, el 1650 a secas, 2667 v2, 2678 v3 (12 cores/24 hilos)... pero los precios ya son más cercanos a lo que te costaría un 1600AF/2600/3100 y no hay tanta diferencia de rendimiento. Para montar algún server en dual-cpu con cantidades pornográficas de RAM, estos Xeon también siguen siendo una opción cojonuda. Por ejemplo para renderizar, una plataforma con un Ryzen 3950X+placa+ram se te va por encima de los 1000€, mira lo que hace contra un dual 2678 v3:
https://youtu.be/RJWbYEYDpOc
Dos 2678 v3 + placa x99 y 32Gb de RAM que puedes montar por menos de 500€, mitad de precio sacrificando solo un 10% de rendimiento con respecto al Ryzen más bruto que hay.
Todavía queda mucho para que salgan estas CPUs de AMD, imagino que los Xeon irán bajando de precio con el tiempo, o no, los chinos son una incógnita. También hay Xeon más actuales esperando placas, los chinorris han hecho una especie de mercado paralelo con los servers que se desmontan, y a la vez que las empresas migran a los nuevos Ryzen, los chinos sacan "generación" de Xeon. Lo que es de admirar es que cada vez diseñan mejores placas, las que hay de LGA 2011-3 son una pasada, ahora que ya se van a los 100€.
masteries
01/06/2020, 00:45
Según para qué cosas, ahora mismo con los Ryzen 1600AF, 2600 o los nuevos 3100/300, casi renta más un Ryzen que cualquier Xeon para un PC "multiuso". Los que salgan de serie 4000 van a ser más caros, por 200€ pocas cosas habrán que merezcan la pena. Los Xeon siguen rentando y siguen siendo muy interesantes en escenarios muy concretos, por ejemplo en gamas muy low cost puedes montar un Xeon 2620 v3 con 6 cores 12 hilos a 3.2ghz que vale 12€ y rinde tal que así:
https://es.aliexpress.com/item/4000816412632.html
Por poco más de 100€ tienes este bichejo con su placa y sus 16Gb DDR4, imbatible en un rig low cost.
Por menos de 100€, hay packs con el 2620+ placa + 16Gb DDR3 que tampoco van mal:
https://es.aliexpress.com/item/4001029075926.html
Por encima de esto, siguen habiendo Xeon muy apetecibles, el 1650 a secas, 2667 v2, 2678 v3 (12 cores/24 hilos)... pero los precios ya son más cercanos a lo que te costaría un 1600AF/2600/3100 y no hay tanta diferencia de rendimiento. Para montar algún server en dual-cpu con cantidades pornográficas de RAM, estos Xeon también siguen siendo una opción cojonuda. Por ejemplo para renderizar, una plataforma con un Ryzen 3950X+placa+ram se te va por encima de los 1000€, mira lo que hace contra un dual 2678 v3:
Dos 2678 v3 + placa x99 y 32Gb de RAM que puedes montar por menos de 500€, mitad de precio sacrificando solo un 10% de rendimiento con respecto al Ryzen más bruto que hay.
Todavía queda mucho para que salgan estas CPUs de AMD, imagino que los Xeon irán bajando de precio con el tiempo, o no, los chinos son una incógnita. También hay Xeon más actuales esperando placas, los chinorris han hecho una especie de mercado paralelo con los servers que se desmontan, y a la vez que las empresas migran a los nuevos Ryzen, los chinos sacan "generación" de Xeon. Lo que es de admirar es que cada vez diseñan mejores placas, las que hay de LGA 2011-3 son una pasada, ahora que ya se van a los 100€.
Análisis fabuloso selecter25 ,
Con mi i5 3570k y viendo estos monstruos me siento ridículo, y mira que para jugar sigue funcionando perfectamente.
Estoy siguiendo todos tus posts sobre Xeon, con vistas a actualizar el "rig" cuando salga la nueva generación, y poder montar un equipo competente que la iguale al menor coste posible.
Pero vamos, que incluso para montar un ordenador de propósito general, incluso conviene hacerse con esa placa + 16GB DDR4 + micro 2620 v3 ; ya vienen incluso con DDR4, cuando hasta hace bien poco eran sólo para DDR3. Y 4x USB 3.0 y 4x USB 2.0 Pintan muy bien estas placas,
selecter25
01/06/2020, 18:06
Pues aquí está el famoso SOC de móviles de AMD:
https://elchapuzasinformatico.com/2020/06/aparece-un-soc-amd-ryzen-c7-para-para-smartphones-5nm-con-graficos-rdna2/
Bru-tal...
https://elchapuzasinformatico.com/wp-content/uploads/2020/06/AMD-Ryzen-C7-740x549.png
romeroca
01/06/2020, 18:39
Acabo de leer las especificaciones y son brutales ... sobre el papel.
Lo que no tengo claro cual es el papel de este SOC . No veo a Samsung (aunque la nombran) o Apple apostando por él. Y Huawei está descartada.
selecter25
01/06/2020, 19:09
Acabo de leer las especificaciones y son brutales ... sobre el papel.
Lo que no tengo claro cual es el papel de este SOC . No veo a Samsung (aunque la nombran) o Apple apostando por él. Y Huawei está descartada.
Con Samsung ya están haciendo un SOC paralelo, con la misma GPU y el Exynos. El papel de este SOC está clarísimo, quitarle todos los terminales flagship a los Snapdragon y dominar un nuevo segmento en un mercado del teléfono móvil donde hay mucho dinero. De momento AMD fabrica todas las consolas, controla el mercado de PCs domésticos, servidores... este era el único mercado que le quedaba por reventar con sus 5nm.
Habrá que ver consumos y demás historias, pero ya tiene que sudar Qualcomm para sacar un SOC que se acerque a esta bestialidad, que aprovecha todas las bondades de RDNA2 (ray Tracing, HDR 10+) junto a la CPU de 5nm y una ram LPDDR5 casi a 3Ghz.
53678
Habrá que ver consumos y demás historias, pero ya tiene que sudar Qualcomm para sacar un SOC que se acerque a esta bestialidad, que aprovecha todas las bondades de RDNA2 (ray Tracing, HDR 10+) junto a la CPU de 5nm y una ram LPDDR5 casi a 3Ghz.
Eso dependerá de cuando saquen este SOC los de AMD. Se sabe algo sobre las fechas?
Los que empezaron fuerte con sus tegra fueron los de nvidia pero parece que se han dormido en los laureles o yo que se.... Han abandonado el sector movil los de nvidia o que pasa aquí?
Lo vi ayer y me parecio la bomba, ademas ahora se entiende mas lo de la licencia de Samsung, porque no tenia mucho sentido que samsung comprara una licencia de una grafica de sobremesa para adaptarla a moviles. Es curioso que AMD parece que esta aprovechando los 'huecos' de los competidores. El paron de innovación de Intel porque el mercado era suyo y con un quadocore a 400 euros ibas que te matabas y en servidores cobrando barbaridades y segmentando el mercado a lo bestia, ahora Qualcomm que ya no retoca los cores ARM (los ultimos SOC solo les ha cambiado el nombre y son diseños estandar de ARM) y tiene bastantes problemas por 'untar' a fabricantes y con Apple ni te cuento, solo le falta Nvidia y su generación 20xx, subo un poco la potencia y te cobro lo que me de la gana (algo parecido a intel) porque el mercado medio alto es mio, ganitas de que salgan tanto ampere como la gama alta de AMD. Porque cuando hay competencia hay mejores productos y mas baratos.
-----Actualizado-----
Eso dependerá de cuando saquen este SOC los de AMD. Se sabe algo sobre las fechas?
Los que empezaron fuerte con sus tegra fueron los de nvidia pero parece que se han dormido en los laureles o yo que se.... Han abandonado el sector movil los de nvidia o que pasa aquí?
Se fueron hace años y mas que moviles el mercado era en tablets y lo ultimo que sacaron que se vio en varios productos fue el tegra 4, el x1 salio en un tablet chino, en su tablet y en su cacharrito android, el x2 y el xavier salieron para el mercado de conducción autonoma o asistida.
selecter25
01/06/2020, 22:36
Eso dependerá de cuando saquen este SOC los de AMD. Se sabe algo sobre las fechas?
Los que empezaron fuerte con sus tegra fueron los de nvidia pero parece que se han dormido en los laureles o yo que se.... Han abandonado el sector movil los de nvidia o que pasa aquí?
Como si quiere salir en 2023, al ritmo que va Qualcomm (1 SOC tope de gama por año), en el que cada nuevo SOC es un 10/15% más potente que el anterior, si tenemos en cuenta que acaban de salir los 865, y estos AMD son un 45% más rápidos, pues tienen mucho margen. Teniendo en cuenta también que se estima que esta GPU se monte ya en el Galaxy Note20 (que sale a finales de año), imagino que para principios de 2021 ya habrá algún terminal con el SOC C7.
Pero lo que digo, ya puede Qualcomm obrar milagros en el 875, igual en CPU van similares, pero esta GPU RDNA2 no la iguala ni de coña.
Si lo sacan así de pronto les damos un voto de confianza.
Aunque luego ya veremos si ese 45% se cumple o se queda en un 20% y para entonces Qualcomm ya tiene algo más potente que lo de ahora y la diferencia no es tanta.
Porque estos de AMD son especialistas en adelantar fakazos con sus gráficas y luego pasa lo que pasa....
selecter25
01/06/2020, 23:53
Si lo sacan así de pronto les damos un voto de confianza.
Aunque luego ya veremos si ese 45% se cumple o se queda en un 20% y para entonces Qualcomm ya tiene algo más potente que lo de ahora y la diferencia no es tanta.
Porque estos de AMD son especialistas en adelantar fakazos con sus gráficas y luego pasa lo que pasa....
El salto según dicen es exponencial, nada visto hasta ahora, la CPU como siempre la firma ARM, y estos nuevos cores (ARM-X1) son una **** bestia:
https://www.xataka.com/componentes/cuidado-intel-amd-arm-prepara-su-asalto-al-pc-sus-nuevos-cortex-x1-porque-tiene-moviles-controlados
Han doblado la memoria caché, aumentado las instrucciones por ciclo y se hablan de frecuencias de 3Ghz.
Y la GPU más de lo mismo, basada en RDNA2, solo con ver que es compatible con RT y Variable Rate Shading ya me pone los dientes largos.
Muy bonito el procesador pero no deja de ser un **** arm de mierda; es decir, un procesador sin soporte nativo para el 90% del software de productividad y el 99% de los juegos que merece la pena jugar (osea, los de PC y Consola).
Lo que interesa hoy en día en pc y consolas es la arquitectura x86-64 y espero que siga siendo así, cambiar a arm significaría romper la compatibilidad nativa con la mayoría del software existente para PC.
selecter25
02/06/2020, 12:28
Muy bonito el procesador pero no deja de ser un **** arm de mierda; es decir, un procesador sin soporte nativo para el 90% del software de productividad y el 99% de los juegos que merece la pena jugar (osea, los de PC y Consola).
Lo que interesa hoy en día en pc y consolas es la arquitectura x86-64 y espero que siga siendo así, cambiar a arm significaría romper la compatibilidad nativa con la mayoría del software existente para PC.
Sí, es un SOC de teléfonos, eso ya lo sabíamos :D. No es que vaya a sustituir nada, es hasta absurda la idea de compararlo con un procesador de sobremesa, es el simple hecho de que AMD también se mete a fabricar procesadores y vuelve a hacer tarjetas gráficas para móviles.
Sólo por curiosidad, porque de los procesadores ARM sólo conozco 4 datos, como que tienen mucho menor consumo, que se calientan menos, y que su juego de instrucciones es más pequeño que x86 pero con instrucciones más rápidas (tecnología RISC creo que se llamaba ¿no?)
¿Por qué no podrían llegar a sustituir a los x86 en los ordenadores de sobremesa? Sobre todo porque parece que Android va ganando cada vez más adeptos, y ya no se conforma sólo con móviles y tablets, que ya inunda notebooks, smart tvs, consolas portátiles... Poco faltaría para diseñar un ordenador de sobremesa.
Y recordemos que las GameBoys y DSs han usado procesadores ARM, al igual que las consolas de GPH.
Por menos de 100€, hay packs con el 2620+ placa + 16Gb DDR3 que tampoco van mal:
https://youtu.be/cyfDYTe3x_c
https://es.aliexpress.com/item/4001029075926.html
Los que sabeis de esto, si utilizo esto para mover w10 y un programa de frontoffice que no requiere GPU dedicada, ¿Qu fuente de alimentación necesita? Porque en la web de aliexpress recomienda 500w, ¿es necesario tanto?´
Saludos y gracias.
Muy bonito el procesador pero no deja de ser un **** arm de mierda; es decir, un procesador sin soporte nativo para el 90% del software de productividad y el 99% de los juegos que merece la pena jugar (osea, los de PC y Consola).
Lo que interesa hoy en día en pc y consolas es la arquitectura x86-64 y espero que siga siendo así, cambiar a arm significaría romper la compatibilidad nativa con la mayoría del software existente para PC.
Te ha quedado muy intel :D, para que cambiar si estamos agustito, los procesadores ARM tienen soporte nativo para mucho software y ahora que pueden llevar windows 10 nativo con emulación x86 pueden tirar de casi todo el software de productividad o bien en emulación o como el de microsoft nativo ARM.
El año que viene es bastante probable que Apple empiece a sacar portatiles con sus procesadores ARM e irian con Mac OS y no creo que vaya a romper la compatibilidad sino que seguramente hara como han hecho con windows 10.
Y por cierto en consolas tienes la switch que es ARM tambien (y antes la gameboy y la ds y la 3ds).
En los comentarios ponen que entra en la lógica de una switch con este soc arm de amd...
selecter25
02/06/2020, 21:26
Sólo por curiosidad, porque de los procesadores ARM sólo conozco 4 datos, como que tienen mucho menor consumo, que se calientan menos, y que su juego de instrucciones es más pequeño que x86 pero con instrucciones más rápidas (tecnología RISC creo que se llamaba ¿no?)
¿Por qué no podrían llegar a sustituir a los x86 en los ordenadores de sobremesa? Sobre todo porque parece que Android va ganando cada vez más adeptos, y ya no se conforma sólo con móviles y tablets, que ya inunda notebooks, smart tvs, consolas portátiles... Poco faltaría para diseñar un ordenador de sobremesa.
Y recordemos que las GameBoys y DSs han usado procesadores ARM, al igual que las consolas de GPH.
Y los Chromebooks, tablets... Ahora parece que con este SOC vuelven a la carga a por los PCs.
Los que sabeis de esto, si utilizo esto para mover w10 y un programa de frontoffice que no requiere GPU dedicada, ¿Qu fuente de alimentación necesita? Porque en la web de aliexpress recomienda 500w, ¿es necesario tanto?´
El problema es que necesitas GPU dedicada sí o sí, ya que los Xeon no tienen. Y sí, son tragones.
Saludos y gracias.
Te ha quedado muy intel :D, para que cambiar si estamos agustito, los procesadores ARM tienen soporte nativo para mucho software y ahora que pueden llevar windows 10 nativo con emulación x86 pueden tirar de casi todo el software de productividad o bien en emulación o como el de microsoft nativo ARM.
El año que viene es bastante probable que Apple empiece a sacar portatiles con sus procesadores ARM e irian con Mac OS y no creo que vaya a romper la compatibilidad sino que seguramente hara como han hecho con windows 10.
Y por cierto en consolas tienes la switch que es ARM tambien (y antes la gameboy y la ds y la 3ds).
https://www.muycomputerpro.com/2020/05/25/maquina-virtual-windows-10-arm
Y se vienen muchas cosas como esas.
https://www.muycomputerpro.com/2020/05/25/maquina-virtual-windows-10-arm
Y se vienen muchas cosas como esas.
Mola, eso para desarrollo es cojonudo porque te permite hacer compilación en windows x86 de aplicaciones windows ARM, la putada es que la unica versión pro que tengo es de windows 8.1 por lo que no puedo correr esa imagen porque solo va con windows 10, una pena porque tengo una curiosidad enorme de ver como va.
@zhorro (https://www.gp32spain.com/foros/member.php?u=14966) lo que tu propones es correr software de productividad en un procesador pensado para el bajo consumo y no para la potencia, en un sistema operativo que está verde y tiene poquísima difusión y mediante una capa de emulación... No se, pero no lo veo como una alternativa viable de ninguna de las maneras.
Arm fracasó en servidores cuando en teoría ofrecía muchas más ventajas de las que ofrece en PCs normales. No la veo triunfando en PCs ni ahora, ni dentro de 10 años, ni nunca, a no ser que el paradigma de un giro de 180º
selecter25
03/06/2020, 08:08
Exacto, en PCs ni de coña, su segmento son los dispositivos portátiles, teléfonos, consolas portátiles, Chromebooks y demás artilugios de consumo que requieran un SOC mínimamente potente y muy eficiente...
@zhorro (https://www.gp32spain.com/foros/member.php?u=14966) lo que tu propones es correr software de productividad en un procesador pensado para el bajo consumo y no para la potencia, en un sistema operativo que está verde y tiene poquísima difusión y mediante una capa de emulación... No se, pero no lo veo como una alternativa viable de ninguna de las maneras.
Arm fracasó en servidores cuando en teoría ofrecía muchas más ventajas de las que ofrece en PCs normales. No la veo triunfando en PCs ni ahora, ni dentro de 10 años, ni nunca, a no ser que el paradigma de un giro de 180º
No, tiene un sistema operativo decente llamado Linux y que tiene mucho software y despues tiene windows 10 y no todo el software corre en emulación en windows, por ejemplo el office de microsoft es nativo arm, aunque realmente no es una emulación al uso, porque recompila codigo que se queda almacenado y que reutiliza si vuelves a ejecutar y las llamadas a las apis de windows van nativas en ARM, por lo que es mucho mas eficiente que una emulación normal.
No se si triunfara o no en sobremesa, pero en portatiles si que puede despegar, por el consumo y el coste, porque los portatiles ya son lo suficientemente rapidos para la mayoria de la gente.
No triunfo, no y han vuelto a la carga con los nuevos procesadores ARM diseñados especificamente para servidores, con la diferencia que ahora si hay pesos pesados detras p.e. la propia Amazon ha diseñado un nuevo procesador para servidor basado en ese procesador (Graviton2, porque es la segunda iteracion de sus procesadores ARM para servidor) ahora mismo puedes contratar en instancias AWS con ese procesador, mas baratos que los x86 y con un rendimiento decente y parece que esta teniendo buena salida.
Aunque en el tema servidores es mas dificil la penetración de ARM porque las aplicaciones empresariales normalmente estan diseñadas para x86 y las empresas fabricantes son reacias a portar y tener que mantener dos lineas base. Por eso el apoyo de amazon es importante.
Un poco de offtopic......
Ha caído en mis manos un Dell Optiplex y tengo un par de dudas.
La placa base trae el chipset sin disipador alguno tal y como se ve en las fotos:
https://fotos.subefotos.com/e3a0039a6722d28a535453c6fed65d63o.jpg
https://fotos.subefotos.com/a4c705723417e5bd422b65c759ae0358o.jpg
Es normal que esté sin disipador o algún cafre se lo ha quitado????
Y otra cosa que no se lo que es es esta tarjeta que viene en el puerto PCIe:
https://fotos.subefotos.com/958cac555d355f20eb07db1e096f99bco.jpg
https://fotos.subefotos.com/fc41d1c3ebf6416a19714cb7527a7b77o.jpg
Sabéis que es esto??
Edit: Es el modelo Optiplex 9010 con un I5 3470
https://fotos.subefotos.com/41e8c6a1f8821c8773e3135f786af8e3o.jpg
Sólo por curiosidad, porque de los procesadores ARM sólo conozco 4 datos, como que tienen mucho menor consumo, que se calientan menos, y que su juego de instrucciones es más pequeño que x86 pero con instrucciones más rápidas (tecnología RISC creo que se llamaba ¿no?)
¿Por qué no podrían llegar a sustituir a los x86 en los ordenadores de sobremesa? Sobre todo porque parece que Android va ganando cada vez más adeptos, y ya no se conforma sólo con móviles y tablets, que ya inunda notebooks, smart tvs, consolas portátiles... Poco faltaría para diseñar un ordenador de sobremesa.
Y recordemos que las GameBoys y DSs han usado procesadores ARM, al igual que las consolas de GPH.
Ya no hay tanta diferencia como antes entre un CISC y un RISC a nivel de rendimiento, gracias al pipiline en general la mayoría de las instrucciones te tardan un solo ciclo de reloj, otra cosa es que un i7 tenga mas núcleos, mas ALUs, y cosas como el reordenar las instrucciones y por eso puede ejecutar mas por ciclo, ademas la FPU es mucho mejor.
selecter25
05/06/2020, 23:05
Un poco de offtopic......
Ha caído en mis manos un Dell Optiplex y tengo un par de dudas.
La placa base trae el chipset sin disipador alguno tal y como se ve en las fotos:
https://fotos.subefotos.com/e3a0039a6722d28a535453c6fed65d63o.jpg
https://fotos.subefotos.com/a4c705723417e5bd422b65c759ae0358o.jpg
Es normal que esté sin disipador o algún cafre se lo ha quitado????
Y otra cosa que no se lo que es es esta tarjeta que viene en el puerto PCIe:
https://fotos.subefotos.com/958cac555d355f20eb07db1e096f99bco.jpg
https://fotos.subefotos.com/fc41d1c3ebf6416a19714cb7527a7b77o.jpg
Sabéis que es esto??
Edit: Es el modelo Optiplex 9010 con un I5 3470
https://fotos.subefotos.com/41e8c6a1f8821c8773e3135f786af8e3o.jpg
Al ser OEM es posible que el chipset viniese así de serie. Lo que viene en el PCIe es un puerto serial RS-232, seguramente para conectarlo a algún modem o a algún switch de oficinas.
EDIT: Efektibamente, biene sin disipador:
https://www.dhresource.com/0x0/f2/albu/g3/M00/EF/08/rBVaHVbe2emAQHXfAAIdIoyv2Ug117.jpg
No jodas! La primera vez que lo veo así a aire.
Bueno pues me quedo tranquilo, así se queda.
El RS 232 ese entonces fuera.
Ya le he puesto 4gb extra que tenía por ahí, mas los 8gb que trae me hacen un total de 12gb 1333mhz cl9. Los 8gb originales son a 1600 cl11.
No se pierde nada con ese cambio no? Se pierde velocidad pero las latencias son mejores.
Le he metido un SSD viejuno de 500gb que tenia por ahí, actualizado a win10 (instalación limpia) y va que vuela.
masteries
06/06/2020, 00:35
Sólo por curiosidad, porque de los procesadores ARM sólo conozco 4 datos, como que tienen mucho menor consumo, que se calientan menos, y que su juego de instrucciones es más pequeño que x86 pero con instrucciones más rápidas (tecnología RISC creo que se llamaba ¿no?)
¿Por qué no podrían llegar a sustituir a los x86 en los ordenadores de sobremesa? Sobre todo porque parece que Android va ganando cada vez más adeptos, y ya no se conforma sólo con móviles y tablets, que ya inunda notebooks, smart tvs, consolas portátiles... Poco faltaría para diseñar un ordenador de sobremesa.
Y recordemos que las GameBoys y DSs han usado procesadores ARM, al igual que las consolas de GPH.
Android en un PC... es un sistema operativo pensado sólo para consumir, no para producir. Los que producimos cosas lo vemos como una peste,
Los ARM se han centrado en minimizar el consumo y el área de oblea que requieren por CPU; vamos que son baratos de producir porque lo que hay dentro del chip ocupa muy poco espacio; pero los x86-x64 de Intel y AMD tienen mil cosas más ahí dentro que los hacen muy apropiados para un uso muy amplio. En rendimiento no les baten; recordad que los algoritmos de codificación / decodificación son matemáticamente complejos, y los x86-x64 se desenvuelven muy bien al tener un repertorio de instrucciones tan amplio, los ARM no se defienden así de bien y a muchos de ellos los complementan con electrónica adicional en forma de FPGA para integrar por hardware algunas funciones; éstas están mapeadas en el espacio de direcciones de la CPU; y se venden juntos en un integrado, CPU y FPGA.
Si lo pensamos bien, ¿qué utilidad tiene no usar una CPU donde sabes que el software va a correr bien, y en cambio dedicar un esfuerzo brutal en implementar funciones por hardware? Después lo licencian y lo dejan muy barato si adquieres tropecientas miles de unidades, porque otra forma de obtener réditos no la hay.
¿Por qué Intel y AMD no combaten con x86-x64 en esos segmentos? Será el consumo de energía y el tamaño en oblea; o están esperando a que el mercado se inunde de ARM, para sacar el equivalente en consumo y coste de fabricación en x86-x64 para forzar a la gente a comprar nuevo dispositivo otra vez, y reiniciar el círculo vicioso...
selecter25
06/06/2020, 00:54
Android en un PC... es un sistema operativo pensado sólo para consumir, no para producir. Los que producimos cosas lo vemos como una peste,
Los ARM se han centrado en minimizar el consumo y el área de oblea que requieren por CPU; vamos que son baratos de producir porque lo que hay dentro del chip ocupa muy poco espacio; pero los x86-x64 de Intel y AMD tienen mil cosas más ahí dentro que los hacen muy apropiados para un uso muy amplio. En rendimiento no les baten; recordad que los algoritmos de codificación / decodificación son matemáticamente complejos, y los x86-x64 se desenvuelven muy bien al tener un repertorio de instrucciones tan amplio, los ARM no se defienden así de bien y a muchos de ellos los complementan con electrónica adicional en forma de FPGA para integrar por hardware algunas funciones; éstas están mapeadas en el espacio de direcciones de la CPU; y se venden juntos en un integrado, CPU y FPGA.
Si lo pensamos bien, ¿qué utilidad tiene no usar una CPU donde sabes que el software va a correr bien, y en cambio dedicar un esfuerzo brutal en implementar funciones por hardware? Después lo licencian y lo dejan muy barato si adquieres tropecientas miles de unidades, porque otra forma de obtener réditos no la hay.
¿Por qué Intel y AMD no combaten con x86-x64 en esos segmentos? Será el consumo de energía y el tamaño en oblea; o están esperando a que el mercado se inunde de ARM, para sacar el equivalente en consumo y coste de fabricación en x86-x64 para forzar a la gente a comprar nuevo dispositivo otra vez, y reiniciar el círculo vicioso...
Yo creo que es 100% por consumo de energía. No creo que a día de hoy puedan fabricar (o al menos salga rentable) alguna CPU x86/64 CISC energéticamente eficiente, barata y potente como para hacer frente a alguna ARM RISC.
También es el target del usuario, a día de hoy se estima que hay más teléfonos en el mundo (7.700 millones) que humanos, son dispositivos que en su mayoría consumen contenido, no crean, y para eso un teléfono va cada vez más sobrado.
Hablamos por otro lado de un mercado (los SOC ARM) que ha crecido en rendimiento de una manera exponencial, hemos pasado de jugar a la serpiente a reproducir contenido 4K vía streaming o jugar en pantallas AMOLED de 6,67 pulgadas, también en 4k y con 120hz.
Lo más cercano que han llegado a estar ARM y x86 ha sido el UWP que intentó Microsoft, y no salió bien. Yo creo que las cosas seguirán tal cual, ARM enfocado en un mercado de consumo, móvil, y x86 al escritorio o a los ordenadores portátiles productivos o gaming.
Interesante y sencilla explicación de la nueva manera de medir los consumos de los procesadores Intel:
https://www.noticias3d.com/noticia.asp?idnoticia=80552
También interesantes las conclusiones del overclocker Der8auer.
Ya no hay tanta diferencia como antes entre un CISC y un RISC a nivel de rendimiento, gracias al pipiline en general la mayoría de las instrucciones te tardan un solo ciclo de reloj, otra cosa es que un i7 tenga mas núcleos, mas ALUs, y cosas como el reordenar las instrucciones y por eso puede ejecutar mas por ciclo, ademas la FPU es mucho mejor.
Ahí está mi duda, porque los x86 tiene un montón de HW de apoyo interno que no se ha incorporado a las CPU ARM, que de hacerse, entiendo que aumentaría el consumo, pero teniendo en cuenta que el destino es un equipo de sobremesa para funcionar con Android, no habría pegas.
Y me adelanto al comentario: no, el software no sería el mismo. En esos PCs podrías hacer funcionar software más complejo y potente, igual que Nintendo (casi) nunca mete el mismo juego en una consola de sobremesa y en una portátil (recortes gráficos, de tamaño, de cálculos, de resolución...).
Android en un PC... es un sistema operativo pensado sólo para consumir, no para producir. Los que producimos cosas lo vemos como una peste,
Los ARM se han centrado en minimizar el consumo y el área de oblea que requieren por CPU; vamos que son baratos de producir porque lo que hay dentro del chip ocupa muy poco espacio; pero los x86-x64 de Intel y AMD tienen mil cosas más ahí dentro que los hacen muy apropiados para un uso muy amplio. En rendimiento no les baten; recordad que los algoritmos de codificación / decodificación son matemáticamente complejos, y los x86-x64 se desenvuelven muy bien al tener un repertorio de instrucciones tan amplio, los ARM no se defienden así de bien y a muchos de ellos los complementan con electrónica adicional en forma de FPGA para integrar por hardware algunas funciones; éstas están mapeadas en el espacio de direcciones de la CPU; y se venden juntos en un integrado, CPU y FPGA.
Si lo pensamos bien, ¿qué utilidad tiene no usar una CPU donde sabes que el software va a correr bien, y en cambio dedicar un esfuerzo brutal en implementar funciones por hardware? Después lo licencian y lo dejan muy barato si adquieres tropecientas miles de unidades, porque otra forma de obtener réditos no la hay.
¿Por qué Intel y AMD no combaten con x86-x64 en esos segmentos? Será el consumo de energía y el tamaño en oblea; o están esperando a que el mercado se inunde de ARM, para sacar el equivalente en consumo y coste de fabricación en x86-x64 para forzar a la gente a comprar nuevo dispositivo otra vez, y reiniciar el círculo vicioso...
Yo creo que es 100% por consumo de energía. No creo que a día de hoy puedan fabricar (o al menos salga rentable) alguna CPU x86/64 CISC energéticamente eficiente, barata y potente como para hacer frente a alguna ARM RISC.
También es el target del usuario, a día de hoy se estima que hay más teléfonos en el mundo (7.700 millones) que humanos, son dispositivos que en su mayoría consumen contenido, no crean, y para eso un teléfono va cada vez más sobrado.
Hablamos por otro lado de un mercado (los SOC ARM) que ha crecido en rendimiento de una manera exponencial, hemos pasado de jugar a la serpiente a reproducir contenido 4K vía streaming o jugar en pantallas AMOLED de 6,67 pulgadas, también en 4k y con 120hz.
Lo más cercano que han llegado a estar ARM y x86 ha sido el UWP que intentó Microsoft, y no salió bien. Yo creo que las cosas seguirán tal cual, ARM enfocado en un mercado de consumo, móvil, y x86 al escritorio o a los ordenadores portátiles productivos o gaming.
Bueno, son procesadores de propósito general, se supone que están diseñados para hacer cualquier cosa. Diferente es que uno se ha centrado en el consumo y el otro en rendimiento.
Pero eso de que Android no se han diseñado para producir es muy discutible, porque si vemos la cantidad de contenido subido desde teléfonos móviles y tablets (desde videos a Youtube u otras plataformas, mensajes en Twitter, Facebook o la red social de moda, audios por Whatsapp, fotos a Instagram...), el porcentaje es bestial. Si tenemos que hablar del SO preferido por los creadores de contenido, ese es MacOS, pero Windows creo que le sigue ganando en cantidad (no en calidad), y mucho más allá está Android.
Y sin embargo, el mercado potencial para Android en sobremesa es bestial... mal que nos pese. Imagina llegar a casa, encender el sobremesa, y poder sincronizarlo con el móvil y mandar Tweets y subir fotos con la comodidad de un teclado y ratón (o directamente, jugar los juegos con algo más apropiado que una pantalla táctil :D).
Creo recordar que Intel ya tuvo un intento de crear un procesador de bajo consumo a principio de siglo, si no un poco antes ¿Pueden ser los Intel-M? Creo que eran procesadores para portátiles o PDAs, o algo de que funcionase Windows CE, no recuerdo muy bien, pero sé que se pegó el castañazo porque no vendió suficiente, el rendimiento no era muy bueno, se calentaba demasiado, consumía mucho e incluso daba problemas.
El mercado más obvio para ARM en sobremesa sería el uso de Android a mayor escala, de forma nativa, pero hace ya muchos años que estamos usando software ARM, principalmente en consolas portátiles, y con el tema del ahorro energético no veo por qué no sería posible un giro hacia esos procesadores a medio o largo plazo, si se corrigen las diferencias y... si alguien realmente piensa que podría llegar a funcionar :lol: Hablo hipotéticamente.
Interesante y sencilla explicación de la nueva manera de medir los consumos de los procesadores Intel:
https://www.noticias3d.com/noticia.asp?idnoticia=80552
También interesantes las conclusiones del overclocker Der8auer.
Si, lo que he visto en muchas benchmark es que bastantes fabricantes de placas te quitan el limite de tiempo del tau (el tiempo que viene en la columna es una recomendación de Intel que el fabricante de la placa puede seguir o no) y en esencia dejan que este todo el tiempo del mundo en pl2, lo cual aumenta mucho el consumo del procesador, pero permite que este siempre a las frecuencias mas altas, pero claro tienes que tener una refrigeración mas que decente para eso.
-----Actualizado-----
Ahí está mi duda, porque los x86 tiene un montón de HW de apoyo interno que no se ha incorporado a las CPU ARM, que de hacerse, entiendo que aumentaría el consumo, pero teniendo en cuenta que el destino es un equipo de sobremesa para funcionar con Android, no habría pegas.
Y me adelanto al comentario: no, el software no sería el mismo. En esos PCs podrías hacer funcionar software más complejo y potente, igual que Nintendo (casi) nunca mete el mismo juego en una consola de sobremesa y en una portátil (recortes gráficos, de tamaño, de cálculos, de resolución...).
Bueno, son procesadores de propósito general, se supone que están diseñados para hacer cualquier cosa. Diferente es que uno se ha centrado en el consumo y el otro en rendimiento.
Pero eso de que Android no se han diseñado para producir es muy discutible, porque si vemos la cantidad de contenido subido desde teléfonos móviles y tablets (desde videos a Youtube u otras plataformas, mensajes en Twitter, Facebook o la red social de moda, audios por Whatsapp, fotos a Instagram...), el porcentaje es bestial. Si tenemos que hablar del SO preferido por los creadores de contenido, ese es MacOS, pero Windows creo que le sigue ganando en cantidad (no en calidad), y mucho más allá está Android.
Y sin embargo, el mercado potencial para Android en sobremesa es bestial... mal que nos pese. Imagina llegar a casa, encender el sobremesa, y poder sincronizarlo con el móvil y mandar Tweets y subir fotos con la comodidad de un teclado y ratón (o directamente, jugar los juegos con algo más apropiado que una pantalla táctil :D).
Creo recordar que Intel ya tuvo un intento de crear un procesador de bajo consumo a principio de siglo, si no un poco antes ¿Pueden ser los Intel-M? Creo que eran procesadores para portátiles o PDAs, o algo de que funcionase Windows CE, no recuerdo muy bien, pero sé que se pegó el castañazo porque no vendió suficiente, el rendimiento no era muy bueno, se calentaba demasiado, consumía mucho e incluso daba problemas.
El mercado más obvio para ARM en sobremesa sería el uso de Android a mayor escala, de forma nativa, pero hace ya muchos años que estamos usando software ARM, principalmente en consolas portátiles, y con el tema del ahorro energético no veo por qué no sería posible un giro hacia esos procesadores a medio o largo plazo, si se corrigen las diferencias y... si alguien realmente piensa que podría llegar a funcionar :lol: Hablo hipotéticamente.
Windows CE funcionaba y funciona con procesadores ARM, intel fabricaba procesadores ARM los StrongARM, de hecho el newton de apple que tengo lleva un ARM de intel y sigue utilizandolos para los FPGA. Windows CE se pego el castañazo porque el mercado de las PDA se fue a la mierda cuando empezaron a salir los telefonos 'inteligentes' y los que sacaron con windows CE no iban excesivamente bien, solo habia que tener uno para darse cuenta de porque apple tuvo tanto exito.
ARM tambien esta sacando procesadores ahora dedicados a performance, dejando un poco de lado el consumo y el tamaño del procesador, intentando entrar en el mercado portatil y de servidores pero estando AMD e Intel por ahí hay mucha tela que cortar.
selecter25
10/06/2020, 14:03
Y esto? Apple se pasa a ARM en MAC?? Pero no eran malos para producir?
https://www.muycomputer.com/2020/06/09/apple-abandona-intel-arm/
Y esto? Apple se pasa a ARM en MAC?? Pero no eran malos para producir?
https://www.muycomputer.com/2020/06/09/apple-abandona-intel-arm/
Parece que han adelantado los planes, todo el mundo suponia que los anunciarian el año que viene. Pero no creo que Apple 'abandone' Intel de golpe, lo mas probable es empiece a migrar los portatiles de gama 'baja' que tiene y dejar la gama alta con Intel, salvo que hayan dado con la piedra filosofal y el procesador que saquen sea la hostia emulando x86 y tenga el mismo rendimiento en el mac book pro (cosa que dudo). Tampoco veo quitando el Mac Pro de Intel (este mucho mas complicado que los portatiles)
Ya solo les queda seguir metiendole caña a la powerVR y quitar las gpu externas de AMD para tener el bicho completo solo de Apple.
Deseoso de que llegue el evento a ver que presentan realmente.
Parece que han adelantado los planes, todo el mundo suponia que los anunciarian el año que viene. Pero no creo que Apple 'abandone' Intel de golpe, lo mas probable es empiece a migrar los portatiles de gama 'baja' que tiene y dejar la gama alta con Intel.
Lo malo es que el problema es el contrario, la gama baja esta saliendo bien de rendimiento, esos i3 de octava y novena generacion son una maravilla, rinden un monton y no se calientan nada, el problema son los i7 e i9, les sienta fatal estar en un chasis tan cerrado y falto de ventilación.
El nuevo apple a14 no dudo que sea un bue chip para igualar a los i3 e i5 de dos nucleos, pero a los de 4 nucleos o 6 ni de broma, y menos a un i7 o i9.
Ya hasta Apple se anima a participar en la conversación :D
Bueno, no tienen que rendir igual, con que sean capaces de llevar a cabo las mismas tareas en el mismo tiempo, no importa si trabajan el doble o la mitad :lol:
Lo mismo que me decís a mi que las dos tecnologías no son comparables, tampoco tiene por qué serlo a la hora de ejecutar. Lo mismo el A14 es más lento y no tiene predicción de código ni reordenación de mnemónicos ni esas cosas, pero a lo mejor son instrucciones más directas, el compilador genera código más eficiente, y se quitan de encima varias capas software y hardware que hacen que todo fluya mucho más rápido, y editar un vídeo requiere la mitad de instrucciones que en un x86.
Obviamente no va a ser así, pero bueno, en dos semanas saldremos de algunas dudas :D :D :D
Lo malo es que el problema es el contrario, la gama baja esta saliendo bien de rendimiento, esos i3 de octava y novena generacion son una maravilla, rinden un monton y no se calientan nada, el problema son los i7 e i9, les sienta fatal estar en un chasis tan cerrado y falto de ventilación.
El nuevo apple a14 no dudo que sea un bue chip para igualar a los i3 e i5 de dos nucleos, pero a los de 4 nucleos o 6 ni de broma, y menos a un i7 o i9.
Hablaban de que montaría un chip con doce nucleos, 8 tochos y 4 normales y con un TDP bastante mas alto que el de los procesadores para moviles, teniendo en cuenta que los A13 ya son unas bestias pardas en el mundo del movil yo esperaria a ver lo que rinde ese SOC y es facil que lo prueben porque como vendrá con Mac OS es probar aplicaciones con y sin emulación y despues comparar con un portatil con intel.
Y como decia no creo que vayan a por la gama alta todavía, aparte de la potencia es un cambio peligroso porque puede haber gente que diga pues para esto me paso a un portatil con windows intel.
Dullyboy
11/06/2020, 09:20
Y otra vulnerabilidad:
SGAxe: Otra vulnerabilidad que afecta a los procesadores de Intel (https://elchapuzasinformatico.com/2020/06/sgaxe-otra-vulnerabilidad-que-afecta-a-los-procesadores-de-intel/)
Y otra vulnerabilidad:
SGAxe: Otra vulnerabilidad que afecta a los procesadores de Intel (https://elchapuzasinformatico.com/2020/06/sgaxe-otra-vulnerabilidad-que-afecta-a-los-procesadores-de-intel/)
Parece que los ARM tampoco se escapan de las vulneravilidades: Las CPUs ARM se ven afectadas por una vulnerabilidad llamada Straight-Line Speculation (SLS) (https://elchapuzasinformatico.com/2020/06/las-cpus-arm-se-ven-afectadas-por-una-vulnerabilidad-llamada-straight-line-speculation-sls/) (aunque aseguran que ya hay solución)
Algo raro pasa Jim Keller ha dicho que se pira de Intel debido a temas personales, para los que no sepais quien es Jim Keller, es el responsable del equipo que diseño el k8 (primera arquitectura x86 de 64 bits), jefe del dseño de los procesadores A4 y A5 de apple, jefe diseño de la arquitectura Zen en AMD, despues vicepresidente en Tesla de la parte de ingenieria del autopilot.
Fue contratado por Intel en 2018 para intentar mejorar las arquitecturas que estaban desarrollando y dar respuesta a AMD con Zen (o eso comento la prensa).
Es cierto que esta persona es un culo de mal asiento y cambia bastante de compañia, pero una salida tan fulminante y radical como esta sin haber presentado nada nuevo da que pensar.
https://www.tomshardware.com/news/intels-jim-keller-resigns-will-assist-with-transition
AMD ACTUALIZA SU ROADMAP CON ZEN 3, 5nm Y RDNA 2, LA GPU DE PS5 Y XBOX SERIES X:
https://www.noticias3d.com/noticia.asp?idnoticia=80623
selecter25
12/06/2020, 23:48
Al final los 5nm se van a Zen 4.
Si una pena ya me estabas poniendo los dientes largos con las especulaciones jeje
-----Actualizado-----
A ver si lo del +50% de los RDNA 2 se cumple. Si contienen los precios serán muy tentadoras.
selecter25
12/06/2020, 23:55
Si una pena ya me estabas poniendo los dientes largos con las especulaciones jeje
-----Actualizado-----
A ver si lo del +50% de los RDNA 2 se cumple. Si contienen los precios serán muy tentadoras.
El problema es que las Ampere las van a destrozar, al menos en rendimiento.
Si se cumple ese +50% y las sacan más baratas serán un duro rival.
No se donde he leído que las futuras ampere van a salir 200€ más caras de lo que salieron las de la actual generación y mira que salieron caras.... A nvidia se le está empezando a ir la olla con los precios.
selecter25
13/06/2020, 00:46
Si se cumple ese +50% y las sacan más baratas serán un duro rival.
No se donde he leído que las futuras ampere van a salir 200€ más caras de lo que salieron las de la actual generación y mira que salieron caras.... A nvidia se le está empezando a ir la olla con los precios.
En Ampere también hablan de un rendimiento un 50% superior con respecto a las Turing, y un rendimiento 4 veces superior en Ray Tracing, de hecho en todas las noticias se habla del salto generacional más grande de la historia de las GPU. Ya te digo yo que les va a pasar el rodillo por encima. Y estoy seguro de que aún se guardan una 3090 o una 3090ti en la manga.
En la gama de entrada, pues puede que quede algún modelo interesante, pero es que ya en la actual generación, ni ahí gana AMD a las actuales Turing. Ni en rendimiento, ni en temperaturas, ni en consumo, ni en precio.
De RTX 2070 para arriba, pues directamente no hay rival, AMD no tiene gama para competir por arriba desde hace muchos años, de ahí los precios desorbitados de Nvidia en sus gamas altas.
Algo raro pasa Jim Keller ha dicho que se pira de Intel debido a temas personales, para los que no sepais quien es Jim Keller, es el responsable del equipo que diseño el k8 (primera arquitectura x86 de 64 bits), jefe del dseño de los procesadores A4 y A5 de apple, jefe diseño de la arquitectura Zen en AMD, despues vicepresidente en Tesla de la parte de ingenieria del autopilot.
Fue contratado por Intel en 2018 para intentar mejorar las arquitecturas que estaban desarrollando y dar respuesta a AMD con Zen (o eso comento la prensa).
Es cierto que esta persona es un culo de mal asiento y cambia bastante de compañia, pero una salida tan fulminante y radical como esta sin haber presentado nada nuevo da que pensar.
https://www.tomshardware.com/news/intels-jim-keller-resigns-will-assist-with-transition
Me lo imagino:
-A ver, como os digo esto... estais haciendo todo mal.
-¿A que se refiere?
-A todo, llevais sacando los mismos procesadores con el nombre cambiado durante 5 años y AMD os está pasando la mano por la cara.
-Pues vamos a seguir así y no vamos a cambiar por que tu lo digas
-Ok, ¿Cual era la extension de RRHH?
Me lo imagino:
-A ver, como os digo esto... estais haciendo todo mal.
-¿A que se refiere?
-A todo, llevais sacando los mismos procesadores con el nombre cambiado durante 5 años y AMD os está pasando la mano por la cara.
-Pues vamos a seguir así y no vamos a cambiar por que tu lo digas
-Ok, ¿Cual era la extension de RRHH?
Si, es lo que especulan en muchos sitios, que se ha cansado de luchar contra el inmovilismo de los ejecutivos de Intel y ha decidido irse ya que no puede arreglar nada (este hombre curiosamente se define a si mismo como un 'fixer' no como un megadiseñador). Pero le van a mantener como consultor 6 meses para que no se vaya a otra compañia durante ese tiempo.
Bien parece ser que en japon han decidido pasar de Intel, IBM,AMD y Nvidia y el nuevo superordenador que han montado solo lleva procesadores ARM y no solamente eso, sino que ahora mismo es el numero uno en potencia de todos los superordenadores instalados, casi 3 veces mas rápido que el segundo.
Es probable que no dure mucho en ese puesto porque está prevista la instalación de superordenadores mas potentes, pero por ahora para ARM esto es un logro.
Los procesadores son SOC ARM con 48 cores de Fujitsu y lo que es curioso es que no utiliza GPUs para la aceleración, todo esta en el SOC. El ordenador lleva mas de mas de 7 millones de cores y la potencia es de mas de 41500 TFlops
53728
El enlace de la noticia:
https://www.anandtech.com/show/15869/new-1-supercomputer-fujitsus-fugaku-and-a64fx-take-arm-to-the-top-with-415-petaflops
-----Actualizado-----
Como se rumoreaba a voces, hoy en la WDC Apple ha anunciado que saca sus primeros portatiles con ARM a finales de este año y que tendrá un periodo de transición para pasar todo a ARM de 2 años, el procesador que llevaran los primeros será el A14 que se rumorea que saldrá con la nueva ISA v9 de ARM, lo cual resulta raro porque ARM todavía no la ha anunciado oficialmente.
Para la retrocompatibilidad con los modelos anteriores tiene el Rosetta 2 que traduce a nivel binaro los ejecutables x86 a ARM en la instalación y los deja para posteriores ejecuciones, aunque comentan que algunos podrían tambien tenerlos ya disponibles en el store para descargarlos directamente y ahorrar ese tiempo (aunque segun los puristas del foro eso no es retrocompatiblidad sino port :D), aunque tiene la posibilidad de traduccion en tiempo real. tambien viene con virtualización y mostraron en la conferencia linux corriendo dentro de una maquina virtual.
El S.O. esta en Beta (Mac OS Big Sur), pero debe ser bastane estable porque los kit de desarrollo ya se estan distribuyendo con ese S.O., y lo que es raro es que llevan un procesador A12Z que es inferior en prestaciones al del iphone 11 (el A13) en teoria para que optimicen bien las aplicaciones.
Enlace al articulo:
https://www.anandtech.com/show/15875/apple-lays-out-plans-to-transition-macs-from-x86-to-apple-socs
Apple está igual, ahora va a sacar sus mierdas ultra caras con procesadoras ultra baratos y ultramierder con arquitectura arm. Me da a mi que este intento de imponer para tareas de producción una arquitectura de mierda como arm no va a acabar bien.
Desde el desconocimiento, y suponiendo que los desarrolladores portasen su software a ARM, ¿qué desventaja tiene para el usuario que el equipo use ARM en vez de x86?
Apple está igual, ahora va a sacar sus mierdas ultra caras con procesadoras ultra baratos y ultramierder con arquitectura arm. Me da a mi que este intento de imponer para tareas de producción una arquitectura de mierda como arm no va a acabar bien.
Los procesadores de Apple deberían ser mas caros de fabricar que los de intel ya que llevan bastantes mas transistores que los procesadores para portatiles de intel, p.e. el A13 lleva mas de 8 mil millones y un i7-9700K (8 cores) cerca de 3 mil millones, por lo que ultra baratos no son, mas bien ultra caros. Y los nuevos (el A14) van a ser mas caros aun porque pasan de 7nm a 5nm y ya se sabe que ese proceso es bastante mas caro.
Ls procesadorees que usan ahora tienen un consumo máximo de 5 Watios en modo 'potencia' y una refrigeracion muy poco eficiente por el tamaño, con un portatil pueden aumentar los watios maximos al mejorar mucho la refrigeración o mantenerlo siempre en sus frecuencias máximas y eso debería mejorar mucho la 'velocidad' de ese procesador.
¿Y porque la arquitectura de ARM es ultramierder?
Y si, van a ser ultra caros, eso ya es sello de apple.
Desde el desconocimiento, y suponiendo que los desarrolladores portasen su software a ARM, ¿qué desventaja tiene para el usuario que el equipo use ARM en vez de x86?
Supongo que para aplicaciones que usen mucho las operaciones de punto flotante (render, autocad, etc) correran mas en los intel, mientras que las demás no habra tanta diferencia. Al menos hace años (mas de 10...) era así.
¿Y porque la arquitectura de ARM es ultramierder?
La arquitectura arm es ultramierder porque no está diseñada para tener mucha potencia de calculo sino para tener un consumo bajo y eso es pasable para equipos que no se utilizan para producir y que funcionan con batería (smartphones, tablets, etc); pero es lo **** peror para para equipos de trabajo o equipos gaming. Y bueno, está el tema de romper la compatibilidad con todo el software de PC existente (teniendo que tirar de emulación, que va fatal), que hablando de macs no es relevante, pero hablando de PCs (que tambien andan coqueteando con el tema) es bastante preocupante.
Y ultrabaratos porque en compendio salen mucho más baratos, ya solo con lo que se ahorran al eliminar todos los gastos asociados a fabricar y mantener dos arquitecturas diferentes salen ganando; a ver si te piensas que van a cambiar a una arquitectura peor sin que les salga economicamente muy rentable.
Pasar de x86 a arm, sería como pasar de PS5 a nintendo switch. Nuestro hardware de trabajo involucionaría de 5 a 10 años en potencia, y lo mismo en cuanto a software y rendimiento.
Teniendo en cuenta para que utilizan los ordenadores el 90% de los usuarios, no creo que noten el cambio de intel a arm.
-----Actualizado-----
Por cierto, hace años en los ejecutables de Mac venia dos binarios, uno para PowerPC y otro para Intel, tal vez hagan lo mismo.
Creo que el único punto problemático para los ARM será en tareas como compilar (al menos mientras no se hagan en la GPU), que es dificil acelerar mediante chips o lógica auxiliares (pero estoy deseando que me sorprendan a este respecto). Para otros usos como multimedia o gaming habrá ayuda más que de sobra para que estos chips ARM hagan todo lo que tengan que hacer. Estoy deseando ver cómo tira un docker compilando un proyecto gcc/gradle/maven/go/python. Si hay poca diferencia, esto sería un paso gigantesco (y la primera vez que desearía tener un Mac para desarrollar).
Por cierto, mucho tooling para programación ya hace tiempo que se hacen releases compiladas para ARM y amazon hace 2 años lanzó sus instancias basadas en ARM, puede ser un gran empujón a todo esto, benchmarks:
https://www.anandtech.com/show/15578/cloud-clash-amazon-graviton2-arm-against-intel-and-amd/5
La arquitectura arm es ultramierder porque no está diseñada para tener mucha potencia de calculo sino para tener un consumo bajo y eso es pasable para equipos que no se utilizan para producir y que funcionan con batería (smartphones, tablets, etc); pero es lo **** peror para para equipos de trabajo o equipos gaming. Y bueno, está el tema de romper la compatibilidad con todo el software de PC existente (teniendo que tirar de emulación, que va fatal), que hablando de macs no es relevante, pero hablando de PCs (que tambien andan coqueteando con el tema) es bastante preocupante.
Y ultrabaratos porque en compendio salen mucho más baratos, ya solo con lo que se ahorran al eliminar todos los gastos asociados a fabricar y mantener dos arquitecturas diferentes salen ganando; a ver si te piensas que van a cambiar a una arquitectura peor sin que les salga economicamente muy rentable.
Pasar de x86 a arm, sería como pasar de PS5 a nintendo switch. Nuestro hardware de trabajo involucionaría de 5 a 10 años en potencia, y lo mismo en cuanto a software y rendimiento.
Digo yo que no le pondrán a un portátil o sobremesa el mismo Arm que a un móvil. Estará rediseñado sin las limitaciones de consumo que exigen los móviles, que tontos no son.
masteries
23/06/2020, 11:25
Apple está igual, ahora va a sacar sus mierdas ultra caras con procesadoras ultra baratos y ultramierder con arquitectura arm. Me da a mi que este intento de imponer para tareas de producción una arquitectura de mierda como arm no va a acabar bien.
Básicamente puede hacer eso por lo que indicabáis, porque el 90% de los usuarios en general y el 99% del mercado al que van dirigidas esas máquinas, les sirve ese o cualquier otro procesador; estiman que no van a utilizar programas con larga trayectoria a sus espaldas... etc. Vamos que no va a producir en el sentido complejo de la palabra; son máquinas para postureo.
En no recuerdo que hilo, escribí un post mostrando alguna de las grandes diferencias entre un Pentium 4 o AMD Athlon XP frente a un ARM; los Intel y los AMD son arquitecturas que llevan mucho tiempo evolucionando (¿30 - 40 años?) centrados en el rendimiento. En los propios Intel y AMD actuales hay mil trucos y atajos que hacen su función ellos solitos, en beneficio del usuario por supuesto.
Las arquitecturas CISC tienen sus grandes ventajas, también sus inconvenientes. Pero llevan tanto tiempo martilleando con el RISC, que ya pareciera que si no es RISC "no es el auténtico" jajaja
Los compiladores que ya hay para x86 - x64, llevan evolucionando los mismos años; conozco bien los ARM a nivel ensamblador, y no hay color; son competentes, sí. Los querría en el mismo escenario donde puedes usar un Intel o AMD, no.
También sucede que está muy de moda el montar SOCs personalizados, y dado que ARM no vende micros, sino el código VHDL que describe el micro; pues con los conocimientos adecuados montas un frankenstein de cuidado, he visto incluso quien se ahorra el módulo gestor de memoria RAM dinámica e implementa un cutre sucedáneo (que no optimiza el uso de la RAM, por supuesto) en el SOC, para seguir reduciendo costes. Hay otros sectores que se están metiendo en un laberinto de cuidado con esto de los SOCs ARM, intentado modificar el VHDL del ARM para hacerlo hiperresistente a mil historias, cambios super bruscos de temperatura (de pasar de -120 ºC a 80ºC en unos minutos), que sea resistente a la radiación... y se están encontrando que aquello que querían abaratar, en el desarrollo de todo esto, les crece tanto el tamaño y la complejidad que el ahorro ya no se vé por ninguna parte... jaja todo por ahorrarse el comprar varias cpus de 2500€ y se meten en laberintos de los que no van a salir antes de 10 años...
también está la resolución de problemas de desarrollo en los SOCs por las brutas... hmmm... me encuentro con que el acceso a tal cosa falla después de ejecutar tal instrucción, seguida de esta otra... "en lugar de buscar técnicamente a qué se debe esto realmente", porque algo hemos liado al añadir estos y otros hardware adicionales metidos con calzador en la descripción del micro; prueban a añadir una espera de 5 ciclos de reloj en este caso, y cómo el problema "ya no aparece", así se queda resuelto. Así se están haciendo los SOCs,
mucha precaución con los SOCs, no es oro todo lo que reluce; para los móviles están muy bien, para otras máquinas ya está inventada la rueda.
-----Actualizado-----
Desde el desconocimiento, y suponiendo que los desarrolladores portasen su software a ARM, ¿qué desventaja tiene para el usuario que el equipo use ARM en vez de x86?
De forma sencilla; piensa en los tiempos del Core 2 Duo, se vendían también unos Pentium con doble núcleo (no recuerdo su nombre exacto). Cuando pones dos PCs a hacer los mismo, hablando de experiencia de usuario medio (navegar, ver vídeos, trastear con los correos), uno con Core 2 Duo frente al Pentium a velocidad de reloj semejante... ¿qué te entran ganas de hacer con el PC con Pentium al cabo de un rato?
Pues eso es lo que sucedería,
La arquitectura arm es ultramierder porque no está diseñada para tener mucha potencia de calculo sino para tener un consumo bajo y eso es pasable para equipos que no se utilizan para producir y que funcionan con batería (smartphones, tablets, etc); pero es lo **** peror para para equipos de trabajo o equipos gaming. Y bueno, está el tema de romper la compatibilidad con todo el software de PC existente (teniendo que tirar de emulación, que va fatal), que hablando de macs no es relevante, pero hablando de PCs (que tambien andan coqueteando con el tema) es bastante preocupante.
Y ultrabaratos porque en compendio salen mucho más baratos, ya solo con lo que se ahorran al eliminar todos los gastos asociados a fabricar y mantener dos arquitecturas diferentes salen ganando; a ver si te piensas que van a cambiar a una arquitectura peor sin que les salga economicamente muy rentable.
Pasar de x86 a arm, sería como pasar de PS5 a nintendo switch. Nuestro hardware de trabajo involucionaría de 5 a 10 años en potencia, y lo mismo en cuanto a software y rendimiento.
Que la arquitecturas estuvieran orientadas a maximo rendimiento con el minimo consumo no las hace ultramierder, justo lo contrario y desde hace ya un tiempo ARM tiene cores orientados totalmente a rendimiento, por ejemplo los que monta Amazon en AWS.
Aparte de que los cores de apple no tienen ya mucho que ver con los 'originales', han hecho muchos cambios para mejorar el rendimiento, de ahí que rindan mucho mejor que los de qualcomm.
Salen en una arquitectura ARM por la misma razón por la que cambiaron de powerpc a Intel porque los procesadores actuales para portatil están 'estancados' llevan años con pocas mejoras y la arquitectura de 10nm no está todavía dando resultados, para que vas a cambiar de portatil si el procesador nuevo rinde practicamente lo mismo que el anterior. Yo creo que si intel no se hubiera apesebrado a Apple ni se le hubiera pasdo por la cabeza.
Que van a abaratar costes es seguro, porque aunque el procesador sea mas caro de fabricar que uno de intel se ahorran lo que intel se lleva (que hasta ahora no era poco).y tambien les permite que los diseños vayan a lo que ellos quieren, cuando ellos quieren y en el volumen que ellos quieren.
Los equipos de trabajo de las empresas en general son bastante miseros y poco potentes, yo creo que la mayoria de los portatiles de mi curre eran i5 dual core con selvas ocasionales de i5/i7 quad core (hablo de los portaties que eran la mayoria y ahora con lo del coronavirus aun mas), me extrañaria que los portatiles nuevos de apple no lleguen a eso.
Y Lo de los portatiles ARM con windows ahí están intentandolo, pero con los preciacos que les están cascando y los pocos fabricantes que hay es normal que no estén teniendo nada de exito y mientras sigan en esa tesitura no creo que vayan a despegar, te compras uno de intel con menos bateria pero que cuesta menos y es mas rápido. Y lo veo menos para equipos de sobremesa para render 3d (aunque aqui es la gráfica la que corta el bacalao), juegos, etc.
Yo creo que esto de apple si tiene exito será un toque de atención grande a Intel y AMD y me quedaría muy muy sorprendido si termina 'matando' a x86 en el mundo del PC.
Que la arquitecturas estuvieran orientadas a maximo rendimiento con el minimo consumo no las hace ultramierder, justo lo contrario y desde hace ya un tiempo ARM tiene cores orientados totalmente a rendimiento, por ejemplo los que monta Amazon en AWS.
Aparte de que los cores de apple no tienen ya mucho que ver con los 'originales', han hecho muchos cambios para mejorar el rendimiento, de ahí que rindan mucho mejor que los de qualcomm.
Salen en una arquitectura ARM por la misma razón por la que cambiaron de powerpc a Intel porque los procesadores actuales para portatil están 'estancados' llevan años con pocas mejoras y la arquitectura de 10nm no está todavía dando resultados, para que vas a cambiar de portatil si el procesador nuevo rinde practicamente lo mismo que el anterior. Yo creo que si intel no se hubiera apesebrado a Apple ni se le hubiera pasdo por la cabeza.
Que van a abaratar costes es seguro, porque aunque el procesador sea mas caro de fabricar que uno de intel se ahorran lo que intel se lleva (que hasta ahora no era poco).y tambien les permite que los diseños vayan a lo que ellos quieren, cuando ellos quieren y en el volumen que ellos quieren.
Los equipos de trabajo de las empresas en general son bastante miseros y poco potentes, yo creo que la mayoria de los portatiles de mi curre eran i5 dual core con selvas ocasionales de i5/i7 quad core (hablo de los portaties que eran la mayoria y ahora con lo del coronavirus aun mas), me extrañaria que los portatiles nuevos de apple no lleguen a eso.
Y Lo de los portatiles ARM con windows ahí están intentandolo, pero con los preciacos que les están cascando y los pocos fabricantes que hay es normal que no estén teniendo nada de exito y mientras sigan en esa tesitura no creo que vayan a despegar, te compras uno de intel con menos bateria pero que cuesta menos y es mas rápido. Y lo veo menos para equipos de sobremesa para render 3d (aunque aqui es la gráfica la que corta el bacalao), juegos, etc.
Yo creo que esto de apple si tiene exito será un toque de atención grande a Intel y AMD y me quedaría muy muy sorprendido si termina 'matando' a x86 en el mundo del PC.
Personalmente, aunque resulte contraintuitivo, yo no considero los equipos "mierder" que se usan en oficina para hacer ofimatica básica como equipo de productividad o equipo de trabajo. Pero cuando nos metemos con edición de imagen, de video, cad, diseño 3D, renderizado y/o codificación de video ya necesitamos equipos "de verdad" y no raquíticos arm; y huelga decir el tema de los juegos, que son lo que impulsa la informática de consumo y que no tienen alternativa real en arm.
Iba a plantear una duda, pero no consigo expresarla, así que, por alusiones, sólo voy a responder a esto:
Para la retrocompatibilidad con los modelos anteriores tiene el Rosetta 2 que traduce a nivel binaro los ejecutables x86 a ARM en la instalación y los deja para posteriores ejecuciones, aunque comentan que algunos podrían tambien tenerlos ya disponibles en el store para descargarlos directamente y ahorrar ese tiempo (aunque segun los puristas del foro eso no es retrocompatiblidad sino port :D)
Depende ¿estás usando el programa original en tu equipo o te estás descargando directamente el programa modificado de la store? :lol:
selecter25
23/06/2020, 12:39
Que la arquitecturas estuvieran orientadas a maximo rendimiento con el minimo consumo no las hace ultramierder, justo lo contrario y desde hace ya un tiempo ARM tiene cores orientados totalmente a rendimiento, por ejemplo los que monta Amazon en AWS.
Aparte de que los cores de apple no tienen ya mucho que ver con los 'originales', han hecho muchos cambios para mejorar el rendimiento, de ahí que rindan mucho mejor que los de qualcomm.
Salen en una arquitectura ARM por la misma razón por la que cambiaron de powerpc a Intel porque los procesadores actuales para portatil están 'estancados' llevan años con pocas mejoras y la arquitectura de 10nm no está todavía dando resultados, para que vas a cambiar de portatil si el procesador nuevo rinde practicamente lo mismo que el anterior. Yo creo que si intel no se hubiera apesebrado a Apple ni se le hubiera pasdo por la cabeza.
Que van a abaratar costes es seguro, porque aunque el procesador sea mas caro de fabricar que uno de intel se ahorran lo que intel se lleva (que hasta ahora no era poco).y tambien les permite que los diseños vayan a lo que ellos quieren, cuando ellos quieren y en el volumen que ellos quieren.
Los equipos de trabajo de las empresas en general son bastante miseros y poco potentes, yo creo que la mayoria de los portatiles de mi curre eran i5 dual core con selvas ocasionales de i5/i7 quad core (hablo de los portaties que eran la mayoria y ahora con lo del coronavirus aun mas), me extrañaria que los portatiles nuevos de apple no lleguen a eso.
Y Lo de los portatiles ARM con windows ahí están intentandolo, pero con los preciacos que les están cascando y los pocos fabricantes que hay es normal que no estén teniendo nada de exito y mientras sigan en esa tesitura no creo que vayan a despegar, te compras uno de intel con menos bateria pero que cuesta menos y es mas rápido. Y lo veo menos para equipos de sobremesa para render 3d (aunque aqui es la gráfica la que corta el bacalao), juegos, etc.
Yo creo que esto de apple si tiene exito será un toque de atención grande a Intel y AMD y me quedaría muy muy sorprendido si termina 'matando' a x86 en el mundo del PC.
Pues ha ido a hacerlo justo en el momento en el que los portátiles han pegado un salto de rendimiento brutal, entiendo que si alguien compra un MAC es para "trabajar", verdad?
Pues ahí tienes al Ryzen 9 4900HS, que en Cinebench está a la par con un 9900K de escritorio, mucho ojo con los portátiles basados en Zen 2:
https://i.redd.it/bzg82tv1wtp41.jpg
Aquí se puede ver el salto que ha habido esta generación de portátiles.
https://www.techspot.com/review/2022-intel-core-i7-10750h-vs-9750h/
Éxito va a tener Apple siempre con los MAC, porque tendrán la manzana iluminada detrás, pero en rendimiento ni se van a acercar.
JoJo_ReloadeD
23/06/2020, 14:18
He ido leyendo el hilo y falta un tema que creo que no se ha tocado. Este cambio no viene motivado por tener una arquitectura mas eficiente, ni por tener mas autonomia en los portatiles, esto viene de la mano, pero la principal motivacion es simple: Quieren fabricar ellos mismos los chips para no tener que comprarlos a un tercero.
En resumen: Quieren ganar mas dinero.
Que luego el rendimiento kk, pues bueno, si me lo van a comprar igual, pues me llevo mas pasta. Asi de simple.
Desde un punto de vista de la ingenieria es una locura como bien habeis comentado. En el momento en que los x86 estan empezando a pegar el salto mas grande en rendimiento en decadas... se pasan a procesadores de movil... pues como que no se entiende...
... pero hace mucho que apple no fabrica ordenadores desde el punto de vista de la ingenieria, si fuera asi no montaria todos sus equipos, hasta los sobremesa (dejando de lado el mac pro) con componentes de portatil, con su thermal throttling incluido de fabrica.
selecter25
23/06/2020, 15:35
De cualquier manera me parece un movimiento descerebrado, apostar todo el futuro del segmento de portátiles (que no creo que les funcione mal tal y como está) al "fanboyismo". Son todo malos movimientos respaldados por la red de seguridad de la "marca", cambias de arquitectura, reduces compatibilidad, reduces catálogo de software, reduces potencia, aumentas gasto en I+D, mientras tus rivales te aplastan con los nuevos Ryzen 2.
Yo esperaba un movimiento inteligente hacia un MAC con AMD (como se filtró en febrero con la Beta de MACos), pero este ataque de egocentrismo creo que les va a pasar factura.
^MiSaTo^
23/06/2020, 15:41
Yo si vi la keynote ayer y que yo sepa no han dicho qué van a sacar con ARM exactamente aún. De hecho dijeron que habría nuevos Mac intel.
Yo creo que irán por los Macbook Air y tal primero y ya veremos qué tal después. De hecho el "devkit" es un mac mini y es lo único que enseñaron ayer.
No se de dónde se ha sacado la otra noticia que todo se va a cambiar a ARM porque realmente no es eso lo que dijeron ayer
selecter25
23/06/2020, 16:09
Yo si vi la keynote ayer y que yo sepa no han dicho qué van a sacar con ARM exactamente aún. De hecho dijeron que habría nuevos Mac intel.
Yo creo que irán por los Macbook Air y tal primero y ya veremos qué tal después. De hecho el "devkit" es un mac mini y es lo único que enseñaron ayer.
No se de dónde se ha sacado la otra noticia que todo se va a cambiar a ARM porque realmente no es eso lo que dijeron ayer
La noticia es que habrá una transición a ARM en un par de años (que serán más), no que vayan a cortar por lo sano, en este periodo convivirán con los actuales x86. Presentaron el Apple Silicon Developer Transition Kit en el WWDC 2020:
https://www.xataka.com.mx/ordenadores/asi-primera-mac-procesador-arm-apple-silicon-developer-transition-kit
https://www.applesfera.com/sobremesa/asi-developer-transition-kit-mac-mini-procesador-a12z-su-interior
https://developer.apple.com/programs/universal/
https://youtu.be/-C1e6qej8YQ
https://youtu.be/m9Cp4RvUsCw
Iba a plantear una duda, pero no consigo expresarla, así que, por alusiones, sólo voy a responder a esto:
Depende ¿estás usando el programa original en tu equipo o te estás descargando directamente el programa modificado de la store? :lol:
recompilación con guardado en disco, posibilidad de descarga del recompilado y emulación en tiempo real o sea todo el pack. Que tengo de to que no tengo de ná.
eToiAqui
23/06/2020, 19:04
He ido leyendo el hilo y falta un tema que creo que no se ha tocado. Este cambio no viene motivado por tener una arquitectura mas eficiente, ni por tener mas autonomia en los portatiles, esto viene de la mano, pero la principal motivacion es simple: Quieren fabricar ellos mismos los chips para no tener que comprarlos a un tercero.
En resumen: Quieren ganar mas dinero.
Que luego el rendimiento kk, pues bueno, si me lo van a comprar igual, pues me llevo mas pasta. Asi de simple.
Desde un punto de vista de la ingenieria es una locura como bien habeis comentado. En el momento en que los x86 estan empezando a pegar el salto mas grande en rendimiento en decadas... se pasan a procesadores de movil... pues como que no se entiende...
... pero hace mucho que apple no fabrica ordenadores desde el punto de vista de la ingenieria, si fuera asi no montaria todos sus equipos, hasta los sobremesa (dejando de lado el mac pro) con componentes de portatil, con su thermal throttling incluido de fabrica.
Quizás el mercado de sus portátiles es un porcentaje cada vez más pequeño de su negocio, y en vez de potenciarlo con componentes clásicos aprovechan lo aprendido de sus tablets y móviles e integran todo en la misma línea de producción. Tampoco sabemos cómo irán esos ARM diseñados teniendo una potencia consumida objetivo de 65W, por ejemplo.
¿Podrían hacer una especie de chiplets de AMD con sus núcleos ARM de móvil como un paso más y encapsularlos en más matrices? Así los costes no se dispararían tanto, incluso se abaratarían si emplean los mismos que el resto de la gama.
Y sí, está claro que quieren tener más control si cabe sobre su ecosistema, para sacar más rédito, y los componentes es de las pocas cosas de las cuales todavían dependen de terceros (Pregunta: ¿Su servicio en la nube está en Amazon?).
selecter25
23/06/2020, 21:28
Quizás el mercado de sus portátiles es un porcentaje cada vez más pequeño de su negocio, y en vez de potenciarlo con componentes clásicos aprovechan lo aprendido de sus tablets y móviles e integran todo en la misma línea de producción. Tampoco sabemos cómo irán esos ARM diseñados teniendo una potencia consumida objetivo de 65W, por ejemplo.
¿Podrían hacer una especie de chiplets de AMD con sus núcleos ARM de móvil como un paso más y encapsularlos en más matrices? Así los costes no se dispararían tanto, incluso se abaratarían si emplean los mismos que el resto de la gama.
Y sí, está claro que quieren tener más control si cabe sobre su ecosistema, para sacar más rédito, y los componentes es de las pocas cosas de las cuales todavían dependen de terceros (Pregunta: ¿Su servicio en la nube está en Amazon?).
De momento lo que han sacado es el Transition Kit que dejé en los links anteriores, es un kit de desarrollador que entregan junto a una beta del nuevo MacOS y Xcode, que solo servía para hacer apps de IpadOS e IOS. Teniendo en cuenta que el hardware es prácticamente el mismo que el de un Ipad Pro, pues por ahí irán los tiros, ultrabooks con un Ipad dentro.
La cuestión aquí es, ¿adiós a los hackintosh?.
Pues ha ido a hacerlo justo en el momento en el que los portátiles han pegado un salto de rendimiento brutal, entiendo que si alguien compra un MAC es para "trabajar", verdad?
Pues ahí tienes al Ryzen 9 4900HS, que en Cinebench está a la par con un 9900K de escritorio, mucho ojo con los portátiles basados en Zen 2:
https://www.gp32spain.com/foros/cache.php?img=https%3A%2F%2Fi.redd.it%2Fbzg82tv1wt p41.jpg
Aquí se puede ver el salto que ha habido esta generación de portátiles.
https://www.techspot.com/review/2022-intel-core-i7-10750h-vs-9750h/
Éxito va a tener Apple siempre con los MAC, porque tendrán la manzana iluminada detrás, pero en rendimiento ni se van a acercar.
Si, el problema es que esta decisión se tomo hace tiempo, ya tienen el S.O. 'acabado', rosetta2 funcionando, virtualización e incluso alguna aplicación gorda ya migradas y aunque AMD ha pegado un buen salto en rendimiento y consumo me imagino que han decidido seguir con lo que ya tenian planificado y teniendo en cuenta que empiezan por los equipos mas flojos no creo que tengan muchos problemas. Y como es a dos años minimo siempre tienen tiempo de recular si las cosas no van como ellos suponen.
Y si, Mac vende mucho porque es apple, de hecho si intentas entrar en un Starbucks con otro portatil no te dejan y te retiran el carnet de gafapastas :D
Acabo de ver una cosa curiosa, van a construir un superordenador con chips de AMD los EPIC ROME 7742 y aceleradoras NVIDIA y adivinad quien es el cliente... la propia NVIDIA. Cada vez le hace mas falta un procesador propio a NVIDIA
princemegahit
24/06/2020, 12:47
La cuestión aquí es, ¿adiós a los hackintosh?.
Y hola a los MacPi.
Carlos24
24/06/2020, 13:00
https://www.reddit.com/r/macgaming/comments/hdzdo8/shadow_of_the_tomb_raider_running_on_rosetta_2/?utm_source=share&utm_medium=web2x
hablando de roseta 2 se ha mostrado un video de como funciona rosetta2 con el shadow of the tomb raider un binario de x86-64 en un dispositivo aarch64 arm.
Por ahora han hecho la prueba con juegos que llevan metal en la API gráfica y el rendimiento no va nada mal.
https://www.reddit.com/r/macgaming/comments/hdzdo8/shadow_of_the_tomb_raider_running_on_rosetta_2/?utm_source=share&utm_medium=web2x
hablando de roseta 2 se ha mostrado un video de como funciona rosetta2 con el shadow of the tomb raider un binario de x86-64 en un dispositivo aarch64 arm.
Por ahora han hecho la prueba con juegos que llevan metal en la API gráfica y el rendimiento no va nada mal.
Diría que va mejor en una xbox one y es un hard de portatil de 2013... pero bueno, de donde no hay no se puede sacar.
JoJo_ReloadeD
24/06/2020, 22:51
Efectivamente, ya han dicho las caracteristicas de esta demo que se esta poniendo como ejemplo de lo bien que va... y es 1080p 30fps al minimo de detalle.
Si querian impresionar, mal.
Efectivamente, ya han dicho las caracteristicas de esta demo que se esta poniendo como ejemplo de lo bien que va... y es 1080p 30fps al minimo de detalle.
Si querian impresionar, mal.
Hombre, imagino que no lo habrán orientado a la velocidad sino a la compatibilidad para demostrar que el rosetta 2 tambien puede con los juegos, aunque en un macbook air con dual core a 1.1 Ghz no se yo si iría mejor y es que los Mac de gama baja son muy gama baja para lo que cuestan :D, ademas el hardware en el que lo corren se supone que es mas lento que el nuevo.
Habrá que ver cuando haya alguno real al que le hagan un benchmark a ver como va, tengo mucha curiosidad por saberlo.
Teniendo en cuenta que al principio muchas aplicaciones irán emuladas, ¿no crees que tendrán que meter una CPU muy bestia para que la gente se compre los nuevos ordenadores en vez de buscar alguno mas antiguo con una CPU de intel? Eso hara que las aplicaciones nativas (ARM) puedan ir como un pepino.
masteries
25/06/2020, 11:14
Teniendo en cuenta que al principio muchas aplicaciones irán emuladas, ¿no crees que tendrán que meter una CPU muy bestia para que la gente se compre los nuevos ordenadores en vez de buscar alguno mas antiguo con una CPU de intel? Eso hara que las aplicaciones nativas (ARM) puedan ir como un pepino.
La emulación puede dar muchos problemas, no sólo de rendimiento, incluso de que por una cosa u otra simplemente no funcione.
Más bien parece un intento de liquidar el mercado anterior; porque sacarán SO nuevo, con programas que sólo funcionarán en él, los programas que ya existen no funcionarán y ya no recibirán soporte.
Le estarán diciendo a sus usuarios... o actualizáis, o en el barro os quedáis.
La emulación puede dar muchos problemas, no sólo de rendimiento, incluso de que por una cosa u otra simplemente no funcione.
Más bien parece un intento de liquidar el mercado anterior; porque sacarán SO nuevo, con programas que sólo funcionarán en él, los programas que ya existen no funcionarán y ya no recibirán soporte.
Le estarán diciendo a sus usuarios... o actualizáis, o en el barro os quedáis.
Pero con el cambio que pretenden hacer (de x86-64 a arm) es salirse del barro para caer en la mierda.
masteries
25/06/2020, 11:53
Pero con el cambio que pretenden hacer (de x86-64 a arm) es salirse del barro para caer en la mierda.
jajaja
Con lo del barro no me quería referir a que los actuales x86-64 sean "barro"; ni mucho menos; es más la sensación esa que se le queda a los "modernillos" cuando su manzanota ya no pueda ejecutar los "nuevos (recompiladas versiones) programas" y ya no reciba soporte su SO ni su cacharrito.
selecter25
25/06/2020, 12:00
jajaja
Con lo del barro no me quería referir a que los actuales x86-64 sean "barro"; ni mucho menos; es más la sensación esa que se le queda a los "modernillos" cuando su manzanota ya no pueda ejecutar los "nuevos (recompiladas versiones) programas" y ya no reciba soporte su SO ni su cacharrito.
Pues si tienen un Iphone, exactamente la misma cara xD.
jajaja
Con lo del barro no me quería referir a que los actuales x86-64 sean "barro"; ni mucho menos; es más la sensación esa que se le queda a los "modernillos" cuando su manzanota ya no pueda ejecutar los "nuevos (recompiladas versiones) programas" y ya no reciba soporte su SO ni su cacharrito.
Van a tener dos años de transición (como mínimo) en los cuales van a seguir vendiendo los equipos con x86 y sacando equipos nuevos x86, no veo como van a dejar de dar soporte a Mac OS X y tampoco van a dejar de dar soporte en el instante que cambien todos los equipos a ARM (que con la gama pro con 28 nucleos yo veo lo de los dos años corto) porque nadie se compraría un equipo x86 si no tiene claro cuantos años va a estar soportado su S.O. (aparte de que les freirian a demandas).
Tampoco veo porque no va a poder ejecutar las aplicaciones recompiladas, para eso han hecho el rosetta2, que tendrán problemas con algunas aplicaciones es seguro, pero con las grandes no creo porque serán con las que mas pruebas han hecho.
Lo que si va a hacer Apple es presionar a muerte las empresas desarrolladoras para que utilicen el nuevo formato binario unversal, o sea que en el mismo ejecutable vayan las versiones x86 y ARM y que dentro de poco tiempo (1 año o así) lo haga obligatorio si quieres que tu aplicacion este en el store de apple, asi tendrían mucho mas rapido las aplicaciones en formato nativo.
¿Cuantos años se estuvo manteniendo el soporte a PowerPC mientras ya había equipos con intel? Pues harán lo mismo.
Una ventaja de los ARM, bueno del A12 o el que toque es que en el mismo chip añaden hardware para descomprimir video, sonido, cifrado de datos, etc, mientras que en un i5 o i7 solo tienes la CPU.
¿Cuantos años se estuvo manteniendo el soporte a PowerPC mientras ya había equipos con intel? Pues harán lo mismo.
Una ventaja de los ARM, bueno del A12 o el que toque es que en el mismo chip añaden hardware para descomprimir video, sonido, cifrado de datos, etc, mientras que en un i5 o i7 solo tienes la CPU.
Lo acabo de mirar en la güiskipedia y dio soporte durante 6 años de emulación de rosetta y 3 años y medio de actualizaciones y versiones nuevas del sistema operativo para powerpc y el cambio de powerpc a intel duró un poco mas de medio año.
Lo acabo de mirar en la güiskipedia y dio soporte durante 6 años de emulación de rosetta y 3 años y medio de actualizaciones y versiones nuevas del sistema operativo para powerpc y el cambio de powerpc a intel duró un poco mas de medio año.
No intentes hacer de abogado del diablo, en este foro odiamos a los que tuvieron algo de Apple, tienen algo de Apple o tendran algo de Apple.
PD: yo tengo mucho de Apple, pero como me odio a mi mismo entonces estoy en equilibrio.
JoJo_ReloadeD
25/06/2020, 23:08
¿Cuantos años se estuvo manteniendo el soporte a PowerPC mientras ya había equipos con intel? Pues harán lo mismo.
Una ventaja de los ARM, bueno del A12 o el que toque es que en el mismo chip añaden hardware para descomprimir video, sonido, cifrado de datos, etc, mientras que en un i5 o i7 solo tienes la CPU.
Esto sobre el papel suena bien, pero la gran desventaja es que cuando sacan otro algoritmo, codec, lo que sea para lo que este diseñado dicho hardware... este queda totalmente inutil. La pi lleva esto que dices e intenta reproducir h265 en ella, veras como la cpu sufre, pq el hard llega hasta h264.
Intel, y todos los fabricantes x86, claro, tuvo vision cuando doto a los x86 de registros e instrucciones de uso general para multimedia. MMX, 3dnow, SSE en sus diferentes revisiones... para que crear hardware que va a quedar obsoleto si o si cuando es mejor hacer que la cpu pueda manejar los datos de los que se componen la musica, graficos, videos... a nivel de registros? el software hace el resto.
No intentes hacer de abogado del diablo, en este foro odiamos a los que tuvieron algo de Apple, tienen algo de Apple o tendran algo de Apple.
PD: yo tengo mucho de Apple, pero como me odio a mi mismo entonces estoy en equilibrio.
Si no es odiar a apple, es poner de manifiesto que esta jugada a nivel de hardware no tiene sentido, por mucho que intenten justificarlo. El que no quiera verlo... pues mira, que le voy a decir :)
*****, si macrumours esta lleno de gente pidiendo que hagan macs con AMDs ryzen y se dejen de arm xDDD
Esto sobre el papel suena bien, pero la gran desventaja es que cuando sacan otro algoritmo, codec, lo que sea para lo que este diseñado dicho hardware... este queda totalmente inutil. La pi lleva esto que dices e intenta reproducir h265 en ella, veras como la cpu sufre, pq el hard llega hasta h264.
Intel, y todos los fabricantes x86, claro, tuvo vision cuando doto a los x86 de registros e instrucciones de uso general para multimedia. MMX, 3dnow, SSE en sus diferentes revisiones... para que crear hardware que va a quedar obsoleto si o si cuando es mejor hacer que la cpu pueda manejar los datos de los que se componen la musica, graficos, videos... a nivel de registros? el software hace el resto.
Los A12 también tienen instrucciones SIMD, pero no corren tanto.
masteries
25/06/2020, 23:59
Los A12 también tienen instrucciones SIMD, pero no corren tanto.
Esas SIMD si que las echo de menos en el 68000
Esas SIMD si que las echo de menos en el 68000
Pillate una vampire que tiene un "68080" y lleva instrucciones multimedia :P
No intentes hacer de abogado del diablo, en este foro odiamos a los que tuvieron algo de Apple, tienen algo de Apple o tendran algo de Apple.
PD: yo tengo mucho de Apple, pero como me odio a mi mismo entonces estoy en equilibrio.
De Apple lo unico que he tenido en la vida es un newton hara unos quince o dieciseis años (todavía lo tengo) y se la hostio porque costaba un paston y porque la tecnologia estaba 'verde' y adelantada para la epoca. Una pena que fallará porque era una idea cojonuda. O sea que poco puedo hacer para defender a Apple :D
Sólo por curiosidad ¿Cuánto cuesta un procesador x64 actual y cuánto cuesta un ARM? Dado que son procesadores RISC, deberían ser más sencillos ¿Eso no facilita el diseño y la intercomunicación? ¿Eso no podría suponer que, siendo más baratos, se pueden tener más núcleos por el mismo precio?
La otra vez iba a preguntar algo sobre la potencia de los ARM, pero está claro que si necesitas más ciclos para hacer una operación, vas a tardar más. Quién sabe, si tengo razón, añadir más núcleos puede revertir en que todos esos "trucos" que tienen los procesadores x64 actuales se pueden llevar a cabo en un hilo separado, de forma más precisa.
Pero bueno, parece ser que es un movimiento raro, pero ¿cuándo no ha hecho Apple movimientos raros? :lol: Está en su ADN. Lo mismo nos salen con una nueva arquitectura. Lo mismo nos salen con portátiles con una duración de dos días de uso intensivo. Lo mismo nos salen con un sombrero nuevo :lol:
Yo quiero darles el beneficio de la duda: si hacen el cambio por algo será, algo habrán visto o algo habrán probado que les ha gustado y no querrán revelarlo aun.
Esto sobre el papel suena bien, pero la gran desventaja es que cuando sacan otro algoritmo, codec, lo que sea para lo que este diseñado dicho hardware... este queda totalmente inutil.
Precisamente eso sería la jugada maestra de apple. El imperio de Apple se ha construido a base de atracar a los usuarios con los cables y perifericos (y escribo esto desde un magic keyboard, conectado a un PC linux :D). Obligarte a comprar un mac nuevo por razones tan espurias como que "no puedes decodificar videos" es lo mismo que llevan haciendo toda la vida con sus cables y adaptadores, esto sería el siguiente paso.
Para el 90% de los compradores de Macbooks va a estar muy fácil: quieres este Macbook que te va a durar encendido 12h, y no vas a notar perdida de rendimiento en nada de lo que normalmente haces. O prefieres este Macbook que no te va a durar una call de 1h típica de Zoom ? pero eso sí, vas a poder codificar videos en el nuevo códec Flirfurfills para el Youtube de tu hijo en la mitad de tiempo.
Para los Mac Pro y Macbook Pro, no me aventuraría a decir qué va a pasar, pero me huelo que lo mismo :D
De todas maneras, Apple ya ha hecho recientemente muchas cosas estúpidas en su hardware, reslultado de no tener en cuenta el feedback del usuario o simplemente probarlo un poco: la touch bar (ese botón ESC!!!) o las teclas que se atascan de los macbook dan buena cuenta de ello. Así que sí, puede pasar también que nos estén troleando con el rendimiento de una manera ridícula.
JoJo_ReloadeD
26/06/2020, 12:24
Precisamente eso sería la jugada maestra de apple. El imperio de Apple se ha construido a base de atracar a los usuarios con los cables y perifericos (y escribo esto desde un magic keyboard, conectado a un PC linux :D). Obligarte a comprar un mac nuevo por razones tan espurias como que "no puedes decodificar videos" es lo mismo que llevan haciendo toda la vida con sus cables y adaptadores, esto sería el siguiente paso.
Para el 90% de los compradores de Macbooks va a estar muy fácil: quieres este Macbook que te va a durar encendido 12h, y no vas a notar perdida de rendimiento en nada de lo que normalmente haces. O prefieres este Macbook que no te va a durar una call de 1h típica de Zoom ? pero eso sí, vas a poder codificar videos en el nuevo códec Flirfurfills para el Youtube de tu hijo en la mitad de tiempo.
Para los Mac Pro y Macbook Pro, no me aventuraría a decir qué va a pasar, pero me huelo que lo mismo :D
De todas maneras, Apple ya ha hecho recientemente muchas cosas estúpidas en su hardware, reslultado de no tener en cuenta el feedback del usuario o simplemente probarlo un poco: la touch bar (ese botón ESC!!!) o las teclas que se atascan de los macbook dan buena cuenta de ello. Así que sí, puede pasar también que nos estén troleando con el rendimiento de una manera ridícula.
Esto mismo.
nintiendo1
26/06/2020, 13:14
Es verdad que es difícil valorarlo porque todavía no han lanzado ningún Mac con ARM, así que es un poco "imaginar".
Es verdad que es un movimiento arriesgado, quizás les sale genial porque se adelantan a un futuro con ARM, o quizás se adelantan "demasiado" y la competencia los machaca.
Lo único criticable es que no han sido claros, entonces los que hemos comprado un Mac hace poco (yo un Air de 2018) no sabemos si nos vamos a quedar tirados en poco tiempo o no, porque no han sido claros sobre como va a ser la transición.
Es verdad que es difícil valorarlo porque todavía no han lanzado ningún Mac con ARM, así que es un poco "imaginar".
Es verdad que es un movimiento arriesgado, quizás les sale genial porque se adelantan a un futuro con ARM, o quizás se adelantan "demasiado" y la competencia los machaca.
Lo único criticable es que no han sido claros, entonces los que hemos comprado un Mac hace poco (yo un Air de 2018) no sabemos si nos vamos a quedar tirados en poco tiempo o no, porque no han sido claros sobre como va a ser la transición.
Lo que dijeron en el WDC es que van a soportar y sacar nuevas versiones del S.O. de los equipos X86 bastantes años, la frase exacta: ""continue to support and release new versions of MacOS for Intel-based Macs for years to come.""
Lo mas probable es que den mas detalles con fechas de soporte un poco antes de finales de año que es cuando salen los mac con ARM.
Yo en tu caso no me preocuparia mucho, porque con los dos años de transición (mínimo) mas los que den de soporte tu equipo estará para que lo renueves por viejuno :D
Ahí queda eso...
https://twitter.com/_rogame/status/1278788088421113857?s=20
Que a mi, ni me va, ni me viene. Pero por comentarloooooo.......
selecter25
04/07/2020, 15:51
Mis benchs, mis reglas, comparando la integrada de un procesador AMD que normalmente montan portátiles de 300/400€, en MacOS.
Que prueben con un 4900HS a 7nm, veremos las risas que nos pegamos.
Acaban de sacar información de los procesadores hibridos de Intel los que llevan una arquitectura similar a la de los procesadores de movil BIG.little. En este procesador mezclan nucleos potentes (de la gama core i3-i9) y nucleos menos potentes como los de la gama atom, asi consiguen que haya menos consumo en las treas que no necesiten miucha potencia. Me imagino que así podran competir mejor en el mercado de los portatiles porque aguantará mas la bateria y no compremetes demasiado la potencia del bicho.
https://www.anandtech.com/show/15877/intel-hybrid-cpu-lakefield-all-you-need-to-know
Acaban de sacar información de los procesadores hibridos de Intel los que llevan una arquitectura similar a la de los procesadores de movil BIG.little. En este procesador mezclan nucleos potentes (de la gama core i3-i9) y nucleos menos potentes como los de la gama atom, asi consiguen que haya menos consumo en las treas que no necesiten miucha potencia. Me imagino que así podran competir mejor en el mercado de los portatiles porque aguantará mas la bateria y no compremetes demasiado la potencia del bicho.
https://www.anandtech.com/show/15877/intel-hybrid-cpu-lakefield-all-you-need-to-know
¿Tiene todas las instrucciones de x86/64 en todos sus cores?
Caso Afirmativo: Interesante
Caso Negativo: esto (https://www.youtube.com/watch?v=nW9A3QSkZmo)
¿Tiene todas las instrucciones de x86/64 en todos sus cores?
Caso Afirmativo: Interesante
Caso Negativo: esto (https://www.youtube.com/watch?v=nW9A3QSkZmo)
Si, por lo que leí son nucleos normales y corrientes, solo que han mezclado cores rapidas y con consumo alto con cores lentas con consumo bajo, es como si juntas un i5 con un atom en el mismo chip.
Problemas gordos para Intel retraso de los procesadores de sobremesa de 10nm hasta el segundo semestre de 2021, aunque viendo lo escasos que andan los de 10nm para porttiles y los retrasos continuos algo se preveia y lo que le debe hacer bastante mas daño es que tambien esta teniendo problemas con el proceso de 7nm que ahora ya hablan de finales de 2022 o principios de 2023 y muchos medios decian que era bastante posible que los procesadores de sobremesa pasaran directamente a 7nm pero con el retraso ya no tienen alternativa.
Ademas en 2021 entregaban un superordernador basados en sus graficas a 7nm cosa que se ve dificil si no la tienen disponible, veremos que hace el gobierno con ese pedido.
Y para complicar las cosas mas parece ser que Nvidia quiere comprar ARM.
https://www.tomshardware.com/news/intel-announces-delay-to-7nm-processors-now-one-year-behind-expectations
https://www.tomshardware.com/news/intel-says-first-10nm-desktop-cpus-land-in-second-half-of-2021
Pues parece que realmente Intel se muere poquito a poquito...
https://www.youtube.com/watch?v=1x71N--VZmg
Sorprendentemente, está en una situación bastante jodía hoy por hoy.
Pues parece que realmente Intel se muere poquito a poquito...
https://www.youtube.com/watch?v=1x71N--VZmg
Sorprendentemente, está en una situación bastante jodía hoy por hoy.
Un poco tremendista el chaval, Intel no va a pasar toda la fabricación de sus procesadores a TSMC primero porque estos no tienen la capacidad suficiente para fabricarlos y segundo porque no creo que el gobierno les dejara. En un caso extremo comprarian una licencia del proceso de fabricación para sus procesadores y lo que yo creo que va a suceder es que mientras arreglan el desaguisado van a pasar cosas de 7nm a TSMC (las graficas por ejemplo) y algunos procesadores.
Lo que esta claro es que ahora mismo las estan pasando bastante canutas y tienen que empezar a organizar el cotqrro.
Por lo pronto ya ha rodado una cabeza la de la persona que llevaba todo (diseño, proceso de fabricación, etc.) aunque algunos analistas comentan que puede tambien ser porque habia pedido el puesto del presidente. No creo que hubiera sido el candidato adecuando pero el presidente actual deberia ir a la calle bien rapidito, porque su gestion tambien ha sido nefasta.
Un poco tremendista el chaval, Intel no va a pasar toda la fabricación de sus procesadores a TSMC primero porque estos no tienen la capacidad suficiente para fabricarlos y segundo porque no creo que el gobierno les dejara. En un caso extremo comprarian una licencia del proceso de fabricación para sus procesadores y lo que yo creo que va a suceder es que mientras arreglan el desaguisado van a pasar cosas de 7nm a TSMC (las graficas por ejemplo) y algunos procesadores.
Lo que esta claro es que ahora mismo las estan pasando bastante canutas y tienen que empezar a organizar el cotqrro.
Por lo pronto ya ha rodado una cabeza la de la persona que llevaba todo (diseño, proceso de fabricación, etc.) aunque algunos analistas comentan que puede tambien ser porque habia pedido el puesto del presidente. No creo que hubiera sido el candidato adecuando pero el presidente actual deberia ir a la calle bien rapidito, porque su gestion tambien ha sido nefasta.
También creo que la visión del muchacho es muy "apocalíptica" xD Pero la realidad es que hace 4 años nadie se iba a imaginar que Intel estuvieta tan jodida como está ahora mismo.
selecter25
29/07/2020, 14:01
Llevo siguiendo a Iker desde que abrió el canal de YT y pesaba el doble, y pasó de ser un fanboy de Intel a uno de AMD. No es que haya perdido crédito, pero se ha vuelto muy tremendista con todo.
Con respecto a la noticia, a mí lo que realmente me preocupa es la venta de ARM y en manos de quién caiga, eso sí puede cambiar mucho el futuro panorama de casi todo.
Llevo siguiendo a Iker desde que abrió el canal de YT y pesaba el doble, y pasó de ser un fanboy de Intel a uno de AMD. No es que haya perdido crédito, pero se ha vuelto muy tremendista con todo.
Con respecto a la noticia, a mí lo que realmente me preocupa es la venta de ARM y en manos de quién caiga, eso sí puede cambiar mucho el futuro panorama de casi todo.
Si, los rumores dicen que Nvidia es uno de los postores para quedarse con ARM, pero va a tener problemas regulatorios si lo consigue porque pasaria a fabricar y a licenciar los procesadores a competidores (Qualcomm, Tesla, Marvell, etc.)
A mi sinceramente no me haria ni chispa de gracia teniendo en cuenta que podrian seguir con las politicas de mierda que han hecho en el mercado de las tarjetas graficas.
selecter25
30/07/2020, 09:13
Si, los rumores dicen que Nvidia es uno de los postores para quedarse con ARM, pero va a tener problemas regulatorios si lo consigue porque pasaria a fabricar y a licenciar los procesadores a competidores (Qualcomm, Tesla, Marvell, etc.)
A mi sinceramente no me haria ni chispa de gracia teniendo en cuenta que podrian seguir con las politicas de mierda que han hecho en el mercado de las tarjetas graficas.
Se habla de varios interesados, entre ellos el propio Apple.
De los problemas que hablas: Quién les obligaría una vez adquirido ARM a seguir el mismo modelo que actualmente adopta la empresa? Podrían dejar fuera del mercado ARM a quien les diese la gana? Podría Apple en caso de adquirirla licenciar ciertos SOC y reservarse algunos exclusivos más potentes?
Se habla de varios interesados, entre ellos el propio Apple.
De los problemas que hablas: Quién les obligaría una vez adquirido ARM a seguir el mismo modelo que actualmente adopta la empresa? Podrían dejar fuera del mercado ARM a quien les diese la gana? Podría Apple en caso de adquirirla licenciar ciertos SOC y reservarse algunos exclusivos más potentes?
Supongo que en el acuerdo de compra les obligarian a seguir con el modelo que tienen actual, pero seguro que encontrarian resquicios para hacer putadillas del tipo de licenciar mas tarde para terceros, informacion privilegiada, etc. En Forbes comentaban que Apple no estaba muy interesada en comprar ARM, a lo mejor la licencia que tienen ahora mismo les permite hacer todo lo que necesitan.
Supongo que en el acuerdo de compra les obligarian a seguir con el modelo que tienen actual, pero seguro que encontrarian resquicios para hacer putadillas del tipo de licenciar mas tarde para terceros, informacion privilegiada, etc. En Forbes comentaban que Apple no estaba muy interesada en comprar ARM, a lo mejor la licencia que tienen ahora mismo les permite hacer todo lo que necesitan.
Según el otro hilo, Apple está cambiando sus procesadores hacia ARM, así que sí, estan MUY interesados en adquirir ARM.
Pero de todas formas, compre quien compre ¿qué política se va a seguir? ¿la del comprador? ¿la del comprado? ¿la monopolista? ¿la que favorezca la mayor cantidad de ventas?...
selecter25
30/07/2020, 19:48
Supongo que en el acuerdo de compra les obligarian a seguir con el modelo que tienen actual, pero seguro que encontrarian resquicios para hacer putadillas del tipo de licenciar mas tarde para terceros, informacion privilegiada, etc. En Forbes comentaban que Apple no estaba muy interesada en comprar ARM, a lo mejor la licencia que tienen ahora mismo les permite hacer todo lo que necesitan.
Como dice Drumpi, Apple es quizás el mayor interesado porque justo ahora va a migrar todo su "ecosistema" a ARM, y Samsung, aunque solo tire de ellos para los Exynos, también se rumorea que está muy interesada porque planeaba lanzar portátiles con SOCs ARM.
Caiga en manos de quien caiga, ya os digo yo que no van a respetar el modelo actual ni de coña, de hecho ya hay noticias en donde se comenta el deseo de Nvidia de lanzar modelos exclusivos y de limitar el acceso a competidores.
Según el otro hilo, Apple está cambiando sus procesadores hacia ARM, así que sí, estan MUY interesados en adquirir ARM.
Pero de todas formas, compre quien compre ¿qué política se va a seguir? ¿la del comprador? ¿la del comprado? ¿la monopolista? ¿la que favorezca la mayor cantidad de ventas?...
Hay unas declaraciones de Apple a la revista Bloomberg esta semana dicendo que segun fuentes cercanas no estaban interesados en la compra del negocio de ARM, no se si podreis leer el articulo porque es de pago (aunque te deja leer 1 o 2 articulos gratis)
As part of the sale process, SoftBank approached Apple to gauge its interest in acquiring Arm, according to people familiar with the matter. While the two firms had preliminary discussions, Apple isn’t planning to pursue a bid, the people said.
https://www.bloomberg.com/news/articles/2020-07-22/softbank-s-chip-company-arm-is-said-to-attract-nvidia-interest
Supongo que es por que Apple ahora mismo está muy muy lejos del diseño original de los procesadores ARM y tiene una licencia de arquitectura que le permite hacer lo que quiera con esos procesadores y ademas se supone que puede añadir instrucciones propias, no creo que le interesa el negocio de licenciar a terceros aparte de que tendria problemas legales miles para poder comprar ARM y tendría que hacer concesiones. Lo que seguramente si buscara es seguir con esa licencia para los procesadores/arquitecturas nuevas que saque ARM.
selecter25
30/07/2020, 23:51
Hay unas declaraciones de Apple a la revista Bloomberg esta semana dicendo que segun fuentes cercanas no estaban interesados en la compra del negocio de ARM, no se si podreis leer el articulo porque es de pago (aunque te deja leer 1 o 2 articulos gratis)
https://www.bloomberg.com/news/articles/2020-07-22/softbank-s-chip-company-arm-is-said-to-attract-nvidia-interest
Supongo que es por que Apple ahora mismo está muy muy lejos del diseño original de los procesadores ARM y tiene una licencia de arquitectura que le permite hacer lo que quiera con esos procesadores y ademas se supone que puede añadir instrucciones propias, no creo que le interesa el negocio de licenciar a terceros aparte de que tendria problemas legales miles para poder comprar ARM y tendría que hacer concesiones. Lo que seguramente si buscara es seguir con esa licencia para los procesadores/arquitecturas nuevas que saque ARM.
Si ahí está la gracia, no es lo que pueda hacer o no con ellos, es lo que no va a poder hacer como Nvidia o Samsung se hagan con ARM. No creo que realmente a ninguno le interese comprar ARM más que por el mero hecho de fastidiar a la competencia.
Del mismo artículo que citas:
Any customer trying to acquire Arm would trigger regulatory scrutiny. Other companies using its technology would likely oppose a deal and demand assurances that a new owner would continue to provide equal access to Arm’s instruction set. Such concerns resulted in a neutral company -- SoftBank -- buying Arm the last time it was for sale.
Están todos con la mosca detrás de la oreja y exigen garantías de que el nuevo propietario otorgue acceso al set de instrucciones, así que alguna artimaña esperan.
Si ahí está la gracia, no es lo que pueda hacer o no con ellos, es lo que no va a poder hacer como Nvidia o Samsung se hagan con ARM. No creo que realmente a ninguno le interese comprar ARM más que por el mero hecho de fastidiar a la competencia.
Del mismo artículo que citas:
Están todos con la mosca detrás de la oreja y exigen garantías de que el nuevo propietario otorgue acceso al set de instrucciones, así que alguna artimaña esperan.
Normal, teniendo en cuenta el historial de todos, Nvidia con sus artimañas con los fabricantes y subvenciones encubiertas, samsung con el presidente juzgado y condenado por sobornos, estafa, etc. y Apple dejando en la estacada a muchas compañias sin previo aviso (Japan Display, Imagination Technoligies, etc), cerrando el iphone y cada vez mas mac os para que no funcione con componentes que no sean de Apple y eso es lo que ha trascendido a la prensa. Como para fiarse.
También es cierto que Apple no es tonta, y que digan que no van a negociar es otra forma de negociación, como cuando dices "no me interesa comprar esta casa" al vendedor, y por dentro te estás tirando de los pelos por conseguirla, a ver si te la dejan más barata :lol:
Mi bola de cristal, aunque sea cuadrada, vaticina dos escenarios muy plausibles:
- Que una de las empresas más interesadas se haga con ARM, y limite la tecnología a su competencia de alguna manera, por lo que le van a caer varias demandas que torearán con un arte pocas veces visto, y las demás empresas terminarán buscando otra tecnología similar.
- Que una empresa no tan interesada se haga con ARM y venda la tecnología a todo el mundo por igual, manteniendo más o menos las políticas internas de la antigua empresa, hasta que vea cómo sacar más beneficio.
Si nos creemos a Apple, y pensamos que como desarrolladores de HW no son buenos (con que no sean tan buenos como para cambiar la arquitectura, me vale), es posible que compren ARM y ejecuten el segundo escenario, como una nueva fuente de ingresos que no entienden cómo funciona, pero mientras no pare el flujo de billetes la van a mantener y la van a cuidar con alguna inyección extra para I+D... Pero eso si nos creemos lo que dicen.
Es que hay mucho en juego: todo el mercado de teléfonos móviles depende de ARM. Tablets, micro-controladores para domótica, procesadores para periféricos (¿gafas VR?), consolas portátiles (chinas)... Por no hablar de todo el software existente para el desarrollo, la de millones de personas que trabajan directamente programando para procesadores ARM.
Está Intel, está AMD, y detrás está ARM, compitiendo en otra liga... ¿es la Nintendo de los microprocesadores? :lol:
También es cierto que Apple no es tonta, y que digan que no van a negociar es otra forma de negociación, como cuando dices "no me interesa comprar esta casa" al vendedor, y por dentro te estás tirando de los pelos por conseguirla, a ver si te la dejan más barata :lol:
Mi bola de cristal, aunque sea cuadrada, vaticina dos escenarios muy plausibles:
- Que una de las empresas más interesadas se haga con ARM, y limite la tecnología a su competencia de alguna manera, por lo que le van a caer varias demandas que torearán con un arte pocas veces visto, y las demás empresas terminarán buscando otra tecnología similar.
- Que una empresa no tan interesada se haga con ARM y venda la tecnología a todo el mundo por igual, manteniendo más o menos las políticas internas de la antigua empresa, hasta que vea cómo sacar más beneficio.
Si nos creemos a Apple, y pensamos que como desarrolladores de HW no son buenos (con que no sean tan buenos como para cambiar la arquitectura, me vale), es posible que compren ARM y ejecuten el segundo escenario, como una nueva fuente de ingresos que no entienden cómo funciona, pero mientras no pare el flujo de billetes la van a mantener y la van a cuidar con alguna inyección extra para I+D... Pero eso si nos creemos lo que dicen.
Es que hay mucho en juego: todo el mercado de teléfonos móviles depende de ARM. Tablets, micro-controladores para domótica, procesadores para periféricos (¿gafas VR?), consolas portátiles (chinas)... Por no hablar de todo el software existente para el desarrollo, la de millones de personas que trabajan directamente programando para procesadores ARM.
Está Intel, está AMD, y detrás está ARM, compitiendo en otra liga... ¿es la Nintendo de los microprocesadores? :lol:
Una estrategia cojonuda la de no me interesa cuando sabes que hay al menos una compañia que la quiere comprar, nunca antes ha fallado :D
¿Que Apple no son buenos desarrolladores de HW?, ¿es una suposicion o realmente lo piensas?.., lo digo porque ahora mismo los procesadores de Apple y las GPUs estan bastante por delante del resto de los fabricantes y son los unicos que ahora mismo tienen procesadores custom ARM, Qualcomm y Samsung ya han abandonado ese camino porque no lograban resultados que esperaban.
selecter25
01/08/2020, 01:09
Una estrategia cojonuda la de no me interesa cuando sabes que hay al menos una compañia que la quiere comprar, nunca antes ha fallado :D
¿Que Apple no son buenos desarrolladores de HW?, ¿es una suposicion o realmente lo piensas?.., lo digo porque ahora mismo los procesadores de Apple y las GPUs estan bastante por delante del resto de los fabricantes y son los unicos que ahora mismo tienen procesadores custom ARM, Qualcomm y Samsung ya han abandonado ese camino porque no lograban resultados que esperaban.
Los Exynos son basura, pero Qualcomm?? Si prácticamente el grueso de teléfonos Android de todas las gamas montan Snapdragon+Adreno.
Siendo el A13 Bionic un excelente SOC (seguramente el mejor del mercado), el Snapdragon 865 prácticamente lo iguala. Otro aspecto muy importante (y por el que Qualcomm tiene cogidos por los huevos a todos, incluida Apple) es que actualmente todos los móviles que quieran 5G (incluido el Iphone 12 5G que llevará el X60) tienen que montar modem de Qualcomm. Ya les han acusado muchas veces de monopolio por esto.
Los Exynos son basura, pero Qualcomm?? Si prácticamente el grueso de teléfonos Android de todas las gamas montan Snapdragon+Adreno.
Siendo el A13 Bionic un excelente SOC (seguramente el mejor del mercado), el Snapdragon 865 prácticamente lo iguala. Otro aspecto muy importante (y por el que Qualcomm tiene cogidos por los huevos a todos, incluida Apple) es que actualmente todos los móviles que quieran 5G (incluido el Iphone 12 5G que llevará el X60) tienen que montar modem de Qualcomm. Ya les han acusado muchas veces de monopolio por esto.
Nop, no lo iguala, esta todavía lejos el unico sitio donde le ha 'ganado' es en las pruebas sinteticas de Antutu, en las pruebas reales esta todavía lejos, solo hay que verlo en juegos, navegacion por internet y ejecución de aplicaciones Y los chips 5g despues de la cagada de Intel con los modem 5g (tarde, mal y nunca) no le ha quedado mas remedio que utilizar Qualcomm (huawei lo dejaron fuera por razones obvias), pero ha comprado el negocio de modems 5g a Intel por lo que es seguro que dejaran de usarlos cuando tengan su propio modem 5g funcionando.
Los exynos tenian problemas porque los chips custom no iban demasiado bien, pero los nuevo van a utilizar directamente las IPs de ARM sin modificaciones igual que hace Qualcomm desde hace un tiempo aunque les ponga nombrecitos a los cores :D
A Qualcomm no solo le han acusado (apple quito su demanda a cambio de los modems) sino que en mayo ya perdio un juicio en USA y creo recordar que tiene otro pendiente en China, lleva mas de 2 años con juicios uno detras de otro. Unas bellas personas los de Qualcomm.
Aunque que $DIOS me perdone no veo nada necesaria la tecnologia 5g para el publico en general, para mi es equivalente a los televisores 8k
selecter25
01/08/2020, 04:20
Nop, no lo iguala, esta todavía lejos el unico sitio donde le ha 'ganado' es en las pruebas sinteticas de Antutu, en las pruebas reales esta todavía lejos, solo hay que verlo en juegos, navegacion por internet y ejecución de aplicaciones Y los chips 5g despues de la cagada de Intel con los modem 5g (tarde, mal y nunca) no le ha quedado mas remedio que utilizar Qualcomm (huawei lo dejaron fuera por razones obvias), pero ha comprado el negocio de modems 5g a Intel por lo que es seguro que dejaran de usarlos cuando tengan su propio modem 5g funcionando.
Los exynos tenian problemas porque los chips custom no iban demasiado bien, pero los nuevo van a utilizar directamente las IPs de ARM sin modificaciones igual que hace Qualcomm desde hace un tiempo aunque les ponga nombrecitos a los cores :D
A Qualcomm no solo le han acusado (apple quito su demanda a cambio de los modems) sino que en mayo ya perdio un juicio en USA y creo recordar que tiene otro pendiente en China, lleva mas de 2 años con juicios uno detras de otro. Unas bellas personas los de Qualcomm.
Aunque que $DIOS me perdone no veo nada necesaria la tecnologia 5g para el publico en general, para mi es equivalente a los televisores 8k
Hombre en Españistán el 5G como que no, en muchos países sí que está mucho mejor implementada.
En cuanto al A13, el Snapdragon le gana en Antutu, en el último Geekbench multicore prácticamente rinden igual, en Speed Test GX 2.0 gana Snapdragon, soporta resolución 3840 x 2160 (el A13 se queda en 2688 x 1242), reproduce y graba en 8K (el A13 en 4K), soporta 5G, el 4G es LTE cat 24 (por 16 del Apple), el Bluetooth es 5.1 por 5.0, la memoria es LPDDR5 y en el A13 LPDDR4, y así en el 90% de apartados, el A13 soporta un set de instrucciones más actual, es mejor en tareas monocore y es compatible con DX12.1, poco más.
Es el SOC de practicamente todos los flagship Android:
https://www.kimovil.com/es/listado-moviles-por-procesador/qualcomm-snapdragon-865
https://youtu.be/2-IOcByzg8I
Una estrategia cojonuda la de no me interesa cuando sabes que hay al menos una compañia que la quiere comprar, nunca antes ha fallado :D
¿Que Apple no son buenos desarrolladores de HW?, ¿es una suposicion o realmente lo piensas?.., lo digo porque ahora mismo los procesadores de Apple y las GPUs estan bastante por delante del resto de los fabricantes y son los unicos que ahora mismo tienen procesadores custom ARM, Qualcomm y Samsung ya han abandonado ese camino porque no lograban resultados que esperaban.
De todo lo que yo sé de Apple (que no es mucho, también es verdad), nunca la he visto como desarrolladora de HW: siempre ha subcontratado, ha licenciado o directamente ha comprado la empresa de HW que le hacía falta.
No te digo que no tengan un equipo que personalice ciertos chips, porque eso parece la norma hoy día, pero cuando me vienen diciendo que un Mac monta un procesador Intel, una gráfica NVidia, una RAM Kingston, una placa base de no se quién... pues qué quieres que te diga :D :D :D
Cosa aparte es que digan "oye, que sí, que queremos tus componentes, pero me lo montas para un PowerPC con estas especificaciones", pero de entregar un esquema de diseño al diseño final, hay un trecho. Ahora, si me dices que Apple, como compañía, tienen una división dedicada a diseñar, generar y probar HW propio para su autoconsumo, como Nintendo hasta hace unos años, pues me retracto :P
EDIT: bueno, una cosa sí que tengo que admitir: que saben escoger bien las piezas y unirlas en un todo que funciona de PM, pero creo que siempre se les ha dado mejor crear un SW que aprovecha al 100% esas piezas y cómo las han interconectado.
Aunque que $DIOS me perdone no veo nada necesaria la tecnologia 5g para el publico en general, para mi es equivalente a los televisores 8k
Uy lo que ha dicho. Dile a un niño rata que en lugar de 2 segundos tiene que esperar 4 para ver al Rubius en 4K en su teléfono, y a ver cuánta pierna te deja sin roer :lol:
selecter25
03/08/2020, 12:22
De todo lo que yo sé de Apple (que no es mucho, también es verdad), nunca la he visto como desarrolladora de HW: siempre ha subcontratado, ha licenciado o directamente ha comprado la empresa de HW que le hacía falta.
No te digo que no tengan un equipo que personalice ciertos chips, porque eso parece la norma hoy día, pero cuando me vienen diciendo que un Mac monta un procesador Intel, una gráfica NVidia, una RAM Kingston, una placa base de no se quién... pues qué quieres que te diga :D :D :D
Cosa aparte es que digan "oye, que sí, que queremos tus componentes, pero me lo montas para un PowerPC con estas especificaciones", pero de entregar un esquema de diseño al diseño final, hay un trecho. Ahora, si me dices que Apple, como compañía, tienen una división dedicada a diseñar, generar y probar HW propio para su autoconsumo, como Nintendo hasta hace unos años, pues me retracto :P
EDIT: bueno, una cosa sí que tengo que admitir: que saben escoger bien las piezas y unirlas en un todo que funciona de PM, pero creo que siempre se les ha dado mejor crear un SW que aprovecha al 100% esas piezas y cómo las han interconectado.
Uy lo que ha dicho. Dile a un niño rata que en lugar de 2 segundos tiene que esperar 4 para ver al Rubius en 4K en su teléfono, y a ver cuánta pierna te deja sin roer :lol:
En sobremesas o portátiles sí delega en otros fabricantes (hasta dentro de poco), los Bionic ARM los diseñan ellos y fabrica TSMC.
En este caso creo tengo que darle la razón a zhorro, los procesadores ARM de Apple son una maravilla, y siempre que lanza uno nuevo deja en bragas al resto. Otra cosa es que Qualcomm lance 20 modelos de SOC al año y al final acabe alcanzándolo, pero cuando salga el Bionic A14 volverá a ser de lejos el mejor SOC ARM (ya se filtraron benchmarks de Geekbench y es un 23% mejor que el A13 en monocore y un 33% en multi)
De todo lo que yo sé de Apple (que no es mucho, también es verdad), nunca la he visto como desarrolladora de HW: siempre ha subcontratado, ha licenciado o directamente ha comprado la empresa de HW que le hacía falta.
Apple siempre ha desarrollado hardware, las placas bases las diseñan ellos, los SOCs de los telefonos los diseñan ellos, ordenadores y portatiles, etc. no se de donde sacas que subcontratan el desarrollo. Lo que subcontratan es la fabricación de SOCS, ordenadores y portatiles ya que Apple no tiene fabricas.
No te digo que no tengan un equipo que personalice ciertos chips, porque eso parece la norma hoy día, pero cuando me vienen diciendo que un Mac monta un procesador Intel, una gráfica NVidia, una RAM Kingston, una placa base de no se quién... pues qué quieres que te diga :D :D :D
Apple tiene una empresa entera de desarrollo de chips que compro hace mas de 6 años (PA semi), no un departamento y todos los que desarrollan hardware utilizan componentes de otros fabricantes o es que segun tu criterio tienes que diseñar todos los componentes para que puedas desarrollar tu hardware, porque si es así con tu criterio NADIE desarrolla hardware, ni coches, , ni aviones ni nada porque TODOS utilizan piezas de otros fabricantes. Fijate tu Boeing sin saber que no desarrolla aviones porque utiliza motores de otro fabricante (es ironia). Y por cierto Apple NO utiliza nvidia usa AMD.
Cosa aparte es que digan "oye, que sí, que queremos tus componentes, pero me lo montas para un PowerPC con estas especificaciones", pero de entregar un esquema de diseño al diseño final, hay un trecho. Ahora, si me dices que Apple, como compañía, tienen una división dedicada a diseñar, generar y probar HW propio para su autoconsumo, como Nintendo hasta hace unos años, pues me retracto :P
EDIT: bueno, una cosa sí que tengo que admitir: que saben escoger bien las piezas y unirlas en un todo que funciona de PM, pero creo que siempre se les ha dado mejor crear un SW que aprovecha al 100% esas piezas y cómo las han interconectado.
A ver tio, ¿has leido algo de la historia de los ultimos años de Apple ?. Apple tiene licencia de ARM y de Imagination y tiene una empresa interna de diseño que lleva 6 años modificando y entregando esos diseños para fabricación NO pide a nadie que le haga esos diseños. Las placas base de sus ordenadores y portatiles las diseñana ellos tambien, chips de seguridad, las cajas y dependiendo del modelo fuentes de alimentación y algun otro componente.
Y vuelvo a repetirte que desarrolle hardware no significa que desarrolle TODO el hardware de sus equipos, nadie lo hace, en un portatil o pc hay cientos de componentes fabricados por muchas enmpresas.
Lo he dicho antes, que yo de Apple no es que conozca gran cosa. Sólo he dicho que no la tengo como una desarrolladora de HW, como puede ser Nintendo... y además aclaro "como la Nintendo de hace unos años", cuando aún diseñaba chips, procesadores e incluso modificaciones de los ya existentes (que ya empezaron que si se lo encargo a ATI, que si me junto con SEGA y Namco...).
Y fíjate que, en cierto modo hasta me das la razón:
Apple tiene una empresa entera de desarrollo de chips que compro hace mas de 6 años (PA semi)
No voy a negar que Apple tiene muy buenos ingenieros, porque ahí tenemos a Wozniak sin ir más lejos, que montó el primer ordenador de la compañía en su garaje :D Pero hasta hace unos mensajes no había leído nunca de CPUs, GPUs o SOC que hayan salido desde los laboratorios de Apple. He visto las características de algunos Mac, lo necesario para los Hackintosh, y no me he molestado en mirar qué es lo que lleva dentro de los iPhone/iPads, porque eso normalmente está tan integrado que (casi) nunca sale a cuenta diseñar el SW y el HW en la misma empresa, por lo complejo que es.
Tampoco quiero que diseñen el 100% del ordenador, pero al menos sí que tengan laboratorios donde diseñen, fabriquen y testéen una pieza importante de la máquina. ¿Desarrollan las placas base? Vale, te lo acepto, pero yo pensaba más en las CPU o en algún controlador de algún tipo. Apple siempre ha sido un diseño bonito de torre-monitor, y un SO muy amigable, estable y potente, no "el creador del Bionic A14" o "el fabricante de la gráfica definitiva para edición de video" :lol:
(Y a Nintendo mucha gente le atribuye el chip SuperFX aunque fuera cosa de Argonaut :D).
¿En serio crees que merece la pena hacer una CPU o GPU desde cero? Son chips muy complicados de hacer, ademas de que tendrías que crear/portar los compiladores para poder programarlos, otra cosa es coger algo que ya existe y hacerle pruebas para ver que seria mejor meterle una cache un poco mas grande, o integrar en el SOC algun chip adicional para hacer lo que sea, pero hacer algo 100% nuevo como una CPU o GPU olvídate.
Lo he dicho antes, que yo de Apple no es que conozca gran cosa. Sólo he dicho que no la tengo como una desarrolladora de HW, como puede ser Nintendo... y además aclaro "como la Nintendo de hace unos años", cuando aún diseñaba chips, procesadores e incluso modificaciones de los ya existentes (que ya empezaron que si se lo encargo a ATI, que si me junto con SEGA y Namco...).
Y fíjate que, en cierto modo hasta me das la razón:
No voy a negar que Apple tiene muy buenos ingenieros, porque ahí tenemos a Wozniak sin ir más lejos, que montó el primer ordenador de la compañía en su garaje :D Pero hasta hace unos mensajes no había leído nunca de CPUs, GPUs o SOC que hayan salido desde los laboratorios de Apple. He visto las características de algunos Mac, lo necesario para los Hackintosh, y no me he molestado en mirar qué es lo que lleva dentro de los iPhone/iPads, porque eso normalmente está tan integrado que (casi) nunca sale a cuenta diseñar el SW y el HW en la misma empresa, por lo complejo que es.
Tampoco quiero que diseñen el 100% del ordenador, pero al menos sí que tengan laboratorios donde diseñen, fabriquen y testéen una pieza importante de la máquina. ¿Desarrollan las placas base? Vale, te lo acepto, pero yo pensaba más en las CPU o en algún controlador de algún tipo. Apple siempre ha sido un diseño bonito de torre-monitor, y un SO muy amigable, estable y potente, no "el creador del Bionic A14" o "el fabricante de la gráfica definitiva para edición de video" :lol:
(Y a Nintendo mucha gente le atribuye el chip SuperFX aunque fuera cosa de Argonaut :D).
¿Que te doy la razon?, flipo.., o sea que segun tu no crean sus SOCs porque una parte de sus ingenieros vienen de la compra de una empresa hace seis años :D:D, los socs propios de Apple llevan saliendo desde hace mas de 10 años y compraron esa empresa para tener ingenieros formados en diseño de procesadores. Y no solo diseñan los SOCS de los mobiles, los chips de seguridad de sus ordenadores, chip bluetooth y wifi, los SOCS de sus relojes, las placas base, cajas y algunas cosas mas. Y ahora con el A14 los procesadores+graficas de los portatiles de gama baja.
Nintendo Switch SOC de Nvidia y resto de componentes estandar, chips especificos de Nintendo: 0. Y por cierto la NES el procesador de Ricoh y Mos Tecnologies, la ppu desarrollada tambien por Ricoh y los chips especiales desarrollados tambien por terceras compañias. ¿Segun tu criterio Nintendo desarrolla hardware?
Y claro apple no ha creado el Bionic A13 o el nuevo A14 ha sido un ente etereo que pasaba por allí y le ha dado los diseños, no prueban lo que diseñan se lo dan a los usuarios para que lo hagan ellos, y efectivamente se dedican a crear cajas bonitas de colores agradables /sarcasmo.
https://en.wikipedia.org/wiki/Apple-designed_processors
¿En serio crees que merece la pena hacer una CPU o GPU desde cero? Son chips muy complicados de hacer, ademas de que tendrías que crear/portar los compiladores para poder programarlos, otra cosa es coger algo que ya existe y hacerle pruebas para ver que seria mejor meterle una cache un poco mas grande, o integrar en el SOC algun chip adicional para hacer lo que sea, pero hacer algo 100% nuevo como una CPU o GPU olvídate.
¡No, claro que no! Ya era complicado a principio de siglo, no me lo quiero imaginar a día de hoy... :lol:
...Peeero, como estuvimos discutiendo el otro día Misato y yo, los procesadores de los Mac usan tecnología RISC y una arquitectura Power PC, muy diferentes a los del resto de ordenadores. Y teniendo en cuenta que Apple estuvo en el negocio en la época de los microprocesadores de 16bits, si desde aquel entonces hubieran estado desarrollando su propio HW, hoy no tendrían que hacerlos desde cero, sólo haberlos ido evolucionando a lo largo de sus taitantos años de historia.
De hecho, en el Macintosh ya podrían haber pensado en diseñar su propia gráfica, con ventanas controladas por HW y codecs de imágenes para sus editores gráficos.
¿A día de hoy? Pues seguramente no les saldría a cuenta y estaríamos en el mismo plan de hoy día: me busco a ARM, le planto X modificaciones, y se lo mando a la fábrica Y, pero hace 25 años sí que se podrían haber dedicado a desarrollar una CPU y mantenerla 2 o 3 versiones, y sí la vería como ex-desarrolladora de HW.
^MiSaTo^
03/08/2020, 18:06
¡No, claro que no! Ya era complicado a principio de siglo, no me lo quiero imaginar a día de hoy... :lol:
...Peeero, como estuvimos discutiendo el otro día Misato y yo, los procesadores de los Mac usan tecnología RISC y una arquitectura Power PC, muy diferentes a los del resto de ordenadores. Y teniendo en cuenta que Apple estuvo en el negocio en la época de los microprocesadores de 16bits, si desde aquel entonces hubieran estado desarrollando su propio HW, hoy no tendrían que hacerlos desde cero, sólo haberlos ido evolucionando a lo largo de sus taitantos años de historia.
De hecho, en el Macintosh ya podrían haber pensado en diseñar su propia gráfica, con ventanas controladas por HW y codecs de imágenes para sus editores gráficos.
¿A día de hoy? Pues seguramente no les saldría a cuenta y estaríamos en el mismo plan de hoy día: me busco a ARM, le planto X modificaciones, y se lo mando a la fábrica Y, pero hace 25 años sí que se podrían haber dedicado a desarrollar una CPU y mantenerla 2 o 3 versiones, y sí la vería como ex-desarrolladora de HW.
Tío que los mac llevan muchos años (como desde 2005-2006 creo recordar) usando intel xD Es más te escribo desde un iMac con un i7 ahora mismo.
Como siempre tienes unos cacaos mentales que para qué xD
¿Que te doy la razon?, flipo.., o sea que segun tu no crean sus SOCs porque una parte de sus ingenieros vienen de la compra de una empresa hace seis años :D:D, los socs propios de Apple llevan saliendo desde hace mas de 10 años y compraron esa empresa para tener ingenieros formados en diseño de procesadores. Y no solo diseñan los SOCS de los mobiles, los chips de seguridad de sus ordenadores, chip bluetooth y wifi, los SOCS de sus relojes, las placas base, cajas y algunas cosas mas. Y ahora con el A14 los procesadores+graficas de los portatiles de gama baja.
Nintendo Switch SOC de Nvidia y resto de componentes estandar, chips especificos de Nintendo: 0. Y por cierto la NES el procesador de Ricoh y Mos Tecnologies, la ppu desarrollada tambien por Ricoh y los chips especiales desarrollados tambien por terceras compañias. ¿Segun tu criterio Nintendo desarrolla hardware?
Y claro apple no ha creado el Bionic A13 o el nuevo A14 ha sido un ente etereo que pasaba por allí y le ha dado los diseños, no prueban lo que diseñan se lo dan a los usuarios para que lo hagan ellos, y efectivamente se dedican a crear cajas bonitas de colores agradables /sarcasmo.
https://en.wikipedia.org/wiki/Apple-designed_processors
¡Eeeeh! Cálmate un poco, que te va a dar algo :lol:
Primero de todo, no he dicho que Apple no sea una empresa que desarrolla HW, sino que nunca LA HE VISTO como desarrolladora de HW ¿Cuál es la diferencia? Que no estoy afirmando ningún hecho. Estoy RECALCANDO que es mi visión SUBJETIVA.
Además, fíjate en esto:
De todo lo que yo sé de Apple (que no es mucho, también es verdad), nunca la he visto como desarrolladora de HW: siempre ha subcontratado, ha licenciado o directamente ha comprado la empresa de HW que le hacía falta.
Apple tiene una empresa entera de desarrollo de chips que compro hace mas de 6 años (PA semi)
Ahí no dices nada de que tuvieran ingenieros de desarrollo de HW anteriormente. Has recalcado que compraron una compañía para desarrollo de chips... y yo he dicho que ha comprado compañías que les ha hecho falta. Diferente sería que hubieran contratado a X expertos en diseño y los hubiera formado y metido en una fábrica: hubieran sido sus propios empleados y habrían usado sus propios medios.
¿Más ejemplos? El ratón, comprado a Xerox, tal cual.
Y vamos a Nintendo. No sé por qué sacas la Switch cuando yo estaba hablando de una época anterior a GameCube, pero vale, sacas la NES. Ahora yo empiezo a decir ¿Y las Game And Watch? ¿Y la Game Boy? ¿Y los mandos de todas sus consolas? ¿Y el Wiimote? ¿La Balance board? ¿Rob? ¿El chip antipiratería de NES/SNES/N64? ¿El zapper? ¿Los bongos del Donkey Konga?
Sí, estoy seguro de que muchos de los chips los fabricaron otros, pero muchas de las piezas salieron de sus propias fábricas. Y seguro que el nivel de implicación de la compañía ha sido mucho más directa que la de Apple.
¿Significa eso que Nintendo es mejor que Apple? NO
¿Significa eso que Nintendo es más desarrolladora de HW que Apple? NO... pero para mi, sí. ¿Estoy equivocado? Puede.
¿Significa eso que Apple no desarrolla HW? NO... es decir, que sí, que desarrolla HW, pero no me preguntes a mi :D
¿Significa eso que yo tengo razón y tú no? NO... pero te digo por qué creo que la tengo, y tu ya decides si estoy en lo correcto o no.
Y decían que las Console Wars estaban extintas :D
-----Actualizado-----
Tío que los mac llevan muchos años (como desde 2005-2006 creo recordar) usando intel xD Es más te escribo desde un iMac con un i7 ahora mismo.
Como siempre tienes unos cacaos mentales que para qué xD
Creo que había dicho anteriormente...
(...)pero cuando me vienen diciendo que un Mac monta un procesador Intel (...)
:lol:
¿Alguien se lee lo que escribo o lo que piensa que cree que escribo? :D
Por cierto, antes de los Intel ¿Qué montaban? (no va con sarcasmo, lo estoy preguntando).
No sé, es que, por ejemplo, IBM sí que la tengo como un fabricante de HW, y mira que su mayor logro, el IBM PC, lleva una CPU Intel, pero sí que ha fabricado chips. Y sin embargo a Apple no la aprecio de esa manera, sino que han cogido piezas, las han juntado de forma diferente al resto, lo han llamado PowerPC, y le han diseñado el SO más revolucionario de la historia.
¡Eeeeh! Cálmate un poco, que te va a dar algo :lol:
Primero de todo, no he dicho que Apple no sea una empresa que desarrolla HW, sino que nunca LA HE VISTO como desarrolladora de HW ¿Cuál es la diferencia? Que no estoy afirmando ningún hecho. Estoy RECALCANDO que es mi visión SUBJETIVA.
Además, fíjate en esto:
Ahí no dices nada de que tuvieran ingenieros de desarrollo de HW anteriormente. Has recalcado que compraron una compañía para desarrollo de chips... y yo he dicho que ha comprado compañías que les ha hecho falta. Diferente sería que hubieran contratado a X expertos en diseño y los hubiera formado y metido en una fábrica: hubieran sido sus propios empleados y habrían usado sus propios medios.
¿Más ejemplos? El ratón, comprado a Xerox, tal cual.
Y vamos a Nintendo. No sé por qué sacas la Switch cuando yo estaba hablando de una época anterior a GameCube, pero vale, sacas la NES. Ahora yo empiezo a decir ¿Y las Game And Watch? ¿Y la Game Boy? ¿Y los mandos de todas sus consolas? ¿Y el Wiimote? ¿La Balance board? ¿Rob? ¿El chip antipiratería de NES/SNES/N64? ¿El zapper? ¿Los bongos del Donkey Konga?
Sí, estoy seguro de que muchos de los chips los fabricaron otros, pero muchas de las piezas salieron de sus propias fábricas. Y seguro que el nivel de implicación de la compañía ha sido mucho más directa que la de Apple.
¿Significa eso que Nintendo es mejor que Apple? NO
¿Significa eso que Nintendo es más desarrolladora de HW que Apple? NO... pero para mi, sí. ¿Estoy equivocado? Puede.
¿Significa eso que Apple no desarrolla HW? NO... es decir, que sí, que desarrolla HW, pero no me preguntes a mi :D
¿Significa eso que yo tengo razón y tú no? NO... pero te digo por qué creo que la tengo, y tu ya decides si estoy en lo correcto o no.
Y decían que las Console Wars estaban extintas :D
-----Actualizado-----
Creo que había dicho anteriormente...
:lol:
¿Alguien se lee lo que escribo o lo que piensa que cree que escribo? :D
Por cierto, antes de los Intel ¿Qué montaban? (no va con sarcasmo, lo estoy preguntando).
No sé, es que, por ejemplo, IBM sí que la tengo como un fabricante de HW, y mira que su mayor logro, el IBM PC, lleva una CPU Intel, pero sí que ha fabricado chips. Y sin embargo a Apple no la aprecio de esa manera, sino que han cogido piezas, las han juntado de forma diferente al resto, lo han llamado PowerPC, y le han diseñado el SO más revolucionario de la historia.
Que vale tio, que para ti la perragorda, es inutil hablar algo contigo, no se porque me empeño. Yo lo dejo que esto es muy cansado.
nintendo fabrica el mismo hardware ahora que antes. Nunca ha sido la diseñadora 100% de sus cpus o gpus/ppus. Siempre modificaba las de otros. Pero vamos, eso es lo que han hecho siempre todas. Hasta sony, que ha fabricado para otros, tambien ha solicitado que fabriquen y diseñen para ellos. O nec con la pc engine, que aun siendo nec, la mayoria de sus chips estaban diseñados por hudson.
No inventes cosas, drumpi. Cuando argumentes algo al menos asegurate de que los ejemplos que pones son reales, porque si no, es imposible tomarte minimamente en serio.
Drumpi, pero es que lo que dices nadie lo hace, que sentido tiene ponerte a desarrollar un chip para lo que sea si ya hay otra compañía que lo ha hecho y te lleva años de ventaja, solo tiene sentido si es algo que has inventado tu. Mira sega con la pasta que tenian y ninguna placa 3D las desarrollaron ellos, fueron compañías externas.
Mira la industria del automóvil, las llantas las hace un fabricante, los neumáticos otro, los cristales otro, los asientos otro, etc. Lo único que decide una marca es el diseño de estos y en algunos casos ponen su propio motor, pero el resto se encargan a otras compañías. Incluso creo que las centralitas en algunos grupos de coches son comunes.
Que vale tio, que para ti la perragorda, es inutil hablar algo contigo, no se porque me empeño. Yo lo dejo que esto es muy cansado.
Ok, cuando descanses, me gustaría leer lo que tienes que decir ;)
nintendo fabrica el mismo hardware ahora que antes. Nunca ha sido la diseñadora 100% de sus cpus o gpus/ppus. Siempre modificaba las de otros. Pero vamos, eso es lo que han hecho siempre todas. Hasta sony, que ha fabricado para otros, tambien ha solicitado que fabriquen y diseñen para ellos. O nec con la pc engine, que aun siendo nec, la mayoria de sus chips estaban diseñados por hudson.
No inventes cosas, drumpi. Cuando argumentes algo al menos asegurate de que los ejemplos que pones son reales, porque si no, es imposible tomarte minimamente en serio.
Drumpi, pero es que lo que dices nadie lo hace, que sentido tiene ponerte a desarrollar un chip para lo que sea si ya hay otra compañía que lo ha hecho y te lleva años de ventaja, solo tiene sentido si es algo que has inventado tu. Mira sega con la pasta que tenian y ninguna placa 3D las desarrollaron ellos, fueron compañías externas.
Mira la industria del automóvil, las llantas las hace un fabricante, los neumáticos otro, los cristales otro, los asientos otro, etc. Lo único que decide una marca es el diseño de estos y en algunos casos ponen su propio motor, pero el resto se encargan a otras compañías. Incluso creo que las centralitas en algunos grupos de coches son comunes.
Sí, si admito que ahí tenéis razón. Si ya he dicho que incluso IBM, una de las mayores empresas tecnológicas de HW del mundo, terminó usando CPUs de Intel.
Pero es eso lo que me choca, que Nintendo, aunque no haga CPUs ni nada de eso, sí que realizó las G&W y un montón de HW para sus consolas, y tiene varias divisiones internas "investigando y desarrollando", pero de Apple sólo veo que diseñan una carcasa, la rellenan de piezas, y a partir de ahí, a desarrollar el siguiente MacOS, igual que M$ con su XBox.
Sony al menos tienen los reproductores de Blu-ray en sus últimas consolas, pero también fabrica reproductores domésticos, televisores, radios... sí, con chips de otras marcas, pero al final hay piezas que tienen que hacer ellos (o la fábrica china que está bajo su nombre).
Ya con lo de las placas base o las modificaciones del ARM, pues veo a Apple con otros ojos, pero como digo, la percepción que tenía de Apple no era esa, sino más bien "necesitamos un procesador nuevo, Intel, hazme un PPC, pero le añades 4 núcleos, el siguiente set de instrucciones que te vamos a dar, y le añades este core de decodificación de vídeo que nos hace falta para que el editor rinda un 10% más".
Es mejor usar cosas que usan todo el mundo y están probadas de que funcionan = hardware mas barato.
-----Actualizado-----
Mira lo bien que le fue a Atari con la Jaguar que lleva dos procesadores hechos a medida (GPU y DSP) en vez de haber usado un par de procesadores "on the shelf", tiempo perdido en el desarrollo y errores a tutiplén.
bitrider
03/08/2020, 21:31
Drumpi, Apple antes de Intel montaba PowerPC que fue diseñado conjuntamente por... IBM, Motorola y... Apple.
https://en.m.wikipedia.org/wiki/PowerPC
Dullyboy
06/08/2020, 22:34
Parece ser que han salido 20Gb de información interna de Intel.
https://www.zdnet.com/article/intel-investigating-breach-after-20gb-of-internal-documents-leak-online/
Hay información de backdoors según leí por encima.
A este paso deberemos apuntarnos a esa cpu opensource.
princemegahit
08/08/2020, 13:47
Parece ser que han salido 20Gb de información interna de Intel.
https://www.zdnet.com/article/intel-investigating-breach-after-20gb-of-internal-documents-leak-online/
Hay información de backdoors según leí por encima.
Como era eso? No importa, yo no soy un delincuente, no tengo nada que ocultar...que MAS DA SI ME ESPIAN???
Pues parece ser que Apple no solo le da la patada a Intel con los ARM, sino que le va a dar tambien la patada a AMD sacando tarjetas graficas para sus equipos. Por lo que comentan Apple habia renovado licencias con PowerVR, son los que le proporcionan las GPUs que han utilizado en sus SOCS (aunquen las han modificado mucho), pero parece que la renovacion no era por las GPUS de los moviles sino que es para poder utilizar los ultimos diseños de GPU de PowerVR en tarjetas graficas que se podrían montar en equipos que necesiten mas potencia gráfica que la que da el SOC.
Por lo que es probable que AMD sea la siguiente nominada a salir de Apple.
Intel acaba informar que retrasar la entrega de la tarjetas graficas y cpus para el superordenador que tenia que entregar el año que viene por lo que se retrasa la entrega un año del superordenador. O sea que ni siquiera llegan fabricando TSMC las graficas, aunque por las noticias parece que TMSC le habia dicho a Intel que no le reservaria mas fabricacion que la que tuviera disponible que no 'robaria' al resto de sus clientes (imagino que porque sabe que Intel es un cliente a corto plazo y no quiere tocarle las narices al resto y que se vayan a Samsung).
Que dice el gobierno americano de cara al publico, no pasa nada, queremos que el fabricante sea americano y esperaremos. Ya veremos si es cierto que no pasa nada cuando vayan a montar el siguiente y lo saquen a concurso.
Y ademas una patada para Intel porque ya estará montado el nuevo superordenador con procsadores AMD.
Al final NVIDIA ha comprado ARM :(
Es posible que NVidia quiera seguir teniendo a Apple cogida por las "manzanas" :awesome:
Al final NVIDIA ha comprado ARM :(
Si, para mi eera el peor comprador de ARM, pero como apple no tenia interes en comprarlo estaba claro que se lo iba a quedar porque Nvidia necesita tener procesadores propios, ahora hace falta que aprueben tanto china como estados unidos la compra y pongan las condiciones para autorizarlo.
Curioso video el que he visto hoy y que si esta ajustado hace que se entienda un poco porque apple no estaba muy interesada en comprar ARM.
Por error siempre habia tenido la idea de que una licencia de la arquitectura (ISA) lo que te permitia era coger un procesador de ARM y modificarlo a tu gusto. incluso totalmente, pero no es asi lo que te dan es el juego de instrucciones y como deben funcionar y tu te montas el procesador que utiliza ese juego de instrucciones, por lo que desde hace tiempo los procesadores estan totalmente diseñados por Apple y no dependen de ningun diseño de ARM.
Con lo anterior Apple no 'necesita' nuevos diseños de procesadores ARM porque no los utiliza sino que utiliza un diseño propio, solo necesita la licencia de la ISA por lo que comprar ARM no les hacia demasiada falta, lo que si estaran ahora mismo haciendo es 'aconsejar' a su gobierno que en las condiciones de la venta se deje escrito que garanticen estas licencias ahora y en el futuro.
Yo pensaba que te daban "fichero con el chip ARM" y le ponías al lado lo que te diera la gana, aunque después todo se metía dentro de un solo circuito.
selecter25
15/09/2020, 10:46
Según las condiciones que ponga Nvidia, este movimiento puede favorecer al auge de RISC V, por ejemplo Huawei no tiene elección, habrá que ver cómo se posicionan el resto de compañías.
Pues el auge de RISC puede suponer la caída de la computación. CISC es computación y RISC es **** basura portatil.
Pues el ague de RISC puede suponer la caída de la computación. CISC es computación y RISC es **** basura portatil.
No caigamos en el fanboyismo sin sentido. Hay que recordar que ARM nació como un procesador de ordenadores de sobremesa y que se usa bastante en servidores. Las características de una CPU dependen de muchas cosas, no solo del juego de instrucciones.
No caigamos en el fanboyismo sin sentido. Hay que recordar que ARM nació como un procesador de ordenadores de sobremesa y que se usa bastante en servidores. Las características de una CPU dependen de muchas cosas, no solo del juego de instrucciones.
Ante 2 Cpus con la mismas características (frecuencia, nucleos, etc), una RISC y otra CISC. ¿Cual va a ser mas potente?
Recordemos que a nivel de hardware: un X86 es más RISC que CISC, de cara a su uso es más bien un híbrido; EMHO hablar todavía de esto hoy es no enterarse de mucho y aún así querer opinar, es volver a discutir lo que hace 20 años ya se superó.
Sobre RISC-V, mientras no soporte hypervisores y virtualización, no le auguro mucho éxito.
Ante 2 Cpus con la mismas características (frecuencia, nucleos, etc), una RISC y otra CISC. ¿Cual va a ser mas potente?
Depende de cada CPU. Compara un 68000 con el primer ARM, ¿cual gana y por goleada?
O compara un procesador de Cyrix (CISC) con un pentium (también CISC) de la epoca, en enteros no había mucha diferencia pero la unidad de punto flotante del pentium era mucho mejor y se ejecutaba en paralelo con las instrucciones enteras, en los procesadores de cyrix no y por eso el Quake iban tan mal en ellos.
Como dice Jcom, depende de muchas cosas no solo del juego de instrucciones.
Lo que está claro es que una CPU con menos instrucciones tendrá problemas para realizar tareas que necesiten esas instrucciones que le faltan.
Yo pensaba que te daban "fichero con el chip ARM" y le ponías al lado lo que te diera la gana, aunque después todo se metía dentro de un solo circuito.
Ese es otro tipo de licencia, compras el core de las cpu y/o de la gpu y no hay que tocarlo y tu le añades lo que necesites (redes neurales, entradas/salidas, vpu, etc.), es el que tienen la mayoria de los fabricantes
Sobre el papel, los CISC ganan porque con un solo ciclo hacen más cosas, pero como me habéis reprochado muchas veces "los ciclos por segundo no reflejan la potencia del procesador" :D
Por poner un ejemplo antediluviano de los míos: obviamente una instrucción MMX permite procesar más datos con menos ciclos, pero a lo mejor usando instrucciones RISC, al ser más sencillas, al tener menos lógica en los circuitos, los ciclos pueden ser más cortos al haber menos latencia, y al final el resultado es el mismo.
No sé, no estoy tan al día de procesadores como me gustaría, pero hace años me pregunté por qué pasábamos de cables de conexión paralelo a serie, si así suministrábamos menos información por ciclo (IDE-SATA, PCI-PCIe, cualquier conector externo a USB...), y hoy día es un estándar que da más velocidad que en aquel entonces. Decían que si problemas de ruidos por la transmisión en paralelo, que si peores impedancias... no sé, hoy todo se transmite en serie, no sé por qué una CPU RISC iba a ser peor que una CISC: son más simples, tienen menos latencia, son más fáciles de depurar, la predicción de comandos o resultados tendrá mayor tasa de éxito...
También digo una cosa: estamos en la frontera de la frecuencia de trabajo máxima, eso se puede volver en contra de las CPUs RISC... pero también es verdad que llevamos años buscando un sustituto de la tecnología binaria :lol: El día que sustituyamos los bits por cifras hexadecimales con la tecnología cuántica, nos va a explotar la cabeza :D
Powered by vBulletin® Version 4.2.5 Copyright © 2025 vBulletin Solutions Inc. All rights reserved.