User Tag List

Página 34 de 35 PrimerPrimer ... 24303132333435 ÚltimoÚltimo
Resultados 496 al 510 de 519

Tema: DEP Intel

  1. #496

    Fecha de ingreso
    Aug 2003
    Mensajes
    681
    Mencionado
    5 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    12
    Agradecer Thanks Received 
    92
    Thanked in
    Agradecido 55 veces en [ARG:2 UNDEFINED] posts
    Recordemos que a nivel de hardware: un X86 es más RISC que CISC, de cara a su uso es más bien un híbrido; EMHO hablar todavía de esto hoy es no enterarse de mucho y aún así querer opinar, es volver a discutir lo que hace 20 años ya se superó.
    Sobre RISC-V, mientras no soporte hypervisores y virtualización, no le auguro mucho éxito.

  2. #497

    Fecha de ingreso
    Sep 2006
    Ubicación
    Malaga
    Mensajes
    7,561
    Mencionado
    47 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    1,668
    Agradecer Thanks Received 
    1,922
    Thanked in
    Agradecido 1,289 veces en [ARG:2 UNDEFINED] posts
    Cita Iniciado por chipan Ver mensaje
    Ante 2 Cpus con la mismas características (frecuencia, nucleos, etc), una RISC y otra CISC. ¿Cual va a ser mas potente?
    Depende de cada CPU. Compara un 68000 con el primer ARM, ¿cual gana y por goleada?
    O compara un procesador de Cyrix (CISC) con un pentium (también CISC) de la epoca, en enteros no había mucha diferencia pero la unidad de punto flotante del pentium era mucho mejor y se ejecutaba en paralelo con las instrucciones enteras, en los procesadores de cyrix no y por eso el Quake iban tan mal en ellos.

    Como dice Jcom, depende de muchas cosas no solo del juego de instrucciones.
    No es lo mismo tener diez años de experiencia, que tener un año de experiencia diez veces.


    It is an undisputed truth that the Atari ST gets the best out of coders. No dedicated hardware, just the CPU and a frame buffer! Some call it Spartan, others name it Power Without The Price, and a select few say `challenge accepted'! --- by spkr from smfx

  3. #498

    Fecha de ingreso
    Dec 2004
    Mensajes
    28,630
    Mencionado
    199 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    188
    Agradecer Thanks Received 
    2,626
    Thanked in
    Agradecido 1,639 veces en [ARG:2 UNDEFINED] posts
    Entradas de blog
    11
    Lo que está claro es que una CPU con menos instrucciones tendrá problemas para realizar tareas que necesiten esas instrucciones que le faltan.
    Google stadia es un fracaso, google stadia funciona mal, google admite su fracaso con stadia la latencia es el problema intrinseco de stadia, el público abandona google stadia, stadia mal.

  4. #499

    Fecha de ingreso
    Feb 2006
    Mensajes
    6,140
    Mencionado
    58 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    40
    Agradecer Thanks Received 
    1,453
    Thanked in
    Agradecido 856 veces en [ARG:2 UNDEFINED] posts
    Cita Iniciado por swapd0 Ver mensaje
    Yo pensaba que te daban "fichero con el chip ARM" y le ponías al lado lo que te diera la gana, aunque después todo se metía dentro de un solo circuito.
    Ese es otro tipo de licencia, compras el core de las cpu y/o de la gpu y no hay que tocarlo y tu le añades lo que necesites (redes neurales, entradas/salidas, vpu, etc.), es el que tienen la mayoria de los fabricantes
    Zhorro

  5. #500

    Fecha de ingreso
    Sep 2005
    Mensajes
    15,202
    Mencionado
    247 Post(s)
    Tagged
    1 Tema(s)
    Agradecer Thanks Given 
    675
    Agradecer Thanks Received 
    1,847
    Thanked in
    Agradecido 1,264 veces en [ARG:2 UNDEFINED] posts
    Sobre el papel, los CISC ganan porque con un solo ciclo hacen más cosas, pero como me habéis reprochado muchas veces "los ciclos por segundo no reflejan la potencia del procesador"
    Por poner un ejemplo antediluviano de los míos: obviamente una instrucción MMX permite procesar más datos con menos ciclos, pero a lo mejor usando instrucciones RISC, al ser más sencillas, al tener menos lógica en los circuitos, los ciclos pueden ser más cortos al haber menos latencia, y al final el resultado es el mismo.

    No sé, no estoy tan al día de procesadores como me gustaría, pero hace años me pregunté por qué pasábamos de cables de conexión paralelo a serie, si así suministrábamos menos información por ciclo (IDE-SATA, PCI-PCIe, cualquier conector externo a USB...), y hoy día es un estándar que da más velocidad que en aquel entonces. Decían que si problemas de ruidos por la transmisión en paralelo, que si peores impedancias... no sé, hoy todo se transmite en serie, no sé por qué una CPU RISC iba a ser peor que una CISC: son más simples, tienen menos latencia, son más fáciles de depurar, la predicción de comandos o resultados tendrá mayor tasa de éxito...
    También digo una cosa: estamos en la frontera de la frecuencia de trabajo máxima, eso se puede volver en contra de las CPUs RISC... pero también es verdad que llevamos años buscando un sustituto de la tecnología binaria El día que sustituyamos los bits por cifras hexadecimales con la tecnología cuántica, nos va a explotar la cabeza
    PROYECTOS REALIZADOS: FrikiMusic, Motor Scroll Tileado v3.2, Venturer2X (GP2X/WIZ), Echo, Screen Break Time
    PROYECTOS EN MARCHA (algunos): Bennu GP2X: 95% (necesito ayuda) ¡Antes de Halloween!: 92% SpaceH2H: 8%

  6. #501

    Fecha de ingreso
    Feb 2006
    Mensajes
    6,140
    Mencionado
    58 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    40
    Agradecer Thanks Received 
    1,453
    Thanked in
    Agradecido 856 veces en [ARG:2 UNDEFINED] posts
    Cita Iniciado por chipan Ver mensaje
    Pues el auge de RISC puede suponer la caída de la computación. CISC es computación y RISC es **** basura portatil.
    PowerPC llama a tu puerta .. RISC y son los que mueven los hosts de IBM y algunos de los superordenadores mas grandes, y por cierto el superordenador mas potente ahora mismos esta fabricado por Fujitsu y solo lleva cores ARM (no utiliza gpus para procesar). Aparte de que los procesadores intel modernos son 'hibridos' recogen una instruccion CISC y la transforman en instrucciones mas simples (RISC) que son las que ejecuta internamente.

    http://sunnyeves.blogspot.com/2009/0...r-risc-or.html

    -----Actualizado-----

    Cita Iniciado por selecter25 Ver mensaje
    Según las condiciones que ponga Nvidia, este movimiento puede favorecer al auge de RISC V, por ejemplo Huawei no tiene elección, habrá que ver cómo se posicionan el resto de compañías.
    A china le han dejado la opción bien clara van a ir a por RISC V a muerte, es lo unico que les garantiza que EEUU no les va a tocar los huevos, despues hay bastantes compañias que van a usarlo para no tener que pagar licencias (curiosamente Nvidia era una de ellas ). Tambien van a abandonar Android por la misma razon ya aunque se siga diciendo que es opensource, no lo es. Cada vez esta mas bloqueado por los servicios y aplicaciones de Google (navegador, correo y SMS eran aplicaciones open y ahora son de google Chrome, gmail y mensajes) y hay bastantes aplicaciones que no funcionan sin los servicios de google.
    Huawei por ejemplo ya ha anunciado que abandona Android en favor de un sistema operativo propio, pero seguira utilizando procesadores ARM (de otro fabricante ya que no puede ni diseñar ni fabricar los suyos) hasta que RISC V u otro procesador movil este maduro.
    Zhorro

  7. #502

    Fecha de ingreso
    Sep 2006
    Ubicación
    Malaga
    Mensajes
    7,561
    Mencionado
    47 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    1,668
    Agradecer Thanks Received 
    1,922
    Thanked in
    Agradecido 1,289 veces en [ARG:2 UNDEFINED] posts
    Cita Iniciado por zhorro Ver mensaje
    Aparte de que los procesadores intel modernos son 'hibridos' recogen una instruccion CISC y la transforman en instrucciones mas simples (RISC) que son las que ejecuta internamente.
    Cosa que en un RISC de verdad te ahorras esa circuiteria y puedes añadir lo que necesites, o ahorrar espacio.

    Por cierto, no todo va respecto al numero de instrucciones, otra diferencia que tienen los RISC vs CISC es que tienen modos de direccionamiento mas simples (nada de offset(a0,d0.w) como en el 680x0) y todas las instrucciones operan con registros, no puedes hacer una suma con el contenido de una dirección de memoria. (nada de add.w (a0),d0 )
    No es lo mismo tener diez años de experiencia, que tener un año de experiencia diez veces.


    It is an undisputed truth that the Atari ST gets the best out of coders. No dedicated hardware, just the CPU and a frame buffer! Some call it Spartan, others name it Power Without The Price, and a select few say `challenge accepted'! --- by spkr from smfx

  8. #503

    Fecha de ingreso
    Jul 2006
    Mensajes
    6,575
    Mencionado
    184 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    761
    Agradecer Thanks Received 
    1,696
    Thanked in
    Agradecido 1,048 veces en [ARG:2 UNDEFINED] posts
    Nadie abre hilo sobre la sacada de chorra encima de la mesa que ha echo nvidia con las nuevas 3xxxx ???
    Sobre todo con este mounstruo:
    https://www.nvidia.com/es-es/geforce...ries/rtx-3090/

  9. #504

    Fecha de ingreso
    Sep 2009
    Ubicación
    Donde quiero
    Mensajes
    6,160
    Mencionado
    175 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    1,848
    Agradecer Thanks Received 
    2,378
    Thanked in
    Agradecido 1,309 veces en [ARG:2 UNDEFINED] posts
    Creo que solo zhorro ha entendido lo de RISC V, no hablo del conjunto de instrucciones RISC a secas (menudo debate habéis montado en 0 coma ), hablo del desarrollo de un procesador open source bajo el conjunto de instrucciones también open source RISC V, que es la única alternativa si no te licencia ARM (como le ha pasado a Huawei).

    Me consta que hay empresas como Qualcomm que ya ha invertido pasta en ello, o Xiaomi que tiene alguno fabricado (la NPU del Amazfit Bip, creo recordar). Samsung era otra que para pequeños wereables la ha usado:

    https://elandroidelibre.elespanol.co...isc-v-arm.html

    Y en China ya hay varias empresas dispuestas a fabricar por esta vía.

    Es una buena adquisición la que ha hecho Nvidia, e independientemente de lo que haga ahora a la hora de licenciar, al menos el resto de compañías tienen una alternativa viable.

    -----Actualizado-----

    Cita Iniciado por tartalo Ver mensaje
    Nadie abre hilo sobre la sacada de chorra encima de la mesa que ha echo nvidia con las nuevas 3xxxx ???
    Sobre todo con este mounstruo:
    https://www.nvidia.com/es-es/geforce...ries/rtx-3090/
    Yo voy a pillar una 3090 (no para jugar, para Deep/Machihe Learning), pero quiero ver las reviews mañana.

    Me he mantenido muy escéptico con tanto hype y viendo las filtraciones de benchs reales, no iba muy desencaminado. La 3080 puede ser el doble de potente que una 2080 solo en ciertos escenarios, que son básicamente juego a 4K con RT activo y DLSS off. Saliendo de esto, no está tan lejos la 2080ti (al menos de momento), y comprar una para 1080p es un disparate, en Far Cry New Down a esa resolución (y a 1440p), rinde igual que una 2080ti:

    https://videocardz.com/newz/nvidia-g...ormance-leaked

    Ya digo que quiero ver reviews reales.

  10. #505

    Fecha de ingreso
    Jul 2006
    Mensajes
    6,575
    Mencionado
    184 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    761
    Agradecer Thanks Received 
    1,696
    Thanked in
    Agradecido 1,048 veces en [ARG:2 UNDEFINED] posts
    Cita Iniciado por selecter25 Ver mensaje



    Yo voy a pillar una 3090 (no para jugar, para Deep/Machihe Learning), pero quiero ver las reviews mañana.

    Me he mantenido muy escéptico con tanto hype y viendo las filtraciones de benchs reales, no iba muy desencaminado. La 3080 puede ser el doble de potente que una 2080 solo en ciertos escenarios, que son básicamente juego a 4K con RT activo y DLSS off. Saliendo de esto, no está tan lejos la 2080ti (al menos de momento), y comprar una para 1080p es un disparate, en Far Cry New Down a esa resolución (y a 1440p), rinde igual que una 2080ti:

    https://videocardz.com/newz/nvidia-g...ormance-leaked

    Ya digo que quiero ver reviews reales.
    Abre hilo que lo estás deseando, brivoncete, menudo bitxarraco te vas a pillar. Así nos cuentas más cosillas de ese mounstruo cuando lo tengas.

  11. #506

    Fecha de ingreso
    Feb 2006
    Mensajes
    6,140
    Mencionado
    58 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    40
    Agradecer Thanks Received 
    1,453
    Thanked in
    Agradecido 856 veces en [ARG:2 UNDEFINED] posts
    Cita Iniciado por tartalo Ver mensaje
    Nadie abre hilo sobre la sacada de chorra encima de la mesa que ha echo nvidia con las nuevas 3xxxx ???
    Sobre todo con este mounstruo:
    https://www.nvidia.com/es-es/geforce...ries/rtx-3090/
    No me fio ni un pelo de la publicidad de Nvidia y lo mismo de las review de Digital Foundry no por que ellos sean poco o mucho de fiar, sino porque no han probado realmente la grafica, han utilizado los programas y con las configuraciones que Nvidia les ha dejado que esta claro que son las que mas les benefician.
    Y que las graficas serán bastante buenas seguro pero no creo que lleguen a lo que Nvidia esta promocionando, aparte de que consumen como bestias pardas.
    Los benchmarks que se han filtrado (que pueden ser autenticos o no) van en esa linea y tambien que si le metes el mismo consumo a una 2080 y 2080 ti suben bastante las prestaciones y la diferencia es menor. Tambien comentaban que tanto la 3080 como la 3090 o estan muy overclokeadas de fabrica o el proceso de fabricación de Samsung no anda todo lo fino que debe.
    Por eso prefiero ver que pasa mañana con las benchmarks de las distintas webs y youtubers (especialmente Gamer Nexus) para ver a que atenerme aunque esperare a ver lo que saca AMD porque este año tengo que comprar grafica si o si.
    Y demasiado hype nunca es bueno.
    Zhorro

  12. #507

    Fecha de ingreso
    Feb 2006
    Mensajes
    6,140
    Mencionado
    58 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    40
    Agradecer Thanks Received 
    1,453
    Thanked in
    Agradecido 856 veces en [ARG:2 UNDEFINED] posts
    Acabo de ver que intel vende a SK Hinix todo el negocio de memorias flash (salvo Optane) por 9.000 millones de dolares aunque tenia ventas de 2.400 millones y beneficios de 600 millones anuales porque no cumplia la regla de obtener aproximadamente un 60% de beneficios sobre ventas (o sea 1.400 millones).
    Realmente cada dia me asombran mas que con estos ejecutivos Intel no haya hecho que acabe en la ruina en cuanto ha encontrado competencia y me hace pensar que si ahora estan vendiendo los 8 cores a 400 euros y se supone que sacan un 60% (240 euros) cuando los vendian entre 800 y 1000 euros cuanto se supone que estaban sacando?
    Zhorro

  13. El siguiente usuario agradece a zhorro este mensaje:

    Sven (22/10/2020)

  14. #508

    Fecha de ingreso
    Feb 2005
    Ubicación
    Malaga
    Mensajes
    5,310
    Mencionado
    77 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    2,757
    Agradecer Thanks Received 
    1,024
    Thanked in
    Agradecido 599 veces en [ARG:2 UNDEFINED] posts
    Entradas de blog
    5
    ¿No se habla de la salida de Zen 3 en este hilo? Intel las está pasando pvtas...

    Pongo un video random sobre el tema:

  15. Los siguientes 2 usuarios agradecen a Karkayu este post:

    fbustamante (01/11/2020), wolf_noir (02/11/2020)

  16. #509

    Fecha de ingreso
    Sep 2009
    Ubicación
    Donde quiero
    Mensajes
    6,160
    Mencionado
    175 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    1,848
    Agradecer Thanks Received 
    2,378
    Thanked in
    Agradecido 1,309 veces en [ARG:2 UNDEFINED] posts
    Pues sí, Intel está en la mierda, ahora mismo no comprar un Ryzen es un error, pero quiero matizar algo (insisto, AMD>>Intel ahora mismo). Todas las presentaciones de AMD se limitan a gráficas de teórico rendimiento en escenarios absurdos o en desigualdad.

    En la presentación de Zen 3, usan un 5900X para gaming a 1080p. De verdad alguien ve esa CPU en un budget orientado a gaming 1080p? A una resolución más acorde, la diferencia sería nula.

    Sigamos con procesadores, presentan el 5600X, supuestamente este es el segmento con más ventas y orientado al gaming. Salen benchmarks y... oh, wait, un 10% de mejora en juegos con respecto al 3600, peeero, cuesta 100€ (un 50%) más!!!!!!!!!!!! (de qué me suena esto?? Intel, eres tú?). No me cuadran las cuentas. Lo triste viene cuando ves que un i5 10400F rinde prácticamente lo mismo (algo mejor) en gaming que un 3600 por la mitad de precio del 5600X (sí, cuesta 150€), mismos cores y mismos threads.

    Ya que estamos, vayamos a las gráficas nuevas, sacan benchs y... oh, al nivel de las Nvidia siendo más baratas!!!! Mis respetos. Leamos la letra pequeña... Vaya, AMD AMDando, con las Nvidia han usado CPUs Intel y con las AMD los nuevos Ryzen, que supuestamente tienen boost extra solo con la serie 5000 (algo que implementará Nvidia con todas las CPU con RTX IO). Un poquito de rigor, pls!

    Veamos benchs con Ray Tracing... Oh, espera, no hay!!!! Pero si han anunciado que soportan Ray Tracing!!! No será que al no tener hard dedicado (RT cores de Nvidia) rendirán mucho peor? Pues efectivamente, con "RT on" el rendimiento cae en picado, pero esto mejor no lo contamos. Y qué pasa si además activamos DLSS? Pueees, un saludo. "Ejqueee, eso es trampa, en AMD estamos trabajando en una IA similar, tú compra la GPU y ya la sacaremos si eso".

    Lo dicho, que mis diez a AMD por todo lo que está haciendo, en CPUs no compraría Intel ahora ni borracho (en ningún segmento), pero tirón de orejas porque con tanta gloria se está "Intelizando" con subidas de precio, benchs trucadetes y fumadas varias. En gráficas, si quitamos RT y toooodas las cosas que hay hoy día en IA, pues bien, medio compiten, pero ni sombra a Nvidia en escenarios con estándares actuales (+1080p/RT on).

  17. Los siguientes 3 usuarios agradecen a selecter25 este post:

    fbustamante (04/11/2020), Kabanya (08/11/2020), Karkayu (04/11/2020)

  18. #510

    Fecha de ingreso
    Jul 2006
    Mensajes
    6,575
    Mencionado
    184 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    761
    Agradecer Thanks Received 
    1,696
    Thanked in
    Agradecido 1,048 veces en [ARG:2 UNDEFINED] posts
    Cita Iniciado por selecter25 Ver mensaje
    Pues sí, Intel está en la mierda, ahora mismo no comprar un Ryzen es un error, pero quiero matizar algo (insisto, AMD>>Intel ahora mismo). Todas las presentaciones de AMD se limitan a gráficas de teórico rendimiento en escenarios absurdos o en desigualdad.

    En la presentación de Zen 3, usan un 5900X para gaming a 1080p. De verdad alguien ve esa CPU en un budget orientado a gaming 1080p? A una resolución más acorde, la diferencia sería nula.

    Cuando salgan a la venta se van a mear en los Intel sin necesidad de irse al tope de gama. El 5600x con todos los núcleos a 4,85ghz
    https://www.noticias3d.com/noticia.asp?idnoticia=82245

Página 34 de 35 PrimerPrimer ... 24303132333435 ÚltimoÚltimo

Permisos de publicación

  • No puedes crear nuevos temas
  • No puedes responder temas
  • No puedes subir archivos adjuntos
  • No puedes editar tus mensajes
  •