User Tag List

Página 34 de 34 PrimerPrimer ... 243031323334
Resultados 496 al 506 de 506

Tema: DEP Intel

  1. #496

    Fecha de ingreso
    Aug 2003
    Mensajes
    646
    Mencionado
    3 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    12
    Agradecer Thanks Received 
    61
    Thanked in
    Agradecido 36 veces en [ARG:2 UNDEFINED] posts
    Recordemos que a nivel de hardware: un X86 es más RISC que CISC, de cara a su uso es más bien un híbrido; EMHO hablar todavía de esto hoy es no enterarse de mucho y aún así querer opinar, es volver a discutir lo que hace 20 años ya se superó.
    Sobre RISC-V, mientras no soporte hypervisores y virtualización, no le auguro mucho éxito.

  2. #497

    Fecha de ingreso
    Sep 2006
    Mensajes
    5,400
    Mencionado
    33 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    805
    Agradecer Thanks Received 
    787
    Thanked in
    Agradecido 573 veces en [ARG:2 UNDEFINED] posts
    Cita Iniciado por chipan Ver mensaje
    Ante 2 Cpus con la mismas características (frecuencia, nucleos, etc), una RISC y otra CISC. ¿Cual va a ser mas potente?
    Depende de cada CPU. Compara un 68000 con el primer ARM, ¿cual gana y por goleada?
    O compara un procesador de Cyrix (CISC) con un pentium (también CISC) de la epoca, en enteros no había mucha diferencia pero la unidad de punto flotante del pentium era mucho mejor y se ejecutaba en paralelo con las instrucciones enteras, en los procesadores de cyrix no y por eso el Quake iban tan mal en ellos.

    Como dice Jcom, depende de muchas cosas no solo del juego de instrucciones.
    No es lo mismo tener diez años de experiencia, que tener un año de experiencia diez veces.

  3. #498

    Fecha de ingreso
    Dec 2004
    Mensajes
    27,727
    Mencionado
    180 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    112
    Agradecer Thanks Received 
    1,926
    Thanked in
    Agradecido 1,223 veces en [ARG:2 UNDEFINED] posts
    Entradas de blog
    11
    Lo que está claro es que una CPU con menos instrucciones tendrá problemas para realizar tareas que necesiten esas instrucciones que le faltan.
    Google stadia es un fracaso, google stadia funciona mal, google admite su fracaso con stadia la latencia es el problema intrinseco de stadia, el público abandona google stadia, stadia mal.

  4. #499

    Fecha de ingreso
    Feb 2006
    Mensajes
    5,913
    Mencionado
    56 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    37
    Agradecer Thanks Received 
    1,267
    Thanked in
    Agradecido 726 veces en [ARG:2 UNDEFINED] posts
    Cita Iniciado por swapd0 Ver mensaje
    Yo pensaba que te daban "fichero con el chip ARM" y le ponías al lado lo que te diera la gana, aunque después todo se metía dentro de un solo circuito.
    Ese es otro tipo de licencia, compras el core de las cpu y/o de la gpu y no hay que tocarlo y tu le añades lo que necesites (redes neurales, entradas/salidas, vpu, etc.), es el que tienen la mayoria de los fabricantes
    Zhorro

  5. #500

    Fecha de ingreso
    Sep 2005
    Mensajes
    12,032
    Mencionado
    189 Post(s)
    Tagged
    1 Tema(s)
    Agradecer Thanks Given 
    281
    Agradecer Thanks Received 
    686
    Thanked in
    Agradecido 489 veces en [ARG:2 UNDEFINED] posts
    Sobre el papel, los CISC ganan porque con un solo ciclo hacen más cosas, pero como me habéis reprochado muchas veces "los ciclos por segundo no reflejan la potencia del procesador"
    Por poner un ejemplo antediluviano de los míos: obviamente una instrucción MMX permite procesar más datos con menos ciclos, pero a lo mejor usando instrucciones RISC, al ser más sencillas, al tener menos lógica en los circuitos, los ciclos pueden ser más cortos al haber menos latencia, y al final el resultado es el mismo.

    No sé, no estoy tan al día de procesadores como me gustaría, pero hace años me pregunté por qué pasábamos de cables de conexión paralelo a serie, si así suministrábamos menos información por ciclo (IDE-SATA, PCI-PCIe, cualquier conector externo a USB...), y hoy día es un estándar que da más velocidad que en aquel entonces. Decían que si problemas de ruidos por la transmisión en paralelo, que si peores impedancias... no sé, hoy todo se transmite en serie, no sé por qué una CPU RISC iba a ser peor que una CISC: son más simples, tienen menos latencia, son más fáciles de depurar, la predicción de comandos o resultados tendrá mayor tasa de éxito...
    También digo una cosa: estamos en la frontera de la frecuencia de trabajo máxima, eso se puede volver en contra de las CPUs RISC... pero también es verdad que llevamos años buscando un sustituto de la tecnología binaria El día que sustituyamos los bits por cifras hexadecimales con la tecnología cuántica, nos va a explotar la cabeza
    PROYECTOS REALIZADOS: FrikiMusic, Motor Scroll Tileado v3.2, Venturer2X (GP2X/WIZ), Echo, Screen Break Time
    PROYECTOS EN MARCHA (algunos): Bennu GP2X: 95% (necesito ayuda) ¡Antes de Halloween!: 92% SpaceH2H: 8%

  6. #501

    Fecha de ingreso
    Feb 2006
    Mensajes
    5,913
    Mencionado
    56 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    37
    Agradecer Thanks Received 
    1,267
    Thanked in
    Agradecido 726 veces en [ARG:2 UNDEFINED] posts
    Cita Iniciado por chipan Ver mensaje
    Pues el auge de RISC puede suponer la caída de la computación. CISC es computación y RISC es **** basura portatil.
    PowerPC llama a tu puerta .. RISC y son los que mueven los hosts de IBM y algunos de los superordenadores mas grandes, y por cierto el superordenador mas potente ahora mismos esta fabricado por Fujitsu y solo lleva cores ARM (no utiliza gpus para procesar). Aparte de que los procesadores intel modernos son 'hibridos' recogen una instruccion CISC y la transforman en instrucciones mas simples (RISC) que son las que ejecuta internamente.

    http://sunnyeves.blogspot.com/2009/0...r-risc-or.html

    -----Actualizado-----

    Cita Iniciado por selecter25 Ver mensaje
    Según las condiciones que ponga Nvidia, este movimiento puede favorecer al auge de RISC V, por ejemplo Huawei no tiene elección, habrá que ver cómo se posicionan el resto de compañías.
    A china le han dejado la opción bien clara van a ir a por RISC V a muerte, es lo unico que les garantiza que EEUU no les va a tocar los huevos, despues hay bastantes compañias que van a usarlo para no tener que pagar licencias (curiosamente Nvidia era una de ellas ). Tambien van a abandonar Android por la misma razon ya aunque se siga diciendo que es opensource, no lo es. Cada vez esta mas bloqueado por los servicios y aplicaciones de Google (navegador, correo y SMS eran aplicaciones open y ahora son de google Chrome, gmail y mensajes) y hay bastantes aplicaciones que no funcionan sin los servicios de google.
    Huawei por ejemplo ya ha anunciado que abandona Android en favor de un sistema operativo propio, pero seguira utilizando procesadores ARM (de otro fabricante ya que no puede ni diseñar ni fabricar los suyos) hasta que RISC V u otro procesador movil este maduro.
    Zhorro

  7. #502

    Fecha de ingreso
    Sep 2006
    Mensajes
    5,400
    Mencionado
    33 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    805
    Agradecer Thanks Received 
    787
    Thanked in
    Agradecido 573 veces en [ARG:2 UNDEFINED] posts
    Cita Iniciado por zhorro Ver mensaje
    Aparte de que los procesadores intel modernos son 'hibridos' recogen una instruccion CISC y la transforman en instrucciones mas simples (RISC) que son las que ejecuta internamente.
    Cosa que en un RISC de verdad te ahorras esa circuiteria y puedes añadir lo que necesites, o ahorrar espacio.

    Por cierto, no todo va respecto al numero de instrucciones, otra diferencia que tienen los RISC vs CISC es que tienen modos de direccionamiento mas simples (nada de offset(a0,d0.w) como en el 680x0) y todas las instrucciones operan con registros, no puedes hacer una suma con el contenido de una dirección de memoria. (nada de add.w (a0),d0 )
    No es lo mismo tener diez años de experiencia, que tener un año de experiencia diez veces.

  8. #503

    Fecha de ingreso
    Jul 2006
    Mensajes
    6,676
    Mencionado
    180 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    751
    Agradecer Thanks Received 
    1,671
    Thanked in
    Agradecido 1,026 veces en [ARG:2 UNDEFINED] posts
    Nadie abre hilo sobre la sacada de chorra encima de la mesa que ha echo nvidia con las nuevas 3xxxx ???
    Sobre todo con este mounstruo:
    https://www.nvidia.com/es-es/geforce...ries/rtx-3090/

  9. #504

    Fecha de ingreso
    Sep 2009
    Ubicación
    Donde quiero
    Mensajes
    5,288
    Mencionado
    136 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    1,391
    Agradecer Thanks Received 
    1,642
    Thanked in
    Agradecido 947 veces en [ARG:2 UNDEFINED] posts
    Creo que solo zhorro ha entendido lo de RISC V, no hablo del conjunto de instrucciones RISC a secas (menudo debate habéis montado en 0 coma ), hablo del desarrollo de un procesador open source bajo el conjunto de instrucciones también open source RISC V, que es la única alternativa si no te licencia ARM (como le ha pasado a Huawei).

    Me consta que hay empresas como Qualcomm que ya ha invertido pasta en ello, o Xiaomi que tiene alguno fabricado (la NPU del Amazfit Bip, creo recordar). Samsung era otra que para pequeños wereables la ha usado:

    https://elandroidelibre.elespanol.co...isc-v-arm.html

    Y en China ya hay varias empresas dispuestas a fabricar por esta vía.

    Es una buena adquisición la que ha hecho Nvidia, e independientemente de lo que haga ahora a la hora de licenciar, al menos el resto de compañías tienen una alternativa viable.

    -----Actualizado-----

    Cita Iniciado por tartalo Ver mensaje
    Nadie abre hilo sobre la sacada de chorra encima de la mesa que ha echo nvidia con las nuevas 3xxxx ???
    Sobre todo con este mounstruo:
    https://www.nvidia.com/es-es/geforce...ries/rtx-3090/
    Yo voy a pillar una 3090 (no para jugar, para Deep/Machihe Learning), pero quiero ver las reviews mañana.

    Me he mantenido muy escéptico con tanto hype y viendo las filtraciones de benchs reales, no iba muy desencaminado. La 3080 puede ser el doble de potente que una 2080 solo en ciertos escenarios, que son básicamente juego a 4K con RT activo y DLSS off. Saliendo de esto, no está tan lejos la 2080ti (al menos de momento), y comprar una para 1080p es un disparate, en Far Cry New Down a esa resolución (y a 1440p), rinde igual que una 2080ti:

    https://videocardz.com/newz/nvidia-g...ormance-leaked

    Ya digo que quiero ver reviews reales.

  10. #505

    Fecha de ingreso
    Jul 2006
    Mensajes
    6,676
    Mencionado
    180 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    751
    Agradecer Thanks Received 
    1,671
    Thanked in
    Agradecido 1,026 veces en [ARG:2 UNDEFINED] posts
    Cita Iniciado por selecter25 Ver mensaje



    Yo voy a pillar una 3090 (no para jugar, para Deep/Machihe Learning), pero quiero ver las reviews mañana.

    Me he mantenido muy escéptico con tanto hype y viendo las filtraciones de benchs reales, no iba muy desencaminado. La 3080 puede ser el doble de potente que una 2080 solo en ciertos escenarios, que son básicamente juego a 4K con RT activo y DLSS off. Saliendo de esto, no está tan lejos la 2080ti (al menos de momento), y comprar una para 1080p es un disparate, en Far Cry New Down a esa resolución (y a 1440p), rinde igual que una 2080ti:

    https://videocardz.com/newz/nvidia-g...ormance-leaked

    Ya digo que quiero ver reviews reales.
    Abre hilo que lo estás deseando, brivoncete, menudo bitxarraco te vas a pillar. Así nos cuentas más cosillas de ese mounstruo cuando lo tengas.

  11. #506

    Fecha de ingreso
    Feb 2006
    Mensajes
    5,913
    Mencionado
    56 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    37
    Agradecer Thanks Received 
    1,267
    Thanked in
    Agradecido 726 veces en [ARG:2 UNDEFINED] posts
    Cita Iniciado por tartalo Ver mensaje
    Nadie abre hilo sobre la sacada de chorra encima de la mesa que ha echo nvidia con las nuevas 3xxxx ???
    Sobre todo con este mounstruo:
    https://www.nvidia.com/es-es/geforce...ries/rtx-3090/
    No me fio ni un pelo de la publicidad de Nvidia y lo mismo de las review de Digital Foundry no por que ellos sean poco o mucho de fiar, sino porque no han probado realmente la grafica, han utilizado los programas y con las configuraciones que Nvidia les ha dejado que esta claro que son las que mas les benefician.
    Y que las graficas serán bastante buenas seguro pero no creo que lleguen a lo que Nvidia esta promocionando, aparte de que consumen como bestias pardas.
    Los benchmarks que se han filtrado (que pueden ser autenticos o no) van en esa linea y tambien que si le metes el mismo consumo a una 2080 y 2080 ti suben bastante las prestaciones y la diferencia es menor. Tambien comentaban que tanto la 3080 como la 3090 o estan muy overclokeadas de fabrica o el proceso de fabricación de Samsung no anda todo lo fino que debe.
    Por eso prefiero ver que pasa mañana con las benchmarks de las distintas webs y youtubers (especialmente Gamer Nexus) para ver a que atenerme aunque esperare a ver lo que saca AMD porque este año tengo que comprar grafica si o si.
    Y demasiado hype nunca es bueno.
    Zhorro

Página 34 de 34 PrimerPrimer ... 243031323334

Permisos de publicación

  • No puedes crear nuevos temas
  • No puedes responder temas
  • No puedes subir archivos adjuntos
  • No puedes editar tus mensajes
  •