Como decía uno de mis profesores de electrónica digital en la universidad, en los años 80 se necesitaban varios chips para resolver un problema, pero hoy día un chip tiene capacidad para resolver 200 problemas
Con las FPGA pasará lo mismo, y como pasa con el software, la gente tendrá tendencia a aprovechar que sobra potencia para hacer las implementaciones de forma fácil en lugar de bien... Y la verdad, si hay recursos de sobra, tampoco es que importe mucho ¿o sí?
No sé, si hay que configurar la FPGA para que haya un retraso exacto de 35ns entre la CPU y el chip de sonido, pues se puede hacer, pero el problema es ¿cómo se sabe que son 35ns? ¿Cómo sabemos que otras partes del sistema no ralentizan ese proceso? Entiendo que hacer un HW 100% fiel mediante "emulación digital" (me refiero al HW de una FPGA) es mucho, pero mucho más difícil y tedioso que hacer ingeniería inversa a un dispositivo digital, si hay que tener en cuenta delays, electrónica analógica...
Ahora, lo que ya he comentado otras veces: no sé hasta qué punto los programadores se han aprovechado de los tiempos exactos del ordenador, la electrónica analógica, y todo lo que se sale de la norma binaria más estricta
Y no sé si eso es correcto o es "hacer trampa" con el HW
Marcadores