User Tag List

Página 4 de 7 PrimerPrimer 1234567 ÚltimoÚltimo
Resultados 46 al 60 de 95

Tema: Nuevo Juego de Half Life pero solo para la VR: Alyx

  1. #46

    Fecha de ingreso
    Sep 2005
    Mensajes
    11,050
    Mencionado
    149 Post(s)
    Tagged
    1 Tema(s)
    Agradecer Thanks Given 
    199
    Agradecer Thanks Received 
    443
    Thanked in
    Agradecido 305 veces en [ARG:2 UNDEFINED] posts
    Cita Iniciado por dj syto Ver mensaje
    pero de que hablas? de graficos o de interaccion?
    De ambos: el motor de físicas funciona en la GPU, al igual que la representación de los gráficos.

    No me preocupa el tracking de las manos, eso ya lo esperimenté en la expo del 92, con una cámara de video y un ordenador de sobremesa, en un escenario 2D con 6 elementos interactivos.
    Me preocupa el tema de que, hace tres años, e incluso en este mismo foro, la gente se reía de que apenas ninguna desarrolladora había conseguido los 1080/60 en consolas de sobremesa (que si estaban viejas, que en PC ya iban a 4K a 30 o que salía la opción de gráficos Ultra). Y con la VR se necesita, no sólo resoluciones superiores a los 1080, sino el doble de anchas, con un mínimo de 90fps, y con un delay mínimo.

    Que se renderice un mapa del tamaño del doble que el Breath of the Wild tampoco lo veo tan crítico, y ya le podéis meter todas las técnicas de iluminación, mapping, raytracing o lo que sea. Pero si a todo el esfuerzo mencionado antes por la gráfica para la VR, me tienes que comprobar cómo colisionan los chorrocientos millones de polígonos que hay en pantalla (agrupados en 300 objetos o lo que sea), con qué fuerza, elasticidad y tropecientas fórmulas matemáticas, en toda clase de combinación posible (o reduciéndolas por grupos, aunque sea)... es que no me salen las cuentas. No sé, vale que no he visto juegos de PS4 o de One en acción, más allá de trailers o demos, pero después de tantísimos casos de downgrade, o de leer tantas críticas tipo "este juego no se ve como decía el trailer", creo entrever algo similar aquí.

    No obstante, no hace tanto, todos los props eran cosas inamovibles del escenario por lo mismo, falta de cómputo, y pese a juegos como Knack, en el que el prota lo forman un enjambre de modelos, tengo la impresión de que el juego este está mostrando más de lo que realmente se podrá mover con soltura en VR.

    Que ojo, si lo hace, yo les doy un aplauso
    Última edición por Drumpi; 25/11/2019 a las 18:38
    PROYECTOS REALIZADOS: FrikiMusic, Motor Scroll Tileado v3.2, Venturer2X (GP2X/WIZ), Echo, Screen Break Time
    PROYECTOS EN MARCHA (algunos): Bennu GP2X: 95% (necesito ayuda) ¡Antes de Halloween!: 92% SpaceH2H: 8%

  2. #47

    Fecha de ingreso
    Sep 2006
    Mensajes
    4,879
    Mencionado
    24 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    678
    Agradecer Thanks Received 
    626
    Thanked in
    Agradecido 466 veces en [ARG:2 UNDEFINED] posts
    Las colisiones no se detentan con las mallas que se representan, se usan unas con muchísimos menos polígonos. También puedes participar el entorno 3D para no hacer N^2 comprobaciones, etc. No se como están implementados los motores de físicas actuales pero si buscas "verlet Physics" te puedes hacer un motor de físicas de forma bastante sencilla. Hay artículos en gamasutra sobre eso, el primer juego en que vi que se uso IIRC fue en el Max Payne de PS2.

    Y en la parte gráfica, supongo que al hacer VR como la escena es la misma, mismas texturas, misma geometría, mismos shaders... las cache funcionaran DPM.

    Por cierto, hace unos post pusiste algo de que en no se que motor con mas de 3 luces ya iba lento o no te dejaba, desde hace tiempo se usa deferred sharing para el tema de luces con la ventaja de que puedes poner las que te de la gana, ya que las luces son como si fuera un objeto mas. Antes (hace mas de una decada) por cada luz tenias que calcular la iluminación en cada vértice, 2 luces el doble de cálculos, 3 el triple, etc...
    No es lo mismo tener diez años de experiencia, que tener un año de experiencia diez veces.

  3. #48

    Fecha de ingreso
    Sep 2005
    Mensajes
    11,050
    Mencionado
    149 Post(s)
    Tagged
    1 Tema(s)
    Agradecer Thanks Given 
    199
    Agradecer Thanks Received 
    443
    Thanked in
    Agradecido 305 veces en [ARG:2 UNDEFINED] posts
    En Unity 4 usábamos objetos de colisión, cuyas formas eran un cubo, una esfera o una píldora. Se podían crear mallas personalizadas, pero su uso rendía por debajo de la mitad que los otros (se recomendaba usar tres o cuatro colisiones básicas antes que una personalizada).
    Pero como soy una especie de "novato troglodita", no quería suponer que se usa algo tan desfasado, de hace tres años, en máquinas actuales con una capacidad de cómputo que revienta cabezas, que ya habíamos dejado atrás cosas como las "pildoras de colisión" por algo más moderno. Sí que existían los "grupos de colisión", una tabla 2D que indica qué grupos colisionan con qué grupos, pero se limitaba a 10 grupos (cuatro de los cuales estaban reservados para el sistema) y es más complejo de usar de lo que parece. Sólo la estantería donde se coge la bala ya sobrepasa el uso de esta tabla.

    Y sí, con las VR el cálculo de posiciones de vértices, el Z order y cualquier técnica de esas (no voy a decir nombres, porque paso de que me vuelvan a llamar "desfasado") se reaprovecha, pero no la parte de dibujado de caras en pantalla, el rellenado de texturas, el parallax que da volúmen 3D a las faces, otros cálculos que dependen de la posición de la cámara, y todos los efectos de postprocesado (bloom, cell shading, dibujo de contornos...), deben realizarse dos veces. Y en mi novata experiencia, hay muchísimos cálculos que deben realizarse en tiempo de rendering y en postprocesado.

    No sé si el deferred Sharing se usará en versiones actuales, pero en Unity 4, creo que en Unity 5, y, creo, en XNA, había esas limitaciones al respecto hace 3 años. Se seguían usando técnicas que... no recuerdo el nombre, pero básicamente "pintaban" la iluminación sobre el escenario, y luego se usaba una especie de "iluminación por zonas" para los objetos que se desplazaban por él. Luego se añadían luces dinámicas a los VFX, y como no se suelen usar demasiados, nunca se superaba el límite de fuentes de luz.
    Imagínate, que cuando pregunté por cómo se hacía para iluminar un sable láser, me dijeron que no se hacía, que se le daba una textura autoiluminada, se le añadía efecto bloom, y si era extrictamente necesario, se añadía un "point light" en el centro. Esto, un diseñador gráfico de juegos (para Android, todo hay que decirlo) en 2016, en el Neolítico, por lo menos.
    PROYECTOS REALIZADOS: FrikiMusic, Motor Scroll Tileado v3.2, Venturer2X (GP2X/WIZ), Echo, Screen Break Time
    PROYECTOS EN MARCHA (algunos): Bennu GP2X: 95% (necesito ayuda) ¡Antes de Halloween!: 92% SpaceH2H: 8%

  4. #49

    Fecha de ingreso
    Jul 2006
    Mensajes
    6,254
    Mencionado
    169 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    648
    Agradecer Thanks Received 
    1,444
    Thanked in
    Agradecido 916 veces en [ARG:2 UNDEFINED] posts
    Con objetos, colisiones y tal las consolas irán bien pero mirar que dicen los chicos de Microsoft sobre la IA y las animaciones en Age of Empires 4:
    https://www.noticias3d.com/noticia.asp?idnoticia=79065

  5. #50

    Fecha de ingreso
    Sep 2006
    Mensajes
    4,879
    Mencionado
    24 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    678
    Agradecer Thanks Received 
    626
    Thanked in
    Agradecido 466 veces en [ARG:2 UNDEFINED] posts
    Para que veas lo que corren las GPUs.

    -----Actualizado-----

    ¿La gente que juega al iRacing, Asseto Corsa, etc con tres monitores cuantas tarjetas gráficas tienen? ¿Cuantas salidas tiene una tarjeta gráfica moderna? No veo que problema que hay con la VR cuando solo vas a tener "2 pantallas".
    No es lo mismo tener diez años de experiencia, que tener un año de experiencia diez veces.

  6. #51

    Fecha de ingreso
    Apr 2003
    Ubicación
    HACAPULCO (MEHICO)
    Mensajes
    60,108
    Mencionado
    119 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    353
    Agradecer Thanks Received 
    2,950
    Thanked in
    Agradecido 1,830 veces en [ARG:2 UNDEFINED] posts
    Entradas de blog
    24
    Cita Iniciado por Drumpi Ver mensaje
    De ambos: el motor de físicas funciona en la GPU, al igual que la representación de los gráficos.

    No me preocupa el tracking de las manos, eso ya lo esperimenté en la expo del 92, con una cámara de video y un ordenador de sobremesa, en un escenario 2D con 6 elementos interactivos.
    Me preocupa el tema de que, hace tres años, e incluso en este mismo foro, la gente se reía de que apenas ninguna desarrolladora había conseguido los 1080/60 en consolas de sobremesa (que si estaban viejas, que en PC ya iban a 4K a 30 o que salía la opción de gráficos Ultra). Y con la VR se necesita, no sólo resoluciones superiores a los 1080, sino el doble de anchas, con un mínimo de 90fps, y con un delay mínimo.
    pero que tienen que ver las consolas con el pc??

    con mi 960gtx y mi g4560 ya jugaba a muchisimos juegos de realidad virtual. No digo que con la resolucion ni graficos de el half life, pero sí con esa interaccion. Osea que imagina con un procesador y una grafica mas decente.

    -----Actualizado-----

    Cita Iniciado por Drumpi Ver mensaje
    En Unity 4 usábamos objetos de colisión, cuyas formas eran un cubo, una esfera o una píldora. Se podían crear mallas personalizadas, pero su uso rendía por debajo de la mitad que los otros (se recomendaba usar tres o cuatro colisiones básicas antes que una personalizada).
    Pero como soy una especie de "novato troglodita", no quería suponer que se usa algo tan desfasado, de hace tres años, en máquinas actuales con una capacidad de cómputo que revienta cabezas, que ya habíamos dejado atrás cosas como las "pildoras de colisión" por algo más moderno. Sí que existían los "grupos de colisión", una tabla 2D que indica qué grupos colisionan con qué grupos, pero se limitaba a 10 grupos (cuatro de los cuales estaban reservados para el sistema) y es más complejo de usar de lo que parece. Sólo la estantería donde se coge la bala ya sobrepasa el uso de esta tabla.

    Y sí, con las VR el cálculo de posiciones de vértices, el Z order y cualquier técnica de esas (no voy a decir nombres, porque paso de que me vuelvan a llamar "desfasado") se reaprovecha, pero no la parte de dibujado de caras en pantalla, el rellenado de texturas, el parallax que da volúmen 3D a las faces, otros cálculos que dependen de la posición de la cámara, y todos los efectos de postprocesado (bloom, cell shading, dibujo de contornos...), deben realizarse dos veces. Y en mi novata experiencia, hay muchísimos cálculos que deben realizarse en tiempo de rendering y en postprocesado.

    No sé si el deferred Sharing se usará en versiones actuales, pero en Unity 4, creo que en Unity 5, y, creo, en XNA, había esas limitaciones al respecto hace 3 años. Se seguían usando técnicas que... no recuerdo el nombre, pero básicamente "pintaban" la iluminación sobre el escenario, y luego se usaba una especie de "iluminación por zonas" para los objetos que se desplazaban por él. Luego se añadían luces dinámicas a los VFX, y como no se suelen usar demasiados, nunca se superaba el límite de fuentes de luz.
    Imagínate, que cuando pregunté por cómo se hacía para iluminar un sable láser, me dijeron que no se hacía, que se le daba una textura autoiluminada, se le añadía efecto bloom, y si era extrictamente necesario, se añadía un "point light" en el centro. Esto, un diseñador gráfico de juegos (para Android, todo hay que decirlo) en 2016, en el Neolítico, por lo menos.
    sobre lo de que en vr se tienen que dibujar dos veces... es cierto. Pero nunca has jugado a un juego a pantalla partida? xdddd

    -----Actualizado-----

    Cita Iniciado por swapd0 Ver mensaje
    Para que veas lo que corren las GPUs.

    -----Actualizado-----

    ¿La gente que juega al iRacing, Asseto Corsa, etc con tres monitores cuantas tarjetas gráficas tienen? ¿Cuantas salidas tiene una tarjeta gráfica moderna? No veo que problema que hay con la VR cuando solo vas a tener "2 pantallas".
    exacto, y no necesariamente tienen pcs tochos para eso.

  7. #52

    Fecha de ingreso
    Sep 2005
    Mensajes
    11,050
    Mencionado
    149 Post(s)
    Tagged
    1 Tema(s)
    Agradecer Thanks Given 
    199
    Agradecer Thanks Received 
    443
    Thanked in
    Agradecido 305 veces en [ARG:2 UNDEFINED] posts
    Cita Iniciado por dj syto Ver mensaje
    pero que tienen que ver las consolas con el pc??

    con mi 960gtx y mi g4560 ya jugaba a muchisimos juegos de realidad virtual. No digo que con la resolucion ni graficos de el half life, pero sí con esa interaccion. Osea que imagina con un procesador y una grafica mas decente.
    Me gustaría verlo, de verdad, pero de momento aun no pertenezco a la "master race"
    Hasta ahora no había dinero para ello, espero poder cambiarlo antes del fin de año fiscal :P

    Cita Iniciado por dj syto Ver mensaje
    sobre lo de que en vr se tienen que dibujar dos veces... es cierto. Pero nunca has jugado a un juego a pantalla partida? xdddd
    SNES, N64, GameCube y no suelo jugar online ¿Tú que crees?
    Pero no es lo mismo "duplicar" una pantalla que "partir" una pantalla, no los confundamos.

    Cita Iniciado por dj syto Ver mensaje
    exacto, y no necesariamente tienen pcs tochos para eso.
    A ver, primero, con lo de la pantalla partida me he acordado de la N64. Si teóricamente la superficie de renderizado a 4 jugadores es la misma que para 1 ¿por qué Goldeneye se convertía en un pase de diapositivas antes en multijugador que en la campaña en solitario? ¿Por qué hay tendencia a reducir los detalles a pantalla partida?
    Supongo que habrá operaciones previas al renderizado que deben hacerse por cada "cámara" de la escena. Se me viene a la cabeza, el z-order, por ejemplo, y eso no depende de la resolución, sino del campo de visión y de los elementos que entren en él. Por tanto, por cada vértice, por cada edge que los une, por cada face que se forma (de esos millones por ciclo que se supone que calculan las gráficas), hay que hacer dichos cálculos por cada cámara. Las gafas tienen dos cámaras diferentes, así que no es sólo ya el renderizado y el post-renderizado, hay otra serie de operaciones que se duplican.

    Dicho lo cual, cada cámara tiene sus propios procesos de renderizado y de postprocesado. Un ejemplo que leí hace tiempo, el del dibujado del contorno, requiere dibujar el modelo en distintos tamaños en tonos negros, y finalmente el modelo en sí en su interior con color. Para que esto funcione con dos cámaras, se necesita repetir el proceso con un ángulo diferente.

    ¿Por qué menciono eso? Porque los que juegan a X en 3 pantallas, sólo tienen una cámara, por lo que el post-procesado de contorno sólo se ejecuta una vez, aunque la superficie de renderizado sea el triple de grande. Lo mismo pasa con muchos efectos y cálculos de pre-render, render y post-render, se aplican sobre una único render, muy grande, pero sólo uno.

    Y me voy a repetir, unas gafas son dos pantallas, no sólo una, en HD, 4K o la resolución que sea (pero que no se vea el pixel), con una tasa de refresco nunca inferior a 90fps (cuando cualquier juego le basta con ir a 60fps). No necesitan el doble de potencia, pero en igualdad de condiciones ¿un 140% respecto a un renderizado normal? Significa que para que te funcione bien, la gráfica debería ser un 40% más potente que las especificaciones mínimas y... bueno, ya no sé cuáles son las habituales ni el equipo medio que se tiene, pero si me decís que jugáis en ultra y os sobra aun un 30% de vuestra máquina, no puedo más que daros la razón.


    Aparte, yo he tenido que lidiar con motores de físicas, y os digo que es una experiencia horrible Esa especie de "tetris" que hice (y que podéis descargaros) me costó Dios y ayuda evitar colisiones no deseadas, y conseguir que las piezas se detuvieran y no entrasen en un bucle de rebotes a nivel infinitesimal, y por eso me asombra ver tantos elementos interactivos a la vez.
    PROYECTOS REALIZADOS: FrikiMusic, Motor Scroll Tileado v3.2, Venturer2X (GP2X/WIZ), Echo, Screen Break Time
    PROYECTOS EN MARCHA (algunos): Bennu GP2X: 95% (necesito ayuda) ¡Antes de Halloween!: 92% SpaceH2H: 8%

  8. #53

    Fecha de ingreso
    Feb 2004
    Ubicación
    Madrid
    Mensajes
    22,610
    Mencionado
    204 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    2,129
    Agradecer Thanks Received 
    1,681
    Thanked in
    Agradecido 1,080 veces en [ARG:2 UNDEFINED] posts
    Cita Iniciado por Drumpi Ver mensaje
    Me gustaría verlo, de verdad, pero de momento aun no pertenezco a la "master race"
    Hasta ahora no había dinero para ello, espero poder cambiarlo antes del fin de año fiscal :P
    Job simulator en PSVR (que quitando el Oculus Quest, es la VR menos potente que hay, que como ya he dicho se puede usar con una PS4 de primera generación) https://www.youtube.com/watch?v=3-iMlQIGH8Y
    London Heist PSVR. Fijate en el minudo 1:19 como recarga la pistola. https://www.youtube.com/watch?v=qf4UZTCSzfo
    Y ahora me dices si es posible o no esa interacción xDD Ahi puedes verlo. Te puedo buscar más juegos si quieres que los hay con cosas muy chulas pero son los dos primeros que se me han venido a la cabeza.


    Cita Iniciado por Drumpi Ver mensaje
    A ver, primero, con lo de la pantalla partida me he acordado de la N64. Si teóricamente la superficie de renderizado a 4 jugadores es la misma que para 1 ¿por qué Goldeneye se convertía en un pase de diapositivas antes en multijugador que en la campaña en solitario? ¿Por qué hay tendencia a reducir los detalles a pantalla partida?
    Supongo que habrá operaciones previas al renderizado que deben hacerse por cada "cámara" de la escena. Se me viene a la cabeza, el z-order, por ejemplo, y eso no depende de la resolución, sino del campo de visión y de los elementos que entren en él. Por tanto, por cada vértice, por cada edge que los une, por cada face que se forma (de esos millones por ciclo que se supone que calculan las gráficas), hay que hacer dichos cálculos por cada cámara. Las gafas tienen dos cámaras diferentes, así que no es sólo ya el renderizado y el post-renderizado, hay otra serie de operaciones que se duplican.

    Dicho lo cual, cada cámara tiene sus propios procesos de renderizado y de postprocesado. Un ejemplo que leí hace tiempo, el del dibujado del contorno, requiere dibujar el modelo en distintos tamaños en tonos negros, y finalmente el modelo en sí en su interior con color. Para que esto funcione con dos cámaras, se necesita repetir el proceso con un ángulo diferente.

    ¿Por qué menciono eso? Porque los que juegan a X en 3 pantallas, sólo tienen una cámara, por lo que el post-procesado de contorno sólo se ejecuta una vez, aunque la superficie de renderizado sea el triple de grande. Lo mismo pasa con muchos efectos y cálculos de pre-render, render y post-render, se aplican sobre una único render, muy grande, pero sólo uno.

    Y me voy a repetir, unas gafas son dos pantallas, no sólo una, en HD, 4K o la resolución que sea (pero que no se vea el pixel), con una tasa de refresco nunca inferior a 90fps (cuando cualquier juego le basta con ir a 60fps). No necesitan el doble de potencia, pero en igualdad de condiciones ¿un 140% respecto a un renderizado normal? Significa que para que te funcione bien, la gráfica debería ser un 40% más potente que las especificaciones mínimas y... bueno, ya no sé cuáles son las habituales ni el equipo medio que se tiene, pero si me decís que jugáis en ultra y os sobra aun un 30% de vuestra máquina, no puedo más que daros la razón.


    Aparte, yo he tenido que lidiar con motores de físicas, y os digo que es una experiencia horrible Esa especie de "tetris" que hice (y que podéis descargaros) me costó Dios y ayuda evitar colisiones no deseadas, y conseguir que las piezas se detuvieran y no entrasen en un bucle de rebotes a nivel infinitesimal, y por eso me asombra ver tantos elementos interactivos a la vez.
    Y sobre todo este tocho por favor no compares lo que hayas hecho tú en un curso y juegos de GP2X, con lo que puede hacer un estudio AAA como es Valve.... Es que no hay comparación por favor. Ni tampoco lo que hayas visto tú en Unity 4 hace 4 años con un motor propio que pueda hacer Valve o cualquier estudio grande. Es que incluso Unreal Engine es bastante mejor para temas 3D que Unity. Y Unity ha cambiado muchísimo desde hace 4 años a ahora xD
    Última edición por ^MiSaTo^; 26/11/2019 a las 15:20

  9. #54

    Fecha de ingreso
    Sep 2006
    Mensajes
    4,879
    Mencionado
    24 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    678
    Agradecer Thanks Received 
    626
    Thanked in
    Agradecido 466 veces en [ARG:2 UNDEFINED] posts
    Cita Iniciado por Drumpi Ver mensaje
    A ver, primero, con lo de la pantalla partida me he acordado de la N64. Si teóricamente la superficie de renderizado a 4 jugadores es la misma que para 1 ¿por qué Goldeneye se convertía en un pase de diapositivas antes en multijugador que en la campaña en solitario? ¿Por qué hay tendencia a reducir los detalles a pantalla partida?
    Ya lo he dicho, puedes estar limitado en los cálculos o en el renderizado. La N64 va bastante justa en comparación con una tarjeta moderna, sobretodo en el renderizado que tiene un bus común con el procesador. Dibujar un polígono de mas le cuesta mas a una N64 que a una tarjeta moderna.
    Cita Iniciado por Drumpi Ver mensaje
    ¿Por qué menciono eso? Porque los que juegan a X en 3 pantallas, sólo tienen una cámara, por lo que el post-procesado de contorno sólo se ejecuta una vez, aunque la superficie de renderizado sea el triple de grande. Lo mismo pasa con muchos efectos y cálculos de pre-render, render y post-render, se aplican sobre una único render, muy grande, pero sólo uno.
    Tienen 3, una para cada pantalla. De todas formas estas obsesionado con las cámaras y eso es lo de menos. Al final en un motor 3D tienes que transformar unos vértices y después dibujar los polígonos uniendo esos vértices, la transformación no deja de ser una multiplicación de una matriz 4x4 por un vector 4x1, que mas da que la mitad de los vértices uses una matriz u otra. Y en VR las dos imagines son muy parecidas, mismos modelos, mismos shaders con los mismos parámetros (excepto la matriz de transformación), mismas texturas, incluso estas accediendo a pixeles muy próximos, por lo que vas a tener un porcentaje muy alto de aciertos en las cache.
    No es lo mismo tener diez años de experiencia, que tener un año de experiencia diez veces.

  10. #55

    Fecha de ingreso
    Apr 2003
    Ubicación
    HACAPULCO (MEHICO)
    Mensajes
    60,108
    Mencionado
    119 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    353
    Agradecer Thanks Received 
    2,950
    Thanked in
    Agradecido 1,830 veces en [ARG:2 UNDEFINED] posts
    Entradas de blog
    24
    Cita Iniciado por Drumpi Ver mensaje
    Me gustaría verlo, de verdad, pero de momento aun no pertenezco a la "master race"
    Hasta ahora no había dinero para ello, espero poder cambiarlo antes del fin de año fiscal :P



    SNES, N64, GameCube y no suelo jugar online ¿Tú que crees?
    Pero no es lo mismo "duplicar" una pantalla que "partir" una pantalla, no los confundamos.



    A ver, primero, con lo de la pantalla partida me he acordado de la N64. Si teóricamente la superficie de renderizado a 4 jugadores es la misma que para 1 ¿por qué Goldeneye se convertía en un pase de diapositivas antes en multijugador que en la campaña en solitario? ¿Por qué hay tendencia a reducir los detalles a pantalla partida?
    Supongo que habrá operaciones previas al renderizado que deben hacerse por cada "cámara" de la escena. Se me viene a la cabeza, el z-order, por ejemplo, y eso no depende de la resolución, sino del campo de visión y de los elementos que entren en él. Por tanto, por cada vértice, por cada edge que los une, por cada face que se forma (de esos millones por ciclo que se supone que calculan las gráficas), hay que hacer dichos cálculos por cada cámara. Las gafas tienen dos cámaras diferentes, así que no es sólo ya el renderizado y el post-renderizado, hay otra serie de operaciones que se duplican.

    Dicho lo cual, cada cámara tiene sus propios procesos de renderizado y de postprocesado. Un ejemplo que leí hace tiempo, el del dibujado del contorno, requiere dibujar el modelo en distintos tamaños en tonos negros, y finalmente el modelo en sí en su interior con color. Para que esto funcione con dos cámaras, se necesita repetir el proceso con un ángulo diferente.

    ¿Por qué menciono eso? Porque los que juegan a X en 3 pantallas, sólo tienen una cámara, por lo que el post-procesado de contorno sólo se ejecuta una vez, aunque la superficie de renderizado sea el triple de grande. Lo mismo pasa con muchos efectos y cálculos de pre-render, render y post-render, se aplican sobre una único render, muy grande, pero sólo uno.

    Y me voy a repetir, unas gafas son dos pantallas, no sólo una, en HD, 4K o la resolución que sea (pero que no se vea el pixel), con una tasa de refresco nunca inferior a 90fps (cuando cualquier juego le basta con ir a 60fps). No necesitan el doble de potencia, pero en igualdad de condiciones ¿un 140% respecto a un renderizado normal? Significa que para que te funcione bien, la gráfica debería ser un 40% más potente que las especificaciones mínimas y... bueno, ya no sé cuáles son las habituales ni el equipo medio que se tiene, pero si me decís que jugáis en ultra y os sobra aun un 30% de vuestra máquina, no puedo más que daros la razón.


    Aparte, yo he tenido que lidiar con motores de físicas, y os digo que es una experiencia horrible Esa especie de "tetris" que hice (y que podéis descargaros) me costó Dios y ayuda evitar colisiones no deseadas, y conseguir que las piezas se detuvieran y no entrasen en un bucle de rebotes a nivel infinitesimal, y por eso me asombra ver tantos elementos interactivos a la vez.
    Que pereza. Xddd de verdad drumpi. No asegures cosas que no son verdad o que no sabes. Porque asi ni se te puede explicar nada ni debatir.

    Las pantallas en realidad virtual NUNCA son dos. El pc las trata como una sola pero en split screen. De hecho, hay gafas como las oculus rift s que fisicamente SOLO son UNA pantalla. Eso de que la realidad virtual nunca es menos de 90fps tambien te lo has sacado de no se donde. Oculus quest funciona a 72hz. Oculus rift s a 80hz. Psvr a 60hz...

    Y que **** haces comparnadome nintendo 64 con un pc actual? *****, de verdad, no vale la pena discutir nada contigo tio. Empiezas a soltar terminos tecnicos a cascoporro para que de la impresion de que sabes de lo que hablas pero no sabes ni por donde te pega el sol. Reconoce que no tienes ni puñetera idea y deja que la gente que entiende (no yo, otros en este hilo) te lo expliquen bien, coñe.
    Última edición por dj syto; 26/11/2019 a las 17:02

  11. El siguiente usuario agradece a dj syto este mensaje:

    ^MiSaTo^ (26/11/2019)

  12. #56

    Fecha de ingreso
    Sep 2005
    Mensajes
    11,050
    Mencionado
    149 Post(s)
    Tagged
    1 Tema(s)
    Agradecer Thanks Given 
    199
    Agradecer Thanks Received 
    443
    Thanked in
    Agradecido 305 veces en [ARG:2 UNDEFINED] posts
    Cita Iniciado por ^MiSaTo^ Ver mensaje
    Y sobre todo este tocho por favor no compares lo que hayas hecho tú en un curso y juegos de GP2X, con lo que puede hacer un estudio AAA como es Valve.... Es que no hay comparación por favor. Ni tampoco lo que hayas visto tú en Unity 4 hace 4 años con un motor propio que pueda hacer Valve o cualquier estudio grande. Es que incluso Unreal Engine es bastante mejor para temas 3D que Unity. Y Unity ha cambiado muchísimo desde hace 4 años a ahora xD
    Gracias por resumir todo mi tocho en lo que comento en las dos últimas líneas, que son sólo un inciso aparte
    Vale, el motor de físicas de Valve no tiene nada que ver con el Phyxs de NVidia o con cualquier otro motor de físicas. Pero claro, que todos los motores intenten replicar las matemáticas de la física real tampoco tiene nada que ver.

    Cita Iniciado por swapd0 Ver mensaje
    Ya lo he dicho, puedes estar limitado en los cálculos o en el renderizado. La N64 va bastante justa en comparación con una tarjeta moderna, sobretodo en el renderizado que tiene un bus común con el procesador. Dibujar un polígono de mas le cuesta mas a una N64 que a una tarjeta moderna.
    ¡Ah! Vale, que sólo sucede en la N64. Ninguna consola/PC/gráfica se resiente por renderizar 4 vistas distintas de una escena.

    Cita Iniciado por swapd0 Ver mensaje
    Tienen 3, una para cada pantalla. De todas formas estas obsesionado con las cámaras y eso es lo de menos. Al final en un motor 3D tienes que transformar unos vértices y después dibujar los polígonos uniendo esos vértices, la transformación no deja de ser una multiplicación de una matriz 4x4 por un vector 4x1, que mas da que la mitad de los vértices uses una matriz u otra. Y en VR las dos imagines son muy parecidas, mismos modelos, mismos shaders con los mismos parámetros (excepto la matriz de transformación), mismas texturas, incluso estas accediendo a pixeles muy próximos, por lo que vas a tener un porcentaje muy alto de aciertos en las cache.
    Falso. Al final, cualquier tarjeta gráfica hace una transformación ficticia de un entorno 3D sobre un plano 2D. De una forma o de otra, tienes que realizar una proyección de la escena sobre un plano, que es la cámara. Si tienes 3 cámaras, tienes que hacer 3 proyecciones, porque ninguna va a ver exactamente lo mismo.
    Te concedo la duda de que en la VR, al estar las cámaras muy próximas, no se apliquen "trucos" para reducir los cálculos, dada la proximidad (fíjate que no he dicho que la VR consuma el 200% de un PC, sólo he dicho un 140%).
    Pero si hablamos, por ejemplo, de un juego de coches con 3 pantallas, es más que probable que se haya usado una sola cámara, con un campo de visión a lo ancho el triple de lo normal (que sería lo ideal por aquello del efecto "ojo de pez", etc) que tres cámaras independientes.

    Ten en cuenta que cuando digo "cámara" no me refiero a un objeto real, sino al concepto de "superficie donde se renderiza la escena".

    Cita Iniciado por dj syto Ver mensaje
    Que pereza. Xddd de verdad drumpi. No asegures cosas que no son verdad o que no sabes. Porque asi ni se te puede explicar nada ni debatir.

    (...)

    Y que **** haces comparnadome nintendo 64 con un pc actual? *****, de verdad, no vale la pena discutir nada contigo tio. Empiezas a soltar terminos tecnicos a cascoporro para que de la impresion de que sabes de lo que hablas pero no sabes ni por donde te pega el sol. Reconoce que no tienes ni puñetera idea y deja que la gente que entiende (no yo, otros en este hilo) te lo expliquen bien, coñe.
    Que lo que diga no sea verdad a día de hoy no significa que no lo fueran hace años. Y dudo mucho que lo que fuera verdad hace años se haya descartado totalmente hoy.
    De hecho, las físicas de los juegos se basan en cálculos de hace 2000 años (y la trigonometría 3000 años), que hoy en día no se usan porque hemos pasado de sumas y restas a derivadas e integrales, y de ahí a transformadas que no se parecen en nada a las originales, y de estas a cálculos iterativos en múltiples hilos... y aun así, las manzanas se siguen cayendo al suelo.

    Puede que no conozca las tripas de una GTX970, pero que no tenga ni idea porque alguien diga que no tengo ni idea sí que no me lo creo. Hasta ahora no he visto discusión, sólo he leído "no tienes razón", y sin ninguna explicación de por qué. Parece que ni aun justificando lo que digo puedo tener razón: si no programo es porque no tengo experiencia, si programo es porque es muy viejo, y da igual cuántos lenguajes, programas de 3D, esquemas eléctricos, explicaciones de profesores y de gente haya leído. Nunca tengo ni idea.

    Que no digo que tenga razón absoluta (ni nunca he querido tenerla), pero es que no me dais ni una pizca de ella. Que parece que toda la informática de antes de 2015 no existía (solo los arcades y sus juegos).

    Cita Iniciado por dj syto Ver mensaje
    Las pantallas en realidad virtual NUNCA son dos. El pc las trata como una sola pero en split screen. De hecho, hay gafas como las oculus rift s que fisicamente SOLO son UNA pantalla. Eso de que la realidad virtual nunca es menos de 90fps tambien te lo has sacado de no se donde. Oculus quest funciona a 72hz. Oculus rift s a 80hz. Psvr a 60hz...
    Y la Virtual Boy no tenía ninguna pantalla, y los niveles de Super Mario Bros tampoco estaban uno encima del otro.
    Llámalo dos pantallas, dos "screens", dos cámaras o dos planos de renderizado. Parece que estás buscando cualquier excusa para meter una puya.

    Lo de los 90fps... mmmm, no sé, un tal Syto o una tal Misato, cuando les pregunté, o cuando les preguntó otro, dijeron que una VR con menos de 90Hz provocaba dolores de cabeza y nauseas, y que están bien como introducción a las posibilidades de las VR, pero que si querían ir en serio había que invertir en una gafas de calidad, con una buena tasa de refresco y una resolución por encima del HD.
    Te puedo conceder que no fueran 90Hz, que fueran 80Hz, porque me paso el día memorizando números, pero lo de que PSVR es un juguete, o lo de que "para gastarse el dinero en unas Oculus Quest, mejor pagar más y tener algo decente" no lo he dicho yo.
    Vamos, más que nada, porque yo no he usado VR más allá de Nintendo Labo, que después de las nauseas, no lo considero unas VR más que como concepto.
    PROYECTOS REALIZADOS: FrikiMusic, Motor Scroll Tileado v3.2, Venturer2X (GP2X/WIZ), Echo, Screen Break Time
    PROYECTOS EN MARCHA (algunos): Bennu GP2X: 95% (necesito ayuda) ¡Antes de Halloween!: 92% SpaceH2H: 8%

  13. #57

    Fecha de ingreso
    Sep 2006
    Mensajes
    4,879
    Mencionado
    24 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    678
    Agradecer Thanks Received 
    626
    Thanked in
    Agradecido 466 veces en [ARG:2 UNDEFINED] posts
    paso. XD
    No es lo mismo tener diez años de experiencia, que tener un año de experiencia diez veces.

  14. El siguiente usuario agradece a swapd0 este mensaje:

    dj syto (26/11/2019)

  15. #58

    Fecha de ingreso
    Apr 2003
    Ubicación
    HACAPULCO (MEHICO)
    Mensajes
    60,108
    Mencionado
    119 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    353
    Agradecer Thanks Received 
    2,950
    Thanked in
    Agradecido 1,830 veces en [ARG:2 UNDEFINED] posts
    Entradas de blog
    24
    Cita Iniciado por swapd0 Ver mensaje
    paso. XD
    Haces bien.

  16. #59

    Fecha de ingreso
    Aug 2003
    Mensajes
    14,414
    Mencionado
    46 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    115
    Agradecer Thanks Received 
    276
    Thanked in
    Agradecido 180 veces en [ARG:2 UNDEFINED] posts
    Entradas de blog
    1
    Cita Iniciado por Drumpi Ver mensaje
    Gracias por resumir todo mi tocho en lo que comento en las dos últimas líneas, que son sólo un inciso aparte
    Vale, el motor de físicas de Valve no tiene nada que ver con el Phyxs de NVidia o con cualquier otro motor de físicas. Pero claro, que todos los motores intenten replicar las matemáticas de la física real tampoco tiene nada que ver.



    ¡Ah! Vale, que sólo sucede en la N64. Ninguna consola/PC/gráfica se resiente por renderizar 4 vistas distintas de una escena.



    Falso. Al final, cualquier tarjeta gráfica hace una transformación ficticia de un entorno 3D sobre un plano 2D. De una forma o de otra, tienes que realizar una proyección de la escena sobre un plano, que es la cámara. Si tienes 3 cámaras, tienes que hacer 3 proyecciones, porque ninguna va a ver exactamente lo mismo.
    Te concedo la duda de que en la VR, al estar las cámaras muy próximas, no se apliquen "trucos" para reducir los cálculos, dada la proximidad (fíjate que no he dicho que la VR consuma el 200% de un PC, sólo he dicho un 140%).
    Pero si hablamos, por ejemplo, de un juego de coches con 3 pantallas, es más que probable que se haya usado una sola cámara, con un campo de visión a lo ancho el triple de lo normal (que sería lo ideal por aquello del efecto "ojo de pez", etc) que tres cámaras independientes.

    Ten en cuenta que cuando digo "cámara" no me refiero a un objeto real, sino al concepto de "superficie donde se renderiza la escena".



    Que lo que diga no sea verdad a día de hoy no significa que no lo fueran hace años. Y dudo mucho que lo que fuera verdad hace años se haya descartado totalmente hoy.
    De hecho, las físicas de los juegos se basan en cálculos de hace 2000 años (y la trigonometría 3000 años), que hoy en día no se usan porque hemos pasado de sumas y restas a derivadas e integrales, y de ahí a transformadas que no se parecen en nada a las originales, y de estas a cálculos iterativos en múltiples hilos... y aun así, las manzanas se siguen cayendo al suelo.

    Puede que no conozca las tripas de una GTX970, pero que no tenga ni idea porque alguien diga que no tengo ni idea sí que no me lo creo. Hasta ahora no he visto discusión, sólo he leído "no tienes razón", y sin ninguna explicación de por qué. Parece que ni aun justificando lo que digo puedo tener razón: si no programo es porque no tengo experiencia, si programo es porque es muy viejo, y da igual cuántos lenguajes, programas de 3D, esquemas eléctricos, explicaciones de profesores y de gente haya leído. Nunca tengo ni idea.

    Que no digo que tenga razón absoluta (ni nunca he querido tenerla), pero es que no me dais ni una pizca de ella. Que parece que toda la informática de antes de 2015 no existía (solo los arcades y sus juegos).



    Y la Virtual Boy no tenía ninguna pantalla, y los niveles de Super Mario Bros tampoco estaban uno encima del otro.
    Llámalo dos pantallas, dos "screens", dos cámaras o dos planos de renderizado. Parece que estás buscando cualquier excusa para meter una puya.

    Lo de los 90fps... mmmm, no sé, un tal Syto o una tal Misato, cuando les pregunté, o cuando les preguntó otro, dijeron que una VR con menos de 90Hz provocaba dolores de cabeza y nauseas, y que están bien como introducción a las posibilidades de las VR, pero que si querían ir en serio había que invertir en una gafas de calidad, con una buena tasa de refresco y una resolución por encima del HD.
    Te puedo conceder que no fueran 90Hz, que fueran 80Hz, porque me paso el día memorizando números, pero lo de que PSVR es un juguete, o lo de que "para gastarse el dinero en unas Oculus Quest, mejor pagar más y tener algo decente" no lo he dicho yo.
    Vamos, más que nada, porque yo no he usado VR más allá de Nintendo Labo, que después de las nauseas, no lo considero unas VR más que como concepto.
    Nombre:  tumblr_inline_ps8ieoVjHg1r63chl_500.gif
Visitas: 175
Tamaño: 1.05 MB

  17. #60

    Fecha de ingreso
    Feb 2004
    Ubicación
    Madrid
    Mensajes
    22,610
    Mencionado
    204 Post(s)
    Tagged
    0 Tema(s)
    Agradecer Thanks Given 
    2,129
    Agradecer Thanks Received 
    1,681
    Thanked in
    Agradecido 1,080 veces en [ARG:2 UNDEFINED] posts
    Madre mía @Drumpi no te voy a responder a todo porque es un tocho también interesante y mezclas miles de cosas, como siempre.
    Pero sí te diré que a lo mejor tú no lo sabes todo, que puedes tener una idea de algo pero vaga y que a lo mejor hay gente que sabe más que tú. Y que no escuchas a los demás, sigues empecinado en que tu idea que aprendiste en un curso, o viste hace 5 años o lo que sea es lo válido. Las cosas en el campo de la tecnología se mueven MUY rápido así que o te renuevas o tus conocimientos se vuelven obsoletos rapidamente. Las matemáticas por supuesto que son las mismas, o la base es la misma, pero el como se aplica muchas veces no.

    Y bueno como consejo te quejas de que te quitamos la razón, piensa por qué es.

Página 4 de 7 PrimerPrimer 1234567 ÚltimoÚltimo

Permisos de publicación

  • No puedes crear nuevos temas
  • No puedes responder temas
  • No puedes subir archivos adjuntos
  • No puedes editar tus mensajes
  •