Español (ES)
Usuario anónimo
Iniciar sesión | Regístrate gratis
Foro de Noticias y actualidad

Responder / Comentar
Foro Noticias y actualidad

Recrean las demos de Unreal Engine 4 mejoradas y el resultado se acerca a Unreal Engine 5

PSheroHard1022
Expulsado
Hace 3 años32
@BryanStephanov
Mostrar cita
@PSheroHard No sé si eres sonyfanboy y tu comentario da mucho cringe, o si eres sarcástico pero de los baratos que ni chiste provocas...
Claramente soy fan desde la ps1 y la ps2 con mis tarrinas de juegos gracias a mi grabadora Plextor Soy fanatico de la Potencia y eso solo existe con la pley O podria ser...... .. . . .. . Realmente no me importa lo que creas que soy , esta noche dormire igual que la anterior
EDITADO EL 08-06-2020 / 18:07 (EDITADO 2 VECES)
Joaannn1397Hace 3 años33
@Caky
Mostrar cita
@Tezkat666
Mostrar cita
@Relaxing-cup
Mostrar cita
Unreal 5 con la demostración "Lumen in the land of Nanite" funciona en una consola con: 16 GB GDDR6 448 GB/seg, SSD 9GB/seg, 8 cores Zen2 de 16 hilos, a 3.5 Ghz, y una GPU RDNA2 de 10.28 Tflops a 2560 * 1440p + 30 frames con Vsync...¿Qué tienen algunos en la cabeza para pensar que en una RTX 2080 Ti de 14 Tflops "Turing" van a poder ver esta demo a 4K y 60 frames, más RT...?. No solo para poder ver el doble de resolución, requieres el doble de capacidad de GPU, sino que además si pretendes doblar el frame rate, requerirás x4 veces más capacidad de GPU. Ni siquiera una Titan 3000 RTX futura, moverá "Lumen in the land of Nanite" a 4k nativo, 60 frames...( o puede que sí, si reescala con DLSS a partir de los Tensor desde 1080p, y esta GPU llega a gestionar decenas de Gigarays/seg). LitloN : 1440p/30 frames = +10 Tflops. LintoN : 2160p/30 frames = + 20 Tflops. LitloN : 2160p/60 frames = + 30 Tflops. LitloN : 2160p/60 frames, raytracing ( oclusion, sombras, reflejos) = + 30 Tflops, y 100 Gigarays /seg ( RTX 2080 Ti = 10 Gigarays/seg). SVOGI (Lumen) ya usa algoritmos basados en Monte Carlo para crear un mapeado de fotones, y calcular las intersecciones de los rayos, solo que, en lugar de hacerlo a escala de píxel, lo hace mediante VOXEL ( píxel con volumen). Uar vóxel es menos costoso para calcular raytracing, del mismo modo que requieres menos tiempo para contar cuántos granos de arena de playa eres capaz de acaparar en la palma de tu mano (píxel), en lugar de granos de arroz ( vóxel). No existe a dia de hoy ninguna tarjeta, o sistema Sli/Crossfire, capaz de calcular la intersección de los rayos en elementos geométricos tan complejos como presenta esta demo, en la que hay activos directamente importados de ZBrush, con decenas de millones de polígonos. Lumen in the land of Nanite usa activos de calidad cinematográfica (modelos Zbrush, texturas 8K...). Es lo mismo que se usa en películas de animación, o en posproducción de series o películas, con la diferencia de que, en estas últimas, el raytracing se tiene que calcular en granjas de renderizado, de PETA FLOPS de capacidad de cómputo, y ser calculada la luz de cada frame uno a uno, en un proceso que lleva centenares de horas para apenas unos minutos de metraje... ¡Poned los pies en tierra firme!
No das una tio, estos Assets son los mismos que usa en juegos como RDR2, Spiderman o GOW. Aqui tienes tús assets multimillonarios de esa demo solo posible en PS5... [url]https://quixel.com/megascans/collections?category=environment&category=natural&category=limestone-quarry[/url] Si te das un paseo, vas a ver Assets de RDR2, de GOW, y de la mayoría de los juegos actuales AAA. Vamos que son Assets normales y corrientes, de cualquier videojuego del 2017 aqui que usa Megascans ( ahora propiedad de EPIC ). Otro paquete de la demo es CUBIC MOTION, que es un software de captura de MoCap ( animaciones con actores ). Que también van muchos juegos punteros como RDR2, GOW, Spiderman aunque el primero en usarlo fue HELLBLADE. Otra compañía que usaba todo el mundo que EPIC ha metido en el UE5. Y la iluminación es la respuesta el SVOGI de CRYTEK del 2012. Es simplemente SSGI que por fin han implementado ya en el UE4 a finales del año pasado, con el añadido del uso de Mesh Shaders ( de los que hará buen uso RDNA2 de AMD que llevan la PS5 y la SeriesX). Básicamente el UE5, es el UE4 con SSGI y esos paquetes que ya hemos visto en juegos punteros de esa generación. No hay demos milagrosas, ni SSD´s mágicos es todo tecnología actual y en muchos casos superadas a día hoy. Por ejemplo el videojuego Metro Exodus, supera la técnologia de este demo solo con su solución de GI propietaria, sin contar el raytracing en tiempo real que ya es meada en la boca te toda la NEXT GEN. Y ya han dicho que para el siguiente solo estan trabajando con Raytracing ya. [b]No existe a dia de hoy ninguna tarjeta, o sistema Sli/Crossfire, capaz de calcular la intersección de los rayos en elementos geométricos tan complejos como presenta esta demo, en la que hay activos directamente importados de ZBrush, con decenas de millones de polígonos.[/b] Si que existe, Metro Exodus lo hace desde el 2018 con esta generación de tarjetas y a 4K. Y en entornos abiertos y más complejos que los de esa demo.
Que no fanboy, que tú play no hace nada que llevamos viendo ya desde el 2010 en juegos como Metro o BF 3 ( pre-cocinado), o en Cryengine 3 ( dimamico). Es simplemente que EPIC van muy a la cola en iluminación, y assets con fotogametria solo tienes que echar un vistazo a BF (2015) y verás que tús ASSETS de cine, llevan 5 años usandose en videojuegos. Y tú super GI dinamica, lleva casi 10 años usandose en videojuegos. Y estamos hablando de videojuegos comerciales, no demos técnicas.
Y ni hablar del SSD, al parecer el bueno de Tim Sweeney no sabe que en PC existe una tecnología llamada RAID capaz de unificar dos o más unidades de almacenamiento duplicando su ancho de banda Ahora, me da gracia lo que dice el tío de arriba de que necesitas el doble de potencia para poder doblar resolución y otra vez el doble de potencia para poder doblar FPS, menuda afirmación más descabellada
2 VOTOS
Caky48008Hace 3 años34
@Joaannn
Mostrar cita
@Caky
Mostrar cita
@Tezkat666
Mostrar cita
@Relaxing-cup
Mostrar cita
Unreal 5 con la demostración "Lumen in the land of Nanite" funciona en una consola con: 16 GB GDDR6 448 GB/seg, SSD 9GB/seg, 8 cores Zen2 de 16 hilos, a 3.5 Ghz, y una GPU RDNA2 de 10.28 Tflops a 2560 * 1440p + 30 frames con Vsync...¿Qué tienen algunos en la cabeza para pensar que en una RTX 2080 Ti de 14 Tflops "Turing" van a poder ver esta demo a 4K y 60 frames, más RT...?. No solo para poder ver el doble de resolución, requieres el doble de capacidad de GPU, sino que además si pretendes doblar el frame rate, requerirás x4 veces más capacidad de GPU. Ni siquiera una Titan 3000 RTX futura, moverá "Lumen in the land of Nanite" a 4k nativo, 60 frames...( o puede que sí, si reescala con DLSS a partir de los Tensor desde 1080p, y esta GPU llega a gestionar decenas de Gigarays/seg). LitloN : 1440p/30 frames = +10 Tflops. LintoN : 2160p/30 frames = + 20 Tflops. LitloN : 2160p/60 frames = + 30 Tflops. LitloN : 2160p/60 frames, raytracing ( oclusion, sombras, reflejos) = + 30 Tflops, y 100 Gigarays /seg ( RTX 2080 Ti = 10 Gigarays/seg). SVOGI (Lumen) ya usa algoritmos basados en Monte Carlo para crear un mapeado de fotones, y calcular las intersecciones de los rayos, solo que, en lugar de hacerlo a escala de píxel, lo hace mediante VOXEL ( píxel con volumen). Uar vóxel es menos costoso para calcular raytracing, del mismo modo que requieres menos tiempo para contar cuántos granos de arena de playa eres capaz de acaparar en la palma de tu mano (píxel), en lugar de granos de arroz ( vóxel). No existe a dia de hoy ninguna tarjeta, o sistema Sli/Crossfire, capaz de calcular la intersección de los rayos en elementos geométricos tan complejos como presenta esta demo, en la que hay activos directamente importados de ZBrush, con decenas de millones de polígonos. Lumen in the land of Nanite usa activos de calidad cinematográfica (modelos Zbrush, texturas 8K...). Es lo mismo que se usa en películas de animación, o en posproducción de series o películas, con la diferencia de que, en estas últimas, el raytracing se tiene que calcular en granjas de renderizado, de PETA FLOPS de capacidad de cómputo, y ser calculada la luz de cada frame uno a uno, en un proceso que lleva centenares de horas para apenas unos minutos de metraje... ¡Poned los pies en tierra firme!
No das una tio, estos Assets son los mismos que usa en juegos como RDR2, Spiderman o GOW. Aqui tienes tús assets multimillonarios de esa demo solo posible en PS5... [url]https://quixel.com/megascans/collections?category=environment&category=natural&category=limestone-quarry[/url] Si te das un paseo, vas a ver Assets de RDR2, de GOW, y de la mayoría de los juegos actuales AAA. Vamos que son Assets normales y corrientes, de cualquier videojuego del 2017 aqui que usa Megascans ( ahora propiedad de EPIC ). Otro paquete de la demo es CUBIC MOTION, que es un software de captura de MoCap ( animaciones con actores ). Que también van muchos juegos punteros como RDR2, GOW, Spiderman aunque el primero en usarlo fue HELLBLADE. Otra compañía que usaba todo el mundo que EPIC ha metido en el UE5. Y la iluminación es la respuesta el SVOGI de CRYTEK del 2012. Es simplemente SSGI que por fin han implementado ya en el UE4 a finales del año pasado, con el añadido del uso de Mesh Shaders ( de los que hará buen uso RDNA2 de AMD que llevan la PS5 y la SeriesX). Básicamente el UE5, es el UE4 con SSGI y esos paquetes que ya hemos visto en juegos punteros de esa generación. No hay demos milagrosas, ni SSD´s mágicos es todo tecnología actual y en muchos casos superadas a día hoy. Por ejemplo el videojuego Metro Exodus, supera la técnologia de este demo solo con su solución de GI propietaria, sin contar el raytracing en tiempo real que ya es meada en la boca te toda la NEXT GEN. Y ya han dicho que para el siguiente solo estan trabajando con Raytracing ya. [b]No existe a dia de hoy ninguna tarjeta, o sistema Sli/Crossfire, capaz de calcular la intersección de los rayos en elementos geométricos tan complejos como presenta esta demo, en la que hay activos directamente importados de ZBrush, con decenas de millones de polígonos.[/b] Si que existe, Metro Exodus lo hace desde el 2018 con esta generación de tarjetas y a 4K. Y en entornos abiertos y más complejos que los de esa demo.
Que no fanboy, que tú play no hace nada que llevamos viendo ya desde el 2010 en juegos como Metro o BF 3 ( pre-cocinado), o en Cryengine 3 ( dimamico). Es simplemente que EPIC van muy a la cola en iluminación, y assets con fotogametria solo tienes que echar un vistazo a BF (2015) y verás que tús ASSETS de cine, llevan 5 años usandose en videojuegos. Y tú super GI dinamica, lleva casi 10 años usandose en videojuegos. Y estamos hablando de videojuegos comerciales, no demos técnicas.
Y ni hablar del SSD, al parecer el bueno de Tim Sweeney no sabe que en PC existe una tecnología llamada RAID capaz de unificar dos o más unidades de almacenamiento duplicando su ancho de banda Ahora, me da gracia lo que dice el tío de arriba de que necesitas el doble de potencia para poder doblar resolución y otra vez el doble de potencia para poder doblar FPS, menuda afirmación más descabellada
Si, ya había visto el video, Linus Sebastian intenta ser políticamente correcto a la hora de disculparse por hablar mal de alguien y de sus afirmaciones. Hasta cierto punto tiene razón, el hardware de almacenamiento de PS5 es bastante increíble y puede hacer con mucha facilidad lo que en PC logramos mediante modos poco ortodoxos o sea, no es más potente o rápido el almacenamiento de PS5, pero si más inteligente. Le doy crédito por ello.
SoloPorElCoD127Hace 3 años35
Na, ni se acerca
Responder / Comentar
Siguiente
Subir
Foros > Noticias y actualidad > Recrean las demos de Unreal Engine 4 mejoradas y el resultado se acerca a Unreal Engine 5

Hay 35 respuestas en Recrean las demos de Unreal Engine 4 mejoradas y el resultado se acerca a Unreal Engine 5, del foro de Noticias y actualidad. Último comentario hace 3 años.

  • Regístrate

  • Información legal
Juegos© Foro 3DJuegos 2005-2024. . SOBRE FORO 3DJUEGOS | INFORMACIÓN LEGAL