Español (ES)
Usuario anónimo
Iniciar sesión | Regístrate gratis
Foro de Noticias y actualidad

Responder / Comentar
Foro Noticias y actualidad

Recrean las demos de Unreal Engine 4 mejoradas y el resultado se acerca a Unreal Engine 5

PSheroHard1022
Expulsado
Hace 3 años16
Solo en una PS5 se pueden hacer los graficos del UE5,ni PC ni xbox seran capaces de hacer lo que hara ps5 al menos en 20 años gracias al SSD y la frecuencia variable de ps5 que se puede subir cuanto se quiera para hacer cosas increibles.TLOU3 sera a 4k@120FPS RT y texturas 12K con efectos y detalles superiores a ultra,algo asi como Ultra-ultra imposible en PC o en XBOSX
1 VOTO
Miguline2422Hace 3 años17
@Michukratos Epic Games' Tim Sweeney Explains Lack Of 'SVOGI' In Unreal ...
www.dsogaming.com › news › epi...

20 abr. 2013 - Therefore, Epic Games decided create a series of graphical effects that achieve the same image fidelity as SVOGI with far better performance.
Vamos era para cambiarlo por bake lightning, luz compilada pero que deja de ser dinámica y da mejor rendimiento. Pero lo mismo pasara con Lumen si da mal rendimiento pues vuelves a bakear la luz

Sparse voxel octree global illumination (SVOGI), also known as voxel GI, is a global illumination solution based on voxel ray tracing
Miguline2422Hace 3 años18
@PSheroHard
Mostrar cita
Solo en una PS5 se pueden hacer los graficos del UE5,ni PC ni xbox seran capaces de hacer lo que hara ps5 al menos en 20 años gracias al SSD y la frecuencia variable de ps5 que se puede subir cuanto se quiera para hacer cosas increibles.TLOU3 sera a 4k@120FPS RT y texturas 12K con efectos y detalles superiores a ultra,algo asi como Ultra-ultra imposible en PC o en XBOSX
Haber si alguien no pilla la ironia no?
2 VOTOS
Michukratos16562Hace 3 años19
@Miguline
Mostrar cita
@Michukratos Epic Games' Tim Sweeney Explains Lack Of 'SVOGI' In Unreal ... www.dsogaming.com › news › epi... 20 abr. 2013 - Therefore, Epic Games decided create a series of graphical effects that achieve the same image fidelity as SVOGI with far better performance. Vamos era para cambiarlo por bake lightning, luz compilada pero que deja de ser dinámica y da mejor rendimiento. Pero lo mismo pasara con Lumen si da mal rendimiento pues vuelves a bakear la luz Sparse voxel octree global illumination (SVOGI), also known as voxel GI, is a global illumination solution based on voxel ray tracing
No has entendido nada de lo que te he puesto.
DarkMeister1447Hace 3 años20
@Mariobross88
Mostrar cita
Es raro que siendo por reshade la SSGI no tenga sangrado en humos, luces volumetricas y tampoco halos de oclusión ambiental. Es una tecnica que usado en muchos juegos para mejorar la GI los resultados increibles y dinamicos, pero al ser implementacion por reshade (post-procesado), el creador no puede calcular el grosor de los objectos, esto hace que muchos objectos principalmente los delgados generen halos sombras al rededor de ellos. Pero bueno la demo UE4 ya usaba voxel cone tracing que es incluso mejor que la SSGI y que no adolece de los defectos del Screen Space y no necesita de una base de GI backed. Supungo que para evitar halos uso un Ray Length bajo, simplemente para medio mejorar la GI default.
Miguline2422Hace 3 años21
@Michukratos
Mostrar cita
@Miguline
Mostrar cita
@Michukratos Epic Games' Tim Sweeney Explains Lack Of 'SVOGI' In Unreal ... www.dsogaming.com › news › epi... 20 abr. 2013 - Therefore, Epic Games decided create a series of graphical effects that achieve the same image fidelity as SVOGI with far better performance. Vamos era para cambiarlo por bake lightning, luz compilada pero que deja de ser dinámica y da mejor rendimiento. Pero lo mismo pasara con Lumen si da mal rendimiento pues vuelves a bakear la luz Sparse voxel octree global illumination (SVOGI), also known as voxel GI, is a global illumination solution based on voxel ray tracing
No has entendido nada de lo que te he puesto.
"la palabra que digamos cuela" estas diciendo que digo una palabra que a ver si cuela vamos como que era una palabra que me inventaba que no tenia nada que ver con Unreal, solo te demuestro que no me invento palabras y menos que no cuele, llevo desde 2014 trabajando con Unreal engine 4 por eso se estas cosas.
Relaxing-cup3035Hace 3 años22
Unreal 5 con la demostración "Lumen in the land of Nanite" funciona en una consola con: 16 GB GDDR6 448 GB/seg, SSD 9GB/seg, 8 cores Zen2 de 16 hilos, a 3.5 Ghz, y una GPU RDNA2 de 10.28 Tflops a 2560 * 1440p + 30 frames con Vsync...¿Qué tienen algunos en la cabeza para pensar que en una RTX 2080 Ti de 14 Tflops "Turing" van a poder ver esta demo a 4K y 60 frames, más RT...?.

No solo para poder ver el doble de resolución, requieres el doble de capacidad de GPU, sino que además si pretendes doblar el frame rate, requerirás x4 veces más capacidad de GPU.

Ni siquiera una Titan 3000 RTX futura, moverá "Lumen in the land of Nanite" a 4k nativo, 60 frames...( o puede que sí, si reescala con DLSS a partir de los Tensor desde 1080p, y esta GPU llega a gestionar decenas de Gigarays/seg).

LitloN : 1440p/30 frames = +10 Tflops.

LintoN : 2160p/30 frames = + 20 Tflops.

LitloN : 2160p/60 frames = + 30 Tflops.

LitloN : 2160p/60 frames, raytracing ( oclusion, sombras, reflejos) = + 30 Tflops, y 100 Gigarays /seg ( RTX 2080 Ti = 10 Gigarays/seg).

SVOGI (Lumen) ya usa algoritmos basados en Monte Carlo para crear un mapeado de fotones, y calcular las intersecciones de los rayos, solo que, en lugar de hacerlo a escala de píxel, lo hace mediante VOXEL ( píxel con volumen). 

Uar vóxel es menos costoso para calcular raytracing, del mismo modo que requieres menos tiempo para contar cuántos granos de arena de playa eres capaz de acaparar en la palma de tu mano (píxel), en lugar de granos de arroz ( vóxel).

No existe a dia de hoy ninguna tarjeta, o sistema Sli/Crossfire, capaz de calcular la intersección de los rayos en elementos geométricos tan complejos como presenta esta demo, en la que hay activos directamente importados de ZBrush, con decenas de millones de polígonos.

Lumen in the land of Nanite usa activos de calidad cinematográfica (modelos Zbrush, texturas 8K...). Es lo mismo que se usa en películas de animación, o en posproducción de series o películas, con la diferencia de que, en estas últimas, el raytracing se tiene que calcular en granjas de renderizado, de PETA FLOPS de capacidad de cómputo, y ser calculada la luz de cada frame uno a uno, en un proceso que lleva centenares de horas para apenas unos minutos de metraje...


¡Poned los pies en tierra firme!  
3DTuegos4757Hace 3 años23
A mi solo me pareció un cambio de filtro
Michukratos16562Hace 3 años24
@Miguline
Mostrar cita
@Michukratos
Mostrar cita
@Miguline
Mostrar cita
@Michukratos Epic Games' Tim Sweeney Explains Lack Of 'SVOGI' In Unreal ... www.dsogaming.com › news › epi... 20 abr. 2013 - Therefore, Epic Games decided create a series of graphical effects that achieve the same image fidelity as SVOGI with far better performance. Vamos era para cambiarlo por bake lightning, luz compilada pero que deja de ser dinámica y da mejor rendimiento. Pero lo mismo pasara con Lumen si da mal rendimiento pues vuelves a bakear la luz Sparse voxel octree global illumination (SVOGI), also known as voxel GI, is a global illumination solution based on voxel ray tracing
No has entendido nada de lo que te he puesto.
"la palabra que digamos cuela" estas diciendo que digo una palabra que a ver si cuela vamos como que era una palabra que me inventaba que no tenia nada que ver con Unreal, solo te demuestro que no me invento palabras y menos que no cuele, llevo desde 2014 trabajando con Unreal engine 4 por eso se estas cosas.
Gracias por confirmar que no has entendido nada pero nada de lo que he dicho desde el principio. Se lo que es el SVOGI y su iluminación por Voxels, algo que si no recuerdo mal Epic tuvo que quitar pese a ponerlo en la demo de Unreal 4 por los recursos que necesitaba. No hace falta ni saber mucho ni trabajar con ese motor para saber esto, no desde 2014 ni desde hace un mes, igual que ahora sabemos de Lumen y Nanite pese a que nadie ha tocado ese motor. De saber esto, que es conocimiento más general que todo, a que yo diga que lo puesto por quien citaba parecía suajili... Fíjate si te has ido.
EDITADO EL 08-06-2020 / 15:11 (EDITADO 1 VEZ)
Tezkat6661217
Expulsado
Hace 3 años25
¿De verdad que hay gentes que todavía no entienden que UE4 y UE5 son lo mismo con un par de añadidos relacionados con un paquete de animación, uno de fotogrametria  y otro de iluminación que además ha comprado EPIC a terceros?

Que por cierto eran bastante necesarios, porque estaban muy por debajo de otros motores. 

De verdad que hay algunos que entre el SSD mágico, y el Unreal Engine exclusivo se están montando una película, que como la escriban se lleva el OSCAR.
Carlosdeb2816Hace 3 años26
No sé yo, eh?

Me acabo de poner los videos uno tras otro, y en estos de UE4 se nota mucha menos carga poligonal, y un sistema de iluminación que, aun estando bien para los estándares de hoy día, no puede toser al de la demo de UE5.
Carlosdeb2816Hace 3 años27
@Tezkat666
Mostrar cita
¿De verdad que hay gentes que todavía no entienden que UE4 y UE5 son lo mismo con un par de añadidos relacionados con un paquete de animación, uno de fotogrametria y otro de iluminación que además ha comprado EPIC a terceros? Que por cierto eran bastante necesarios, porque estaban muy por debajo de otros motores. De verdad que hay algunos que entre el SSD mágico, y el Unreal Engine exclusivo se están montando una película, que como la escriban se lleva el OSCAR.
¿En serio han comprado el módulo de iluminación? ¿A quién? Me parecía el progreso más bestia de UE5 (lo de los modelos con gran carga poligonal, es mera velocidad de trasferencia de datos)
BryanStephanov6Hace 3 años28
@PSheroHard No sé si eres sonyfanboy y tu comentario da mucho cringe, o si eres sarcástico pero de los baratos que ni chiste provocas...
BryanStephanov6Hace 3 años29

Mensaje eliminado por moderación.(Trolleo)

Tezkat6661217
Expulsado
Hace 3 años30
@Relaxing-cup
Mostrar cita
Unreal 5 con la demostración "Lumen in the land of Nanite" funciona en una consola con: 16 GB GDDR6 448 GB/seg, SSD 9GB/seg, 8 cores Zen2 de 16 hilos, a 3.5 Ghz, y una GPU RDNA2 de 10.28 Tflops a 2560 * 1440p + 30 frames con Vsync...¿Qué tienen algunos en la cabeza para pensar que en una RTX 2080 Ti de 14 Tflops "Turing" van a poder ver esta demo a 4K y 60 frames, más RT...?. No solo para poder ver el doble de resolución, requieres el doble de capacidad de GPU, sino que además si pretendes doblar el frame rate, requerirás x4 veces más capacidad de GPU. Ni siquiera una Titan 3000 RTX futura, moverá "Lumen in the land of Nanite" a 4k nativo, 60 frames...( o puede que sí, si reescala con DLSS a partir de los Tensor desde 1080p, y esta GPU llega a gestionar decenas de Gigarays/seg). LitloN : 1440p/30 frames = +10 Tflops. LintoN : 2160p/30 frames = + 20 Tflops. LitloN : 2160p/60 frames = + 30 Tflops. LitloN : 2160p/60 frames, raytracing ( oclusion, sombras, reflejos) = + 30 Tflops, y 100 Gigarays /seg ( RTX 2080 Ti = 10 Gigarays/seg). SVOGI (Lumen) ya usa algoritmos basados en Monte Carlo para crear un mapeado de fotones, y calcular las intersecciones de los rayos, solo que, en lugar de hacerlo a escala de píxel, lo hace mediante VOXEL ( píxel con volumen). Uar vóxel es menos costoso para calcular raytracing, del mismo modo que requieres menos tiempo para contar cuántos granos de arena de playa eres capaz de acaparar en la palma de tu mano (píxel), en lugar de granos de arroz ( vóxel). No existe a dia de hoy ninguna tarjeta, o sistema Sli/Crossfire, capaz de calcular la intersección de los rayos en elementos geométricos tan complejos como presenta esta demo, en la que hay activos directamente importados de ZBrush, con decenas de millones de polígonos. Lumen in the land of Nanite usa activos de calidad cinematográfica (modelos Zbrush, texturas 8K...). Es lo mismo que se usa en películas de animación, o en posproducción de series o películas, con la diferencia de que, en estas últimas, el raytracing se tiene que calcular en granjas de renderizado, de PETA FLOPS de capacidad de cómputo, y ser calculada la luz de cada frame uno a uno, en un proceso que lleva centenares de horas para apenas unos minutos de metraje... ¡Poned los pies en tierra firme!
No das una tio, estos Assets son los mismos que usa en juegos como RDR2, Spiderman o GOW. Aqui tienes tús assets multimillonarios de esa demo solo posible en PS5... [url]https://quixel.com/megascans/collections?category=environment&category=natural&category=limestone-quarry[/url] Si te das un paseo, vas a ver Assets de RDR2, de GOW, y de la mayoría de los juegos actuales AAA. Vamos que son Assets normales y corrientes, de cualquier videojuego del 2017 aqui que usa Megascans ( ahora propiedad de EPIC ). Otro paquete de la demo es CUBIC MOTION, que es un software de captura de MoCap ( animaciones con actores ). Que también van muchos juegos punteros como RDR2, GOW, Spiderman aunque el primero en usarlo fue HELLBLADE. Otra compañía que usaba todo el mundo que EPIC ha metido en el UE5. Y la iluminación es la respuesta el SVOGI de CRYTEK del 2012. Es simplemente SSGI que por fin han implementado ya en el UE4 a finales del año pasado, con el añadido del uso de Mesh Shaders ( de los que hará buen uso RDNA2 de AMD que llevan la PS5 y la SeriesX). Básicamente el UE5, es el UE4 con SSGI y esos paquetes que ya hemos visto en juegos punteros de esa generación. No hay demos milagrosas, ni SSD´s mágicos es todo tecnología actual y en muchos casos superadas a día hoy. Por ejemplo el videojuego Metro Exodus, supera la técnologia de este demo solo con su solución de GI propietaria, sin contar el raytracing en tiempo real que ya es meada en la boca te toda la NEXT GEN. Y ya han dicho que para el siguiente solo estan trabajando con Raytracing ya. [b]No existe a dia de hoy ninguna tarjeta, o sistema Sli/Crossfire, capaz de calcular la intersección de los rayos en elementos geométricos tan complejos como presenta esta demo, en la que hay activos directamente importados de ZBrush, con decenas de millones de polígonos.[/b] Si que existe, Metro Exodus lo hace desde el 2018 con esta generación de tarjetas y a 4K. Y en entornos abiertos y más complejos que los de esa demo.
Que no fanboy, que tú play no hace nada que llevamos viendo ya desde el 2010 en juegos como Metro o BF 3 ( pre-cocinado), o en Cryengine 3 ( dimamico). Es simplemente que EPIC van muy a la cola en iluminación, y assets con fotogametria solo tienes que echar un vistazo a BF (2015) y verás que tús ASSETS de cine, llevan 5 años usandose en videojuegos. Y tú super GI dinamica, lleva casi 10 años usandose en videojuegos. Y estamos hablando de videojuegos comerciales, no demos técnicas.
EDITADO EL 08-06-2020 / 17:09 (EDITADO 3 VECES)
4 VOTOS
Caky48008Hace 3 años31
@Tezkat666
Mostrar cita
@Relaxing-cup
Mostrar cita
Unreal 5 con la demostración "Lumen in the land of Nanite" funciona en una consola con: 16 GB GDDR6 448 GB/seg, SSD 9GB/seg, 8 cores Zen2 de 16 hilos, a 3.5 Ghz, y una GPU RDNA2 de 10.28 Tflops a 2560 * 1440p + 30 frames con Vsync...¿Qué tienen algunos en la cabeza para pensar que en una RTX 2080 Ti de 14 Tflops "Turing" van a poder ver esta demo a 4K y 60 frames, más RT...?. No solo para poder ver el doble de resolución, requieres el doble de capacidad de GPU, sino que además si pretendes doblar el frame rate, requerirás x4 veces más capacidad de GPU. Ni siquiera una Titan 3000 RTX futura, moverá "Lumen in the land of Nanite" a 4k nativo, 60 frames...( o puede que sí, si reescala con DLSS a partir de los Tensor desde 1080p, y esta GPU llega a gestionar decenas de Gigarays/seg). LitloN : 1440p/30 frames = +10 Tflops. LintoN : 2160p/30 frames = + 20 Tflops. LitloN : 2160p/60 frames = + 30 Tflops. LitloN : 2160p/60 frames, raytracing ( oclusion, sombras, reflejos) = + 30 Tflops, y 100 Gigarays /seg ( RTX 2080 Ti = 10 Gigarays/seg). SVOGI (Lumen) ya usa algoritmos basados en Monte Carlo para crear un mapeado de fotones, y calcular las intersecciones de los rayos, solo que, en lugar de hacerlo a escala de píxel, lo hace mediante VOXEL ( píxel con volumen). Uar vóxel es menos costoso para calcular raytracing, del mismo modo que requieres menos tiempo para contar cuántos granos de arena de playa eres capaz de acaparar en la palma de tu mano (píxel), en lugar de granos de arroz ( vóxel). No existe a dia de hoy ninguna tarjeta, o sistema Sli/Crossfire, capaz de calcular la intersección de los rayos en elementos geométricos tan complejos como presenta esta demo, en la que hay activos directamente importados de ZBrush, con decenas de millones de polígonos. Lumen in the land of Nanite usa activos de calidad cinematográfica (modelos Zbrush, texturas 8K...). Es lo mismo que se usa en películas de animación, o en posproducción de series o películas, con la diferencia de que, en estas últimas, el raytracing se tiene que calcular en granjas de renderizado, de PETA FLOPS de capacidad de cómputo, y ser calculada la luz de cada frame uno a uno, en un proceso que lleva centenares de horas para apenas unos minutos de metraje... ¡Poned los pies en tierra firme!
No das una tio, estos Assets son los mismos que usa en juegos como RDR2, Spiderman o GOW. Aqui tienes tús assets multimillonarios de esa demo solo posible en PS5... [url]https://quixel.com/megascans/collections?category=environment&category=natural&category=limestone-quarry[/url] Si te das un paseo, vas a ver Assets de RDR2, de GOW, y de la mayoría de los juegos actuales AAA. Vamos que son Assets normales y corrientes, de cualquier videojuego del 2017 aqui que usa Megascans ( ahora propiedad de EPIC ). Otro paquete de la demo es CUBIC MOTION, que es un software de captura de MoCap ( animaciones con actores ). Que también van muchos juegos punteros como RDR2, GOW, Spiderman aunque el primero en usarlo fue HELLBLADE. Otra compañía que usaba todo el mundo que EPIC ha metido en el UE5. Y la iluminación es la respuesta el SVOGI de CRYTEK del 2012. Es simplemente SSGI que por fin han implementado ya en el UE4 a finales del año pasado, con el añadido del uso de Mesh Shaders ( de los que hará buen uso RDNA2 de AMD que llevan la PS5 y la SeriesX). Básicamente el UE5, es el UE4 con SSGI y esos paquetes que ya hemos visto en juegos punteros de esa generación. No hay demos milagrosas, ni SSD´s mágicos es todo tecnología actual y en muchos casos superadas a día hoy. Por ejemplo el videojuego Metro Exodus, supera la técnologia de este demo solo con su solución de GI propietaria, sin contar el raytracing en tiempo real que ya es meada en la boca te toda la NEXT GEN. Y ya han dicho que para el siguiente solo estan trabajando con Raytracing ya. [b]No existe a dia de hoy ninguna tarjeta, o sistema Sli/Crossfire, capaz de calcular la intersección de los rayos en elementos geométricos tan complejos como presenta esta demo, en la que hay activos directamente importados de ZBrush, con decenas de millones de polígonos.[/b] Si que existe, Metro Exodus lo hace desde el 2018 con esta generación de tarjetas y a 4K. Y en entornos abiertos y más complejos que los de esa demo.
Que no fanboy, que tú play no hace nada que llevamos viendo ya desde el 2010 en juegos como Metro o BF 3 ( pre-cocinado), o en Cryengine 3 ( dimamico). Es simplemente que EPIC van muy a la cola en iluminación, y assets con fotogametria solo tienes que echar un vistazo a BF (2015) y verás que tús ASSETS de cine, llevan 5 años usandose en videojuegos. Y tú super GI dinamica, lleva casi 10 años usandose en videojuegos. Y estamos hablando de videojuegos comerciales, no demos técnicas.
Y ni hablar del SSD, al parecer el bueno de Tim Sweeney no sabe que en PC existe una tecnología llamada RAID capaz de unificar dos o más unidades de almacenamiento duplicando su ancho de banda Ahora, me da gracia lo que dice el tío de arriba de que necesitas el doble de potencia para poder doblar resolución y otra vez el doble de potencia para poder doblar FPS, menuda afirmación más descabellada
1 VOTO
Responder / Comentar
Subir
Foros > Noticias y actualidad > Recrean las demos de Unreal Engine 4 mejoradas y el resultado se acerca a Unreal Engine 5

Hay 35 respuestas en Recrean las demos de Unreal Engine 4 mejoradas y el resultado se acerca a Unreal Engine 5, del foro de Noticias y actualidad. Último comentario hace 3 años.

  • Regístrate

  • Información legal
Juegos© Foro 3DJuegos 2005-2024. . SOBRE FORO 3DJUEGOS | INFORMACIÓN LEGAL