Español (ES)
Usuario anónimo
Iniciar sesión | Regístrate gratis
Foro de Noticias y actualidad

Responder / Comentar
Foro Noticias y actualidad
Por 3DJuegos182631
Hace 1 año / Respuestas: 66 / Lecturas: 961

Hogwarts Legacy detalla los requisitos mínimos y recomendados para PC, pero solo se muestran para 1080p

[b]Hogwarts Legacy detalla los requisitos mínimos y recomendados para PC, pero solo se muestran para 1080p[/b]
Necesitaremos más de 85 GB de espacio en el disco duro.

[url=https://www.3djuegos.com/noticias-ver/224608/hogwarts-legacy-detalla-los-requisitos-mnnimos-y/]Leer la noticia: "Hogwarts Legacy detalla los requisitos mínimos y recomendados para PC, pero solo se muestran para 1080p"[/url]
Requisitos, PC, Hogwarts legacy, Warner Bros y Avalanche Studios
Unscspiritoffire2054Hace 1 año1
Otros que tal.... una 1070 para gráficos al mínimo y nada más y nada menos que una 1080 Ti, y ni siquiera una 1080 normal para gráficos en alto y resolución 1080p, para una tarjeta gráfica que ha día de hoy sigue pasándose por el forro a mayoría de juegos a 1440p en alto/ultra a más de 60fps.

Vale que este juego se ve mejor que el de los piratillas de Ubisoft pero no me jodas... tengo desde hace los 6 años que salió una GTX 1080 Gigabyte Windforce OC con la cual sigo moviendo todos los juegos que van saliendo no solo a más de 60fps en combinaciones alto/ultra, si no que encima lo hago en un formato y resolución más costosos de mover que lo normal, es decir a 21:9 a 3440x1440 y que casualidad que en los únicos juegos en los que he tenido que irme a combinaciones de medio/alto porque en su momento no contaban con el FSR de AMD fueron Red Dead Redemption 2 y Cyberpunk 2077.

De verdad que no entiendo porque se toman tantísimas molestias en intentar colarte lo de los requisitos, porque estoy seguro que mucha gente no muy puesta en el tema termina cayendo.

Para mucha gente esto es posible que no tenga ninguna importancia, que no lo vean como algo tan malo o piensen simplemente que no le hagas ni puto caso a estas cosas etc etc y posiblemente tengan razón, pero no se personalmente me parecen prácticas bastante detestables.
4 VOTOS
Hhkaal4167341Hace 1 año2
Si lo mueve la switch, no tenemos que preocuparnos por los requisitos

por una parte me jode que no sea un juego exclusivamente de nueva generacion (pc, ps5 xsx/s) para poder aprovechar al maximo el potencial de esas plataformas y no destinar recursos en intentar optimizar el juego para consolas "antiguas" y de paso "rebajar la calidad del título", por otro lado, como fan de harry potter que soy, me parece genial que cualquier otro fan pueda jugarlo independientemente de la plataforma o generación que tenga

lo tengo reservado ya junto con gow ragnarok, solo me falta el callisto protocol (el resto lo jugaré en game pass) pero no tengo dinero para tanto
ConanX3609257Hace 1 año3
Miedo me da el port para PS4...
Kuzgun2597Hace 1 año4
@Unscspiritoffire
Mostrar cita
Otros que tal.... una 1070 para gráficos al mínimo y nada más y nada menos que una 1080 Ti, y ni siquiera una 1080 normal para gráficos en alto y resolución 1080p, para una tarjeta gráfica que ha día de hoy sigue pasándose por el forro a mayoría de juegos a 1440p en alto/ultra a más de 60fps. Vale que este juego se ve mejor que el de los piratillas de Ubisoft pero no me jodas... tengo desde hace los 6 años que salió una GTX 1080 Gigabyte Windforce OC con la cual sigo moviendo todos los juegos que van saliendo no solo a más de 60fps en combinaciones alto/ultra, si no que encima lo hago en un formato y resolución más costosos de mover que lo normal, es decir a 21:9 a 3440x1440 y que casualidad que en los únicos juegos en los que he tenido que irme a combinaciones de medio/alto porque en su momento no contaban con el FSR de AMD fueron Red Dead Redemption 2 y Cyberpunk 2077. De verdad que no entiendo porque se toman tantísimas molestias en intentar colarte lo de los requisitos, porque estoy seguro que mucha gente no muy puesta en el tema termina cayendo. Para mucha gente esto es posible que no tenga ninguna importancia, que no lo vean como algo tan malo o piensen simplemente que no le hagas ni puto caso a estas cosas etc etc y posiblemente tengan razón, pero no se personalmente me parecen prácticas bastante detestables.
Llevan haciendo eso desde siempre, no es nada nuevo ahora. Dan asco todas las compañías con lo de los requisitos. Es algo ridículo y sin sentido, y ya en 2022 nadie debería ni mirarlos. Siempre inflan todo, no están estandarizados los requisitos, nunca ponen exactamente como han puesto todos los ajustes gráficos, y siempre cambiando dos cosas ganas el triple de rendimiento teniendo lo mismo. Pero si con hasta una GTX 660 de hace 11 años se puede seguir jugando a 1080p sin ningún problema a todo lo actual. Con esa gráfica en 1080p con todo alto en RE 8 Village da 40fps, en Hitman 3 en medio da 35fps, el FFVII remake 40fps, Control en medio 40fps, Forza Horizon 5 30fps. Osea, quién se crea que necesita cada año cambiar de gráfica para poder jugar genial a los juegos que van saliendo no puede estar más equivocado. Como todo es consumismo y ya está
2 VOTOS
Xineseman25741Hace 1 año5
@Kuzgun2
Mostrar cita
@Unscspiritoffire
Mostrar cita
Otros que tal.... una 1070 para gráficos al mínimo y nada más y nada menos que una 1080 Ti, y ni siquiera una 1080 normal para gráficos en alto y resolución 1080p, para una tarjeta gráfica que ha día de hoy sigue pasándose por el forro a mayoría de juegos a 1440p en alto/ultra a más de 60fps. Vale que este juego se ve mejor que el de los piratillas de Ubisoft pero no me jodas... tengo desde hace los 6 años que salió una GTX 1080 Gigabyte Windforce OC con la cual sigo moviendo todos los juegos que van saliendo no solo a más de 60fps en combinaciones alto/ultra, si no que encima lo hago en un formato y resolución más costosos de mover que lo normal, es decir a 21:9 a 3440x1440 y que casualidad que en los únicos juegos en los que he tenido que irme a combinaciones de medio/alto porque en su momento no contaban con el FSR de AMD fueron Red Dead Redemption 2 y Cyberpunk 2077. De verdad que no entiendo porque se toman tantísimas molestias en intentar colarte lo de los requisitos, porque estoy seguro que mucha gente no muy puesta en el tema termina cayendo. Para mucha gente esto es posible que no tenga ninguna importancia, que no lo vean como algo tan malo o piensen simplemente que no le hagas ni puto caso a estas cosas etc etc y posiblemente tengan razón, pero no se personalmente me parecen prácticas bastante detestables.
Llevan haciendo eso desde siempre, no es nada nuevo ahora. Dan asco todas las compañías con lo de los requisitos. Es algo ridículo y sin sentido, y ya en 2022 nadie debería ni mirarlos. Siempre inflan todo, no están estandarizados los requisitos, nunca ponen exactamente como han puesto todos los ajustes gráficos, y siempre cambiando dos cosas ganas el triple de rendimiento teniendo lo mismo. Pero si con hasta una GTX 660 de hace 11 años se puede seguir jugando a 1080p sin ningún problema a todo lo actual. Con esa gráfica en 1080p con todo alto en RE 8 Village da 40fps, en Hitman 3 en medio da 35fps, el FFVII remake 40fps, Control en medio 40fps, Forza Horizon 5 30fps. Osea, quién se crea que necesita cada año cambiar de gráfica para poder jugar genial a los juegos que van saliendo no puede estar más equivocado. Como todo es consumismo y ya está
Y luego está el tema de que muchos juegos de bajo a medio suben, de medio a alto suben pero de alto a muy alto o de muy alto a Ultra no suben nada pero te rebientan los fps. La gente lo pone en ultra y les va mal cuando en altos se ve igual y va mucho mejor. Eso pasó con RDR 2. Nada de mala optimización. Optimización de puta madre para como se ve con lo que pide. Que la versión mas tocha de consolas era la de One X y muchos parametros de esta eran low o medio en PC (según el video de Digital Fondry) y aún asi el juego se veia del carajo. Muchos ajustes tenian "pases" de sobra cuando en normal o altos se venian bién. En el resto los multiplicaban por 4 o por 8 y te tanqueba el rendimiendo sin mejoreas visuales palpables. Solo algunas optiones escalaban bién la calidad visual como el agua, a la que si se le notaban los pases extra de malla de cara a las físicas.
16 VOTOS
Katanas4340Hace 1 año6
Corrección.
EDITADO EL 28-08-2022 / 14:41 (EDITADO 1 VEZ)
Katanas4340Hace 1 año7
Mi GTX 1060 G1 Esto lo tira en ultra a mi no me la cuelan.
EDITADO EL 28-08-2022 / 14:41 (EDITADO 2 VECES)
Adry26041314Hace 1 año8
@Hhkaal416
Mostrar cita
Si lo mueve la switch, no tenemos que preocuparnos por los requisitos por una parte me jode que no sea un juego exclusivamente de nueva generacion (pc, ps5 xsx/s) para poder aprovechar al maximo el potencial de esas plataformas y no destinar recursos en intentar optimizar el juego para consolas "antiguas" y de paso "rebajar la calidad del título", por otro lado, como fan de harry potter que soy, me parece genial que cualquier otro fan pueda jugarlo independientemente de la plataforma o generación que tenga lo tengo reservado ya junto con gow ragnarok, solo me falta el callisto protocol (el resto lo jugaré en game pass) pero no tengo dinero para tanto
No se sabe si la Switch lo va a mover o no, pueden hacerlo a través de la Nube y ya.
EDLV3000567Hace 1 año9
@Xineseman
Mostrar cita
@Kuzgun2
Mostrar cita
@Unscspiritoffire
Mostrar cita
Otros que tal.... una 1070 para gráficos al mínimo y nada más y nada menos que una 1080 Ti, y ni siquiera una 1080 normal para gráficos en alto y resolución 1080p, para una tarjeta gráfica que ha día de hoy sigue pasándose por el forro a mayoría de juegos a 1440p en alto/ultra a más de 60fps. Vale que este juego se ve mejor que el de los piratillas de Ubisoft pero no me jodas... tengo desde hace los 6 años que salió una GTX 1080 Gigabyte Windforce OC con la cual sigo moviendo todos los juegos que van saliendo no solo a más de 60fps en combinaciones alto/ultra, si no que encima lo hago en un formato y resolución más costosos de mover que lo normal, es decir a 21:9 a 3440x1440 y que casualidad que en los únicos juegos en los que he tenido que irme a combinaciones de medio/alto porque en su momento no contaban con el FSR de AMD fueron Red Dead Redemption 2 y Cyberpunk 2077. De verdad que no entiendo porque se toman tantísimas molestias en intentar colarte lo de los requisitos, porque estoy seguro que mucha gente no muy puesta en el tema termina cayendo. Para mucha gente esto es posible que no tenga ninguna importancia, que no lo vean como algo tan malo o piensen simplemente que no le hagas ni puto caso a estas cosas etc etc y posiblemente tengan razón, pero no se personalmente me parecen prácticas bastante detestables.
Llevan haciendo eso desde siempre, no es nada nuevo ahora. Dan asco todas las compañías con lo de los requisitos. Es algo ridículo y sin sentido, y ya en 2022 nadie debería ni mirarlos. Siempre inflan todo, no están estandarizados los requisitos, nunca ponen exactamente como han puesto todos los ajustes gráficos, y siempre cambiando dos cosas ganas el triple de rendimiento teniendo lo mismo. Pero si con hasta una GTX 660 de hace 11 años se puede seguir jugando a 1080p sin ningún problema a todo lo actual. Con esa gráfica en 1080p con todo alto en RE 8 Village da 40fps, en Hitman 3 en medio da 35fps, el FFVII remake 40fps, Control en medio 40fps, Forza Horizon 5 30fps. Osea, quién se crea que necesita cada año cambiar de gráfica para poder jugar genial a los juegos que van saliendo no puede estar más equivocado. Como todo es consumismo y ya está
Y luego está el tema de que muchos juegos de bajo a medio suben, de medio a alto suben pero de alto a muy alto o de muy alto a Ultra no suben nada pero te rebientan los fps. La gente lo pone en ultra y les va mal cuando en altos se ve igual y va mucho mejor. Eso pasó con RDR 2. Nada de mala optimización. Optimización de puta madre para como se ve con lo que pide. Que la versión mas tocha de consolas era la de One X y muchos parametros de esta eran low o medio en PC (según el video de Digital Fondry) y aún asi el juego se veia del carajo. Muchos ajustes tenian "pases" de sobra cuando en normal o altos se venian bién. En el resto los multiplicaban por 4 o por 8 y te tanqueba el rendimiendo sin mejoreas visuales palpables. Solo algunas optiones escalaban bién la calidad visual como el agua, a la que si se le notaban los pases extra de malla de cara a las físicas.
Más razón que un santo. Casi siempre el ajuste ultra está más para tener variedad de ajustes que nada. Son ajustes que en trailers van bien, pues la gente se fija al mínimo detalle, o que van bien para testear la eficiencia de un algoritmo, probando con cantidades más grandes de datos (por ejemplo, la distancia de dibujado o la resolución de reflejos). Pero en efecto, en general, es un ajuste que no vale la pena, aun con su ocasional excepción, evidentemente.
1 VOTO
Eulerreturns897
Expulsado
Hace 1 año10
Hora de ponerle una micro sd al portatil a lo steam deck.
Fable28133Hace 1 año11
@Adry2604

Switch va a tener versión física y digital, con lo cual no es en la nube.
2 VOTOS
Chemitaa4104Hace 1 año12
Una 1080ti para 1080p 60fps? O están infladísimos o se viene optimización de mierda. No se si para cuando salga seguiré teniendo la 970, pero en caso de que sí espero que me tire bien en 1080/60 en medios-bajos.
Xineseman25741Hace 1 año13
@EDLV3000
Mostrar cita
@Xineseman
Mostrar cita
@Kuzgun2
Mostrar cita
@Unscspiritoffire
Mostrar cita
Otros que tal.... una 1070 para gráficos al mínimo y nada más y nada menos que una 1080 Ti, y ni siquiera una 1080 normal para gráficos en alto y resolución 1080p, para una tarjeta gráfica que ha día de hoy sigue pasándose por el forro a mayoría de juegos a 1440p en alto/ultra a más de 60fps. Vale que este juego se ve mejor que el de los piratillas de Ubisoft pero no me jodas... tengo desde hace los 6 años que salió una GTX 1080 Gigabyte Windforce OC con la cual sigo moviendo todos los juegos que van saliendo no solo a más de 60fps en combinaciones alto/ultra, si no que encima lo hago en un formato y resolución más costosos de mover que lo normal, es decir a 21:9 a 3440x1440 y que casualidad que en los únicos juegos en los que he tenido que irme a combinaciones de medio/alto porque en su momento no contaban con el FSR de AMD fueron Red Dead Redemption 2 y Cyberpunk 2077. De verdad que no entiendo porque se toman tantísimas molestias en intentar colarte lo de los requisitos, porque estoy seguro que mucha gente no muy puesta en el tema termina cayendo. Para mucha gente esto es posible que no tenga ninguna importancia, que no lo vean como algo tan malo o piensen simplemente que no le hagas ni puto caso a estas cosas etc etc y posiblemente tengan razón, pero no se personalmente me parecen prácticas bastante detestables.
Llevan haciendo eso desde siempre, no es nada nuevo ahora. Dan asco todas las compañías con lo de los requisitos. Es algo ridículo y sin sentido, y ya en 2022 nadie debería ni mirarlos. Siempre inflan todo, no están estandarizados los requisitos, nunca ponen exactamente como han puesto todos los ajustes gráficos, y siempre cambiando dos cosas ganas el triple de rendimiento teniendo lo mismo. Pero si con hasta una GTX 660 de hace 11 años se puede seguir jugando a 1080p sin ningún problema a todo lo actual. Con esa gráfica en 1080p con todo alto en RE 8 Village da 40fps, en Hitman 3 en medio da 35fps, el FFVII remake 40fps, Control en medio 40fps, Forza Horizon 5 30fps. Osea, quién se crea que necesita cada año cambiar de gráfica para poder jugar genial a los juegos que van saliendo no puede estar más equivocado. Como todo es consumismo y ya está
Y luego está el tema de que muchos juegos de bajo a medio suben, de medio a alto suben pero de alto a muy alto o de muy alto a Ultra no suben nada pero te rebientan los fps. La gente lo pone en ultra y les va mal cuando en altos se ve igual y va mucho mejor. Eso pasó con RDR 2. Nada de mala optimización. Optimización de puta madre para como se ve con lo que pide. Que la versión mas tocha de consolas era la de One X y muchos parametros de esta eran low o medio en PC (según el video de Digital Fondry) y aún asi el juego se veia del carajo. Muchos ajustes tenian "pases" de sobra cuando en normal o altos se venian bién. En el resto los multiplicaban por 4 o por 8 y te tanqueba el rendimiendo sin mejoreas visuales palpables. Solo algunas optiones escalaban bién la calidad visual como el agua, a la que si se le notaban los pases extra de malla de cara a las físicas.
Más razón que un santo. Casi siempre el ajuste ultra está más para tener variedad de ajustes que nada. Son ajustes que en trailers van bien, pues la gente se fija al mínimo detalle, o que van bien para testear la eficiencia de un algoritmo, probando con cantidades más grandes de datos (por ejemplo, la distancia de dibujado o la resolución de reflejos). Pero en efecto, en general, es un ajuste que no vale la pena, aun con su ocasional excepción, evidentemente.
Yo suelo recortar estas cosas. Incluso poniendo cosas en "normal" si se ven bien y tengo una RTX 2080. Pero todo lo que sea mas FPS se agradece. Con un monitor 144hz pasar de 60 a 90/100 por quitar cosas que no mejoran casi, es lo mejor. Spider-Man lo juego sin RTX cuando con esta y DLSS lo puedo mover sobre los 60 fps (a veces sube a 70 otras baja a 50 y pico) Pero es Spiderman, a mas fluiedez mejor. El RTX me parece que no se nota casi nada (muchas cosas tienen reflejos pero MUY MUY débiles) y los SSR dan la talla. Sin RTX me va sobre los 90/100 fps y en este juego se notan mucho los altos fps.
1 VOTO
Elkoko00725Hace 1 año14
Yo tengo un pc como el de los requisitos recomendados y RDR 2 me iba a 70-95 fps en ultra. Si este juego se ve como el RDR 2 me doy con un canto en los dientes... pero no creo.
Dogerty5575Hace 1 año15
Se viene un port basura?
Responder / Comentar
Subir
Foros > Noticias y actualidad > Hogwarts Legacy detalla los requisitos mínimos y recomendados para PC, pero solo se muestran para 1080p

Hay 66 respuestas en Hogwarts Legacy detalla los requisitos mínimos y recomendados para PC, pero solo se muestran para 1080p, del foro de Noticias y actualidad. Último comentario hace 1 año.

  • Regístrate

  • Información legal
Juegos© Foro 3DJuegos 2005-2024. . SOBRE FORO 3DJUEGOS | INFORMACIÓN LEGAL