Español (ES)
Usuario anónimo
Iniciar sesión | Regístrate gratis
Foro de Xbox One

Responder / Comentar
Foro Xbox One

¿Por que se dice que la GPU de Xbox one está basada en Bonaire (7790/R7260x)?

OmarAntroS3924Hace 9 años720
Su quieres que te tome enserio, no empieces tu comentario soltando memeces con poco sentido y propias de un ignorante, lo siento por las formas pero la época del fanboyismo - si me permites el anglicismo - de alto presupuesto debio haber muerto ya desde aquella potencia oculta del Cell y su mala arquitectura.

@RCMax
Mostrar cita
Ese ancho de banda es el de la DDR3,pero te olvidas de la eSRAM que es de 204GB/s.Cuando he dicho 200GB/s no hablaba del pico de rendimiento si no del real combinado en situaciones de trabajo de ambas memorias. El pico son 272GB/s. 204+68 Y esto no lo digo yo,lo dice MS en el paper del IEEE,búscalo y te informas en vez de dar palos de ciego. El ancho de banda real está en torno a los 200GB/s en X1.
La ESRAM es parte del subsistema de memoria, y como TODO subsistema de memoria, no suma su velocidad a los demás escalones, es algo ultra básico. Te lo explico con en procesador que tiene la maquina de la que te escribo, aclarando que es un Pentium Haswell G3258 a 4.8Ghz. La cache L1 de mi CPU tiene una velocidad de unos 500.000MB/s en copia, esto no hace que la L2 (siguiente eslabón en el subsistema) tenga esa velocidad, si no 150.000MB/s. Del mismo modo, la ESRAM siendo parte del subsistema de memoria de la GPU, no va a darle mas ancho de banda efectivo, son todo pajas mentales.
@RCMax
Mostrar cita
Sí,basicamente sí.Digo que a reinventado la rueda.Yo no duplico las ALUs,eso ya lo han hecho MS y AMD. Ellos dicen que hay 768,lo que pasa es que son un poco raras
Eh?? Solo se cambio la distribución que hay en los distintos bloques de la GPU, se cambio la cantidad de núcleos por cada Compute Unit a 128, siendo lo normal en GCN 64 núcleos, luego simplemente redujeron la cantidad de estos Compute Units y de Shader Engines. Es un "rediseño" (en realidad solo reorganización, 2x2x2x4 es los mismo que 4x2x2x2) para ahorrar silicio y abaratar costes, no para aumentar ninguna potencia, porque si al caso vamos, puede que empeore la eficiencia de cada Shader Engine al usar un rasterizador y procesador de geometría para Compute Units mas complejos, o que incluso estos compartan recursos como el Scheduler y la eficiencia disminuya al usar uno solo para 128 núcleos en lugar de 64. Y de raro nada, Nvidia y AMD lo hacen desde tiempos inmemoriales, sobre todo Nvidia que dentro de una misma arquitectura puede usar distintas variantes de organización en los GPCs, como con el GK106 y el diseño heterogéneo de SMXs por GPC respecto al GK104, GK107 y GK110.
@RCMax
Mostrar cita
Toma la tabla de compatibilidades oficial del SDK de Win10.¿Existe o no existe?
Se refieren a los GM200, GM204 y GM206 como "maxwell 2" para diferenciarlos de las primeras Maxwell (GM207) que tenían recortes de Hardware por ser la gama mas baja de Nvidia, debía ser un chip muy rentable y una prueba para poner a punto los nodos de cara al GM204 y sus casi 400mm^2. Así que no hay ni maxwell 2 ni 3 ni ostias en vinagre, solo fue una forma de diferenciarlos. Y es que si a eso vamos, por salir meses después y tener mucho mas hardware para FP64 no vamos a llamar "Maxwell 3" al GM200... un poquito de seriedad, por favor.
@RCMax
Mostrar cita
Se les habrá movido un trocito cuando la montaban y le ha caido entre los clusters de la CPU O igual está ahí,porqué les sobraba y para no tirarla la pegaron ahí.A saber... Lo bueno es que como nunca se ha visto algo así pues según tú,no existe.Si no está en PC Componentes,no existe.
Ves por que te califico de ignorante? El diseño final de un SoC lo hace un programa, es computarizado para aumentar al máximo posible la eficiencia del diseño final, ya que cada milímetro de silicio ahorrado es critico. No es un ingeniero que se pone a acomodar las partes del chip, si la organización de un SoC pasa por dejar alguna bloque de ESRAM a un lado para ahorras silicio, y por ende millones de dolares a la larga, pues se hace. Sin mencionar que ese bloque de ESRAM no debería ser de mas de 2 o 3MB, así que como una "cache" L3 seria mas bien un chiste para 8 nucleos.
@RCMax
Mostrar cita
Si la eSRAM tiene un bus de 1024 y la DDR3 uno de 256,¿Cuántos bits son en total?
Te repito, los buses de datos de los distintos eslabones dentro de un subsistema de memoria NO SE SUMAN, ni tampoco su ancho de banda, porque si a esas vamos la suma de todos los eslabones del subsistema de un simple Core i3 Haswell daría mas de 1000GB/s.... de un i7 con overlock ya ni hablamos.
@RCMax
Mostrar cita
Las idioteces no se rebaten diciendo que eres informático,de esos ya hay muchos. Y lo de crío,lejos de ofenderme,me halaga Hala a seguir dando lecciones de informática práctica.
Y cuando dije yo eso alma de cántaro? En fin...
4 VOTOS
Metalmen211291
Expulsado
Hace 9 años721

Mensaje eliminado por moderación.(Comentario ofensivo)

EDITADO EL 11-04-2015 / 11:22 (EDITADO 1 VEZ)
JaviSoft252Hace 9 años722
Si no concuerda con la información oficial es de magufos, aunque se haya visto que MS miente a la baja en sus datos:

- 8 contextos gráficos y no 2 como anunció 
- más esram de la oficial, aunque no sabemos cuanta más porque no se puede comprobar por el tamaño al ser de mayor densidad el bloque de esram de la CPU. Aunque algunos ya se hayan inventado la cantidad, deben de conocer hasta la diferencia del grado de densidad, pero bueno.

Pero si concuerda con la informacion oficial (suma de anchos de banda) MS miente.

Así es muy fácil querer tener razón



@Isma82
Mostrar cita
@JaviSoft @OmarAntroS sabe bastante mas de hardware que el 90% de los que habéis posteado aquí. Ten un poquito de respeto. Todo el mundo se puede equivocar pero mas que se equivocan otros y les seguis las gracias... Así que no acuses si no sabes nada del usuario solo porque no dice lo que quieres oír. Me gustaría ver acusar al otrora aclamado Brad W por twitter por decir que la grafica y el ancho de banda de ps4 es superior... El tampoco ha tocado una One... Ya podéis inflarle a twitts y llamarle ignorante...
¿Que tenga un poquito de respeto? ¿Qué cuando le he faltado al respeto? Le he dado un consejo, porque la estaba cagando con los datos que estaba dando y con ese tono de prepotencia con el que ha entrado al hilo llamando avispado y demás a la gente. Faltarle al respete hubiese sido llamarle avispado, majete, crio, ignorante y todo escrito desde un tono bastante arrogante. Pero no, eso es lo que ha hecho él no yo. Ha entrado con una actitud muy prepotente o con una falta de educación palpable,lamalo como quieras. Con datos en la mano erroneos/incompletos y negando datos oficiales. Pero soy yo el que falto al respeto por darle un consejo, ajá... ...tomo nota
EDITADO EL 11-04-2015 / 11:45 (EDITADO 2 VECES)
2 VOTOS
JaviSoft252Hace 9 años723
Repe
EDITADO EL 11-04-2015 / 11:39 (EDITADO 1 VEZ)
Vihuquinpa172Hace 9 años724
@OmarAntroS
Mostrar cita
Su quieres que te tome enserio, no empieces tu comentario soltando memeces con poco sentido y propias de un ignorante, lo siento por las formas pero la época del fanboyismo - si me permites el anglicismo - de alto presupuesto debio haber muerto ya desde aquella potencia oculta del Cell y su mala arquitectura.
@RCMax
Mostrar cita
Ese ancho de banda es el de la DDR3,pero te olvidas de la eSRAM que es de 204GB/s.Cuando he dicho 200GB/s no hablaba del pico de rendimiento si no del real combinado en situaciones de trabajo de ambas memorias. El pico son 272GB/s. 204+68 Y esto no lo digo yo,lo dice MS en el paper del IEEE,búscalo y te informas en vez de dar palos de ciego. El ancho de banda real está en torno a los 200GB/s en X1.
La ESRAM es parte del subsistema de memoria, y como TODO subsistema de memoria, no suma su velocidad a los demás escalones, es algo ultra básico. Te lo explico con en procesador que tiene la maquina de la que te escribo, aclarando que es un Pentium Haswell G3258 a 4.8Ghz. La cache L1 de mi CPU tiene una velocidad de unos 500.000MB/s en copia, esto no hace que la L2 (siguiente eslabón en el subsistema) tenga esa velocidad, si no 150.000MB/s. Del mismo modo, la ESRAM siendo parte del subsistema de memoria de la GPU, no va a darle mas ancho de banda efectivo, son todo pajas mentales.
@RCMax
Mostrar cita
Sí,basicamente sí.Digo que a reinventado la rueda.Yo no duplico las ALUs,eso ya lo han hecho MS y AMD. Ellos dicen que hay 768,lo que pasa es que son un poco raras
Eh?? Solo se cambio la distribución que hay en los distintos bloques de la GPU, se cambio la cantidad de núcleos por cada Compute Unit a 128, siendo lo normal en GCN 64 núcleos, luego simplemente redujeron la cantidad de estos Compute Units y de Shader Engines. Es un "rediseño" (en realidad solo reorganización, 2x2x2x4 es los mismo que 4x2x2x2) para ahorrar silicio y abaratar costes, no para aumentar ninguna potencia, porque si al caso vamos, puede que empeore la eficiencia de cada Shader Engine al usar un rasterizador y procesador de geometría para Compute Units mas complejos, o que incluso estos compartan recursos como el Scheduler y la eficiencia disminuya al usar uno solo para 128 núcleos en lugar de 64. Y de raro nada, Nvidia y AMD lo hacen desde tiempos inmemoriales, sobre todo Nvidia que dentro de una misma arquitectura puede usar distintas variantes de organización en los GPCs, como con el GK106 y el diseño heterogéneo de SMXs por GPC respecto al GK104, GK107 y GK110.
@RCMax
Mostrar cita
Toma la tabla de compatibilidades oficial del SDK de Win10.¿Existe o no existe?
Se refieren a los GM200, GM204 y GM206 como "maxwell 2" para diferenciarlos de las primeras Maxwell (GM207) que tenían recortes de Hardware por ser la gama mas baja de Nvidia, debía ser un chip muy rentable y una prueba para poner a punto los nodos de cara al GM204 y sus casi 400mm^2. Así que no hay ni maxwell 2 ni 3 ni ostias en vinagre, solo fue una forma de diferenciarlos. Y es que si a eso vamos, por salir meses después y tener mucho mas hardware para FP64 no vamos a llamar "Maxwell 3" al GM200... un poquito de seriedad, por favor.
@RCMax
Mostrar cita
Se les habrá movido un trocito cuando la montaban y le ha caido entre los clusters de la CPU O igual está ahí,porqué les sobraba y para no tirarla la pegaron ahí.A saber... Lo bueno es que como nunca se ha visto algo así pues según tú,no existe.Si no está en PC Componentes,no existe.
Ves por que te califico de ignorante? El diseño final de un SoC lo hace un programa, es computarizado para aumentar al máximo posible la eficiencia del diseño final, ya que cada milímetro de silicio ahorrado es critico. No es un ingeniero que se pone a acomodar las partes del chip, si la organización de un SoC pasa por dejar alguna bloque de ESRAM a un lado para ahorras silicio, y por ende millones de dolares a la larga, pues se hace. Sin mencionar que ese bloque de ESRAM no debería ser de mas de 2 o 3MB, así que como una "cache" L3 seria mas bien un chiste para 8 nucleos.
@RCMax
Mostrar cita
Si la eSRAM tiene un bus de 1024 y la DDR3 uno de 256,¿Cuántos bits son en total?
Te repito, los buses de datos de los distintos eslabones dentro de un subsistema de memoria NO SE SUMAN, ni tampoco su ancho de banda, porque si a esas vamos la suma de todos los eslabones del subsistema de un simple Core i3 Haswell daría mas de 1000GB/s.... de un i7 con overlock ya ni hablamos.
@RCMax
Mostrar cita
Las idioteces no se rebaten diciendo que eres informático,de esos ya hay muchos. Y lo de crío,lejos de ofenderme,me halaga Hala a seguir dando lecciones de informática práctica.
Y cuando dije yo eso alma de cántaro? En fin...
Creo que hasta al propio @isma82 le habrá dado un poco de vergüenza leer lo que has dicho, no das ni una.
2 VOTOS
Isma8226820Hace 9 años725
@JaviSoft javi ya se lo he dicho varias veces a tus compañeros y ahora te lo digo a ti. En las apis graficas se pueden crear diferentes contextos 
[url]https://www.opengl.org/wiki/OpenGL_Context[/url]

Si lees veras que pone. [b]The application can create multiple context.[/b]

Los que se sorprendan que en la api de una gpu medianamente moderna de una consola se puedan crear múltiples contextos es que no ha tocado una api grafica demasiado.

Así tu dices que Microsoft miente pues ole tus huevos. Quizás se te ha pasado por alto el adjetivo INDEPENDIENTES. Cosa que por cierto cuando dije yo esto mismo con los dos contextos se me echo en cara desde esos usuarios... Supongo que ahora se les ha olvidado... La diferencia es que el hw de Xbox permite tener dos contextos independientes... Que significa independientes? Que pueden ser ejecutados por hardware de manera simultanea. Y esto se puede hacer debido a que hay dos graphics commands entre otras cosas. Eso significa que Xbox one tiene dos gpus? Si y no. Tiene la gpu organizada en dos bloques de 6. Pero no en dos bloques de 12 cus. No hay dos gpus como tal si no la posibilidad de usar las alus desde dos contextos simultáneamente.

Pero desde hace mucho tiempo se pueden crear múltiples contextos en una API grafica como te acabo de demostrar con esta llamada al api de opengl.

Recuerda la simple deduccion de reducción al absurdo para demostrar una falsedad. Si dis contextos gráficos hacen a la gpu el doble de potente... 8 deberían hacerla 8 veces mas potente... Luego la gpu de Xbox one tendría 11 tflops . Va a ser que no .
EDITADO EL 11-04-2015 / 13:22 (EDITADO 2 VECES)
MagisterMatt442Hace 9 años726
Realmente esto ya se ha ido completamente, entre algunos ingenieros de Lavapiés que vienen al hilo de la forma en la que vienen para soltar... En fin, me callo. Entre que Isma no atiende a razones y por mucho que le expliquéis, le pongáis documentos oficiales u oficiosos y le digáis las cosas no va a cambiar de tercio. 

Se le da muy bien decir que la XBO procede de una Bonaire y compararla con una APU del montón que encuentro bajando de mi casa en la tienda de la esquina... Se le da de maravilla eso. También se le da de maravilla decir que todo lo que dice es un hecho, que no se equivoca y se mofará de nosotros en el futuro. Se le da de maravilla poner y extrapolar gráficas y cosas que no tienen su haber... Pero eso sí, el chaval sabe mucho. ¿Y va y dice que su valedor no se ha estudiado bien el paradigma de la One? Perdona pero eso es vender muy barato a los que te sacan las castañas del fuego, además, si lo hacen de la forma en la que lo hacen... 

No sé, sigo sin ver esta conversación seria, es una conversación de patio. Aquí todo el mundo habla de su polla y nadie la enseña. Solo una persona en otro foro la enseña y pone a disposición de todos su currículum y credenciales que ha trabajado en el desarrollo de One y avala que SABE de lo que habla.

Aquí todos podemos jugar a tecnolistos y todos llevamos razón, jugamos a ver quien la tiene más grande pero nadie se la saca para ver cuán fantasmas somos eh?. Después criticamos a otros, pero aquí yo no veo seriedad, sobre todo por parte del iniciador del hilo.

Así que bueno, mañana me pongo el mono de trabajo azul de técnico informático de sistemas y empiezo mis elucubraciones en base a... Los ARM, voy a poner gráficos de chips de ARM y los voy a comparar a ver que tal sale la cosa, quizás tengamos una charla distendida.

@RCMax y @Metalmen21. Yo creo que no deberíais explicar nada más, total, se lo pasan por el arco del triunfo, aunque le digas una verdad constatada o le enseñes un video o le traigas a los ingenieros de Microsoft a la puerta de su casa, seguirá negando todo y haciéndose sus cábalas mentales. El poner datos técnicos y demás es seguir jugando en el patio, así de claro. Cuando haya seriedad, quizás convendría darle un punto de seriedad a todo... ¿Pero así?, si el propio hilo y el primer comentario de este hilo es un chiste de mal gusto a los que partimos de la base de que "no me puedo crear un XBO en el pccomponentes", yo lo veo claro, pero bueno. Además, si así fuese, sería mucho más barato.
EDITADO EL 11-04-2015 / 13:51 (EDITADO 1 VEZ)
Isma8226820Hace 9 años727

Mensaje eliminado por moderación.(Desvirtúa el tema original)

EDITADO EL 11-04-2015 / 14:52 (EDITADO 3 VECES)
Vihuquinpa172Hace 9 años728

Mensaje eliminado por moderación.(Desvirtúa el tema original)

Cch37278Hace 9 años729

Mensaje eliminado por moderación.(Desvirtúa el tema original)

Isma8226820Hace 9 años730

Mensaje eliminado por moderación.(Desvirtúa el tema original)

JaviSoft252Hace 9 años731
@Isma82
Mostrar cita
@JaviSoft javi ya se lo he dicho varias veces a tus compañeros y ahora te lo digo a ti. En las apis graficas se pueden crear diferentes contextos [url]https://www.opengl.org/wiki/OpenGL_Context[/url] Si lees veras que pone. [b]The application can create multiple context.[/b] Los que se sorprendan que en la api de una gpu medianamente moderna de una consola se puedan crear múltiples contextos es que no ha tocado una api grafica demasiado. Así tu dices que Microsoft miente pues ole tus huevos. Quizás se te ha pasado por alto el adjetivo INDEPENDIENTES. Cosa que por cierto cuando dije yo esto mismo con los dos contextos se me echo en cara desde esos usuarios... Supongo que ahora se les ha olvidado... La diferencia es que el hw de Xbox permite tener dos contextos independientes... Que significa independientes? Que pueden ser ejecutados por hardware de manera simultanea. Y esto se puede hacer debido a que hay dos graphics commands entre otras cosas. Eso significa que Xbox one tiene dos gpus? Si y no. Tiene la gpu organizada en dos bloques de 6. Pero no en dos bloques de 12 cus. No hay dos gpus como tal si no la posibilidad de usar las alus desde dos contextos simultáneamente. Pero desde hace mucho tiempo se pueden crear múltiples contextos en una API grafica como te acabo de demostrar con esta llamada al api de opengl. Recuerda la simple deduccion de reducción al absurdo para demostrar una falsedad. Si dis contextos gráficos hacen a la gpu el doble de potente... 8 deberían hacerla 8 veces mas potente... Luego la gpu de Xbox one tendría 11 tflops . Va a ser que no .
Entiendo entonces que los dos contextos gráficos que dijo MS son los independientes, y los 8 contextos graficos del K son contextos "virtualizados" o como se llame eso pero no independientes. Creas varias ordenes y las repartes en esos 8 contextos pero van ejecutándose de dos en dos (por tener dos independientes) y no de uno en uno como las actuales arquitecturas modernas. Si he entendido bien MS no mintió en ese aspecto, pero si lo ha hecho en la cantidad de esram. El tiempo ya irá reveando si mintieron/omitieron más en más cosas, pero de momento con la sram ya se sabe que así fue.
Isma8226820Hace 9 años732
@JaviSoft Microsoft dijo en la presentación del Hotchip que en el soc había 47 Mb de memoria creo recordar. 32 son las accesibles para la gpu desde el api. El resto se dividen entre las caches de primer y segundo nivel de la cpu y la gpu y esa esram que esta entre los dos cus que es aproximadamente restando de unos 8 o 10 MBytes.

Por cierto en un articulo de Microsoft previo al del IEEE comentan sus ingenieros que la esram es redundante para que la fabricación del chip sea mas barata. Es decir que hacen como con la gpu que hay cus desactivados por si están rotos... Pues parece ser que cin la esram pasa lo mismo. Estoy con el móvil pero si luego me acuerdo busco el enlace a dicho paper.

Los 8 contextos son contextos graficos que como explica la función de opengl sirven para encapsular cosas y que tienen múltiples aplicaciones... No es que estén o dejen de estar virtualizados. Es un mecanismo propio de la api para facilitarle las cosas al programador.

Documentación api opengl


[u]An OpenGL context represents many things[/u]. [u]A context stores all of the state associated with this instance of OpenGL[/u]. It represents the ([b]potentially visible[/b]) [b]default framebuffer [/b]that rendering commands will draw to when not drawing to a framebuffer object. [u]Think of a context as an object that holds all of OpenGL[/u]; when a context is destroyed, OpenGL is destroyed.

Contexts are localized within a particular process of execution (an application, more or less) on an operating system. A process can create multiple OpenGL contexts. Each context can represent a separate viewable surface, like a window in an application.

[u]Contexts can share many kinds of objects between each other. Any OpenGL object types which are not containers are sharable, as well as Sync Objects and GLSL Objects (excluding program pipeline objects). All container objects are not shared between contexts.[/u]

Fijate en esta ultima parte... Habla de objetos compartidos entre contextos. Dos contextos independientes no es otra cosa que dos contextos que no comparten nada. A efectos para el programador son como si fueran dos aplicaciones diferentes.
EDITADO EL 11-04-2015 / 16:00 (EDITADO 4 VECES)
Cch37278Hace 9 años733
Decirte que vayas alli a debatir con alguien que argumenta todo lo que dice es un ataque personal? Que yo no he sido el que a intentado destapar la verdad del interior de one, por eso te digo que como veo que no estas convencido, ves alli y le argumentas a el, te inventas cosas que nadie a dicho, nadie a dicho que one vaya a rendir 11 teraflops, nadie a dicho que one monte una 970, se a dicho que one tiene dos contextos graficos reales, doble pipe, doble comand procesor, a dicho phill spencer que con dx12 al portear el codigo de dx11 a 12 va a ver una gran mejora, tu por como hablas parece que tienes grandes  conocimientos, pero eso no quiere decir que tengas razon, microsoft a dado datos oficiales y tambien los dio con la 360 y luego se vio que tenia tecnologia que no se dio de manera oficial
MagisterMatt442Hace 9 años734
@Isma82
Mostrar cita
@MagisterMatt bla bla bla bla bla bla.. Pero aquí seguimos sin contestar las preguntas que planteo y las contradicciones que he planteado. Cuando no hay argumentos intentas desacreditar. Por cierto donde están esos curriculums de los que hablas que tanto exiges a los demás... Yo no los veo colgados en el otro foro? Ni en ninguna parte. Me puedes pasar el enlace de dinde lo tiene publicado please? A y de paso despues de tu patetico fail con lo del curriculum inventado deberias en vez de venir a insultar hablar de las contradicciones que os pregunto.... No? O solo vienes a atacar personalmente? Tienes por cierto algo que decir del opengl_context() de opengl?
Bla bla bla bla... Pero todo lo que te digo te escuece porque llevo razón, así es. ¿Que quieres refigiarte en tus argumentos? No problem, pero no vengas de catedrático y hacedor de XBO, porque ha quedado patente que no tienes ni pajolera idea de qué hablas y estás calado en todos los sitios habidos y por haber. Los currículum no tienen por qué estar colgados, simplemente están los nombres y apellidos de la gente que hace posible esas entradas en el blog. Tú no tienes ni nombre ni apellido ¿e intentas sentar cátedra?... Válgame el cielo. Te lo vuelvo a repetir, entraste no con una opinión, sino con una verdad que tú considerabas la única. Ahora sé un hombre y encaja que tus argumentos son erróneos y no has tenido cojones de verificar que la información que das proviene de una autoridad en materia. Lo del currículum está por demostrar, que te crees muy valiente. No levantes mucho la voz a ver si vas a tener que esconderte de esas afirmaciones de fail o no fail. No eres nadie para decir que ese no eres tú, máxime cuando eres el interesado en discordia y cuando no se ha filtrado más información. ¿Caso de phising?, quien sabe. Y te vuelvo a repetir, que yo en 2 días averiguo rápidamente quien es ese Isma, no sigas por ahí. Todo esto quedará en un "ups, prefiero no saberlo". Tranquilo que tu culo está a salvo. Tu primera contradicción, y afirmaciones categóricas, una de tantas empiezan desde el minuto 1 de este hilo y de otros comentarios poco afortunados. Contradicciones son las tuyas de base, ¿porqué no te montas una consola en pc componentes si son los mismos materiales? ¿Te saldría más abarato, no? Demasiado papista eres, y no tienes ni puta idea de lo que lleva la One, y ha quedado patente en muchos comentarios. Inconsistencias dice... Habló el que sabe todo y lo tiene todo muy atado, ¿no? ¿Cuánto era, 3 o 4 fps?... Hay que tener vergüenza para tomar a los demás por tontos. Ahí ya quedaste retratado. [b]O solo vienes a atacar personalmente?[/b] Más quisieras que te atacara personalmente. Lo que quiero es que defiendas como un hombre y una persona que dice saber de lo que habla y por ende tener una experiencia con ese hardware lo que conlleva un prestigio determinado para con la materia que se está debatiendo. A ver si te crees que todo el mundo vale para debatir seriamente y desde un conocimiento directo cualquier cosa. Hay que ser gran experto con experiencia para debatir por internet de forma airosa y no quedarse en ridículo como lo estás haciendo. Yo solo doy mis credenciales en aquello que soy experto y controlo, y en cualquier momento puedo dar credenciales de que quien habla sabe de lo que habla, y no cualquier matao. Yo no te ataco personalmente, solo digo que para como has llevado el discurso hasta ahora, eres un fantasma y un cobarde de no revelar cuán experto eres de lo que hablas. A mí ME LA PELA quién seas y me da igual tu currículum y si eres la ostia puta o un ingeniero reputado del MIT o estuviste haciendo prácticas de física cuántica en el CERN. Me la pela, lo que me hace gracia es que vengas de salvador de la información real y de lo que es y no es algo y no tengas ni puñetera idea de lo que hay en el SoC de One. Te lo dije desde el minuto 1. Si eres capaz de decirme qué coño lleva la One en su interior y cómo lo lleva y cómo trabaja correctamente con su paradigma, empezarás a tener un punto de credibilidad, mientras tanto eres un aprendiz de ingeniero nivel patio de recreo. [b]Tienes por cierto algo que decir del opengl_context() de opengl?[/b] Hay una bonita entrada en nuestro blog firmada por nuestro webmaster, con su nombre real y su credencial, que habla de Vulkan, the OpenGl next y Directx12. Si no sabes, no me preguntes, allí habla alguien que se ha informado del tema y estoy seguro que ha visto y trabajado las librerías. Yo todavía no sé si eres un técnico de Lavapiés, si solo te gusta la informática y te gusta leer blogs, o si te dedicas a ser relaciones públicas y la idea que tienes es de haberlo visto en la pantalla de un blog. Lo siento, no convences. Te lo dije en su día y te lo seguiré diciendo.
2 VOTOS
Isma8226820Hace 9 años735
@Cch37 11 tflops no. Pero 2.6 que rinden como 5 si y eso no esta acreditado por mas que useis los 8 contextos gráficos que como acabo de demostraros cualquier grafica lo permite y ni siquiera necesita direct x para hacerlo. Yo contesto lo que se dice aquí. Aquí se dice que si hay una demo de raytracing es por algo si xbo soporta 4k es porque puede hacer juegos a 4K o al menos no os parece raro que los tenga ya que alguno se trago enterita una trola y vino corriendo a restregarnosla aquí. Insisto en que contesto lo que aquí se expone. Este foro no es mi coto privado de caza ni mucho menos. Visto esta que aquí hay 10 personas de ese foro tomando relevos para postear... Si queréis contestarme y no sabéis preguntad o que venga alguien con la lección aprendida. Lo que no puede ser es venir a restregar supuestos datos que revelan no se que potencia y resulta que cuando os preguntamos que esto esta mal o no es correcto nos digáis que pregúntaselo a otro... No no se lo pregunto al que estoy hablado... Que coño creéis que es esto el juego del teléfono escacharrado?
EDITADO EL 11-04-2015 / 16:31 (EDITADO 1 VEZ)
Responder / Comentar
Subir
Foros > Xbox One > ¿Por que se dice que la GPU de Xbox one está basada en Bonaire (7790/R7260x)?

Hay 880 respuestas en ¿Por que se dice que la GPU de Xbox one está basada en Bonaire (7790/R7260x)?, del foro de Xbox One. Último comentario hace 9 años.

  • Regístrate

  • Información legal
Juegos© Foro 3DJuegos 2005-2024. . SOBRE FORO 3DJUEGOS | INFORMACIÓN LEGAL