Español (ES)
Usuario anónimo
Iniciar sesión | Regístrate gratis
Foro de Xbox One

Responder / Comentar
Foro Xbox One

¿Por que se dice que la GPU de Xbox one está basada en Bonaire (7790/R7260x)?

Isma8226820Hace 9 años736
@MagisterMatt insistes una y otra vez en lo mismo. No hay curriculums publicados y por miguel mellado en linkedin hay poca cosa interesante. Tampoco he buscado mucho lo justo... Pero no lo he visto. Luego no son públicos y notorios. Otra chufla mas. Que por otro lado tranquilo que entiendo que no lo publique. Que seria gilipollas si lo hace. Porque me costa que hay mas de un tarao que igual hasta se presentaría en su casa a pedirle explicaciones. Por algo no lo hago yo. Que hay mucho tarao suelto... Pero no seas tan falsete y demagogo.

Insisto. No voy a entrar en ataques personales. Tus fails te los gestionas tu miso Matt. Yo paso de ese tema si tienes dudas ya sabes. Tu mismo.

Si no vas a aportar algo al debate y solo vienes a trollear. Te puedes ir con la [b]música[/b] a otra parte.
EDITADO EL 11-04-2015 / 16:43 (EDITADO 1 VEZ)
3 VOTOS
Metalmen211291
Expulsado
Hace 9 años737

Mensaje eliminado por moderación.(Comentario ofensivo y desvirtúa el tema original)

Vihuquinpa172Hace 9 años738
@isma82 Por la frecuencia con la que posteas y te pasas 48 hours non stop, está claro que tú trabajas desde casa  
EDITADO EL 11-04-2015 / 17:09 (EDITADO 1 VEZ)
1 VOTO
MagisterMatt442Hace 9 años739
@Isma82
Mostrar cita
@MagisterMatt insistes una y otra vez en lo mismo. No hay curriculums publicados y por miguel mellado en linkedin hay poca cosa interesante. Tampoco he buscado mucho lo justo... Pero no lo he visto. Luego no son públicos y notorios. Otra chufla mas. Que por otro lado tranquilo que entiendo que no lo publique. Que seria gilipollas si lo hace. Porque me costa que hay mas de un tarao que igual hasta se presentaría en su casa a pedirle explicaciones. Por algo no lo hago yo. Que hay mucho tarao suelto... Pero no seas tan falsete y demagogo. Insisto. No voy a entrar en ataques personales. Tus fails te los gestionas tu miso Matt. Yo paso de ese tema si tienes dudas ya sabes. Tu mismo. Si no vas a aportar algo al debate y solo vienes a trollear. Te puedes ir con la [b]música[/b] a otra parte.
¿Quién te ha dicho que debe de estar en Linkedin, ya vienes con tu bola de cristal, déjame adivinar, eran 3 o 4 fps? ¿También eso es una predicción? En un perfil de Linkedin no tienes porqué poner una dirección física, puedes poner tu email de contacto y tu teléfono, y puedes saber quién ha visto tu perfil, no empecemos un sábado con gilipolleces. Tú no lo haces por cobardía majete, que se hubieras sido serio desde el primer momento y hubieras tenido información contrastable y tu identidad contrastable, tratándose del ego que tienes hubieras ido a pecho descubierto. Falsete y demagogo, mucho dices y no dices nada, en fin. Nada más que añadir por aquí. No entres en ataques personales, que te defiendes como gato panza arriba, que no te interesa responder a lo que se te ha pedido. Si no muestras es porque tienes que esconder, y yo sé por las declaraciones que siempre has hecho erróneas de base que tienes mucho por lo que esconderte. Yo no voy a aportar nada a [b]"este debate"[/b], lo primero porque no es un debate, son las ideas que una persona cree verdades universales en un hilo totalmente descontextualizado y desvirtuado desde el minuto 1. Tranquilo que me voy con la música a otra parte, faltaría, don prepotente, que cuando algo no te gusta bien que te arrugas y escurres el bulto. Si no te sabes defender siquiera de la información y no sabes ni empezar un DEBATE SERIO, que es dando credenciales de quién eres y en materia de lo que vas a hablar y qué puedes aportar que no sean divagaciones... Pues apaga y vámonos. Tranquilo que si te molesta tanto que te lleven la contraria y no sabes entablar un debate adulto desde el minuto 1 con información veraz, me voy. Que te vaya bonito, y acuérdate, cada vez que desestimes una opinión igual de válida que la tuya, agachas la cabeza y no la critiques como hasta ahora, que pareciese que sabes, y realmente no sabes, tenlo presente.
2 VOTOS
Yasinator29432
Hace 9 años740
¿Queréis volver a hablar de cosas técnicas y dejar vuestros historiales personales en según qué foros para mensajería privadas? Gracias.
3 VOTOS
Isma8226820Hace 9 años741
@MagisterMatt ósea que finalmente no son públicos y notorios. Yo ahora te digo me llamo Ismael Martin. Y soy senior programen una empresa AAA a nivel internacional. Es publico y notorio y digo la verdad porque firmo con mi nombre. Buscame por internet... Exiges demasiado de mi. Tu habrás visto esos curriculums o no pero conociendo tu reciente palmares igual ni te has molestado en verificarlo o si pero el resto no. Que me importa 0 ojo. En fin que si que lo que tu digas. Pero seguimos desviando a cuestiones personales (por cierto en tu caso desde que has entrado a postear tras el excascalling) y cero información. Así pues y esta vez si. Si no tienes nada mas que decir al respecto. Bye bye.
MagisterMatt442Hace 9 años742

Mensaje eliminado por moderación.(Comentario ofensivo y desvirtúa el tema original)

Belere21691
Expulsado
Hace 9 años743
Chicos esperaros a que haya otro gran evento de Microsoft, como será el E3 2015, donde ahí yo creo que estará finiquitado el tema de si One es lo que dicen los del Otro Foro o será más lo que pensamos otros, que con DirectX 12 la consola mejorará bastante, poniéndose al nivel de PS4 en multis o superándola en los estudios que mejor aprovechen esa api. En teoría el nuevo Deus Ex debería verse mejor en One, que no en PS4, ya que es compatible con DirectX 12: 

[url]http://blogocio.net/deus-ex-mankind-divided-hara-uso-de-directx-12-en-xbox-one-y-pc-no-84903/[/url]

Y bueno con el motor Frostbite 3 dicen que serán los requisitos mínimos en 2016 con Windows 10 y DirectX 12 para usar dicho motor gráfico: 

[url]http://soloxboxone.com/2015/04/08/windows-10-y-directx12-seran-los-requisitos-minimos-para-usar-frostbite-3-en-2016/[/url]

Aunque hablan de el sistema operativo y de la API de Microsoft, pero de One no se moja mucho:

[url]http://soloxboxone.com/2015/04/10/johan-andersson-confirma-un-beneficio-en-los-juegos-de-xbox-one-gracias-a-directx12/[/url]

Sacado de una pagina xboxer, para que no digáis que es un medio de Sony 

Yo creo que donde se va aprovechar bien esa api de Microsoft es con las nuevas gráficas de la serie R9 300 de AMD, pero hasta junio que no serán anunciadas no se podrá saber.
1 VOTO
LoboFHmod35146Hace 9 años744
@MagisterMatt
Mostrar cita
Está claro que todo te incomoda, no me respondas porque me piro de este hilo tan chungo. Ya sabes, credibilidad cero. Sigue con tu circo. Ni me menciones ni me cites, y lo mismo para tus aprendices y followers.
Es realmente hilarante que hables de "aprendices y followers" cuando tu y tus palmeros tenéis montados un fantástico aquelarre cómico en ese otro foro donde os reunís, uno de los más vergonzantes ejemplos de claque endogámica de los que servidor ha sido testigo. Cuando Isma habla de ánodos, cátodos y vaudios (referencia pop para los más talluditos) es como si se me apareciera el Apóstol Santiago a chapurrearme en arameo, así que no entraré en una discusión técnica de la que no entiendo ni papa, pero lo que tengo claro es que durante años ha despanzurrado técnicamente a todos los aspirantes a gurú informático del M.I.T. que han pasado por aquí copy-pasteando ladrillos técnicos de oscuros blogs que ni siquiera entendían. Recordáis a los tradicionales hooligans de la otra marca que nos vendieron durante años para mofa y sorna del personal que el Cell de la potencia oculta tenía músculo suficiente para llegar al 4K cuando lo entendieran, a ver si asumís de una vez que Microsoft ha diseñado una consola mediocre, un mal PC de gama media y al que no le va a salvar ni la nube, ni el DirectX12 ni el advenimiento de los cuatro jinetes del Apocalipsis.
10 VOTOS
RCMax1675Hace 9 años745
Lo que está claro es que cuándo uno se dedica a postear con datos oficiales y otros simplemente adornan sus insultos con opiniones particulares sobre los datos ofciales mostrados,uno se siente alegre de saber que la razón está de tu lado.

Al ver que el gurú del grupo empieza a hacer la labor de escudero de otro nuevo gurú.

Hablando sobre GPUs full DX12 niegan que haya Maxwell v2.

Te corroboran que la GPU de X1 lleva cosas que usa Nvidia (vaya,lo que cualquier R7 260   ),algo que se ha dicho hace mucho en Elotroforo.X1 es un colage de diferentes tecnologías para adaptar a las necesidades de futuro,con hardware del presente (2013).

Te acaban reconociendo entre líneas que el ancho de banda de PS4 en el mejor de los supuestos,es peor que el de X1 en el peor de los supuestos.
Tanto el pico teórico,como el sostenible.En todo los casos,es inferior.

Obvian el sentido real de todo lo explicado.La eSRAM dicen que es pequeña porqué piensan en clave antigua,con los motores deferred en la cabeza.

Con motores de tileado,con los tiled resources la memoria de 32MB es enorme y sobrada,con unos resultados muy superiores a los actuales y con un hard mucho más preparado que la GDDR5 y su infernal latencia y su inferior bandwidth.Ya hemos visto en varias ocasiones como el streaming de texturas en PS4 es penoso.

Demasiado bien está aguantando X1 trabajando como un pez fuera del agua.


Cuando ves que tu interlocutor,para darle más peso a su intervención,necesita llamarte memo,ignorante,gilipollas o avispao,en ese momento sabes que has ganado.


@Isma82 Te vuelvo a decir que tu teoría está a estas alturas más lejos de la verdad que la de Flash.Tu teoría funciona sobre la base de que Sea Islands es en lo que se ha basado la arquitectura de X1.

Y hasta ahí es donde acaban las similitudes.


Veamos información oficial tanto del X D K de Xbox One como de la propia Sony.

Vemos como aparecen 24 CUs de la GPU "virtual" que no existe según los hijenieros del Mediamarkt que pululan por aquí.12 físicos y 12 virtuales.

Y vemos los 18,que son 14+4,de la PS4.

1 VOTO
JaviSoft252Hace 9 años746
@Isma82
Mostrar cita
@JaviSoft Microsoft dijo en la presentación del Hotchip que en el soc había 47 Mb de memoria creo recordar. 32 son las accesibles para la gpu desde el api. El resto se dividen entre las caches de primer y segundo nivel de la cpu y la gpu y esa esram que esta entre los dos cus que es aproximadamente restando de unos 8 o 10 MBytes. Por cierto en un articulo de Microsoft previo al del IEEE comentan sus ingenieros que la esram es redundante para que la fabricación del chip sea mas barata. Es decir que hacen como con la gpu que hay cus desactivados por si están rotos... Pues parece ser que cin la esram pasa lo mismo. Estoy con el móvil pero si luego me acuerdo busco el enlace a dicho paper. Los 8 contextos son contextos graficos que como explica la función de opengl sirven para encapsular cosas y que tienen múltiples aplicaciones... No es que estén o dejen de estar virtualizados. Es un mecanismo propio de la api para facilitarle las cosas al programador. Documentación api opengl [u]An OpenGL context represents many things[/u]. [u]A context stores all of the state associated with this instance of OpenGL[/u]. It represents the ([b]potentially visible[/b]) [b]default framebuffer [/b]that rendering commands will draw to when not drawing to a framebuffer object. [u]Think of a context as an object that holds all of OpenGL[/u]; when a context is destroyed, OpenGL is destroyed. Contexts are localized within a particular process of execution (an application, more or less) on an operating system. A process can create multiple OpenGL contexts. Each context can represent a separate viewable surface, like a window in an application. [u]Contexts can share many kinds of objects between each other. Any OpenGL object types which are not containers are sharable, as well as Sync Objects and GLSL Objects (excluding program pipeline objects). All container objects are not shared between contexts.[/u] Fijate en esta ultima parte... Habla de objetos compartidos entre contextos. Dos contextos independientes no es otra cosa que dos contextos que no comparten nada. A efectos para el programador son como si fueran dos aplicaciones diferentes.
Si puedes poner el enlace te lo agradecería, pues yo solo recuerdo los 32Mb de esram. De hecho me enteré de que habían más mucho tiempo despues, pues siempre había leído en todos lados 32Mb. Como dices siempre pondrán una poca más por si sale defectuosa, pero hablamos de dos memorias supuestamente dos esram de diferentes densidades, así que ese pequeño bloque no está ahí para sustituir una posible esram defectuosa. Si fuera ese motivo sería de la misma densidad. Ahora, ni se sabe el motivo de por qué es de diferente densidad, ni se sabe el motivo de por qué está ahí. En verdad no sé si se sabe a ciencia cierta que ese bloque sea esram. No sé si está confirmado ese dato o son conjeturas.
Isma8226820Hace 9 años747
@JaviSoft
Mostrar cita
@Isma82
Mostrar cita
@JaviSoft Microsoft dijo en la presentación del Hotchip que en el soc había 47 Mb de memoria creo recordar. 32 son las accesibles para la gpu desde el api. El resto se dividen entre las caches de primer y segundo nivel de la cpu y la gpu y esa esram que esta entre los dos cus que es aproximadamente restando de unos 8 o 10 MBytes. Por cierto en un articulo de Microsoft previo al del IEEE comentan sus ingenieros que la esram es redundante para que la fabricación del chip sea mas barata. Es decir que hacen como con la gpu que hay cus desactivados por si están rotos... Pues parece ser que cin la esram pasa lo mismo. Estoy con el móvil pero si luego me acuerdo busco el enlace a dicho paper. Los 8 contextos son contextos graficos que como explica la función de opengl sirven para encapsular cosas y que tienen múltiples aplicaciones... No es que estén o dejen de estar virtualizados. Es un mecanismo propio de la api para facilitarle las cosas al programador. Documentación api opengl [u]An OpenGL context represents many things[/u]. [u]A context stores all of the state associated with this instance of OpenGL[/u]. It represents the ([b]potentially visible[/b]) [b]default framebuffer [/b]that rendering commands will draw to when not drawing to a framebuffer object. [u]Think of a context as an object that holds all of OpenGL[/u]; when a context is destroyed, OpenGL is destroyed. Contexts are localized within a particular process of execution (an application, more or less) on an operating system. A process can create multiple OpenGL contexts. Each context can represent a separate viewable surface, like a window in an application. [u]Contexts can share many kinds of objects between each other. Any OpenGL object types which are not containers are sharable, as well as Sync Objects and GLSL Objects (excluding program pipeline objects). All container objects are not shared between contexts.[/u] Fijate en esta ultima parte... Habla de objetos compartidos entre contextos. Dos contextos independientes no es otra cosa que dos contextos que no comparten nada. A efectos para el programador son como si fueran dos aplicaciones diferentes.
Si puedes poner el enlace te lo agradecería, pues yo solo recuerdo los 32Mb de esram. De hecho me enteré de que habían más mucho tiempo después, pues siempre había leído en todos lados 32Mb. Como dices siempre pondrán una poca más por si sale defectuosa, pero hablamos de dos memorias supuestamente dos esram de diferentes densidades, así que ese pequeño bloque no está ahí para sustituir una posible esram defectuosa. Si fuera ese motivo sería de la misma densidad. Ahora, ni se sabe el motivo de por qué es de diferente densidad, ni se sabe el motivo de por qué está ahí. En verdad no sé si se sabe a ciencia cierta que ese bloque sea esram. No sé si está confirmado ese dato o son conjeturas.
A ver oficialmente Xbox one tiene este hardware a nivel de memoria interna: Ahí dice 47 Megas de almacenamiento interno. Pero a nivel de API para un programador son 32. El resto de la SRAM está oculta por así decirlo. Es decir, forma parte de los mecanismos automáticos del hardware como son el paginado de caches, la coherencia o vaya usted a saber. el caso es que para un programador esa memoria no está accesible. Aqui también lo puedes ver: [url]http://www.theregister.co.uk/2013/08/28/xbox_one_system_on_chip/[/url] En cuanto al paper donde se dice que hay memoria redundante, es un paper de acceso no publico, hay que suscribirse a la revista, así que tendrás que hacer un pequeño acto de fe o soltar algo de pasta si quieres comprobar lo que te digo pero creo que es de sentido común que no me voy a picar todo esto en Word en un rato El paper es este [url]http://www.linleygroup.com/newsletters/newsletter_detail.php?num=5062[/url] El fragmento donde lo dice es este: To improve yield, the chip includes redundant memory structures, and the GPU has redundant shaders, although there are no redundant CPUs. Microsoft is already ramping production, and it has confirmed that yields are good. Y la captura de pantalla del word es esta:
Isma8226820Hace 9 años748
@RCMax
Mostrar cita
Veamos información oficial tanto del X D K de Xbox One como de la propia Sony. Vemos como aparecen 24 CUs de la GPU "virtual" que no existe según los hijenieros del Mediamarkt que pululan por aquí.12 físicos y 12 virtuales. Y vemos los 18,que son 14+4,de la PS4.
Se hace muy pesado tener que estar contradiciendo todo el rato collages en donde se pone la información que uno quiere y se omite el resto. Supongo que entenderás que normalmente la obvie, pero ya que estamos últimamente un poco "exquisitos" e intentando puntualizar todo a la coma para intentar desprestigiar, acusar de falsedades etc etc etc... pues por una vez y que no sirva de precedente me he molestado en leer el collage y en contrastar la info que aportas. Te voy a copiar y pegar exactamente la parte del Xdk de xbox one donde viene la explicación de esa herramienta y luego tu sacas las conclusiones que te de la gana... La captura está sacada de un ejemplo de como funciona el Pix. Que segun el Xdk es esto: "PIX is the primary tool for CPU and GPU performance analysis and debugging for Xbox One." En concreto en la sección PIX Shader Timelines. Y esto dice el Xdk: In addition to the Context Rolls and Analysis Measured Duration timelines, the following timelines have been added. All these timelines are derived from the Command Processor and Sequencer blocks. Y explica a continuación todos los apartados que aparecen en la imagen. Te los copio y te los pego: [spoiler][b]-Surface sync[/b] A surface sync event happens when the command processor receives confirmation that a relevant surface is coherent with memory. Surface syncs are expensive, and could be taking from a hundred to a thousand cycles. In most situations, a surface sync also means a context roll. Surface sync events are: Wait for a previous graphics contexts that touch the given surface to stop. Flush various caches. -Write-back the caches. -Ask the PFP to wait for the ME to complete the flush. -Each tick on the timeline represents a surface sync event. [b]Partial flush[/b] A partial flush is a barrier which makes the dispatch of waves of a certain type to block until all work downstream from the VS, PS or CS is done. Each tick on the timeline represents a vertex shader, pixel shader or compute shader partial flush event. [b]Cache flush[/b] There are multiple caches on the GPU and a cache flush event happens when a flush or a flush / invalidate of a cache is completed. Each tick on the timeline represents any flush/invalidate event. [b]Segment kick[/b] This event is displayed when a segment of the command buffer is submitted to the GPU. PIX handles most command buffer segment kickoffs with a GPU flush. This is different from the runtime. If you have many segment kickoffs in the capture, then timing results and trace results might be inflated. Each tick on the timeline represents a submission of a command buffer. [b]Occupancy[/b] This shows a colour coded graph of what wave types are active at any given time for a sequence of draw calls. Selecting a draw call highlights waves belonging to that draw call. Wave front graph represents how many and what types of waves are running.[/spoiler] La importante es esta, te voy subrayando: [b]Draws lengths and contexts[/b] [u]This shows when each draw call is started and ended and what graphics context it was executed on. Each bar represents one draw call and its colour represents a graphcis context index.[/u] [u]Each bar on the timeline represents a draw call start to finish, and colour represents a context index.[/u] Y luego habla sobre los performance counter: [spoiler]Performance counters Shows a graph displaying a snapshot of some of the performance counters. The graphs represent instantaneous readings of the performance counters.[/spoiler] Osea que eso de que son CUs os lo habeis sacado de la manga para variar Ahora veamos lo que dice la propia Xdk de la GPU: en el apartado Xbox One GPU Overview podemos leer The following table describes expected performance of the Xbox One GPU.[u] Bear in mind that the table is based only on hardware specifications, not on actual hardware running actual code. For many reasons, theoretical peak performance can be difficult or impossible to achieve with real-world processing loads[/u]. Once representative hardware is available, it will provide a better characterization of practical performance levels. Datos parece sin la actualización de las velocidades del clock. Supongo que no lo cambiaron: Clock rate 800 MHz [b]Compute Shader cores 12[/b] [b]Instruction issue rate 12 SCs * 4 SIMDs * 16 threads/clock = 768 ops/clock [/b] [u]FLOPs 768 ops/clock * (1 mul + 1 add) * 800 MHz = [b]1.2 TFLOPS[/b] [/u] Interpolation ( 768 ops/clock / 2 ops ) * 800 MHz = 307.2 Gfloat/sec [b]Geometry [/b] El resto de las especificaciones de la gpu por si a alguien le interesa: [spoiler]Triangle rate 2 tri/clock * 800 MHz = 1.6 Gtri/sec Vertex rate 2 vert/clock * 800 MHz = 1.6 Gvert/sec Vertex/buffer fetch rate (4 bytes) 4 elements/clock * 12 SCs * 800 MHz = 38.4 Gelement/sec Vertex/Buffer data rate from cache 38.4 Gelements/sec * 4 bytes = 153.6 GB/sec [b]Memory [/b] Peak throughput from main RAM 68 GB/sec Peak throughput from ESRAM 128 bytes/clock * 800 MHz = 102.4 GB/sec ESRAM size 32 MB GSM size 64 KB LSM size 12 SCs * 64 KB = 768 KB L2 cache size 4 x 128 KB = 512 KB (shared) [b]Texture [/b] Bilinear fetch rate (4 bytes) 4 fetches/clock * 12 SCs * 800 MHz = 38.4 Gtexels/sec Bilinear data rate from cache 38.4 Gtexels/sec * 4 bytes = 153.6 GB/sec L1 cache size 16 KB/SC * 12 SCs = 192 KB (nonshared) [b]Output [/b] Color/depth blocks 4 Pixel clear rate 1 8x8 tile/clock * 4 DBs * 800 MHz = 204.8 Gpixel/sec Pixel hierarchical Z cull rate 1 8x8 tile/clock * 4 DBs * 800 MHz = 204.8 Gpixel/sec Sample Z cull rate 16 /clock * 4 DBs * 800 MHz = 51.2 Gsample/sec Pixel emit rate 4 /clock * 4 DBs * 800 MHz = 12.8 Gpixel/sec Pixel resolve rate 4 /clock * 4 DBs * 800 MHz = 12.8 Gpixel/sec [/spoiler] ¿Asi que ya me contaras donde estan los 2.6 Tflops? ¿Lo pillas o te hago un croquis? Y por ultimo igual esto os aclara un poco las cosas: [u]Command Processor[/u] [u]Xbox One supports multiple GPU command streams interleaved in hardware[/u].[b] Some command streams contain rendering commands, and others are compute-only. Both types of command stream progress through the GPU at the same time,[/b][u] [b]sharing compute and bandwidth resources [/b][/u] No se como remarcartelo más, te lo puedo pintar en fosforito en fucsia, en verde o te lo puedo pegar en ¡¡¡un puto post-it en la frente!!!!!!! ¡¡¡Que lleváis un año dando la matraca con que me lo invento y que la gpu es capaz de ejecutar simultáneamente gráficos y computo sin perder rendimiento!!!! [spoiler] Mis coooo [/spoiler] El resto del texto de esa sección: and making it possible to decouple compute work from rendering work. In particular, compute tasks can leapfrog past pending rendering tasks, enabling low-latency handoffs between CPU and GPU. ¿Te ha quedado claro ya o necesitas mas? Y para prueba un botón PD: A ver si vamos cerrando ya este coñazo: @Belere @LoboFHmod @OmarAntroS @JaviSoft @Esixise @FleshPound @Ice-cream @Kanolito
EDITADO EL 11-04-2015 / 22:37 (EDITADO 1 VEZ)
2 VOTOS
Esixise46147Hace 9 años749
En fin, no quería seguir comentando en este hilo, pero es que es hilarante.

Es que encima se creen que Isma es el que trata de convencer a alguien de algo, o que nadie lo toma en serio, cuándo en el mundo real los que están intentando vender la moto y haciendo el más absoluto de los ridículos son ellos. Y lo de los que siguen pidiendo credenciales ya es demencial. ¿Cómo se enterarán que no es una cuestión de credenciales? Es sólo una cuestión de sentido común, es que no hace falta que Isma sea ingeniero de la NASA para que lo que diga tenga más autoridad que lo que dice Flash, mi profesión no tiene nada que ver con la rama de la informática, lo que se lo se por los años que llevo en este mundillo y me llevo las manos a la cabeza con ciertas burradas que pone este señor.

No creo que pueda aportar mucho más al hilo la verdad, la discusión técnica ha llegado a un punto absurdo y cansino, seguiré leyendo el hilo y comentando de vez en cuándo, pero no con la misma frecuencia que antes.

También me ha sorprendido ver a LoboFHmod comentando el hilo, con lo poquísimo que comenta, ya le tiene que estar fascinando lo que está leyendo .
4 VOTOS
FanboyRipper37Hace 9 años750
@Esixise
Mostrar cita
En fin, no quería seguir comentando en este hilo, pero es que es hilarante. Es que encima se creen que Isma es el que trata de convencer a alguien de algo, o que nadie lo toma en serio, cuándo en el mundo real los que están intentando vender la moto y haciendo el más absoluto de los ridículos son ellos. Y lo de los que siguen pidiendo credenciales ya es demencial. ¿Cómo se enterarán que no es una cuestión de credenciales? Es sólo una cuestión de sentido común, es que no hace falta que Isma sea ingeniero de la NASA para que lo que diga tenga más autoridad que lo que dice Flash, mi profesión no tiene nada que ver con la rama de la informática, lo que se lo se por los años que llevo en este mundillo y me llevo las manos a la cabeza con ciertas burradas que pone este señor. No creo que pueda aportar mucho más al hilo la verdad, la discusión técnica ha llegado a un punto absurdo y cansino, seguiré leyendo el hilo y comentando de vez en cuándo, pero no con la misma frecuencia que antes. También me ha sorprendido ver a LoboFHmod comentando el hilo, con lo poquísimo que comenta, ya le tiene que estar fascinando lo que está leyendo .
HAHAHAHAHA te crees, Lobo ha venido al igual que los otros porque Isma les ha dicho
3 VOTOS
JaviSoft252Hace 9 años751
@Isma82
Mostrar cita
@JaviSoft
Mostrar cita
@Isma82
Mostrar cita
@JaviSoft Microsoft dijo en la presentación del Hotchip que en el soc había 47 Mb de memoria creo recordar. 32 son las accesibles para la gpu desde el api. El resto se dividen entre las caches de primer y segundo nivel de la cpu y la gpu y esa esram que esta entre los dos cus que es aproximadamente restando de unos 8 o 10 MBytes. Por cierto en un articulo de Microsoft previo al del IEEE comentan sus ingenieros que la esram es redundante para que la fabricación del chip sea mas barata. Es decir que hacen como con la gpu que hay cus desactivados por si están rotos... Pues parece ser que cin la esram pasa lo mismo. Estoy con el móvil pero si luego me acuerdo busco el enlace a dicho paper. Los 8 contextos son contextos graficos que como explica la función de opengl sirven para encapsular cosas y que tienen múltiples aplicaciones... No es que estén o dejen de estar virtualizados. Es un mecanismo propio de la api para facilitarle las cosas al programador. Documentación api opengl [u]An OpenGL context represents many things[/u]. [u]A context stores all of the state associated with this instance of OpenGL[/u]. It represents the ([b]potentially visible[/b]) [b]default framebuffer [/b]that rendering commands will draw to when not drawing to a framebuffer object. [u]Think of a context as an object that holds all of OpenGL[/u]; when a context is destroyed, OpenGL is destroyed. Contexts are localized within a particular process of execution (an application, more or less) on an operating system. A process can create multiple OpenGL contexts. Each context can represent a separate viewable surface, like a window in an application. [u]Contexts can share many kinds of objects between each other. Any OpenGL object types which are not containers are sharable, as well as Sync Objects and GLSL Objects (excluding program pipeline objects). All container objects are not shared between contexts.[/u] Fijate en esta ultima parte... Habla de objetos compartidos entre contextos. Dos contextos independientes no es otra cosa que dos contextos que no comparten nada. A efectos para el programador son como si fueran dos aplicaciones diferentes.
Si puedes poner el enlace te lo agradecería, pues yo solo recuerdo los 32Mb de esram. De hecho me enteré de que habían más mucho tiempo después, pues siempre había leído en todos lados 32Mb. Como dices siempre pondrán una poca más por si sale defectuosa, pero hablamos de dos memorias supuestamente dos esram de diferentes densidades, así que ese pequeño bloque no está ahí para sustituir una posible esram defectuosa. Si fuera ese motivo sería de la misma densidad. Ahora, ni se sabe el motivo de por qué es de diferente densidad, ni se sabe el motivo de por qué está ahí. En verdad no sé si se sabe a ciencia cierta que ese bloque sea esram. No sé si está confirmado ese dato o son conjeturas.
A ver oficialmente Xbox one tiene este hardware a nivel de memoria interna: Ahí dice 47 Megas de almacenamiento interno. Pero a nivel de API para un programador son 32. El resto de la SRAM está oculta por así decirlo. Es decir, forma parte de los mecanismos automáticos del hardware como son el paginado de caches, la coherencia o vaya usted a saber. el caso es que para un programador esa memoria no está accesible. Aqui también lo puedes ver: [url]http://www.theregister.co.uk/2013/08/28/xbox_one_system_on_chip/[/url] En cuanto al paper donde se dice que hay memoria redundante, es un paper de acceso no publico, hay que suscribirse a la revista, así que tendrás que hacer un pequeño acto de fe o soltar algo de pasta si quieres comprobar lo que te digo pero creo que es de sentido común que no me voy a picar todo esto en Word en un rato El paper es este [url]http://www.linleygroup.com/newsletters/newsletter_detail.php?num=5062[/url] El fragmento donde lo dice es este: To improve yield, the chip includes redundant memory structures, and the GPU has redundant shaders, although there are no redundant CPUs. Microsoft is already ramping production, and it has confirmed that yields are good. Y la captura de pantalla del word es esta:
Estamos hablando de 3 bloques de esram, 2 grandes y uno pequeño. Este pequeño tiene mayor densidad que los otros 2 grandes, no me hace falta pagar para saber que ese bloque pequeño no es esram redundante. Vuelvo a preguntarlo: ¿Es oficial que ese bloque sea esram? ¿O son solo conjeturas?
Responder / Comentar
Subir
Foros > Xbox One > ¿Por que se dice que la GPU de Xbox one está basada en Bonaire (7790/R7260x)?

Hay 880 respuestas en ¿Por que se dice que la GPU de Xbox one está basada en Bonaire (7790/R7260x)?, del foro de Xbox One. Último comentario hace 9 años.

  • Regístrate

  • Información legal
Juegos© Foro 3DJuegos 2005-2024. . SOBRE FORO 3DJUEGOS | INFORMACIÓN LEGAL