Resultados 1 al 28 de 28

Tema: Ageia Physx ya tiene una Review.

  1. Etna
    Etna está desconectado
    Usuario registrado
    Fecha de ingreso
    15 mar, 06
    Mensajes
    77

    Ageia Physx ya tiene una Review.

    Bueno parece que ya alguien la a probado y nos puede decir que tal rula el cacharro este.

    http://www.mod-pc.com/modules.php?name= ... age&pid=18

  2. worsito
    worsito está desconectado
    Usuario registrado CV
    Fecha de ingreso
    04 jul, 05
    Mensajes
    13,070
    realmente interesante la PPU si señor me gusta las calidades k ofrece preo mi pregunta esta en... k cuesta la targetita?

  3. Etna
    Etna está desconectado
    Usuario registrado
    Fecha de ingreso
    15 mar, 06
    Mensajes
    77
    Rondara los 200/300 :cry:

    Aqui os dejo un video de ella trabajando con el cell factor

    http://www.fileplanet.com/162979/160000 ... X-Movie-#1

    Impresionante.

  4. McArra
    McArra está desconectado
    Usuario registrado
    Fecha de ingreso
    26 ene, 05
    Ubicación
    Getxo
    Mensajes
    95
    Buenas, me alegro de que leais la review
    Para cualquier pregunta que tengais intentare pasarme a responder, aunque estare mas por el foro de mod-pc que tenemos tambien abierto un hilo para responder a las preguntas.

    Esta tarde o mañana intentare meter un par de videos, una del Cell Factor y otro del GRAW.

    Un saludo

  5. yago2k
    yago2k está desconectado
    Usuario registrado CV
    Fecha de ingreso
    12 feb, 05
    Ubicación
    Madrid
    Mensajes
    524
    Yo he leido muchas reviews...y la verdad es que le van a dar mucho por ahí a la tarjeta, al menos, hasta que cueste menos de 100€ o haya muchísimos juegos que la usen.

    http://www.bit-tech.net/hardware/2006/0 ... iew/1.html

    http://enthusiast.hardocp.com/article.h ... VzaWFzdA==

    http://www.anandtech.com/video/showdoc.aspx?i=2751

    La verdad, no la veo triunfando...de momento, no parece hacer nada que no pudiese hacer un procesador dual core si se optimizasen los juegos para que el segundo núcleo se encargase de los cálculos físicos. Y me parece que nVidia o ATI tendrán alguna solución más óptima, como añadir el chip físico a sus gráficas en algún futuro no muy lejano. En todo caso, yo recomiendo esperar, antes de dejarse 300€ en un hardware que solo tiene un juego y una demo...

    saludos,

  6. McArra
    McArra está desconectado
    Usuario registrado
    Fecha de ingreso
    26 ene, 05
    Ubicación
    Getxo
    Mensajes
    95
    Leete la review, creo que no conoces bien su funcionamiento :?

  7. yago2k
    yago2k está desconectado
    Usuario registrado CV
    Fecha de ingreso
    12 feb, 05
    Ubicación
    Madrid
    Mensajes
    524
    Cita Iniciado por McArra
    Leete la review, creo que no conoces bien su funcionamiento :?
    Perdona chato, conmigo no te pongas condescendiente, que yo hago mis deberes...

    He leido (además de las 3 review que he puesto arriba) tropecientas reviews sobre la tarjeta y conozco perfectamente su funcionamiento, su potencial y sus limitaciones. Todas de sitios con reputación de fiables y exigentes en el mundo del hardware.

    Y sigo con mi idea. A día de hoy, la tarjeta de AGEIA es un hardware que no se puede usar más que en UN juego y UNA demo, que ni siquiera aporta gran cosa a la inmersión y/o jugabilidad (lo de las explosiones en GRAW con AGEIA roza lo ridículo), sobre una tecnología que probablemente tengamos integrada en las tarjetas gráficas en poco tiempo (porque tu mismo escribes en la review que tanto nVidia como ATI están trabajando en ello, ¿verdad?) y que ahora mismo, incluso DISMINUYE el rendimiento en los juegos (leete mis reviews...GRAW pierde FPS si usas AGEIA...y según algunos benchmarks, bastantes más de los que tu haces creer en tu prueba).

    Dejarse 300€ en algo así, para mi, es una tontería ahora mismo...con ese dinero te compras una XBox360, media PS3 cuando salga o lo puedes ahorrar para un Conroe o una gráfica DX10...que sin dudas aportarán infinitamente más al jugador empedernido que un hardware con un futuro "dudoso".

    Si tu opinión es distinta, me parece fántastico...siempre habrá early adopters en el mundo del hardware... Pero que escribas una review en una web no implica que tu opinión sea más válida que la mía.

    saludos,
    pd:

    Posteado en anandtech.com
    http://forums.anandtech.com/messageview ... erthread=y
    Cita Iniciado por McArra
    I like it a lot. But I think this is not the Ageia time, I believe the Ageia time is to come when new gen video cards arrive. Cell Factor demo was so impresive, but my 7900GT (520/1500) couldn't play it maxed out, it would run at 3fps, there are so many objects
    Veo que en los foros de anandtech.com has dicho más o menos lo mismo que yo. Entonces, ¿a que leches viene lo de que no conozco bien su funcionamiento? A ti te convence, a mi no...eso es todo.

  8. worsito
    worsito está desconectado
    Usuario registrado CV
    Fecha de ingreso
    04 jul, 05
    Mensajes
    13,070
    hombre si te digo la verdad..... gastarse 300€ en una targeta a parte para que te haga el trabajo fisico solo para ver mejores explosiones y que encima no te sirva para nada mas que un juego como decis.... pues mejor me gasto esos 300€ en una buena grafica que seguro k m da mejors resultados...
    m parece un poco eccesivo ese precio para un complemento porque no es mas que un complemento para juegos

  9. yago2k
    yago2k está desconectado
    Usuario registrado CV
    Fecha de ingreso
    12 feb, 05
    Ubicación
    Madrid
    Mensajes
    524
    Cita Iniciado por worsito
    hombre si te digo la verdad..... gastarse 300€ en una targeta a parte para que te haga el trabajo fisico solo para ver mejores explosiones y que encima no te sirva para nada mas que un juego como decis.... pues mejor me gasto esos 300€ en una buena grafica que seguro k m da mejors resultados...
    m parece un poco eccesivo ese precio para un complemento porque no es mas que un complemento para juegos
    En un futuro, cuando haya más juegos y baje el precio, se verá si es o no interesante. Pero ahora mismo, que te parece más razonable, ¿300€ en una AGEIA para jugar a 1 juego igual que sin ella, o 900€ en una tele HD-Ready de 32'?

    A todas estas novedades hay que darles su tiempo y AGEIA todavía no tiene la "killer-app" que justifique su compra...ni la va a tener hasta que aparezca Unreal Tournament 2007. Para entonces, ya veremos.

    saludos,

  10. McArra
    McArra está desconectado
    Usuario registrado
    Fecha de ingreso
    26 ene, 05
    Ubicación
    Getxo
    Mensajes
    95
    La verdad, no la veo triunfando...de momento, no parece hacer nada que no pudiese hacer un procesador dual core si se optimizasen los juegos para que el segundo núcleo se encargase de los cálculos físicos. Y me parece que nVidia o ATI tendrán alguna solución más óptima, como añadir el chip físico a sus gráficas en algún futuro no muy lejano.
    Esto es en lo que no estoy de acuerdo. Y repito, la AGEIA acelera el rendimiento, lo que no da la talla es la grafica, algo logico teniendo en cuenta que la Ageia es mas futuro que presente :roll:

    Decir que la Ageia lastra el rendimiento es no decir la verdad, y chico, los benches que he puesto han salido tal cual, como deberias de saber no todos los PCs se comportan exactamente igual, y no todos lo probamos haciendo lo msimo y en los mismos escenerios, no es una timedemo.

    Tampoko te he dicho nada malo asique cortate un poquito.
    Y repetire xk la gente parece que no lo acaba de entender bien, ninguna grafica a dia de hoy pueda hacer lo que hace una Ageia, es mas, son las graficas el impedimento de que el GRAW no sea mucho mas espectacular. Yo no compraria ahora la tarjeta, pero eso no lo he analizado aun por la falta en el mercado Europeo y xk aun no es su momento optimo. Solo he analizado el hard, y es una maravilla de bicho.

  11. Etna
    Etna está desconectado
    Usuario registrado
    Fecha de ingreso
    15 mar, 06
    Mensajes
    77
    Yo personalmete la veo una pasada.
    Esperemos un tiempo a ver que es capaz de hacer.

  12. worsito
    worsito está desconectado
    Usuario registrado CV
    Fecha de ingreso
    04 jul, 05
    Mensajes
    13,070
    es cierto es una pasada.
    es interesante el trabajo de la targeta
    es algo innovador
    pero como bien decimos ahora es mas que inutil
    dentro de un año no te discuto k todos la tengamos en nuestras ranuras PCI de nuestros pcs. pero keda muxo k recorrer todavia

  13. McArra
    McArra está desconectado
    Usuario registrado
    Fecha de ingreso
    26 ene, 05
    Ubicación
    Getxo
    Mensajes
    95
    Bueno, hay un driver Beta que al parecer soluciona problemas de rendimiento, probare y si es necesario actualizare la review

  14. yago2k
    yago2k está desconectado
    Usuario registrado CV
    Fecha de ingreso
    12 feb, 05
    Ubicación
    Madrid
    Mensajes
    524
    Cita Iniciado por McArra
    Esto es en lo que no estoy de acuerdo. Y repito, la AGEIA acelera el rendimiento, lo que no da la talla es la grafica, algo logico teniendo en cuenta que la Ageia es mas futuro que presente :roll:

    Decir que la Ageia lastra el rendimiento es no decir la verdad, y chico, los benches que he puesto han salido tal cual, como deberias de saber no todos los PCs se comportan exactamente igual, y no todos lo probamos haciendo lo msimo y en los mismos escenerios, no es una timedemo.
    La PPU de AGEIA no acelera nada. Lo que hace es descargar a la CPU de los cálculos físicos. Si todos los juegos tuviesen una física avanzada, si podríamos hablar de "aceleración"... solo que como solo la tienen los juegos desarrollados para PhysyX o HAVOK, si no tienes la tarjeta no usas la física, pero si la tienes, no te acelera nada.

    Y si es cierto que lastra el rendimiento de los juegos. No porque sea nueva, ni porque no esté optimizada, sino porque si a un juego le incluyes cálculos físicos avanzados, generalmente la tarjeta gráfica tendrá que renderizar más objetos.

    Más objetos en pantalla = peor rendimiento.

    Esto no es opinable, es un hecho. Lo que es opinable es si esos cálculos físicos, y esos objetos extra aportan lo suficiente a la inmersión y jugabilidad como para compensar la pérdida de rendimiento (medida en FPS). Por lo que yo he visto hasta ahora, rotundamente no. La física avanzada en GRAW es patética...se limita a unos cuanto objetos poligonales extra en las explosiones y disparos. En el caso de las explosiones de coches, ni siquiera parecen partes de los mismo coches que explotan y en el resto, como dichos objetos no son permanentes (solo están unos segundos en pantalla), aportan poco o nada al realismo y/o inmersión.


    Cita Iniciado por McArra
    Tampoko te he dicho nada malo asique cortate un poquito.
    Si, me has acusado de no saber de lo que hablo por no estar de acuerdo contigo. Y yo no tengo por que cortarme nada...solo he respondido, muy educadamente y dando mis razones, porque ese hardware a día de hoy me parece tirar el dinero. Si mi estilo te resulta abrasivo, lo lamento...pero deberías estar acostumbrado viendo donde posteas habitualmente.

    Cita Iniciado por McArra
    Y repetire xk la gente parece que no lo acaba de entender bien, ninguna grafica a dia de hoy pueda hacer lo que hace una Ageia, es mas, son las graficas el impedimento de que el GRAW no sea mucho mas espectacular. Yo no compraria ahora la tarjeta, pero eso no lo he analizado aun por la falta en el mercado Europeo y xk aun no es su momento optimo. Solo he analizado el hard, y es una maravilla de bicho.
    Primero, no asumas lo que la gente entiende o no, porque me da a mi que eres tu el que anda algo despistado sobre lo que es y puede aportar AGEIA.

    La culpa del pobre rendimiento de GRAW, por cierto, no depende de las gráficas sino de una programación deficiente y mal implementada. GRAW se programó con la idea de usar el motor HAVOK y solo posteriormente, se añadió otra capa física para hacer uso de las PPU de AGEIA. No es sorprendente que esa capa esté muy mal optimizada y aporte tan poco. Pero revisando los videos, no se ve en GRAW nada que pueda machacar las gráficas, con PPU o sin ella. Si estoy de acuerdo en que Cell Factor sufre este problema (falta de GPU), pero por lo que he visto, lanzar 10 o 1000 bidones por los aires no me parece que valga 300€.

    Con una buena API y un código optimizado, es más que probable que cualquier CPU de doble núcleo pueda hacer los mísmos cálculos que a día de hoy hace AGEIA. Y lo más seguro es que antes de poco tiempo, las tarjetas gráficas incorporen un procesador extra que se encargue de dichos cálculos, o aprovechen la propia GPU para hacerlos. Esa es la dirección en la que están trabajando HAVOK, nVidia y ATI y me parece una solución infinítamente más óptima que añadir otra tarjeta al PC, con todos los inconvenientes que eso conlleva (ranuras PCI de menos, más calor, más gasto eléctrico...).

    Aparte del precio (300€) totalmente desproporcionado, en el momento en que las CPUs tienden a mejorar la eficiencia, en el que las 7900 de nVidia se venden tanto en gran parte por su bajo consumo y ruido e incluso las tarjetas de sonido dejan de ser necesarias (porque los codecs de audio de muchas placas cada vez son más eficientes), pretender añadir más hardware redundante al PC es un camino que no lleva a ninguna parte. Estoy convencido de que AGEIA acabará comprada por nVIdia o ATI y sus soluciones vendrán integrádas en futuras gráficas, o los desarrolladores aprenderán a hacer mejor uso de los núcleos extra de las CPUs (Kentsfield, la CPU para escritorio de Intel para 2007 ya tiene 4 núcleos..y los AMD de 4 están previstos para 2007-2008)...y si no, tiempo al tiempo.

    Y respecto a si el hardware es la leche o no...creo que los árboles no te dejan ver el bosque. El hardware, en si, sea AGEIA o HAL9000 no sirve de nada sin software. AGEIA solo triunfará si los juegos que se desarrollen requieren dicho hardware, si aportan un nivel de inmersión desconocido e imposible sin la PPU y si su precio es razonable (la mayoría de las gráficas que se venden, no son x1900XT, ni 7800GT, sino chips integrados o gráficas de gama muy baja, de menos de 100€). Quizás, Unreal Tournament 2007 sea la killer-app que necesita AGEIA...pero la verdad, tengo mis dudas.

    Además y ya como opinión personal, prefiero que AGEIA no triunfe. La capacidad de nuestros PCs, CPUs y GPUs está tremendamente desaprovechada por la desidia de los desarrolladores y la facilidad que tenemos los jugadores para gastarnos la pasta en nuevo hardware. Prefiero mil veces que alguien se lo curre un poquito y aproveche todo el potencial real de mi X2, a que vengan unos listos a hacernos gastar 300€ más en el PC. Tengo tantas ganas como el que más de ver física avanzada en los juegos, pero espero que venga de la mano de un uso más eficiente de los recursos, no del compring.

    saludos,

  15. salvadorp
    salvadorp está desconectado
    Usuarios de Honor Avatar de salvadorp
    Fecha de ingreso
    21 jun, 04
    Ubicación
    Centro de Madrid
    Mensajes
    12,624
    Maaaaaaaaaadre mía, yago2k, la verdad es q tu explicación es acojonante y no sabía q la AGEIA esta tuviera todo lo q dices... mira q me he leido reviews del cacharro, pero macho, con sólo oir lo q dices ya lo sabes todo del bicho este... xDDD

    Please, McArra q tampoco ha sido para tanto... y la verdad es q sus razones son bastante contundentes... De todas maneras, enhorabuena por la review, ta muy trabajada...

    Un saludo

  16. McArra
    McArra está desconectado
    Usuario registrado
    Fecha de ingreso
    26 ene, 05
    Ubicación
    Getxo
    Mensajes
    95
    no estoy de acuerdo para nada. En la actualidad testear la Ageia con las graficas actuales equivale a testear un SLI de 7900GTX en un Athlon XP 2400, es decir, la PPU es incapaz de desarrollar su potencial porque la GPU es incapaz de gestionar tantos objetos eficientemente. Si intentaramos generar los efectos que produce Ageia de modo convencional el rendimiento bajaria muchisimo, con la Ageia eso no ocurre, por tanto la Ageia acelera los procesos fisicos, mucho mas complejos que los que cualkier CPU o GPU puede calcular en tiempo real.

    Mas objetos en pantalla igual a peor rendimiento, si, pero no es la Ageia sino la grafica. No puedes juzgar de la manera que juzgas a un hard que hace su trabajo a la perfeccion y que se ve limitado por otro componente. Por tanto la Ageia no reduce el rendimiento, lo hace la grafica.

    El problema de las CPU multicore es que no estan bien optimizados para el tipo de calculos de los que se encarga la PhysX, pon 4 nucleos y sigues en las mismas. Es como si cuando salio la Voodoo hubieramos dicho que la CPU podia encargarse d e esos graficos con 200Mhz mas de clock, no es asi porque la CPU sencillamente no esta optimizada para dichos calculos y por tanto necesitas potencias descomunales para moverlos con agilidad. Un F1 es rapidisimo, pero no lo metas por trialeras

    Respecto al comentario sobra las gamas bajas en las graficas decirte que es cierto, pero que esas gamas no son el mercado de esta tarjeta. Para esa gente existen las consolas. Yo tengo la Ageia no xk me la comprara, xk no me lo habria planteado a dia de hoy, si en unos meses y con graficas mucho mas potentes. No obstante eso no significa que la PPU no sea una barbaridad de chip capaz de verdaderas maravillas. Los efectos de las telas son bestiales, por primera vez los fluidos interactuan con su entorno, las particulas chocan y actuan en consecuencia etc.

    Y se muy bien como funciona la tarjeta, eso te lo aseguro. Tambien te dire que antes de probarle pensaba mas como tu. Ahora la he visto en accion y mi opinion es muy diferente

  17. worsito
    worsito está desconectado
    Usuario registrado CV
    Fecha de ingreso
    04 jul, 05
    Mensajes
    13,070
    pues creo que yago lo ha dejado todo dicho ya.... solo tengo una pregunta ya que esta misma tarde estube hablando con un forero sobre esta nueva targeta y la integracion en las mismas graficas y es que, si meten ese chip en una grafica la grafica va a crecer bastante ademas de necesitar de un mayor consumo y al disponer de dos chips necesariamente refrigerados va a ser un augmento considerable en las temperaturas de nuestro equipo y un mayor consumo de las targetas graficas..... Es asi o me equivoco?
    Lo k no entiendo es para que sacan ahora este hardware cuando los juegos de hoy en dia optimizados para utilizar un dual-core como es debido se puedeen contar con los dedos..... la gran mayoria se limitan a ejecutarse en un solo nucleo dejando el otro libre para otros procesos.... antes d sacar Juegos preparados para usar una PPU mas valdria k hiceran lo que hicieron los Monolith con FEAR y optimizaran para sacar el mayor partido posible a los procesadores que manejamos hoy en dia

  18. McArra
    McArra está desconectado
    Usuario registrado
    Fecha de ingreso
    26 ene, 05
    Ubicación
    Getxo
    Mensajes
    95
    Cita Iniciado por worsito
    pues creo que yago lo ha dejado todo dicho ya.... solo tengo una pregunta ya que esta misma tarde estube hablando con un forero sobre esta nueva targeta y la integracion en las mismas graficas y es que, si meten ese chip en una grafica la grafica va a crecer bastante ademas de necesitar de un mayor consumo y al disponer de dos chips necesariamente refrigerados va a ser un augmento considerable en las temperaturas de nuestro equipo y un mayor consumo de las targetas graficas..... Es asi o me equivoco?
    Lo k no entiendo es para que sacan ahora este hardware cuando los juegos de hoy en dia optimizados para utilizar un dual-core como es debido se puedeen contar con los dedos..... la gran mayoria se limitan a ejecutarse en un solo nucleo dejando el otro libre para otros procesos.... antes d sacar Juegos preparados para usar una PPU mas valdria k hiceran lo que hicieron los Monolith con FEAR y optimizaran para sacar el mayor partido posible a los procesadores que manejamos hoy en dia
    Pues yo creo que Yago se equivoca en ciertos planteamientos, y tengo la ventaja de disponer de la tarjeta para contrastar mas mis planteamientos.

    Lo de latemperatura decirte que genera muy poco calor a 130nm por lo que a 90 o 65 generaria aun menos y con menor consumo. Lo que si que se necesitaria seria mucha mas memoria ram y una muy buuena admisnistracion de la misma. De todos modos no creo que convivan ambos chips, apuesto por un chip con ambas funciones al igual que pasara en su dia con las 3D.

  19. yago2k
    yago2k está desconectado
    Usuario registrado CV
    Fecha de ingreso
    12 feb, 05
    Ubicación
    Madrid
    Mensajes
    524
    Cita Iniciado por McArra
    Pues yo creo que Yago se equivoca en ciertos planteamientos, y tengo la ventaja de disponer de la tarjeta para contrastar mas mis planteamientos.

    Lo de latemperatura decirte que genera muy poco calor a 130nm por lo que a 90 o 65 generaria aun menos y con menor consumo. Lo que si que se necesitaria seria mucha mas memoria ram y una muy buuena admisnistracion de la misma. De todos modos no creo que convivan ambos chips, apuesto por un chip con ambas funciones al igual que pasara en su dia con las 3D.
    No es tanto un tema de quien tiene razón por datos técnicos sino de opiniones. Los hechos sobre la tarjeta, son los que están en las reviews, y en líneas generales coinciden todos. La tuya es algo más generosa, la de HardOCP es demoledora, pero finalmente, es un tema de apreciación personal.

    Efectivamente, yo no tengo la tarjeta para probarla, todo lo que digo lo he visto en videos. A ti te parece que aporta (aportará) lo suficiente como para justificar su gasto y la inclusión de una nueva tarjeta en cada PC, y a mi no me parece que aporte gran cosa en relación a lo que cuesta. Y como dicen los ingleses, "las opiniones son como los agujeros del culo, todos tenemos uno".

    Lo único que no te concedo, porque creo que si es un dato técnico es esta parte:
    Cita Iniciado por McArra
    no estoy de acuerdo para nada. En la actualidad testear la Ageia con las graficas actuales equivale a testear un SLI de 7900GTX en un Athlon XP 2400, es decir, la PPU es incapaz de desarrollar su potencial porque la GPU es incapaz de gestionar tantos objetos eficientemente.
    Insisto en que ese problema va a existir siempre que incluyas una PPC. Cell Factor va a 3FPS. Cell Factor 2 irá a 3FPS con las gráficas DX10. Y Cell Factor 3 irá a 3FPS con la generación siguiente. La PPU, por su propia naturaleza siempre va a exigir más a la GPU. Si FEAR usase AGEIA, las 7800 no podrían con el y las x1900 serían la gama media. Por supuesto, ese problema también lo tendrán nVidia y ATI si se meten en ese mercado, pero creo que ellos están más capacitados para encontrar un equilibrio entre efectos físicos y exigencia a la gráfica.

    Cita Iniciado por McArra
    El problema de las CPU multicore es que no estan bien optimizados para el tipo de calculos de los que se encarga la PhysX, pon 4 nucleos y sigues en las mismas.
    En mi opinión, el nivel de detalle físico que requieren los juegos no es comparable al gráfico...por eso, estoy seguro de que con una buena API y voluntad, cualquier juego podría usar un X2 o Conroe para tener una física más que aceptable.

    Cita Iniciado por McArra
    Respecto al comentario sobra las gamas bajas en las graficas decirte que es cierto, pero que esas gamas no son el mercado de esta tarjeta.
    Ahí creo que te equivocas. Los costes de desarrollo de algo tan complejo como una PPU no son asumibles si tu único target es la gama alta. Ten en cuenta que el mercado al que te refieres es ínfimo en número comparado con el mercado de PCs familiares. Las compañías de hardware, tienden a apuntar a los entusiastas y jugones, no porque den tanto dinero, sino porque crean modas y tendencias que luego llegan a los PCs de gama media. Intel mueve más GPUs que nVidia y ATI juntas y estas, tienen muchos más beneficios con los chips integrados o gráficas de menos de 100€ que con la serie extrema. El problema, es que para llegar a ese mercado medio, tienes que tener tu producto muy por debajo de los 100€, o incluso integrado en la placa. Teniendo en cuenta que muchos entusiastas no ven necesidad de usar el hardware de AGEIA, su futuro financiero no pinta nada bien. Por eso apuesto a que nVidia o ATI acabarán comprándola.

  20. McArra
    McArra está desconectado
    Usuario registrado
    Fecha de ingreso
    26 ene, 05
    Ubicación
    Getxo
    Mensajes
    95
    He probado el Cell factor en "Low" y es muchsisimo mas fluido y con buenos graficos, es dificil notar la diferencia. Seguramente los video oficiales los hagan asi. Tengo algunos problemas para subir los videos, pero hare lo posible para tenerlos mañana en la review.

  21. Muri
    Muri está desconectado
    Usuario registrado CV
    Fecha de ingreso
    01 nov, 05
    Ubicación
    LoS MuNDoS D YuPY cerca d Gerona (Spayn)
    Mensajes
    3,237
    Lo primero, comentar ke pa mi lo ke dice yago2k va a misa XDDD
    Creo ke es un usuario bien documentado y sabe de ke habla... pero tengo algo ke comentar acerca de...

    Cita Iniciado por yago2k
    La PPU de AGEIA no acelera nada. Lo que hace es descargar a la CPU de los cálculos físicos. Si todos los juegos tuviesen una física avanzada, si podríamos hablar de "aceleración"... solo que como solo la tienen los juegos desarrollados para PhysyX o HAVOK, si no tienes la tarjeta no usas la física, pero si la tienes, no te acelera nada.
    A la gente d Havok no le gustaria para nada lo ke has dicho pq llevan un pike con Ageia ke...

    Batallas en el mundo de la física.

    La firma Havok es proveedora de lo que se llama middleware, en el fondo son herramientas de desarrollo para hacer juegos más choriflai realistas. Productos como Havok FX, Havok Behavior y otros, proveen aplicaciones y bibliotecas dinámicas (DLL) para sacar provecho de los Shader Models y tener juegos con asombroso realismo en todo lo que es colisiones, balística, caídas... todo lo que requiere cálculos cinemáticos y dinámicos.

    Pues bien, con la venida de Ageia y su PPU no es que Havok esté complicado porque no es competencia directa, pero a su manera el producto de Ageia es un sustituto en el sentido de que los cálculos que se delegan en el producto AGEIA ya no se ejecutan en el GPU de la VGA vía los algoritmos de Havok. Eventualmente los juegos podrían simplemente mandarle el cacho al producto AGEIA y dejar totalmente de lado los cálculos usando modelos de Havok.

    Con la ocasión de la salida de Ghost Recon: Advanced Warfigher, el primer juego en soportar Ageia, Havok publicó un comunicado diciendo que corrieron unas pruebas y todas las colisiones y caídas libres fueron procesadas completamente en el GPU gracias a los modelos Havok, y que lo único que recayó en la tarjeta Ageia fueron efectos de partículas... en otras palabras "cuidadito con arrogarse el mérito porque tu tarjeta no hizo nada".

    En segundo lugar, dijeron que Ageia busca crear en los consumidores la idea de que los GPU actuales no se la pueden con los efectos físicos, cuando en la práctica las tarjetas de video tienen capacidad de sobra para procesar dichos efectos.

    Finalmente, por favor lean esta parte del comunicado. Seré yo o alguien más piensa que Havok debiera usar más puntos seguidos? Bueno, son irlandeses igual que James Joyce, si alguien leyó Ulises sabrá que son especialistas en NO facilitar la lectura.


    [quote:3ngm7hn1]AGEIA appears to imply and consumers conjecture that the PPU is generating so many objects that the GPU cannot handle the load. Multiple direct tests on the game by using NVIDIAand ATI GPUs indicate the GPU has room to spare and in fact and if the PPU is factored out of the game and that the particle content generated by the PPU can easily be drawn at full game speeds by the GPU. So the introduction of the PPU most certainly appears to be the cause of the slow down in this case. NVIDIA specifically can technically verify that the GPU is not the cause of the slowdown.
    Firing Squad [/quote:3ngm7hn1]

    En mi opinion Ageia busca su nicho en el mercado pero no creo ke lo logre... ATi y Nvidia frustraran su intento...

    Salu2

  22. yago2k
    yago2k está desconectado
    Usuario registrado CV
    Fecha de ingreso
    12 feb, 05
    Ubicación
    Madrid
    Mensajes
    524
    Si, yo también lei ese artículo en firingsquad.com. Muy recomendable...

    Pero veo que los de HAVOK me dan la razón en parte:
    Multiple direct tests on the game by using NVIDIAand ATI GPUs indicate the GPU has room to spare and in fact and if the PPU is factored out of the game and that the particle content generated by the PPU can easily be drawn at full game speeds by the GPU
    En el caso de GRAW, sin lugar a dudas...los efectos no son tan impresionantes como para justificar la bajada de rendimiento. En el caso de Cell Factor...lo dudo mucho. La cantidad de objetos dinámicos en pantalla parece ser inmensa en ocasiones.

    De todas maneras, dicen lo mismo que yo, que las GPUs todavía tiene potencial para mucho más. Si Oblivion corre como el culo en los PCs, no es tanto por su potencia gráfica, sino porque no está tan bien optimizado como podría. Ya se que son plataformas diferentes, pero ya vereis lo que puede hacer la PS3...con una 7900GT (porque el RSX que lleva, en esencia es solo eso). O lo que hacen la Xbox y PS2 con chips de la generación del GeForce 2

    saludos,

  23. Tonnituntun
    Tonnituntun está desconectado
    Usuario registrado CV
    Fecha de ingreso
    20 jul, 04
    Ubicación
    Murcia
    Mensajes
    3,146
    Bueno aqui mi aporte a este tema:
    Yo veo las tarjetas para fisica como en su dia lo fueron las tarjetas especializadas para decodificar dvd, al final fueron inecesarias ya que la potencia de los procesadores fue suficiente para poder decodificar dvds en tiempo real con calidad.

    Yo creo que las graficas se encargaran en un futuro no muy lejano de los calculos fisicos, incluso puede que los procesador con los futuro quadcore y demas patochadas, a dia de hoy ya esta prevista la salida de drivers para las 7x00 para que se puedan encargar de los calculos de la fisica, por eso es posible que los de ageia y sus partners hayan reculado con la salida de las tarjetas con chips physx, y las vayan a integrar con chips graficos en la misma tarjeta grafica...quien sabe.

    Y seguramente despues saquen unos chips para gestionar la I.A y vete a saber que mas.

    Y de lo que cell factor vaya lento sin una tarjeta con chip physx lo veo una mala optimizacion mas que un avance, porque vale que halla muchos objetos en le escenario pero luego el resto esta "vacio"...

  24. McArra
    McArra está desconectado
    Usuario registrado
    Fecha de ingreso
    26 ene, 05
    Ubicación
    Getxo
    Mensajes
    95
    Vuestros argumentos suenan bien, que si la GPU puede con mas, que si la CPU tmb... Alguien me puede explicar entonces xk juegos con efectos de particulas medio intensas cascan el framerate de manera bestial?
    Pondre el mismo ejemplo que he puesto en Anandtech, el Xpand Rally usa particulas cuando cruzamos el agua, muchas menos que las utilizadas por Ageia, y en esos momentos el framerate se divide entre 2...

    Si CPU y GPU son tan tremendamente capaces como es esto posible :?

    De Havok me voy a fiar, del competidor en estos momentos mas directo de Ageia, para que usar nuestros PCs con juegos intensos en particulas? Havok dice que van del copon :roll:

    Por otra parte sospecho que 256mb pueden ser causantes de parte de la falta de rendimiento en Cell Factor (especialmente), en agosto espero poder probar la PhisX con hard mas potente.

  25. McArra
    McArra está desconectado
    Usuario registrado
    Fecha de ingreso
    26 ene, 05
    Ubicación
    Getxo
    Mensajes
    95
    Yo veo las tarjetas para fisica como en su dia lo fueron las tarjetas especializadas para decodificar dvd, al final fueron inecesarias ya que la potencia de los procesadores fue suficiente para poder decodificar dvds en tiempo real con calidad.
    Ese mismo argumento se usaba en su dia contra las tarjetas 3D

  26. yago2k
    yago2k está desconectado
    Usuario registrado CV
    Fecha de ingreso
    12 feb, 05
    Ubicación
    Madrid
    Mensajes
    524
    Cita Iniciado por Tonnituntun
    Y de lo que cell factor vaya lento sin una tarjeta con chip physx lo veo una mala optimizacion mas que un avance, porque vale que halla muchos objetos en le escenario pero luego el resto esta "vacio"...
    No, si cuando va lento es cuando usas la Physx...sin ella, tengo entendido que no puedes jugarlo. El GRAW, sin PPU va relativamente bien, pero cuando se la pones, baja el rendimiento.

    Cita Iniciado por McArra
    Vuestros argumentos suenan bien, que si la GPU puede con mas, que si la CPU tmb... Alguien me puede explicar entonces xk juegos con efectos de particulas medio intensas cascan el framerate de manera bestial?
    Muy sencillo. Porque los desarrolladores todavía no han aprendido a programar para los dual core usando todo su potencial. Y porque la mayoría de los juegos se apresuran para salir cuanto antes al mercado. Es más fácil ahorrarse dinero en optimizarlos y depurarlos, cuando sabes que la próxima gráfica va a tener tal potencia bruta que va a poder con un código vulgar. Por eso DOOM3 es tan impresionante en una XBox (que esencialmente es un PIII a 700 con una GeForce2) o un PC de gama baja...porque Carmak se toma la molestia de depurar sus motores gráficos hasta un nivel exagerado.

    Si, como dices tu, los juegos exprimen los componentes al máximo, ¿como explicas que una XBox o PS2 puedan dar resultados similares al de PCs con hardware cien veces más potente? Pues porque como los desarrolladores tiene que trabajar con la misma plataforma durante 5 años, y saben que no pueden depender del hardware para que tape sus errores, están forzados a usar los recursos óptimamente.

    Por eso digo que AGEIA es un paso más en la sangría constante al usuario de PC. Es más fácil forzar al usuario a dejarse 300€ en un hardware redundante, que invertir en optimizar lo que ya tenemos. Si consiguiésemos que la gente, esta vez al menos, no picase, los que quieran sacar un juego con física impresionante y superar a la competencia, se verán obligados a sacarle todo el jugo al hardware actual. Los juegos evolucionarán lo mismo, pero nosotros nos ahorraremos 300€ por cabeza.

    saludos,

  27. McArra
    McArra está desconectado
    Usuario registrado
    Fecha de ingreso
    26 ene, 05
    Ubicación
    Getxo
    Mensajes
    95
    Las PS2 y Xbox originales estan sin duda optimizadisimas, aun asi hace ya varios años que estan lejos del nivel de un PC de gama alta.

    Una cosa no va a cambiar, y es k los desarrolladores van a gastar los menos posible en optimizacion, eso esta muy claro, y es una pua. Ahora bien, la Ageia SDK funciona bien tanto en PC como en Xbox 360 y PS3, lo cual es una gran ayuda. Eso la parte de soft de Ageia. Sin duda esos mismos efectos con su hard seran mejores.

    Repito qu el problema no es que las CPU no sean potentes, lo son y mucho, pero cada chip tiene calculos que le van mejor o peor, y ahi entra la PhysX. En su momento las 3D ofrecian poco mas que una CPU de siguiente generacion, pero la especializacion en el tipo de calculo que requiere una escena 3D fue la razon de su triunfo. Con arkitecturas diferentes a las CPU actuales a buen seguro ganariamos en rendimiento en calculo fisico y de fluidos, pero a cambio de perder en otras facetas mas propias de la CPU, o a cambio de añadir cores de diferente tipo en una sola CPU.

    Lo mismo ocurre con las graficas, son muy potentes pero tienen limitaciones. En un futuro a medio plazo veremos lo que ocurre, el paso logico sera la integracion de ambas funciones en un solo chip, seguramente, pero a dia de hoy no van por ahi los tiros. El Graw a mi me sigue andando muy fluido, no veo mas que una muy ligera perdida en fraps, y en alguna escena incluso hay mejora.

    No gastaria yo ahora 300€, lo repito, pero no es descabellado pensar que el que en la fase inicial de las PPUs quiera tener lo mas en juegos tendra que plantearsela si tiene el dinero. A buen seguro la integracion hara que el precio baje y finalmente se generalicen.

  28. McArra
    McArra está desconectado
    Usuario registrado
    Fecha de ingreso
    26 ene, 05
    Ubicación
    Getxo
    Mensajes
    95
    Videos incluidos en la ultima pagina de la review