Resultados 1 al 46 de 46

Tema: Ojo al comprar una G80, ¿tienes CPU a la altura?

  1. DrDrizzit
    DrDrizzit está desconectado
    Usuario registrado CV
    Fecha de ingreso
    20 feb, 06
    Ubicación
    Valencia
    Mensajes
    2,586

    Ojo al comprar una G80, ¿tienes CPU a la altura?

    Es dejo un review reciente donde justifican la transición del clásico Fx de AMD al Extreme de c2d en el banco de pruebas de gráficas de la prestigiosa web Tom´s Hardware

    Parece decir a groso modo, que si desnivelas el presupuesto emtre CPU y gráfica (G80) en este caso, estarás gastando pasta inútilmente.

    Saludos

    PD: esto es relevante, y muy relevante, a la hora de actualizar o comprar equipo nuevo.

  2. NitroNitrous
    NitroNitrous está desconectado
    Usuario registrado CV
    Fecha de ingreso
    07 may, 06
    Ubicación
    Tenerife / Zaragoza / Turin
    Mensajes
    1,418
    Eso siempre ha sido así: Tu PC será tan rápido como el más lento de sus componentes.
    Un Northwood a 2.5Ghz hace cuello de botella a una X800XT. Un Prescott a 2.8Ghz hace cuello de botella a una 7800GS, un 3800+ hace cuello de botella a dos 7600GT en SLI, un 4000+ # 2.8Ghz hace cuello de botella con dos 7800GT... todo eso lo sé por experiencia propia, así que no me quiero ni imaginar la CPU que hace falta para una 8800GTX. Y si pones dos en SLI ya no te quiero ni contar. Y no me extrañaría nada que aún ese Core 2 Duo no la aprovechara al máximo...

  3. Tonnituntun
    Tonnituntun está desconectado
    Usuario registrado CV
    Fecha de ingreso
    20 jul, 04
    Ubicación
    Murcia
    Mensajes
    3,146
    Pero eso es cierto a resoluciones de 1280*1024 para abajo cuando a esta resolucion le empiezas a meter filtros y vas subiendo de resolucion, con un procesador medianamente potente basta. Tengo que buscar la comparativa en la que a partir de 1600*1200 todos los micros (core 2 duo) daban resultados muy muy igualados.

  4. DrDrizzit
    DrDrizzit está desconectado
    Usuario registrado CV
    Fecha de ingreso
    20 feb, 06
    Ubicación
    Valencia
    Mensajes
    2,586
    Cita Iniciado por Tonnituntun
    Pero eso es cierto a resoluciones de 1280*1024 para abajo cuando a esta resolucion le empiezas a meter filtros y vas subiendo de resolucion, con un procesador medianamente potente basta. Tengo que buscar la comparativa en la que a partir de 1600*1200 todos los micros (core 2 duo) daban resultados muy muy igualados.
    Pues sería muy interesante pegarle un vistazo. A ver si lo encuentras, porque con la capacidad de oc que tienen los modelos más humildes, si además le sumas eso, puede evitar ahorrar una pasta.

    Oye NitroNitrous, además de por experiencia, se podría calcular de forma teórica, con lo que eso implicaría, las especificaciones o velocidades de clock de micro o GPU a la hora de establecer quién es cuello de quién. El tema me parece fascinante, pero no tengo ni Pu..piiiiiii idea de cómo hacerlo.

    Saludos

  5. NitroNitrous
    NitroNitrous está desconectado
    Usuario registrado CV
    Fecha de ingreso
    07 may, 06
    Ubicación
    Tenerife / Zaragoza / Turin
    Mensajes
    1,418
    Buf no creo, eso no es una fórmula matemática exacta Ten en cuenta que no podría decirse tantos Ghz hacen cuello de botella con X gráfica porque ya no es como antes, que el mejor micro era el de más Ghz, ahora cada CPU va a su bola y la única forma de compararlas en viendo benchmarks.
    Yo los ejemplos que te he puesto los he comprobado por mí mismo en la práctica, salvo el de las 7800GT en SLI, que es un amigo quien lo tiene

  6. DrDrizzit
    DrDrizzit está desconectado
    Usuario registrado CV
    Fecha de ingreso
    20 feb, 06
    Ubicación
    Valencia
    Mensajes
    2,586
    Lástima
    Iremos pues al foro de bench
    Nos vemos

    Saludos

  7. JCOTV64
    JCOTV64 está desconectado
    Usuario registrado CV
    Fecha de ingreso
    07 mar, 05
    Ubicación
    Veracruz
    Mensajes
    593
    Buen detalle, y mas k los QuadCore de AMD estan ala vuelta de la eskina. El proximo año va hacer una gran gastadera de pasta

  8. Invitado
    Pues yo estoy pensando comprarme la club 3d 8800gts, mi equipo es un e6600,2gb ddr2 667,d.d 160 sata2 7.200,p5b deluxe, y mi gran duda la fuente tacens valeo smart 560w reales podra con todo esto?

  9. DrDrizzit
    DrDrizzit está desconectado
    Usuario registrado CV
    Fecha de ingreso
    20 feb, 06
    Ubicación
    Valencia
    Mensajes
    2,586
    Cita Iniciado por Anonymous
    Pues yo estoy pensando comprarme la club 3d 8800gts, mi equipo es un e6600,2gb ddr2 667,d.d 160 sata2 7.200,p5b deluxe, y mi gran duda la fuente tacens valeo smart 560w reales podra con todo esto?
    Se los come con patatas y ketchup o mahonesa al gusto. Piensa que el micro consume menos que un pentium cueceleches IV (bueno, similar por aquello de ser dos núcleos). La gráfica, consume similar a una ATI 1950xtx.

    Te dejo un review sobre el tema.

    Buen detalle, y mas k los QuadCore de AMD estan ala vuelta de la eskina. El proximo año va hacer una gran gastadera de pasta
    Se prevee un nuevo socket cada 3 meses en los próximos 2 años... asi que cautela con el bolsillo.

    Saludos

  10. Invitado
    Muxas gracias entonces me la puedo comprar sin problemas que la tacens aguantara no? Es que habia oido que minimo haria falta una fuente de 600w, y lo que no quiero es gastarme 440€ y luego se me qede colgao el pc por la fuente pero si me lo dice un xperto informatico como pone debajo de tu nick,je me la comprare.

  11. DarkLinux
    DarkLinux está desconectado
    Usuario registrado
    Fecha de ingreso
    30 ago, 06
    Mensajes
    106
    pues yo estoi pensando en comprarme una g80 gts weno mejor dicho un ordenador nuevo y el procesador sera un core 6600€ y 2 gigas de ram 800mhz la fuente una 650-700 no tendre ningun problema no?

  12. DrDrizzit
    DrDrizzit está desconectado
    Usuario registrado CV
    Fecha de ingreso
    20 feb, 06
    Ubicación
    Valencia
    Mensajes
    2,586
    heiiiii¡¡¡
    NUNCA os fieis de lo que pone debajo del nick¡¡¡
    Alguien que diga chorradas sin parar, podría ser "experto" en un mes.
    Más que por eso, fíjate en el review, dónde dice que en teoria con una de 500 w en condiciones es suficiente, y que con una de 600 w no tendrás problemas.
    Dado que la valeo smart 560w ws modular, y capaz de sacar de forma mantenida esa potencia, es apta para el pc que quieres montar. No te la recomendaría para un sistema SLI, pero no es el caso. De hecho me la pillaría de nuevo si fuera el caso.

    A Darklinux le diría que sin problemas. Esa fuente (>650w)incluso permitiría SLI.

    Saludos

  13. Tonnituntun
    Tonnituntun está desconectado
    Usuario registrado CV
    Fecha de ingreso
    20 jul, 04
    Ubicación
    Murcia
    Mensajes
    3,146
    Bueno aqui pongo para veais la diferencia entre usar una core 2 duo 6400 y un x6800 a partir de 1600*1200.

    http://www.guru3d.com/article/Videocards/391/23/

  14. hwpablo
    hwpablo está desconectado
    Usuario registrado
    Fecha de ingreso
    07 dic, 04
    Ubicación
    Vigo
    Mensajes
    148
    Entonces, para poner una G80, ¿cual es el procesador mínimo para jugar a 1280x1024? (Digo esa resolución porque es la típica de las tft de 17", que creo que son las más comunes).

  15. Tonnituntun
    Tonnituntun está desconectado
    Usuario registrado CV
    Fecha de ingreso
    20 jul, 04
    Ubicación
    Murcia
    Mensajes
    3,146
    Cita Iniciado por hwpablo
    Entonces, para poner una G80, ¿cual es el procesador mínimo para jugar a 1280x1024? (Digo esa resolución porque es la típica de las tft de 17", que creo que son las más comunes).
    Yo diria que con un core 2 duo 6600 irias "sobrado".

  16. hwpablo
    hwpablo está desconectado
    Usuario registrado
    Fecha de ingreso
    07 dic, 04
    Ubicación
    Vigo
    Mensajes
    148
    Jo, pues menuda gracia! el 6600 es un procesador "caro", y si le sumamos el precio de la gráfica... espero que el G80 8600 sea menos exigente en cuanto a cpu. Fíjate que yo pensaba que en el tema de juegos, a la altura a la que van las cpu, ya sólo las gpu contaban para el rendimiento.
    Os lo digo en serio, esto es un jarro de agua fría, pues yo estaba todo contento ya que el Vista en mi AMD 64 3200 me va de lujo (a mi me sorprendió tanto como a vosotros xD) y pensaba que sólo me iban a hacer falta 2Gb y una gráfica nueva... ¡pero esto lo cambia todo!

    Un saludo

  17. NitroNitrous
    NitroNitrous está desconectado
    Usuario registrado CV
    Fecha de ingreso
    07 may, 06
    Ubicación
    Tenerife / Zaragoza / Turin
    Mensajes
    1,418
    Buf, no lo sabes tú bien compañero. Estamos en plena revolución informática: DirectX10, AMD sacará la respuesta a los C2D en breve, Windows Vista, empiezan a salir CPU´s de 4 cores, se habla de futuros CPU+GPU integrado, las gráficas vienen con una parte del core dedicada a físicas, la respuesta de ATI serán unas gráficas con el PCB completamente reestructurado para aprovechar más el espacio y no hacer petroleros en vez de tarjetas gráficas (como es la G80, un petrolero), etc etc etc.
    Vamos que el que quiera comprarse un ordenata para reyes la lleva clara, hasta que esto no se estabilice es una lotería saber si aciertas o no con lo que te compres.

  18. danko9696
    danko9696 está desconectado
    Usuario registrado CV
    Fecha de ingreso
    19 jul, 04
    Ubicación
    Valladolid
    Mensajes
    441
    Nass.

    Ahora mismo elegir tarjeta/cpu de forma adecuada es bastante complicado y requiere buscar mucha información.
    Depende mucho de a que resolución queremos jugar, de si nos importa mucho el poder poner filtros y también de que juegos pensamos jugar.

    En general pienso que para jugar a 1024 o a 1280 sin filtros o con pocos filtros no hace falta un G80. Aun cuando puedas evitar en gran parte el cuello de botella a esas resoluciones y ganar muchos frames con un procesador mas potente, ¿de que te va a servir?, ¿para tener 200 frames en lugar de 150 o 150 e lugar de 100?. Y mas teniendo en cuenta que cada vez mas gente tiene un TFT (frec refresco típica de 60Hz --> no vas a ver mas de 60 frames).

    Una tarjeta de gama alta solo tiene sentido si vamos a meter mucha resolución y/o muchos filtros y/o juegos estremadamente exigentes (FEAR por ej, está limitado por grafica incluso a 1024 si le metes suficientes filtros/efectos), hasta conseguir que el cuello de botella esté en la tarjeta y una vez llegados ahi, jugar con la calidad gráfica (filtros) hasta dejarlo como nos interese.
    No creo que en Oblivion (por ej), a 2560x1600 de resolucion haya mucha diferencia entre el procesador mas rápido actualmente y un AMD 3800x2 (seguramente 0 frames). Y si hubiese diferencia, metes mas caña en los filtros hasta que te empiece a limitar la gráfica y solucionado.

    Y en cuanto a los juegos tambíen hay que tener en cuenta que hay juegos concretos que realmente están muy limitados por CPU, como muchos simuladores, y donde es mucho mejor gastar el dinero en la cpu.

    Y en cuanto a los quadcore, yo no me preocuparía mucho. Las compañías de videojuegos tardarán bastante e aprovechar los 4 cores. Hay pocos juegos que aprovechen dos cores (quake4 y serious sam 2, por ej) y para los que no lo hacen, con dos cores vas mas que chutas, ya que te permite usar uno para el juego y otro para todo lo demas.
    Hasta que no los juegos no empiecen a aprovechar cores extras para la física es dificil que se aprovechen bien estos cores extras. Y lo que no se va a hacer tampoco es programar de forma masiva para varios cores hasta que estos no estén en casi todos los pcs. Pensad en lo k paso con la programación para shaders, que vino de golpe, saltandose los directx7 y 8 y pasando directamente a dx9 (aunque incluyendo soporte para 8 y 8.1). Como muestra, Half Life 2 y Far Cry, que fueron los primeros juegos donde realmente se notaba la diferencia que marcan los shaders (mas allá de algun shader suelto como en algúnos juegos anteriores).

    Y 4 cores sigue siendo apenas el principio. Creo recordar que intel hablaba de 48 cores para el 2010, y eso es dentro de solo 3 añitos. Aún cuando sufra retrasos, pongamos que son solo 16 cores para el 2010, sigue siendo la leche.

    Salu2

  19. hwpablo
    hwpablo está desconectado
    Usuario registrado
    Fecha de ingreso
    07 dic, 04
    Ubicación
    Vigo
    Mensajes
    148
    Hola

    Verás, cuando me refería a jugar a 1280x1024 lo decía porque tengo un tft, y digamos que "necesito" mover todos los juegos a esa resolución. Tienes razón cuando dices que una 8800 sobra para manejar suficientes fps en cualquier juego a esa resolución y con filtrados, hdr, etc... de hecho, me gustaba mucha la ati x1900xt que vendían por 250€ antes. Sin embargo lo de comprar la 8800 se debe únicamente al directx10, pues a estas alturas creo que no me vale la pena gastarme dinero en una directx9 (tampoco tengo dinero para comprar una 7600GT por ejemplo, y aguantar hasta la 8600, sólo puedo comprar una).
    Ah, un apunte, el tft que tengo llega a los 75hz (no es que cambie mucho la cosa, pero bueno, es un dato).

    Saludos

  20. danko9696
    danko9696 está desconectado
    Usuario registrado CV
    Fecha de ingreso
    19 jul, 04
    Ubicación
    Valladolid
    Mensajes
    441
    Cita Iniciado por hwpablo
    Hola

    Verás, cuando me refería a jugar a 1280x1024 lo decía porque tengo un tft, y digamos que "necesito" mover todos los juegos a esa resolución. Tienes razón cuando dices que una 8800 sobra para manejar suficientes fps en cualquier juego a esa resolución y con filtrados, hdr, etc... de hecho, me gustaba mucha la ati x1900xt que vendían por 250€ antes. Sin embargo lo de comprar la 8800 se debe únicamente al directx10, pues a estas alturas creo que no me vale la pena gastarme dinero en una directx9 (tampoco tengo dinero para comprar una 7600GT por ejemplo, y aguantar hasta la 8600, sólo puedo comprar una).
    Ah, un apunte, el tft que tengo llega a los 75hz (no es que cambie mucho la cosa, pero bueno, es un dato).

    Saludos
    Lo bueno de una 8800 es que aún siendo directx10 es muy potente en juegos actuales. Pero si puedes aguantar algún tiempo mas, lo ideal sería esperar a que salga la gama media dx10 de nvidia y tambíen de paso ver la respuesta de Ati por si resulta estar mejor que la oferta de nvidia.

    Yo mismamente estoy esperando al r600, porque no quiero pillarme los dedos con la 8800gtx (voy a jugar a muy alta resolución) en un momento tan crucial como el paso de dx9 a 10, ya que se abandona todo el sistema DirectX actual, liberándose del lastre que supondría mantener la compatibilidad hacia atras.
    La 8800gtx tiene muy buena pinta, pero es mucha pasta y prefiero asegurarme de que es la elección correcta.

    En cuanto a los 75hz, los fabricantes suelen recomendar 60hz aún cuando soporte ambas frecuencias de refresco. Supongo que se debe al tema del ghosting, ya que si los pixels no cambian de color con la suficiente rapidez a 60hz, a 75 peor todavía.

  21. DrDrizzit
    DrDrizzit está desconectado
    Usuario registrado CV
    Fecha de ingreso
    20 feb, 06
    Ubicación
    Valencia
    Mensajes
    2,586
    Cita Iniciado por Tonnituntun
    Bueno aqui pongo para veais la diferencia entre usar una core 2 duo 6400 y un x6800 a partir de 1600*1200.

    http://www.guru3d.com/article/Videocards/391/23/
    Por más vueltas que le doy, no acabo de entender...
    a resoluciones habituales, está claro que el micro tiene que decir...
    pero ha esas resoluciones tan altas, si el micro actua de cuello de botella, con más razón para que las diferencias se mantengan o incluso sean mayores ¿no?. Entonces creo que cuello de botella claramente lo hay, pero debe ser en otro lado...

    Si me equivoco, necesito argumentos

    Saludos y gracias.

  22. Tonnituntun
    Tonnituntun está desconectado
    Usuario registrado CV
    Fecha de ingreso
    20 jul, 04
    Ubicación
    Murcia
    Mensajes
    3,146
    Cita Iniciado por DrDrizzit
    Cita Iniciado por Tonnituntun
    Bueno aqui pongo para veais la diferencia entre usar una core 2 duo 6400 y un x6800 a partir de 1600*1200.

    http://www.guru3d.com/article/Videocards/391/23/
    Por más vueltas que le doy, no acabo de entender...
    a resoluciones habituales, está claro que el micro tiene que decir...
    pero ha esas resoluciones tan altas, si el micro actua de cuello de botella, con más razón para que las diferencias se mantengan o incluso sean mayores ¿no?. Entonces creo que cuello de botella claramente lo hay, pero debe ser en otro lado...

    Si me equivoco, necesito argumentos

    Saludos y gracias.
    Pues a ver si lo explico que se pueda entender:
    En resoluciones "bajas" el micro manda una instruccion que debe ejecutar la tarjeta grafica, supongamos que renderice una imagen, a una resolucion de 1024*768 la grafica es posible que termine de hacerlo antes de que el micro se quede en espera de recibir la instruccion que mando finalizada. Si esto ocurre continuamente la tarjeta grafica trabajara mas lento de sus posiblidades, aqui esta haciendo de cuello de botella del micro, limitando los fps que renderiza la tarjeta grafica.

    Ahora supongamos que la resolucion de la imagen la subimos a 1600*1200. Aqui el micro manda la instruccion, la tarjeta grafica empezaria a realizar sus calculos internos para procesar la instruccion. Si el micro llegara a quedarse en espera de la instruccion finalizada, es decir la tarjeta grafica esta procesando las imagentes mas lentamente de las que el microprocesador le puede mandar. En este caso la tarjeta grafica esta en su limite de fps a esa resolucion con la aplicacion que este ejecutando.

    Hay que tener en cuenta que el procesador, supuestamente, manda la misma intruccion a la tarjeta grafica ya tenga la grafica que renderizar una imagen a 640*480 que a 1600*1200, pero esta claro que el trabajo que vaya a realizar la gpu internamente para distintas resoluciones no es el mismo

    Si te fijas en los resultados, en la primera grafica un core 2 duo 6300, es capaz de mandar instrucciones para que en prey a 1024*768 dé 125fps, trabajo que la grafica puede realizar sobradamente. Pero cuando pasas a 1900*1200 es la cpu la que tiene que esperar a la grafica, por eso todos los micros dan resultados casi identicos.

  23. danko9696
    danko9696 está desconectado
    Usuario registrado CV
    Fecha de ingreso
    19 jul, 04
    Ubicación
    Valladolid
    Mensajes
    441
    Cita Iniciado por DrDrizzit
    Cita Iniciado por Tonnituntun
    Bueno aqui pongo para veais la diferencia entre usar una core 2 duo 6400 y un x6800 a partir de 1600*1200.

    http://www.guru3d.com/article/Videocards/391/23/
    Por más vueltas que le doy, no acabo de entender...
    a resoluciones habituales, está claro que el micro tiene que decir...
    pero ha esas resoluciones tan altas, si el micro actua de cuello de botella, con más razón para que las diferencias se mantengan o incluso sean mayores ¿no?. Entonces creo que cuello de botella claramente lo hay, pero debe ser en otro lado...

    Si me equivoco, necesito argumentos

    Saludos y gracias.
    Para que lo veas mejor, en ese link fijate e la primera gráfica.
    - A 1024 con diferentes procesadores consigues diferentes números de frames, lo que quiere decir que la gráfica es capaz de renderizar todo lo que le manda el procesador (cuello de botella en la CPU). También fijate que aún teniendo cuello de botella con un E6300, tienes 124 frames, que es sobradísimo.
    - 1280, los frames varían un poco, solo tres frames entre el mejor y el peor procesador, con lo que se ve claro que el límite lo está poniendo la gráfica (cuello de botella en la gráfica).
    - 1600 en adelante: lo mismo que a 1280 pero todavía mas acusado. Con diferencias de 0 frames entre el mejor y el peor procesador (cuello de botella en la gráfica).

    Tienes que pensar que siempre va a haber un cuello de botella de algún tipo, puesto que es muy dificil que la gráfica tenga la capacidad exacta de renderizar exactamente el mismo número de frames que el procesador es capaz de generar.

    Y tambíen se debe porque para que una tarjeta gráfica sea capaz de generar un número decente de frames a altas resoluciones, implica que a baja resolución irá muy sobrado, y por tanto a esas bajas resoluciones el límite lo pondrá la CPU.

    Como han dicho antes, la CPU trabaja lo mismo pongas la resolución que pongas y pongas los filtros que pongas, pero la grafica no trabaja lo mismo. Y esa es la razón de que cuanta mas resolucion y filtros pongas, menos cuenta la CPU en el rendimiento general y mas cuenta la gráfica.

  24. Bobi
    Bobi está desconectado
    Usuario registrado CV
    Fecha de ingreso
    23 mar, 05
    Ubicación
    Oviedo
    Mensajes
    812
    Ahora mismo al precio tan desorbitado que tienen y sin tener software que aproveche su potencial es tonteria pillarse una g80 o similares
    hasta que el directx no este instaurado y podamos gozar de por ejemplo crysis, no veremos si realmente rinden bien y merecen la pena.

    Hoy por hoy lo mejor es aguantar con lo que se tenga o si necesitas una grafica irte a por los modelos calidad/precio (7900gs, x1950pro o similares) estas graficas te van a dar muchas alegrias y cuando quieras cambiar a la nueva generacion las vendes y te haces con las nuevas.

    Lo del cuello de botella del procesador, jugando a una resolucion buena 1280x1024 y poniendo detalles altos y filtros casi cualquier doble nucleo cumple las espectativas y no hace de cuella de botella en nada.

    De hecho todavia no he visto programa o juego que me ponga el x2 3800+@2600mhz a 100% de carga, esta siempre desahogado hasta con los juegos mas pesados, y en algunos casos ni pasa del 50% de uso.

    Saludos

  25. danko9696
    danko9696 está desconectado
    Usuario registrado CV
    Fecha de ingreso
    19 jul, 04
    Ubicación
    Valladolid
    Mensajes
    441
    Ahora mismo al precio tan desorbitado que tienen y sin tener software que aproveche su potencial es tonteria pillarse una g80 o similares
    Si pones resoluciones altas si que aprovechas una g80, incluso puedes llegar a quedarte corto de potencia (hablamos de 2560x1600 o 3840x1024, por ej).
    Y ademas sirve de paso para directx10, pero vamos, que para mi lo importante es simplemente que rinde mucho, mas que ser dx10 (tardara un buen tiempo en renovarse el parqué con tarjetas dx10, y los desarrolladores de juegos no pueden ignorar eso).

    De hecho todavia no he visto programa o juego que me ponga el x2 3800+@2600mhz a 100% de carga, esta siempre desahogado hasta con los juegos mas pesados, y en algunos casos ni pasa del 50% de uso.
    Eso es porque la gran mayoria de juegos solo usan un nucleo, y por eso no te pasa en muchos casos del 50%. Pero eso no significa que vaya deshahogado. Solo que tienes un nucleo usado a toda pastilla y otro practicamente sin usar (usado por procesos secundarios del sistema operativo y otros programas que tengas por debajo).

    Para tener el equipo al 100% de carga tendrías que tener por ejemplo, un juego y un programa tipo superpi o similar, de forma que el so asignaría a cada uno a un nucleo y tendrías facilmente el 100% ocupado.

  26. Bobi
    Bobi está desconectado
    Usuario registrado CV
    Fecha de ingreso
    23 mar, 05
    Ubicación
    Oviedo
    Mensajes
    812
    danko la gente que juega a esas resoluciones los cuentas con los dedos de las manos asi de simple y para resoluciones mas humanas tipo 1600 cualquier tarjeta de gama alta se desenvuelve con mucha soltura no te hace falta algo tan caro.

    Cundo digo que no se aprovechan todavia me refiero al uso de las dx10 a lo mejor a ti te gustaria que te pasase un segundo caso FX verdad?, se te quedaria una cara por haber tirado el dinero en una tecnologia que la grafica no soporta bien :? .

    Y no es por nada pero de los juegos nuevos casi todos usan el doble nucleo en menor o mayor medida y al estar usando el logitech g15 puedo mirar el uso en tiempo real sin tener nada que me interfiera en el propio juego y cuando digo uso del 50% no me refiero a un nucleo vacio y otro a tope si no a 50 entre los dos, se lo que hablo.

    Saludos

  27. danko9696
    danko9696 está desconectado
    Usuario registrado CV
    Fecha de ingreso
    19 jul, 04
    Ubicación
    Valladolid
    Mensajes
    441
    danko la gente que juega a esas resoluciones los cuentas con los dedos de las manos asi de simple y para resoluciones mas humanas tipo 1600 cualquier tarjeta de gama alta se desenvuelve con mucha soltura no te hace falta algo tan caro.
    Tienes razon en eso, pero tambien la gente que se plantea siquiera comprarse una tarjeta (o un procesador) de gama alta también se cuenta con los dedos, y en cambio en foros de hardware como este o similares no es nada raro ver posts preguntando sobre tarjetas de gama alta, incluso de montar G80s en sli.
    Cuando un post empieza por ´ojo al comprar una G80´, creo que queda claro que no se está dirigiendo a la mayoría de la gente, sino a aquellos que se plantean comprarse una tarjeta de mas de 600€, que a su vez son los que se pueden plantear comprarse un monitor que permita alta resolución.
    A mi por lo menos, me parece un desperdicio comprarse un procesador de 1000€, 1200€ en un sli de gama alta (sin contar coste de placa y memorias de gama alta) para luego ponerlo a 1280, o incluso a 1600 de resolución con un monitor normal.

    Cundo digo que no se aprovechan todavia me refiero al uso de las dx10 a lo mejor a ti te gustaria que te pasase un segundo caso FX verdad?, se te quedaria una cara por haber tirado el dinero en una tecnologia que la grafica no soporta bien
    Aunque no soportase del todo bien directx10, por lo menos van de pm en directx9. Falta mucho hasta que dx10 sea la norma, y los desarrolladores de juegos lo que no van a hacer es tirarse 2 años desarrollando un juego para que al final solo puedan jugar a el el 1% de los ordenadores que tiene una tarjeta dx10.

    Y no creo que sea ni parecido al caso de las nvidia fx (creo que es eso a lo que te refieres), porque las primeras iban mal en dx9 pero es que tambien iban muy mal en dx8, con lo cual era mucho mejor una ti4200 que una fx5200. No tenía tantos efectos, pero los que tenía los movía muy bien. En cambio una fx5200 tenía dx9 pero iba bastante peor en dx8 que la 4200 (dx9 iba pero no jugable).
    El G80 sabemos como mínimo que va muy bien en dx9, lo cual nos asegura que los juegos nos vayan muy bien durante bastante tiempo, ya que no creo que se abandone dx9 de golpe.

    Y no es por nada pero de los juegos nuevos casi todos usan el doble nucleo en menor o mayor medida y al estar usando el logitech g15 puedo mirar el uso en tiempo real sin tener nada que me interfiera en el propio juego y cuando digo uso del 50% no me refiero a un nucleo vacio y otro a tope si no a 50 entre los dos, se lo que hablo.
    La gran mayoria de juegos usan un solo nucleo. Hay excepciones, claro, pero la norma es esa. El que te ponga que el uso de CPU es de un 50% se refiere a la suma de los 2 nucleos, que puede ser 25%+25%, pero mas comunmente tambien 49%+1%, o 50%+0%.
    Cualquier juego te usará toda la cpu posible, porque te intenta generar el mayor número de frames posible. Si el juego pudiese usar los dos procesadores sin problemas, es casi seguro que el uso sería de un 100%.
    Que el uso sea de un 50% indica que es casi seguro que un procesador se esté usando a tope y el otro casi nada.

    Para hacerte una idea de la dificultad de crear un juego multihilo
    http://www.anandtech.com/cpuchipsets/sh ... i=2377&p=3
    Una muestra: Implementing a multithreaded system requires two to three times the development and testing effort of implementing a comparable non-multithreaded system
    Traducido: Un juego multihilo requiere dos o tres veces el esfuerzo de desarrollo y testeo del que requiere uno no multihilo.
    Eso explica por que hay tan pocos juegos actualmente que usen mas de un core de forma apreciable. Flight simulator X usa dos cores, por ejemplo, pero a efectos prácticos solo usa uno, ya que el segundo hilo solo sirve para precargar elementos del paisaje antes de estar realmente cerca, lo cual es insignificante a efectos de rendimiento.

    Por cierto, yo tengo un 3800x2 y aunque no tengo un teclado con lcd, si que tengo un lcd por separado, y un monitor tft secundario de 7' con los que puedo ver uso de CPU/temperaturas/etc...

  28. Bobi
    Bobi está desconectado
    Usuario registrado CV
    Fecha de ingreso
    23 mar, 05
    Ubicación
    Oviedo
    Mensajes
    812
    No se en el tuyo pero en el lcd del g15 el uso de cpu es detallado con dos barras de uso una por core asi que si se si usa 100+1 o 25+25, vamos que cuando te digo que me usa el 50% es 50 en core1 y 50 en core2 por que tengo las barras a la mitad, las dos me las usa por igual, en otros juegos no pasa eso, pero en fear, oblivion, ghost recon...... y un monton mas si estan optimizados para dual core y nunca me usan ese 100%.


    El ejemplo que pones de la fx5200 no es valido por que la 4200 es muy superior en todo y las fx van bien con dx8.1 (lo se, tuve una 5900xt y donde perdia los calzoncillos era solo con dx9) una 4200 tendrias que compararla con la fx5600ultra y esta ultima rinde parecido si no algo mas que la 4200 en dx8.1 y en opengl.

    Y bueno no todo el mundo se pilla esos monitores tan grandes y no por que sean caros si no por que no se puede tener a una distancia de escritorio normal un monitor de 30", hay que estar tarado para ponerlo a escasos centimetros te quedas ciego. (hasta 19" sigue teniendo 1280 y es para mi gusto el maximo de tamaño en un pc de escritorio, el de 32" lo tengo en el salon pero es una television lcd que es mil veces mas barata, que un monitor de ese tamaño).

    Cuando fui montando el pc eran todo piezas high-end y no me puli 1000€ en un maxi monitor, me compre un buen monitor de 17" por que para la distancia del escritorio es un buen tamaño, con esto te quiero decir que nada tiene que ver disponer del dinero.

    Saludos

  29. danko9696
    danko9696 está desconectado
    Usuario registrado CV
    Fecha de ingreso
    19 jul, 04
    Ubicación
    Valladolid
    Mensajes
    441
    No se en el tuyo pero en el lcd del g15 el uso de cpu es detallado con dos barras de uso una por core asi que si se si usa 100+1 o 25+25, vamos que cuando te digo que me usa el 50% es 50 en core1 y 50 en core2 por que tengo las barras a la mitad, las dos me las usa por igual, en otros juegos no pasa eso, pero en fear, oblivion, ghost recon...... y un monton mas si estan optimizados para dual core y nunca me usan ese 100%
    Antes di por hecho que el g15 te mostraría la misma información que el administrador de tareas, con lo es posible que yo esté equivocado al respecto.
    Aún así me extraña mucho que usen los dos justo la mitad, ya que la división de procesos generalmente es no es equitativa cuando hay pocos procesos muy intensos (como en el caso de juegos). Y que esa suma sea justo el 50%, cuando sería mas normal que fuese cualquier cifra, no precisamente un 50% (¿por que no un 40%?¿o un 61%?¿o un 73%?).

    No digo que no pueda ser un 50%, solo que es muy sospechoso que la suma de uso de cpu sea justo un 50%, por lo que aún con la información que me das, me inclino mas a pensar que se trata de una forma de representar incorrecta por parte del G15, que asume que cada nucleo se está llevando una parte equitativa de la carga global de cpu. Es solo una hipótesis, pero me parece la mas lógica.

    En cuanto a los juegos que citas, se que el Oblivión si que usa varios cores de forma significativa (aprovechando que también está para xbox360, en la cual usa los tres cores). De los demas juegos no tengo información en este momento.


    El ejemplo que pones de la fx5200 no es valido por que la 4200 es muy superior en todo y las fx van bien con dx8.1
    La 4200 no esa superior en todo. La 5200 podía mostrar mas efectos, que ya no es todo, solo que su rendimiento tanto en dx9 como en 8 (8.1 incluido) era penoso. ¿y las fx iban bien en dx8.1, cuando iban peor que la generación anterior?. Mas bien diría que podían mover dx8, al contrario que dx9, y aún saliendo dx8.1 para ayudarlas seguían siendo bastante peores que la generación anterior (salvo las últimas tarjetas FX).

    Y bueno no todo el mundo se pilla esos monitores tan grandes y no por que sean caros si no por que no se puede tener a una distancia de escritorio normal un monitor de 30", hay que estar tarado para ponerlo a escasos centimetros te quedas ciego. (hasta 19" sigue teniendo 1280 y es para mi gusto el maximo de tamaño en un pc de escritorio, el de 32" lo tengo en el salon pero es una television lcd que es mil veces mas barata, que un monitor de ese tamaño).
    Si no te digo que no. Pero volvemos a lo mismo. Si no te vas a poner un monitor grande, para que quieres un 6600 hiper-overclockeado con memorias hi-end y dos 8800gtx en sli, si te vas a poner un monitor tft de 19''.
    Y por cierto, hay formas de meter mucha resolución sin gastarse tanta pasta, como metiendo 3 monitores tft baratos de 17'' as 1280 usando el triplehead2go. Y tampoco hay por que estar pegado al monitor, por algo inventó Dios los teclados y ratones inalámbricos (yo ahora mismo no concibo usar ningún teclado/ratón que no sean inalámbricos).

    Cuando fui montando el pc eran todo piezas high-end y no me puli 1000€ en un maxi monitor, me compre un buen monitor de 17" por que para la distancia del escritorio es un buen tamaño, con esto te quiero decir que nada tiene que ver disponer del dinero.
    Cada uno tiene sus ideas de como gastar el dinero. Para mi, un equipo hi-end con un monitor de 17'' no tiene sentido. Las tarjetas de gama alta estan hechas sobre todo para manejar con soltura resoluciones muy altas.
    Y no me lo estoy inventando: cada vez veras mas benchmarks con resoluciones de 2560x1600. ¿por que? porque a resoluciones mas bajas una tarjeta de gama alta no destaca tanto sobre modelos inferiores. Por cierto, la serie 8800 viene con Dual-DVI de serie, justo lo necesario para conectarse a monitores de 2560x1600 con salida dvi (con un solo conector DVI no basta para esa resolución).
    Incluso algunas soluciones, como quad-sli dan menos rendimiento a resoluciones normales.
    Los filtros también influyen, pero ya algunos juegos, incluso con filtros a tope van sobrados a resoluciones bajas y la unica forma de apretar mas la tarjeta es subiendo la resolución.

    El meter esos componentes unidos a un monitor de 17'' es como meter un motor de F1 en un coche con carrocería, chasis y demas componentes de calle. Tendrá una potencia impresionante, pero que no podras ver aplicada en la práctica.

  30. Bobi
    Bobi está desconectado
    Usuario registrado CV
    Fecha de ingreso
    23 mar, 05
    Ubicación
    Oviedo
    Mensajes
    812
    Si lees bien lo que puse la primera vez veras que puse que no me suelen usar mas del 50%, es una cifra orientativa andan fluctuando los usos de los cores cada uno a su aire unas veces tiene mas carga uno luego el otro pero nunca tengo uno sin hacer nada dentro de los juegos que te comento, asi que el g15 marca a la perfeccion.

    Con lo de la 5200, que me quieres decir que en dx8 podia mostrar mas efectos que una 4200? por que si lo que dices es eso mucha idea de graficas no tienes. Partiendo de la base de que no creo que digas eso, la 4200 bajo dx8 es muuuuuy superior a una 5200 y si la 4200 soportase dx9 tambien seguiria siendo superior por especificaciones (lo unico que tenia mejor la fx5200 era "soporte" para dx9, pero como si no lo tuviese vamos).

    Y no es por nada pero en dx8 te puedo asegurar que ninguna de la serie 4xxx superaba a la 5900xt ya no digamos a los modelos superiores, el problema las fx lo tenian solo y exclusivamente en dx9 y era un problemon ya que las vendian como la panacea para ese api, lo del problema con dx8 te lo estas inventando tu basandote en una fx5200 vs 4200, que de por si era una basura de grafica(es como si te digo que la serie 7 de nvidia es mala comparada con la 6 basandome en una 7300 contra una 6600gt).

    y seguimos con lo mismo aparte de que yo en mi escritorio no quiero un raton/teclado inalambrico aunque me lo regalen no lo digo por eso, tu habitacion a lo mejor tiene 300m2 pero la del resto de la gente no y semejante monitor es dañino para la vista en una distancia convencional.
    El sitio donde tengo inhalambricos es en el salon para el barebone, que ahi si que uso una 32" pero en un escritorio es de tarado mental asi de sencillo y esto te lo digo yo y cualquiera.

    Tampoco acabas de entender que gastarse 600€ en una grafica a lo mejor no es para poner 5000 de resolucion es para ponerlo a buenas resoluciones 1280,1600 y poder jugar a cualquier cosa durante un largo periodo sin sacrificar rendimiento ni detalles, por que a las resoluciones que mencionas tendras que cambiar de grafica cada año como minimo para mantener framerates aceptables.

    Saludos

    PD: Lo del doble DVI no es que sea mucha novedad ya lo tiene mi x1800xt y ya va un año desde que salio al mercado.

  31. DrDrizzit
    DrDrizzit está desconectado
    Usuario registrado CV
    Fecha de ingreso
    20 feb, 06
    Ubicación
    Valencia
    Mensajes
    2,586
    Bueno, pues.. esto.., he aprendido bastantes cosas hoy.

    Muchas Gracias a todos por el entusiasmo mostrado y aclaraciones.

    Un saludo

    PD: sobre todo, que no cambio mi equipo actual (ver firma) por lo que está de moda (c2d y G80), para jugar en tft 19".

  32. Bobi
    Bobi está desconectado
    Usuario registrado CV
    Fecha de ingreso
    23 mar, 05
    Ubicación
    Oviedo
    Mensajes
    812
    Haces bien drizzit yo tampoco cambiaria piezas ahora mismo del pc, los x2 han demostrado una fiabilidad y rendimiento a prueba de bombas y con graficas como las x1800,x1900,7800,7900 hoy por hoy va todo como la seda.

    Hasta que no haya mejoras visibles con el dx10 y el nuevo SO que va a tardar todavia, no merece la pena cambiar un pc medianamente bueno.

    Saludos

    PD: volviendo al tema principal que puso el amigo drizzit con casi cualquier doble nucleo estaras aprovechando de sobra una 8800gts u 8800gtx, en sli ya si que hay que mirar un poco mas el micro, pero para una sola tampoco requieren tanto.

  33. danko9696
    danko9696 está desconectado
    Usuario registrado CV
    Fecha de ingreso
    19 jul, 04
    Ubicación
    Valladolid
    Mensajes
    441
    Con lo de la 5200 que me quieres decir que en dx8 podia mostrar mas efectos que una 4200? por que si lo que dices es eso mucha idea de graficas no tienes. Partiendo de la base de que no creo que digas eso, la 4200 bajo dx8 es muuuuuy superior a una 5200 y si la 4200 soportase dx9 tambien seguiria siendo superior por especificaciones (lo unico que tenia mejor la fx5200 era "soporte" para dx9, pero como si no lo tuviese vamos).
    En este tema creo que estamos bastante de acuerdo. O antes me has malinterpretado o yo no me he explicado bien. Solo decia k la 5200 era dx9 y la 4200 no, con lo cual tenía acceso a efectos k la 4200 no podía generar. Otra cosa es que la 5200 no tuviese capacidad para mover nada de eso con soltura (ni dx8 ni dx9).

    Y no es por nada pero en dx8 te puedo asegurar que ninguna de la serie 4xxx superaba a la 5900xt
    Como ya puse en mi respuesta anterior: ´seguían siendo bastante peores que la generación anterior (salvo las últimas tarjetas FX). ´.

    Tampoco acabas de entender que gastarse 600€ en una grafica a lo mejor no es para poner 5000 de resolucion es para ponerlo a buenas resoluciones 1280,1600 y poder jugar a cualquier cosa durante un largo periodo sin sacrificar rendimiento ni detalles.
    Con una tarjeta de 300 € tambien puedes jugar de pm en un monitor de 17'' (k por cierto no recuerdo ninguno de 17 que tenga 1600, asi que de haber serán bastante raros) sin sacrificar rendimiento ni detalles. Claro, estamos hablando de que en lugar de 150 frames, tendras a lo mejor ´solo´ 110, cosa que puede estar bien para fardar, pero que no significa nada a la hora de jugar con un tft (60 frames máximos visibles).
    Y mas teniendo en cuenta que muchos filtros a cierto nivel solo se diferencian del siguiente nivel sacando screenshots y mirandolos con lupa.

    PD: Lo del doble DVI no es que sea mucha novedad ya lo tiene mi x1800xt y ya va un año desde que salio al mercado.
    Ok no lo sabia, pero por lo menos en nvidia si k es una novedad.

    Tampoco acabas de entender que gastarse 600€ en una grafica a lo mejor no es para poner 5000 de resolucion es para ponerlo a buenas resoluciones 1280,1600 y poder jugar a cualquier cosa durante un largo periodo sin sacrificar rendimiento ni detalles, por que a las resoluciones que mencionas tendras que cambiar de grafica cada año como minimo para mantener framerates aceptables.
    Hombre, 2560 es una resolución muy alta para estar al pie del cañón todo el rato, aunque puedes ir bajando filtros con el tiempo (al fin y al cabo, a esa resolución no se nota mucho el antialising), pero 1280 me parece definitivamente ridículo para funcionar con una tarjeta (o dos tarjetas en sli como mas de uno hace) de 600€ la unidad.
    Una tarjeta de 300€ tambien te va a durar un buen tiempo a esa resolución (no tanto, pero desde luego no se queda pasada enseguida), y cuando deje de valer te compras otra de 300, que será tan buena o mejor que la que tu compraste de 600€ cuando salió.

    y seguimos con lo mismo aparte de que yo en mi escritorio no quiero un raton/teclado inalambrico aunque me lo regalen no lo digo por eso, tu habitacion a lo mejor tiene 300m2
    La distancia recomendada no es la misma para una televisión que para un monitor.
    Por lo que tengo entendido para una televisión la distancia óptima se calcula multiplicando la diagonal por 2.7. Sin embargo para los monitores recomiendan entre 50 y 60 centímetros y no bajar nunca de los 40 ni superar los 80. Así que no creo que haga falta mucho espacio en una habitación.

  34. Bobi
    Bobi está desconectado
    Usuario registrado CV
    Fecha de ingreso
    23 mar, 05
    Ubicación
    Oviedo
    Mensajes
    812
    Ahora nos vamos entendiendo, aunque sigo diciendo que la 5200 va bien en dx8 lo unico que la tarjeta en si pues era lo que era, gama baja mientras que la 4200 no era gama baja fue la 6600gt de su tiempo lo mejor calidad/precio.

    Si hombre te valdria con una de 300 pero si la de 600 tiene el doble de rendimiento que la otra te duraria el doble de tiempo suspuestamente, asi que estamos en las mismas.

    Al igual que la gente que se gasta ese dineral en graficas se lo gastaria tambien en un monitor como tu apuntas, es la misma gente que paga esas cifras para poner los filtros a tope aunque tienes razon que en resoluciones altas se nota poco o nada el aliasing, de hecho a 1280 si le pones un AA de 2x ya casi ni se nota.

    Me parece que la distancia que dices para una tv te refieres a una tv de tubo, plasma o similares, yo te hablo de una tv lcd que son igualitas a un monitor tft, lo unico que cambia son resoluciones una tv lcd de 32 tiene una resolucion de 1366x720 y un monitor de 32 tendra una resolucion que dobla la de la tv, pero por lo demas usan los mismos principios y se ven igual de hecho(yo no noto diferencias entre mi monitor y mi tv, salvando el tamaño).

    Con esos 80 centimetros que mencionas me sigue pareciendo muy cerca y ya no digamos los 40, ponerte a esa distancia de una pantalla de 30" o mas es de locos, de hecho para ver las esquinas tendras que girar la cabeza incluso, por que los ojos no creo que te den la panoramica suficiente.

    Un saludo

    PD: La separacion que tengo yo en la tele con el sofa es de metro y pico y la tengo cerquisima.

  35. danko9696
    danko9696 está desconectado
    Usuario registrado CV
    Fecha de ingreso
    19 jul, 04
    Ubicación
    Valladolid
    Mensajes
    441
    Ahora nos vamos entendiendo, aunque sigo diciendo que la 5200 va bien en dx8 lo unico que la tarjeta en si pues era lo que era, gama baja mientras que la 4200 no era gama baja fue la 6600gt de su tiempo lo mejor calidad/precio.
    Es que la 4200 la overclockeabas un poco, sin forzarla mucho, y era la caña. Y no valía mucho mas que una 5200.

    Si hombre te valdria con una de 300 pero si la de 600 tiene el doble de rendimiento que la otra te duraria el doble de tiempo suspuestamente, asi que estamos en las mismas.
    Pero comprando dos de 300, habrías gastado el dinero mas escalonadamente y tendrías dos tarjetas. Una de ellas tan buena o mejor que la que originalmente valía 600€.

    un monitor de 32 tendra una resolucion que dobla la de la tv, pero por lo demas usan los mismos principios y se ven igual de hecho(yo no noto diferencias entre mi monitor y mi tv, salvando el tamaño).
    Una televisión está pensada para verse a bastante distancia y por mucha gente a la vez, y por ello tiene mucho mas brillo, permitiendo ademas verse bien con bastante luz ambiental. En cambio un monitor está pensado para verse desde mucho mas cerca y también por eso suelen tener mucho menos brillo.
    Y esto ademas de que diferentes tecnologías suelen tener diferentes características de brillo y contraste.

    Con esos 80 centimetros que mencionas me sigue pareciendo muy cerca y ya no digamos los 40, ponerte a esa distancia de una pantalla de 30" o mas es de locos, de hecho para ver las esquinas tendras que girar la cabeza incluso, por que los ojos no creo que te den la panoramica suficiente.
    Cada persona es un mundo, y si me dices que te molesta o no te gusta tener que girar la cabeza a una determinada distancia, pues no puedo decirte nada en contra.
    Pero piensa que en el cine, aún a media distancia es dificil abarcar toda la pantalla con la vista. De hecho creo que está ahí la gracia del cine y de las pantallas grandes, que usas tanto la visión digamos ´directa´ como la periférica, y eso hace que sea mas inmersivo, aunque no puedas captar todo a la vez de forma perfecta (el formato panorámico está precisamente para eso). Y por eso tambíen hay proyectores caseros para habitaciones (no grandes salas) que permiten conseguir facilmente tamaños de 70 o mas pulgadas.

    Pero bueno todo este tema de preferencias de monitores y televisiones depende mucho del gusto personal. Hay gente que no tolera ver un tft (a la distancia que sea) durante mas de media hora, a otros les gusta tener el monitor de 19'' a 800x600, etc... Vamos que hay de todo.

  36. Bobi
    Bobi está desconectado
    Usuario registrado CV
    Fecha de ingreso
    23 mar, 05
    Ubicación
    Oviedo
    Mensajes
    812
    Cada persona es un mundo, y si me dices que te molesta o no te gusta tener que girar la cabeza a una determinada distancia, pues no puedo decirte nada en contra.
    Pero piensa que en el cine, aún a media distancia es dificil abarcar toda la pantalla con la vista. De hecho creo que está ahí la gracia del cine y de las pantallas grandes, que usas tanto la visión digamos ´directa´ como la periférica, y eso hace que sea mas inmersivo, aunque no puedas captar todo a la vez de forma perfecta (el formato panorámico está precisamente para eso). Y por eso tambíen hay proyectores caseros para habitaciones (no grandes salas) que permiten conseguir facilmente tamaños de 70 o mas pulgadas.
    Ya hombre pero no estamos hablando de ver peliculas si no de jugar y jugando si que no te puedes perder detalle, en un shooter no ver las esquinas es a lo mejor no ver a un sniper que te esta apuntando a la cabeza.

  37. Bobi
    Bobi está desconectado
    Usuario registrado CV
    Fecha de ingreso
    23 mar, 05
    Ubicación
    Oviedo
    Mensajes
    812
    Que mal me va inet hoy incluso me acaba de duplicar el post anterior.

    Saludos

  38. danko9696
    danko9696 está desconectado
    Usuario registrado CV
    Fecha de ingreso
    19 jul, 04
    Ubicación
    Valladolid
    Mensajes
    441
    Ya hombre pero no estamos hablando de ver peliculas si no de jugar y jugando si que no te puedes perder detalle, en un shooter no ver las esquinas es a lo mejor no ver a un sniper que te esta apuntando a la cabeza.
    Hombre es que si nos ponemos en mirarlo desde un punto de vista muy competitivo las mejores opciones para un fps son:
    - Un monitor CRT con frecuencia de refresco muy alta, resolución baja (800 o 1024), calidad graficos baja-media de modo que no sean muy detallados y también muy importante para tener 100 frames siempre (o sea, mínimo). La diferencia entre 60 y 100 frames se nota si el juego es muy frenético. La gente muy pro, apunta al pixel, y una resolución y un detalle bajo ayuda.
    - Sistema envolvente, tipo triplehead2go (3 monitores) con tfts (por limitaciones de frecuencia de refresco a resoluciones tan altas): ves lo mismo que en un monitor normal de 19'', mas los dos monitores extras a los lados, que te proporcionan visión periférica muy muy util. No se hasta que punto pueda ser mejor o peor que el sistema anterior, ya que no es muy común, pero desde luego es mucho mejor que un solo monitor tft. Tambíen se pueden aplicar varias ideas del punto anterior (calidad baja, etc..)
    - En su defecto un monitor panorámico. Vas a ver mas, no tanto como con el sistema anterior, pero ganas unos pocos grados de visión que pueden ser útiles.

    Para un juego de estrategia: aquí ya no tengo tan claro que sale mejor, pero en algunos, el tener mas resolución implica tener mucho mas terreno a la vista en pantalla, y eso tambien es bastante ventaja.

    Vamos, que si todo el mundo pensase en tener ventaja jugando, cosas como muchos tipos de filtros y otras cosillas que mejoran la calidad gráfica no se aplicarían.

    Los juegos cada vez se intentan acercar mas al cine. No ha mas que ver como las consolas de última generación vienen preparadas para jugar en panorámico en los mismos telévisores usados para películas HD.

  39. Bobi
    Bobi está desconectado
    Usuario registrado CV
    Fecha de ingreso
    23 mar, 05
    Ubicación
    Oviedo
    Mensajes
    812
    yo no me referia a la perdida de vision como si fuese una competicion, simplemente si tu ojo no es capaz de ver toda la pantalla se pierde calidad de juego asi de siemple y el sistema de matrox triplehead2go si no se usa penas es por que aparte de salir cara la pijada, para jugar no es valida excepto en simuladores, ya que no tienes esa vision perfecta de los laterales y no te sirven de mucho.

    Y sinceramente yo prefiero jugar viendo todos los detalles que no como hace la peña en el counter que lo quita todo para ver mas claros a los paisanos y poder apuntar mejor, eso es hasta rastrero, el juego pierde muchos enteros de diversion y realismo asi.

    Saludos

  40. danko9696
    danko9696 está desconectado
    Usuario registrado CV
    Fecha de ingreso
    19 jul, 04
    Ubicación
    Valladolid
    Mensajes
    441
    Sorry triple post

  41. danko9696
    danko9696 está desconectado
    Usuario registrado CV
    Fecha de ingreso
    19 jul, 04
    Ubicación
    Valladolid
    Mensajes
    441
    Sorry triple post

  42. danko9696
    danko9696 está desconectado
    Usuario registrado CV
    Fecha de ingreso
    19 jul, 04
    Ubicación
    Valladolid
    Mensajes
    441
    si no se usa penas es por que aparte de salir cara la pijada, para jugar no es valida excepto en simuladores, ya que no tienes esa vision perfecta de los laterales y no te sirven de mucho.
    Que no lo veas directamente no significa que no veas. Es útil y mucho, porque la visión periférica ayuda al cerebro a indicarle como está situado respecto al entorno. O sea, mejora la orientación en 3D del cerebro, y ademas aunque no veas las cosas directamente si puedes notar ciertos cambios, como la distribución general del grupo en el que vas (si hay mas soldados a tu izda o a tu derecha) o si se acerca algo por un lateral, aunque de inmediato no sepas exactamente que es.

    Prueba a poner ambas manos en vertical a ambos lados de la cara, tapandote la visión periférica, anda un rato, muevete y te daras cuenta de la diferencia cuando quites las manos.

    Ademas la visión periférica es mucho mas sensible que la central a ciertos cambios, como las variaciones de luz. El fogonazo de un arma a mucha distancia es mucho mas facil de detectar con la visión periférica que con la central (salvo que sepas de antemano que hay un fogonazo y donde mirar, claro).

    La razón de que no esté muy extendido es que mucha gente simplemente no sabe que existe y que es caro (unos 300€). Y también que hacen falta tres monitores (pero tres monitores es posible comprarlos de 17' por 450€ los tres, lo cual es una pasta pero no es una exageración y menos si tenemos ya uno aprovechable).

    Yo todavía no me he montado un equipo basado en el (estoy en ello), pero he tenido ocasión de probarlo, y en mi opinión es mucho (muchísimo) mas espectacular jugar a un fps a calidad media con tres monitores que jugar al mismo juego a calidad maxima con uno solo (con calidad baja no he probado, pero creo que también ganaría de calle). La sensación de awareness, de control de la situación y del entorno que te da compensa de sobra la posible bajada de detalle que podría hacer falta (para ayudar en eso será bienvenido ya sea el G80 o el R600) para tener unos frames decentes.
    Lo malo (aparte del precio) es que algunos fps no permiten variar el FOV (ángulo de visión, cosa necesaria para que funcione correctamente) como medida antichetos (alguno deja cambiar el ángulo de visión en single y no deja en multi, por ej).

    Saludos.

  43. Bobi
    Bobi está desconectado
    Usuario registrado CV
    Fecha de ingreso
    23 mar, 05
    Ubicación
    Oviedo
    Mensajes
    812
    Ya se a que te refieres pero la vision periferica es mas util si dichos monitores estuviesen a los laterales ya que la sensacion de vision 3d sera buena, pero dudo que muchos o ningun juego te deje modificar la vision para poder simular que ves lo que hay a tu lateral, con lo que consigues tener 3 monitores de 17" delante, que con uno solo de 32 tendrias mejores resultados, ya que con los 3 monitores no dejas de ver sus marcos que te quitan continuidad de la imagen.

    Saludos

    PD: De momento el triple head2go lo veo mas util para usarlo en diseño grafico, CAD o similares para poder ver mas superficie, no para juegos.

    PD2: Nos hemos desviado un pelin del tema del post eh

  44. danko9696
    danko9696 está desconectado
    Usuario registrado CV
    Fecha de ingreso
    19 jul, 04
    Ubicación
    Valladolid
    Mensajes
    441
    Ya se a que te refieres pero la vision periferica es mas util si dichos monitores estuviesen a los laterales ya que la sensacion de vision 3d sera buena, pero dudo que muchos o ningun juego te deje modificar la vision para poder simular que ves lo que hay a tu lateral, con lo que consigues tener 3 monitores de 17" delante, que con uno solo de 32 tendrias mejores resultados, ya que con los 3 monitores no dejas de ver sus marcos que te quitan continuidad de la imagen.
    La mayoría de juegos lo permiten. Al fin y al cabo con el th2go, windows simplemente ve un monitor con una resolución inusual pero un solo monitor al fin y al cabo. Y los juegos que no te permiten usar el th2go en muchos casos suelen ser juegos que tampoco están preparados para ver monitores panorámicos correctamente (con un monitor panorámico, si todo está bien, también ves mas campo de visión).

    Aparte, es necesario modificar el FOV (campo de visión) para que todo vaya bien. Si el juego no hace esto automáticamente al cambiar de resolución, lo suele permitir un programa lanzadera que viene con el aparatito, que lo único que hace es modificar el archivo de configuración que suelen traer la mayoría de juegos (o editar dicho archivo a mano, o in-game en algunos juegos, si queremos).
    Por ejemplo, muchos juegos con línea de comandos permiten cambiar el fov en cualquier momento con un comando.

    Lista de juegos soportados oficialmente (hay muchos juegos que funcionan perfectamente o que funcionan pero con pequeñas deficiencias pero perfectamente jugables que no aparecen en la lista):
    http://www.matrox.com/graphics/en/gxm/p ... g/list.php

    PD: De momento el triple head2go lo veo mas util para usarlo en diseño grafico, CAD o similares para poder ver mas superficie, no para juegos.
    El triplehead2go está pensado específicamente para juegos y aplicaciones 3D. Mucho mas para juegos que para aplicaciones profesionales 3D, ya que para estas hay otras soluciones (como conectar las dos salidas de una tarjeta a dos monitores o comprar una tarjeta de mas de dos salidas, por ej).
    Para el resto de aplicaciones no hace falta. Simplemente añades mas tarjetas gráficas con monitores conectados y ya está. No hace falta ningún aparato adicional.

    Y en cuanto al marco, pues la verdad es que si que estaría muy bien que no hubiese nada entre los monitores, pero en cuanto llevas 5 minutos te acostumbras y ni lo notas. Otra cosa sería que el borde estuviese en medio (como se puede hacer cuando juegas con cualquier tarjeta de dos salidas conectada a dos monitores). Obviamente lo suyo es usarlo con tfts con marco fino, no con crts.

    Con un monitor grande verías lo mismo que ves en el monitor de en medio pero mas detallado (salvo quizas algunos juegos de estrategia). Si te quedas quieto, puedes admirar lo bonito y detallado que se ven en el monitor grande, pero en movimiento la inmersión y mayor campo de visión que te proporciona el surround gaming lo compensa con creces.

    Espero no parecer un comercial de matrox . La verdad es que nunca he tenido una tarjeta (ni ninguna otra cosa) de esta marca. Pero es simplemente que durante mucho tiempo estuve esperando algo que hiciese exactamente lo que hace este cacharro, y finalmente salió, y mejor de lo que esperaba, ya que es independiente de drivers y tarjeta gráfica.

    Saludos.

    PD: si que nos hemos desviado del tema, pero algo relacionado si que está, ya que usar el aparato este es una buena razón para hacerse con un G80.

  45. Invitado
    Ola amigos ha salido un nuevo driver para las 8800 en la pagina oficial de nvidia que dice que soluciona algunos errores he leido que no es recomendable cambiar muxo los driver de las tarjetas graficas pq suelen dar en algunas ocasiones icompatibilidades con la propia tarjeta ,yo acabo de comprarme la club 3d 8800gts y no se ahora si ponerle el driver del cd o ponerle el de la pagina de nvidia vosotros que me recomendais.

  46. danko9696
    danko9696 está desconectado
    Usuario registrado CV
    Fecha de ingreso
    19 jul, 04
    Ubicación
    Valladolid
    Mensajes
    441
    Cita Iniciado por Anonymous
    Ola amigos ha salido un nuevo driver para las 8800 en la pagina oficial de nvidia que dice que soluciona algunos errores he leido que no es recomendable cambiar muxo los driver de las tarjetas graficas pq suelen dar en algunas ocasiones icompatibilidades con la propia tarjeta ,yo acabo de comprarme la club 3d 8800gts y no se ahora si ponerle el driver del cd o ponerle el de la pagina de nvidia vosotros que me recomendais.
    Sería cosa de ver que problemas soluciona y si te afectan a ti o no, pero en principio, si no tienes ningún problema y la tarjeta te va como tiene que ir, mejor dejalo como está.
    Por ejemplo, si te indica que solucionan problema X de compatibilidad con la placa Y y no tienes dicha placa, pues pasando.

    Todas las versiones de drivers solucionan cosas. Si no te gusta mucho cacharrear y andar probando diferentes versiones de drivers, actualízalos mejor solo cuando tengas problemas o cierto tiempo/número de versiones.
    Si que conviene estar algo al loro, por si acaso, ya que a veces hay versiones que mejoran bastante el rendimiento en juegos concretos.

    Saludos.