Annuncio

Collapse
No announcement yet.

THQ e Nvidia portano all'estremo Metro 2033

Collapse
X
 
  • Filter
  • Ora
  • Show
Clear All
new posts

  • #16
    Originariamente Scritto da Alessandro330 Visualizza Messaggio
    Non per spegnere le tue speranze, ma se l'accordo è con Nvidia, le ATI potrebbero presentare problemi con il suddetto gioco, oltretutto la fisica sarà affidata al Physx, quindi non sfruttata dalle ATI.

    Stesso discorso che uscì a suo tempo per Batman AA e dove corsero ai ripari a suon di patch, per questo odio profondamente gli accordi tra SH e HH di schede grafiche.
    La news parla più specificamente di DX11 in generale...
    Spero veramente che quello che dici tu non sia vero...
    greatfede

    Comment


    • #17
      Originariamente Scritto da Alessandro330 Visualizza Messaggio
      Non per spegnere le tue speranze, ma se l'accordo è con Nvidia, le ATI potrebbero presentare problemi con il suddetto gioco, oltretutto la fisica sarà affidata al Physx, quindi non sfruttata dalle ATI. Stesso discorso che uscì a suo tempo per Batman AA e dove corsero ai ripari a suon di patch, per questo odio profondamente gli accordi tra SH e HH di schede grafiche.
      Guarda, nel caso di nVidia sono d'accordo con te: ultimamente (diciamo da 2 anni a questa parte) sta mantenendo una linea di condotta pessima, atta a fregare l'utonto il più possibile, oltre che ad ostacolare la concorrenza con mezzucci che rasentano l'illegalità (il già citato Batman ne è un esempio...). Anche l'imposizione (sicuramente prezzolata) dell'utilizzo di physx qunado le SX11 hanno delle loro librerie universali per la fisica, unita all'impossibilità (con SW ufficiale) di usare questa feature con una scheda grafica ATi e una più piccola nVidia dedicata alla fisica è una vera e propria PORCATA (tanto più che come detto Win7 gestisce EGREGIAMENTE entrambi i driver contemporaneamente...). Senza contare il continuo rebranding delle vecchie schede... Per intenderci: 8800GTS->9800GTX(quindi da seconda top di gamma - GTS - diventa top di gamma della generazione successiva)->GTS250 (che richiama come nome GTX260-GTX260^2-GTX280-GTX285-GTX295, che però montano rispettivamente GT200 a 196sp, GT200b a 212sp, GT200 a 240sp, GT200b a 240sp e 2xGT200b a 240sp, ovvero chip che, pur essendo derivati da G92, a sua volta derivato dal G80 delle 8800GTX&Co., sono prestazionalmente molto superiori - miglioramenti nell'ordine di oltre il 100% in molti casi...)

      In pratica la stessa scheda si è fatta 3 generazioni di GPU, e l'unica modifica che ha subito è stato un die-shrink a 55nm dai 65nm che era, con guadagno prestazionale ridicolo, consumi leggermente ridotti e margine di overclockabilità potenzialmente incrementato... E non è certo l'unica scheda che ha subìto questa sorte: fondamentalmente tutte le schede che montano una GPU G92/G92b (la "b" sta per seconda versione, ovvero quella a 55nm di cui sopra...), indipendentemente dagli Stream Processor attivi (la top con G92, ovvero la GTS250 di cui sopra, ne ha 128, ma ovviamente l'architettura di molte schede di fascia media è la medesima, con molti "Cuda Cores" - modo spocchioso per chiamare gli SP - disattivati), e di conseguenza della fascia a cui appartengono.
      Tutto questo ATi non lo fa, né l'ha mai fatto, almeno da quando è stata acquisita da AMD.
      E parlo da possessore di nVidia, quindi tutt'altro che di parte.
      Spero di non avervi annoiato LOL
      Last edited by Stech1987; 18 February 2010, 14:34.

      Comment


      • #18
        speriamo bene   però ci vorrà un mega pc per farlo andare
        sigpic
        Beh, continuo a vivere :asd: cit.

        Comment

        Working...
        X