Annuncio

Collapse
No announcement yet.

Battlefield: Hardline su Xbox One ''potrebbe'' essere uguale alla versione PS4

Collapse
X
 
  • Filter
  • Ora
  • Show
Clear All
new posts

  • Battlefield: Hardline su Xbox One ''potrebbe'' essere uguale alla versione PS4

    Si torna a parlare di risoluzioni e fluidità

    Continua a leggere la notizia
    https://www.gamesurf.it

  • #2
    Non è strano come tutte queste notizie che anche la ONE forse ce la fa con i 1080p arrivino dopo l'eliminazione del kinect?
    Queste incrementi tecnici saranno frutto del tempo o del famoso 10% di potenza in più^^??

    Comment


    • #3
      Originariamente Scritto da Voradhor Visualizza Messaggio
      Non è strano come tutte queste notizie che anche la ONE forse ce la fa con i 1080p arrivino dopo l'eliminazione del kinect?
      Queste incrementi tecnici saranno frutto del tempo o del famoso 10% di potenza in più^^??
      Del marketing. Anche Respawn con Titanfall aveva detto che "sarebbe" potuto essere migliore della beta e poi che "avrebbero" rilasciato delle patch per migliorarne le prestazioni. Niente di tutto ciò è avvenuto. Il principale problema dell'Xboxone non è tanto che sia del 30% o del 40% (a seconda di quel 10%) meno potente della PS4 come capacità di calcolo, ma dal fatto che la ESRAM è troppo poca per raggiungere i 1080p con un motore moderno e troppo lenta.

      Comment


      • #4
        Qundi con o senza kinect cambia poco a livello di risoluzione ?

        Comment


        • #5
          Il problema è che i moderni motori grafici usano una tecnica che impiega 3 o 4 copie dell'intera schermata per comporre l'immagine finale, più eventualmente delle altre per gli effetti post-processo, quali l'anti-aliasing. Il vantaggio di tale tecnica è che riduce enormemente il carico computazionale per calcolare luci e ombre, lo svantaggio è che occupa molta ram. Il 792p (meglio 1408x792) visto in Titanfall e Watch Dogs è dovuto ad un utilizzo efficiente dei 30 MB di ESRAM, in quanto corrisponde quasi esattamente a 30 byte di meoria allocati per singolo pixel.

          Comment


          • #6
            Originariamente Scritto da Booh Visualizza Messaggio
            Il problema è che i moderni motori grafici usano una tecnica che impiega 3 o 4 copie dell'intera schermata per comporre l'immagine finale, più eventualmente delle altre per gli effetti post-processo, quali l'anti-aliasing. Il vantaggio di tale tecnica è che riduce enormemente il carico computazionale per calcolare luci e ombre, lo svantaggio è che occupa molta ram. Il 792p (meglio 1408x792) visto in Titanfall e Watch Dogs è dovuto ad un utilizzo efficiente dei 30 MB di ESRAM, in quanto corrisponde quasi esattamente a 30 byte di meoria allocati per singolo pixel.
            :O molto interessante, anche se ammetto di averci capito molto poco...
            Seguimi su Twitter! Insomma, follouami!

            Comment


            • #7
              Direi che e' una piccola speranza per gli utenti XboxOne,visto che oggi hanno annunciato,addirittura,che Diablo 3 girera' a 900p e 60 fps sulla One.
              Last edited by Grampasso25793; 12 June 2014, 18:04.
              Signori,avevate la mia curiosità,ma ora avete la mia attenzione

              sigpic

              Comment


              • #8
                Originariamente Scritto da Booh Visualizza Messaggio
                Il problema è che i moderni motori grafici usano una tecnica che impiega 3 o 4 copie dell'intera schermata per comporre l'immagine finale, più eventualmente delle altre per gli effetti post-processo, quali l'anti-aliasing. Il vantaggio di tale tecnica è che riduce enormemente il carico computazionale per calcolare luci e ombre, lo svantaggio è che occupa molta ram. Il 792p (meglio 1408x792) visto in Titanfall e Watch Dogs è dovuto ad un utilizzo efficiente dei 30 MB di ESRAM, in quanto corrisponde quasi esattamente a 30 byte di meoria allocati per singolo pixel.
                Più o meno ho capito.

                Comment


                • #9
                  Originariamente Scritto da Booh Visualizza Messaggio
                  Il problema è che i moderni motori grafici usano una tecnica che impiega 3 o 4 copie dell'intera schermata per comporre l'immagine finale, più eventualmente delle altre per gli effetti post-processo, quali l'anti-aliasing. Il vantaggio di tale tecnica è che riduce enormemente il carico computazionale per calcolare luci e ombre, lo svantaggio è che occupa molta ram. Il 792p (meglio 1408x792) visto in Titanfall e Watch Dogs è dovuto ad un utilizzo efficiente dei 30 MB di ESRAM, in quanto corrisponde quasi esattamente a 30 byte di meoria allocati per singolo pixel.
                  Not bad

                  sigpic

                  Comment


                  • #10
                    Booh quando si parla di tecnicismi è sempre una sicurezza!!! stima
                    "... Deep into that darkness peering, long I stood there wondering, fearing,
                    Doubting, dreaming dreams no mortal ever dared to dream before... "

                    Comment


                    • #11
                      Booh potresti fare un canale youtube tecnico (se già non ce l'hai) con tutto il tuo sapere io starei ore a leggere ed imparare, ma quante ne sai?!?!?!
                      Colui che lagga sarà schifato dalla community.
                      Visitate il mio canale, potreste trovarlo interessante!!
                      http://www.youtube.com/user/Sweetyteo?feature=mhee

                      Comment


                      • #12
                        Originariamente Scritto da Booh Visualizza Messaggio
                        Del marketing. Anche Respawn con Titanfall aveva detto che "sarebbe" potuto essere migliore della beta e poi che "avrebbero" rilasciato delle patch per migliorarne le prestazioni. Niente di tutto ciò è avvenuto. Il principale problema dell'Xboxone non è tanto che sia del 30% o del 40% (a seconda di quel 10%) meno potente della PS4 come capacità di calcolo, ma dal fatto che la ESRAM è troppo poca per raggiungere i 1080p con un motore moderno e troppo lenta.
                        E questo "difetto" architetturale da cosa dipende? Le ESRAM hanno un costo così elevato da indurre Microsoft a questo "suicidio" mediatico?
                        Oppure hanno sottovalutato l'impatto che tutto ciò avrebbe avuto? Io ancora non ci credo che Microsoft abbia mostrato il fianco così!

                        Comment


                        • #13
                          Originariamente Scritto da germinario Visualizza Messaggio
                          E questo "difetto" architetturale da cosa dipende?
                          Quello andrebbe chiesto a MS, sebbene di per sé non sia un difetto, ma una scelta (probabilmente poco lungimirante).

                          La teoria più credibile è che siano partiti con l'idea di volere una console con 8GB di RAM, per poter far funzionare tutti i servizi che avevano in mente (TV, app ecc.). All'epoca del progetto l'unica scelta viabile per avere 8GB di RAM era quella di usare RAM di tipo DDR3, che però è troppo lenta per le applicazioni grafiche spinte. Allora la soluzione fu di usare una piccola RAM intermedia un po' più veloce, sul modello di quello che avevano fatto con la 360.

                          Probabilmente contavano sul fatto che la PS4 avesse poca RAM, anche se più veloce. Quello che non era stato previsto è: (1) le memorie GDDR5 della PS4 sono in fase di adozione e sviluppo e quindi se 3 o 4 anni fa erano costosissime e poco dense, ora sono allo stesso livello delle DDR3 dal punto di vista economico e tecnologico, (2) la situazione è diversa rispetto a quella della 360.

                          La 360 aveva una memoria principale, che era un po' più lenta di quella della PS3, ma aveva 10 MB di eDRAM (l'antenata dell'ESRAM) molto più veloci, mentre l'Xboxone ha una memoria principale molto più lenta di quella della PS4 ed una ESRAM che è pure molto lenta nel confronto con la memoria della PS4, quindi il vantaggio di tale soluzione tecnologica sfuma.

                          Da notare come il WiiU usi una soluzione abbastanza simile a quella dell'Xboxone, con 32 MB di eDRAM (più altri 3 separati per compatibilità col Wii) e 2 GB di memoria RAM DDR3.

                          Comment


                          • #14
                            Originariamente Scritto da Booh Visualizza Messaggio
                            Quello andrebbe chiesto a MS, sebbene di per sé non sia un difetto, ma una scelta (probabilmente poco lungimirante).

                            La teoria più credibile è che siano partiti con l'idea di volere una console con 8GB di RAM, per poter far funzionare tutti i servizi che avevano in mente (TV, app ecc.). All'epoca del progetto l'unica scelta viabile per avere 8GB di RAM era quella di usare RAM di tipo DDR3, che però è troppo lenta per le applicazioni grafiche spinte. Allora la soluzione fu di usare una piccola RAM intermedia un po' più veloce, sul modello di quello che avevano fatto con la 360.

                            Probabilmente contavano sul fatto che la PS4 avesse poca RAM, anche se più veloce. Quello che non era stato previsto è: (1) le memorie GDDR5 della PS4 sono in fase di adozione e sviluppo e quindi se 3 o 4 anni fa erano costosissime e poco dense, ora sono allo stesso livello delle DDR3 dal punto di vista economico e tecnologico, (2) la situazione è diversa rispetto a quella della 360.

                            La 360 aveva una memoria principale, che era un po' più lenta di quella della PS3, ma aveva 10 MB di eDRAM (l'antenata dell'ESRAM) molto più veloci, mentre l'Xboxone ha una memoria principale molto più lenta di quella della PS4 ed una ESRAM che è pure molto lenta nel confronto con la memoria della PS4, quindi il vantaggio di tale soluzione tecnologica sfuma.

                            Da notare come il WiiU usi una soluzione abbastanza simile a quella dell'Xboxone, con 32 MB di eDRAM (più altri 3 separati per compatibilità col Wii) e 2 GB di memoria RAM DDR3.
                            Grazie mille per la risposta! Quindi se ho capito bene c'è un vero e proprio collo di bottiglia, e anche tra qualche anno quando le SH conosceranno meglio l'hardware, questa situazione ci sarà ancora. Anzi, magari con il progredire grafico dei giochi, potrebbe anche accentuarsi?
                            Sempre più convinto che bisogna pensarci 4 volte prima di comprare X1. Piuttosto con quei soldi mi compro una R290 per il pc!

                            Comment

                            Working...
                            X