Wäre mal interessant diese Benchmarks zu sehen die das bestätigen oder auch nicht, solange diese nich da sind glaube ich weder das eine, noch das andere, gerade in einer Zeit wo sich zum Thema xbox und ps4 jeder wichtig machen will. Aber ich denke da werden in zukunft noch einige Leistungstabellen auftauchen, je näher der Release Termin rückt.
Ergebnis 1 bis 10 von 15
Hybrid-Darstellung
-
03.06.2013, 13:05 #1
- Registriert seit
- 24.04.2009
- Beiträge
- 173
- Beigetretene Turniere
- 6
- Turnier Siege
- 0
- Marktplatzbewertung
- 0
-
03.06.2013, 17:26 #2
- Registriert seit
- 23.11.2006
- Beiträge
- 2.968
- Beigetretene Turniere
- 4
- Turnier Siege
- 0
- Marktplatzbewertung
- 51 (100%)
Die Aussagen ist eh absolut nichtssagend. Nicht leistungsfähiger als "ein" PC. Welcher PC? Ein 400€ PC aus dem Supermarkt oder einer mit GTX Titan 3-Way SLI.
A generation born to witness the end of the world
-
03.06.2013, 18:15 #3
-
03.06.2013, 21:55 #4
- Registriert seit
- 24.03.2011
- Beiträge
- 444
- Beigetretene Turniere
- 0
- Turnier Siege
- 0
- Marktplatzbewertung
- 0
Ich vermute daß immer wieder nur benchmarks bzw. abschnitte gemeint sind, wo ein PC auf Grund von windowslast usw. kurzzeitig nicht hinterherkommt. Das wird im Alltag nicht bemerkbar sein. Aber die Technikfreaks müssen dann sowas wieder rausposaunen.
Manchmal sollten die 2mal nachdenken bevor sie twittern, facebooken oder wasauchimmer.
-
04.06.2013, 10:30 #5
- Registriert seit
- 01.08.2008
- Beiträge
- 10.049
- Beigetretene Turniere
- 1
- Turnier Siege
- 0
- Marktplatzbewertung
- 3 (100%)
Teneja ist halt kaufmännischer Geschäftsführer und hat anscheinend von der Technik nicht viel Ahnung. Bei Epic sieht die Sache schon anders aus.
Der Denkfehler hinter Tenejas Behauptung ist einfach:
Zum Release der Xbox 360 & PS3 gab es im gesamten PC-Bereich nichts auch nur annähernd vergleichbares. Die beiden Konsolen hatten damals schon Mehrkernsystem verbaut, als die Gamer-PCs nur davon träumen konnten. Zu der Zeit gab es das aufgrund der hohen Kosten nur im Profi-Bereich. Es war also ein echter Next-Gen-Sprung. Dahr holten sich manche Profis auch mehrere PS3s und schlossen diese zu einem dicken Rechencluster zusammen. Nun aber sieht die Sache anders aus.
Die Nvidia GTX Titan hat 7 Milliarden Transistoren verbaut. Die GPU der Xbox One schafft es gerade mal auf 5. Dafür aber kostet die Nvidia-Karte auch mal eben entspannte 950 Euro. Daher meinte Chevat Yerli von Crytek, dass es diesmal kein echter Next-Gen-Sprung sei und dies hat jetzt Epic bestätigt.
-
04.06.2013, 12:08 #6
- Registriert seit
- 15.10.2012
- Beiträge
- 4.312
- Beigetretene Turniere
- 0
- Turnier Siege
- 0
- Marktplatzbewertung
- 9 (100%)
So wie ich das neulich verstanden hatte, sollte die Xbox One bis zu 3x leistungsfähiger sein, als ein PC, da sie wohl den Cloudspeicher nutzt.
Wurd das auch schon wieder widerlegt?
-
04.06.2013, 13:23 #7
- Registriert seit
- 01.08.2008
- Beiträge
- 10.049
- Beigetretene Turniere
- 1
- Turnier Siege
- 0
- Marktplatzbewertung
- 3 (100%)
Um jetzt was dazu zu erklären, muss ich etwas technisch werden
Das behauptet Microsoft zwar gerne, aber ohne auch nur ein Beispiel zu nennen wie das genau aussehen soll. Es gibt ja einen Grund warum man innerhalb eines PCs oder auch einer Konsole alles daran setzt, die Latenz (Verzögerung) zwischen den einzelnen Komponenten (GPU,CPU,Speicher) bis auf den Nano-Bereich runterzuschrauben. Mitunter hat die PS4 alleine deswegen schon einen satten Vorteil, weil sie auf einen schnelleren Speicher als die Xbox One setzt.
Nun stelle man sich aber mal dazu die Krücken-Geschwindigkeit des Internets in Relation vor: 1 Millisekunde = 1 000 000 Nanosekunden und in meiner Firma habe ich einen Ping auf xboxuser.de von 29ms.
Das kann alleine Übertragungstechnisch nicht hinhauen, wenn wir jetzt mal von der Echtzeitberechnung von einzelnen Objekten oder ganzen Umgebungen ausgehen. Die sind aber letztlich das, was die visuelle Qualität eines Spiels ausmacht.
Cloud computing macht nur dann Sinn, wenn man Rechenprozesse auslagern kann und es nichts ausmacht, wenn man etwas auf die Ergebnisse warten muss. Beispiel wären vorgerenderte Sequenzen oder aber Serverprozesse für MMOs. Man merkt ja selbst bei dedizierten Servern schon eine Verzögerung wenn es nur um reine Daten geht. Wer hat wen getroffen zb. (Lag). Wie soll das dann gehen, wenn es um graphische Modelle geht, die in Echtzeit berechnet werden sollen?
Die einzige Möglichkeit wäre wie Gakai oder OnLive alles auf ner riesigen Serverfarm zu rendern und dann den Spieler nur einen Videostream zu schicken. Aber wehe jemand hat keine Knallerleitung. Die Grafik wird dann schnell matsche und die Verzögerung macht es relativ schnell unspielbar.
-
04.06.2013, 22:10 #8