Um jetzt was dazu zu erklären, muss ich etwas technisch werden
Das behauptet Microsoft zwar gerne, aber ohne auch nur ein Beispiel zu nennen wie das genau aussehen soll. Es gibt ja einen Grund warum man innerhalb eines PCs oder auch einer Konsole alles daran setzt, die Latenz (Verzögerung) zwischen den einzelnen Komponenten (GPU,CPU,Speicher) bis auf den Nano-Bereich runterzuschrauben. Mitunter hat die PS4 alleine deswegen schon einen satten Vorteil, weil sie auf einen schnelleren Speicher als die Xbox One setzt.
Nun stelle man sich aber mal dazu die Krücken-Geschwindigkeit des Internets in Relation vor: 1 Millisekunde = 1 000 000 Nanosekunden und in meiner Firma habe ich einen Ping auf xboxuser.de von 29ms.
Das kann alleine Übertragungstechnisch nicht hinhauen, wenn wir jetzt mal von der Echtzeitberechnung von einzelnen Objekten oder ganzen Umgebungen ausgehen. Die sind aber letztlich das, was die visuelle Qualität eines Spiels ausmacht.
Cloud computing macht nur dann Sinn, wenn man Rechenprozesse auslagern kann und es nichts ausmacht, wenn man etwas auf die Ergebnisse warten muss. Beispiel wären vorgerenderte Sequenzen oder aber Serverprozesse für MMOs. Man merkt ja selbst bei dedizierten Servern schon eine Verzögerung wenn es nur um reine Daten geht. Wer hat wen getroffen zb. (Lag). Wie soll das dann gehen, wenn es um graphische Modelle geht, die in Echtzeit berechnet werden sollen?
Die einzige Möglichkeit wäre wie Gakai oder OnLive alles auf ner riesigen Serverfarm zu rendern und dann den Spieler nur einen Videostream zu schicken. Aber wehe jemand hat keine Knallerleitung. Die Grafik wird dann schnell matsche und die Verzögerung macht es relativ schnell unspielbar.
Ergebnis 1 bis 10 von 15
Baum-Darstellung
-
04.06.2013, 13:23 #8
- Registriert seit
- 01.08.2008
- Beiträge
- 10.049
- Beigetretene Turniere
- 1
- Turnier Siege
- 0
- Marktplatzbewertung
- 3 (100%)