(NB: parlo in modo puramente speculativo: eventuali benchmark&co diranno i fatti)
il "consumo" di HW dipendera' dalle scelte di dev e giocatore,
No, dipenderà quasi esclusivamente dal gestore del servizio.
Ad esempio: se hai programmato il tuo gioco "a cacchio" (spreco di risorse) è improbabile che Google si prenda la pena di fargli succhiare 10.5TFlop per farlo girare a 480 a low settings.
Per il dev suppongo debba essere garantito il rispetto di certe API che permetteranno a Google di alzare/abbassare/spegnere i dettagli grafici/risoluzione: poi Google, sulla base della potenza del device e la quantità disponibile di banda, farà prendere a qualche Ai le scelte strategiche del caso.
Inoltre alla fine dell'esperienza di gioco più che i picchi massimi di risoluzione/FPS conta la stabilità: la stabilità dei frame rate la ottieni andando verso il minimo che ti garantisce la più alta costanza.
Per quanto riguarda la differenza di Tflops su altre piattaforme: quando compri una PS4 hai esattamente l'ammontare di potenza che ti vendono, questo vale per tutte le altre console e il PC che hai. Non si parla di una potenza "up to" teorica, ma di un motore hardware fisico che parte da che premi il pulsante di accensione fino a quando non lo spegni.
L'idea dei 10TF è solo gergo PR; come dire che la TIM ti offre una banda di 30Mbit/sec per far credere "posso scaricare una traccia da 30 Mega al secondo!".
Non sono MiB, e non sono neppure quegli illusori "30Megabyte diviso otto" al secondo.
In breve: per i dettagli tecnici bisogna aspettare benchmark e analisi.. ma il target lo si capisce facilmente: sono i ragazzini che giocano a Fortnite col cellulare.
edit: piccola maliziosa speculazione. Epic scippa il mercato a Google con il suo Fortnite in sideloading. Google...