#gamedev
Rozmyslam sobie nad optymalizacja gier i wpadlem na rozwiazanie problemu gier produkujacych wiecej klatek na sekunde niz monitor jest w stanie wyswietlic. Z tego co wiem, to nadmiarowe klatki sa renderowane przez GPU, ale nigdy nie sa wyswietlane, ale dzieki temu, ze dane wejsciowe z myszki/klawiatury/kontrollera sa zbierane setki/tysiace razy na sekunde, to gra wydaje sie dzialac plynniej. Dlaczego wiec tworcy gier nie rozlacza liczby klatek na sekunde logiki gry tak zeby logika przeliczala input tak czesto jak fabryka CPU dala, a GPU by renderowala tylko tyle klatek ile monitor jest w stanie wyswietlic, bez marnowania mocy na renderowanie odrzucanych klatek, przeznaczajac zaoszczedzona moc na polepszenie jakosci (rozdzielczosc/detale) wyswietlanych klatek? Albo moze to gdzies tak dziala, ale ja o tym nie wiem?
