@Alawar @koszotorobur @DEAFCON_ONE i wszyscy zainteresowani - nie kasujemy starych wpisów, one dalej są w bazie danych. Powodem takiego działania API jest w wielkim skrócie - wydajność. @ebe pewnie będzie mógł coś więcej powiedzieć o problemach jakie się pojawiły zarówno przy podawaniu faktycznej liczby wpisów jak i przy paginacji natomiast z tego co ja kojarzę to:
API korzysta z offset-based pagination - wymaga liczenia i pomijania coraz większej liczby wierszy. Duże offsety = coraz bardziej kosztowne zapytania do bazy danych. Ponieważ domyślnie pobieranych jest 20 wpisów na stronę, to aby dotrzeć do strony 50, baza danych musi pominąć 980 rekordów (49 stron × 20 wpisów). Im wyższy numer strony, tym więcej rekordów trzeba „przeskoczyć”, co spowalnia zapytania.
Czy to bug? Może to wyglądać jak błąd albo mylić użytkowników, ale nie jest to bug a przynajmniej w takim kontekście, że coś działa niezgodnie z tym, jak jest stworzone. Ograniczenie do 50 stron to celowy zabieg i jego celem jest ochrona bazy danych przed zapytaniami generującymi duże offsety i powodującymi znaczne spadki wydajności.