@Deykun oooookej, pocieszyles mnie. A zdradzisz cień tajemnicy jak działa maszyna losująca? Wybiera spośród najmniej popularnych w sjp, czy ma jakas baze juz pobranych z ktorych o polnocy pickuje?
@Cybulion w uproszczeniu jak się wchodzi 26.11.2023 to robi z daty cyfrę 2023011026, wygrywających słów jest 17709 (sporo mniej). I codziennie bierze modulo (resztę z dzielenia) i szuka danego rekordu w wygrywających słowach (5702).
2023011026 % 17709 = 5702
Nie ma żadnego serwera który by to losował, ale każdemu "losuje" w ten sam sposób i każdy dostaje to samo słowo. Pewnie większość worlde robi taki myk.
Co do słów to wszystkie słowa w długości od 4 do 9 ze słownika sjp.pl które znalazłem też w słowniku freedict.org (to wycina jakieś dziwactwa z jednego słownika jakby były + robi bardziej neutralne końcówki) + słowa bez litery v, q, x (wywala łacinę) + jakieś regułki na wycinanie drugiej łaciny czyli przekleństw. 😉
To wyżej to w sumie standardowe robienie kopi wordle.
Ja jestem dumny bardzo 😀 ze słownika do sprowadzania czy słowo istnieje, bo SJP waży ponad 50MB, na literanie.fun jak się wbija słowo to ono idzie w zapytaniu do ich serwera i serwer odpowiada czy istnieje czy nie. Na github pages nie ma serwera, a pobieranie każdemu 50MB to kosmos. Więc w każdym wydaniu wydaje ponad 1000 plików chunk-abc.json, chunk-abd.json itd. Jak ktoś wpisze słowo abecadło to usuwam polskie znaki abecadlo i ucinam do 3. Mam klucz abe. Pobieram chunk-abe.json jeżeli w tym pliku jest abecadło to słowo istnieje.
Z ciekawostek to chunk-nie.json musiałem rozbić drugi raz, bo nie z przymiotnikami piszemy razem i słów zaczynających się w polskim na nie jest zatrzęsienie.
@Cybulion w uproszczeniu jak się wchodzi 26.11.2023 to robi z daty cyfrę 2023011026, wygrywających słów jest 17709 (sporo mniej). I codziennie bierze modulo (resztę z dzielenia) i szuka danego rekordu w wygrywających słowach (5702).
2023011026 % 17709 = 5702
Nie ma żadnego serwera który by to losował, ale każdemu "losuje" w ten sam sposób i każdy dostaje to samo słowo. Pewnie większość worlde robi taki myk.
Co do słów to wszystkie słowa w długości od 4 do 9 ze słownika sjp.pl które znalazłem też w słowniku freedict.org (to wycina jakieś dziwactwa z jednego słownika jakby były + robi bardziej neutralne końcówki) + słowa bez litery v, q, x (wywala łacinę) + jakieś regułki na wycinanie drugiej łaciny czyli przekleństw.😉
To wyżej to w sumie standardowe robienie kopi wordle.
Ja jestem dumny bardzo😀 ze słownika do sprowadzania czy słowo istnieje, bo SJP waży ponad 50MB, na literanie.fun jak się wbija słowo to ono idzie w zapytaniu do ich serwera i serwer odpowiada czy istnieje czy nie. Na github pages nie ma serwera, a pobieranie każdemu 50MB to kosmos. Więc w każdym wydaniu wydaje ponad 1000 plików chunk-abc.json, chunk-abd.json itd. Jak ktoś wpisze słowo abecadło to usuwam polskie znaki abecadlo i ucinam do 3. Mam klucz abe. Pobieram chunk-abe.json jeżeli w tym pliku jest abecadło to słowo istnieje.
https://deykun.github.io/diffle-lang/dictionary/spelling/chunk-abe.json
Jak ktoś wpisze że czyli 2 literowe hasło to pobiera chunk-2ch.json z wszystkimi dwuliterowymi hasłami.
https://deykun.github.io/diffle-lang/dictionary/spelling/chunk-2ch.json
Z ciekawostek to chunk-nie.json musiałem rozbić drugi raz, bo nie z przymiotnikami piszemy razem i słów zaczynających się w polskim na nie jest zatrzęsienie.
https://deykun.github.io/diffle-lang/dictionary/spelling/chunk-niemie.json