Podoba mi się fakt, że #midjourney nie tworzy obiektów 3D i ich nie raytracuje. Po prostu dostał miliony obrazów do nauki, i się "nauczył" co to odbicia, co to poświata, co to cienie. Zwykłe zależności pikseli na ekranie.
Ba, dla #midjourney to to nawet nie są piksele na ekranie. To po prostu dłuuuugie ciągi zer i jedynek. I się "nauczyło" zależności jednych ciągów w różnych miejscach.
Chociaż nauczyło to też złe określenie.
"Znalazło wzór który daje 'close enough' wyniki". To lepsze określenie.
A ustawiając nasze 'zezwolenie błędu', aka epsilon, na niskie wartości, dostajemy 'wzory' które dla reprezentowanych wartości dają akceptowalne wyniki, pomimo tego, że nie mają nic wspólnego z 'oryginalnymi/docelowymi' wzorami.


