Uruchomiłem lokalnie PixArt Alpha do testów. Jestem pod nie małym wrażeniem jakie obrazy generuje ten model.
Udało się to odpalić na 12GB VRAM, niestety generacja trwa około 240 sekund. Ciekawi mnie ile czasu zajmuje generacja na kartach posiadających 24GB VRAM. Jak by ktoś z was był tak uprzejmy sprawdzić, będę wdzięczny.
#aiart #stablediffusion

Foto
1017f30c-d586-4ed8-abba-98c6d7016fef
dsol17

skąd można ściągnąć model ?

Amebcio

@caly_w_bigosie Jeśli rozdzielczość, GPU i model są te same, to dokładnie tyle samo. Z większym VRAMem możesz użyć większej rozdzielczości co niestety pociągnie za sobą wolniejszą produkcję

caly_w_bigosie

@Amebcio Jasne, nie precyzyjnie napisałem, chodzi mi o testy posiadaczy karty RTX 4090/3090

Amebcio

@caly_w_bigosie Niestety nie mam Nvidii, używam innego toolkitu (invokeAi) oraz innych modeli, ale 240 sekund dla obrazu 1200x1200 to sporo.


Na moim radeonie 6900xt pierwszy obraz na zimnym starcie to ok. 100s a kolejne to ok. 40s w tej rozdziałce

dsol17

ale 240 sekund dla obrazu 1200x1200 to sporo.

@Amebcio  Jak na coś czego nie robisz sam i jak na własny komputer to jest raczej akceptowalne. 12 lat temu 5 minut to mi bardzo prosty (ale nieudolnie uklepany z gówna) skrypt VBA w Excelu sortował i przerabiał arkusze BOM w pracy więc...

bucz

moje 512MB wspoldzielonej pamieci na zintegrowanym z plytą GPU juz nie moze sie doczekac

2b73eb19-1fa9-4106-89a6-a66a3e57c6e0
dsol17

@bucz heh. Tego się z reguły nie odpala lokalnie, ja tam się pytałem o pliki modelu głównie żeby zarchiwizować aktualną wersję "tak na wszelki wypadek",bo jednak wygenerowanie czegokolwiek użytecznego na karcie mającej kilka gb zajmie... no długo. Choć jakby się miało model samemu trenować to... o boże,o matko...


Z uruchamialnych lokalnie ciekawa jest też lokalna "alternatywa" dla gpt to jest gpt-j. Model jest ekwiwalentem gpt-2 no góra gpt-3 no ale nie można mieć wszystkiego. Nie testowałem

Zaloguj się aby komentować