Siemanko EjAjowe świry. Niestety z racji tego że moja nie tak dawno kupiona 3060 nie nadaje się do zabawy z #ai #sztucznainteligencja mam przed sobą 2 drogi.

Pierwsza kupić 3090, raczej używkę bo 10k na ten moment to wydane pieniądze bez sensu.
Druga korzystać z dedykowanego serwera z podpiętą dobrą grafą. Nie wiem jak kosztowo będzie wyglądać taka zabawa bo ceny nic mi nie mówią jak finalnie bezie to działać xD

Jakieś porady od kogoś kto się więcej bawił tematem?

#programowanie
7

Komentarze (7)

Dziwen

@entropy_ pomożesz koledze? Bo pamiętam, że dość sporo siedziałeś w temacie.

entropy_

@Czokowoko odpowiedź: to zależy co robisz xD

Ja sam często z runpoda korzystam jak potrzebuję mocniejszą kartę ale ogólnie wolę robić na swoim sprzęcie.

Przekalkuluj ile vram potrzebujesz, zobacz ceny i sam sprawdź kiedy się opłaca.

Czokowoko

@entropy_ no wlasniey ciężko powiedzieć ile potrzebuję xD chcialem przetestować projekt localAI który agreguje otwarte modele i nie czekać godziny żeby się wywalił na koniec xD


Może faktycznie zobaczę najpierw tego runpoda i zobaczę jak tam chodzi i czy wystarczy. Zawsze mogę powiedzieć kobiecie że nasze koty potrzebują koniecznie nowej karty 🤫

entropy_

@Czokowoko chcesz do samego tekstu?

To zacznij od lmstudio

entropy_

Tam na liscie na 100% znajdziesz modele które pójda na Twoim komputerze. Zacznij od gemmy3 i qwena3

Czokowoko

@entropy_ a sprawdzę, dzięki za poradę ;)

tosiu

@Czokowoko a może spróbuj groq? Koszty bliskie zera

Zaloguj się aby komentować