#aiart
Zaloguj się aby komentować
39,2°, slaba noc, chyba covid. Urwał. #cybulionai #aiart
Najgorsze jest to ze koty traktuja mnie jako znakomite zrodlo ciepla. A mnie wszystko boli :/




@Cybulion dużo zdrowia
Zaloguj się aby komentować
Kraken była kobietą!
#aiart #stablediffusion #sztucznainteligencja

Zaloguj się aby komentować
#cybulionai #aiart
To juz ostatni moj wpis na hejto. Może wroce jak manipulacje beda odpowiednio moderowane a apka zostanie zadbana. Żegnam.




Szkoda… ( ͡° ʖ̯ ͡°)
XD spokojnie, już usunęli. Napij się ziółek, ochłoń trochę.
@lukmarq a co usunęli? Jakaś afera na nocnej? Coś mnie ominęło? ( ͡~ ͜ʖ ͡°)
Edit: ok, już wiem. Doczytałem. Jednak się moderacja zreflektowała i usunęła.
Zaloguj się aby komentować
Link do obserwowania/czarnolistowania: #pitchwhite
Ale ładnie wyszły (。◕‿‿◕。)
#gryplanszowe #grybezpradu #tworczoscwlasna #aiart



@Alky Temat ciekawy ale zdjęcia słabej jakości, mógłbyś nad tym popracować
@suseu pod tagiem masz wszystkie karty w każdym detalu.
@Alky Jaki model SD wariacie
@caly_w_bigosie DreamShaper v7+pipeline z Leonardo AI do maksymalnej kontroli promptu+kilka dodatkowych finetunów, żeby uzyskać ładne kolorki. Ramki, niemiluchy i wszystkie symbole były wygenerowane oddzielnie i posklejane ręcznie w zwykłym fotoszopie.
@Alky Generalnie gratuluję ekstra pomysłu i świetnej realizacji projektu, widać napracowanko. Chciałbym Ci zasugerować jedną kwestię
Myślałeś, żeby spróbować zaopatrzyć się w np. Rasberry PI + wyświetlacz + głośnik do tego i spróbować zintegrować to z AI w sensie takiego game mastera.
Najprościej obecnie to dostęp do api ChatGPT, tym bardziej, że dostał DALL-E więc można by coś z tego ciekawego wyciągnąć.
Druga opcja to użycie lokalnie model LLM, są dedykowane do gier fabularnych + voice generator. Następnie fine tuning takiego modelu LLM pod Ciebie i masz ekstra projekt z własnym game masterem.
Jak byś potrzebował więcej informacji, pisz na Priv.
@Alky To jest praktyczna przydatność AI: Tego typu projekty wcześniej były grubo poza zasięgiem większości normalnych ludzi. Graty za fajowy pomysł
@Amebcio A tak w ogóle, to od wczoraj wszystko się zdezaktualizowało i teraz robię wszystkie karty od początku :3
Dalle-3 daje nieporównywalnie lepsze wyniki, więc mechanika i lore zostają dokładnie te same, tylko karty będą miały inną formę.


Zaloguj się aby komentować
Zaloguj się aby komentować
Cześć, ostatnio trochę się pobawiłem animacją w SD1.5 z prompt traveling. Widać potencjał do dalszej zabawy
#aiart #stablediffusion #sztucznainteligencja
Poniżej dwa przykłady


@caly_w_bigosie co jej tak oczy skaczą?
@wewerwe-sdfsdfsdf a żywym nie skaczą?
@caly_w_bigosie Jak to się dalej będzie w tym tempie rozwijać to AI, to za 20 lat jebane AI "przeczyta" książkę i zrobi, film/serial tak długi jak będziesz chciał oO.
Wpisujesz sobie prompta: 24 odcinkowy serial Harry Potter 1, Hermiona azjatka, Malfoy czarny, Potter'a gra Henry Cavil, styl Tarrantino. I bam, oglądasz jak chcesz. Jakoś nawet już nie wydaje mi się to nieprawdopodobne xD
Nogi są trochę śmieszne
Zaloguj się aby komentować
Pytanie, czy jest tu ktoś kto ogarnia jak należy używać refinera SDXL w toolkicie InvokeAI? Nieważne co zrobię, jakie ustawienia wybiorę, jakie prompty wpiszę, jedynym skutkiem użycia refinera jest utrata detali i marnowanie czasu GPU.
Wg opisu modelu SDXL to miała być rewolucyjna technologia. Może to jest bug w toolkicie?
#aiart #stablediffusion #aidesign #sztucznainteligencja
@Amebcio Zapomniałem dodać, na początku jak model SDXL został wydany i jak jeszcze toolkity nie były dostosowane, korzystało się z tego następująco. Na bazowym modelu SDXL txt2img -> wygenerowany obraz wrzucałeś do img2img z podpiętym refainerem i w promptcie poprawiałeś lub przepuszczałeś bez prompta przez refainera.
Zaloguj się aby komentować
#cybulionai #aiart
Offtop by cybulion 2k23:
No to przyklepane, od 1 grudnia staje sie bezrobotny a do 1 stycznia musze zwolnić mieszkanko na plebanii.
Na blacie mam 3 oferty, wczoraj sprawdzałem - wszystkie są aktualne, i wszystkie w branży z ktorej uciekałem. I teraz nie wiem co wybrac, zostac na mazurach, a moze kotlina kłodzka, albo ten caly Lublin...
Type pytań, tak mało odpowiedzi.






@Cybulion kombinuj ( ͡° ͜ʖ ͡°)
@Cybulion kotlina Kłodzka jest super
@Zielczan i do czech rzut beretem....
@Cybulion Zależy czego oczekujesz od życia
Zaloguj się aby komentować
Zaloguj się aby komentować
Ostatni dzisiejszy #aiart
Nie spodziewałem się, że w modelu pepe się znalazł

Zaloguj się aby komentować
PixArt Alpha
#aiart #stablediffusion
Prompt
a cat with robocop armor, sitting on the roof on evening night with moon shine in background

@caly_w_bigosie tymczasem gpt

@rith RoboCop cisnął po korporacjach także pewnie został dodany do treści zakazanych.
Zaloguj się aby komentować
Uruchomiłem lokalnie PixArt Alpha do testów. Jestem pod nie małym wrażeniem jakie obrazy generuje ten model.
Udało się to odpalić na 12GB VRAM, niestety generacja trwa około 240 sekund. Ciekawi mnie ile czasu zajmuje generacja na kartach posiadających 24GB VRAM. Jak by ktoś z was był tak uprzejmy sprawdzić, będę wdzięczny.
#aiart #stablediffusion
Foto

skąd można ściągnąć model ?
@caly_w_bigosie dziękuję.
@caly_w_bigosie Jeśli rozdzielczość, GPU i model są te same, to dokładnie tyle samo. Z większym VRAMem możesz użyć większej rozdzielczości co niestety pociągnie za sobą wolniejszą produkcję
@Amebcio Jasne, nie precyzyjnie napisałem, chodzi mi o testy posiadaczy karty RTX 4090/3090
@caly_w_bigosie Niestety nie mam Nvidii, używam innego toolkitu (invokeAi) oraz innych modeli, ale 240 sekund dla obrazu 1200x1200 to sporo.
Na moim radeonie 6900xt pierwszy obraz na zimnym starcie to ok. 100s a kolejne to ok. 40s w tej rozdziałce
moje 512MB wspoldzielonej pamieci na zintegrowanym z plytą GPU juz nie moze sie doczekac

@bucz heh. Tego się z reguły nie odpala lokalnie, ja tam się pytałem o pliki modelu głównie żeby zarchiwizować aktualną wersję "tak na wszelki wypadek",bo jednak wygenerowanie czegokolwiek użytecznego na karcie mającej kilka gb zajmie... no długo. Choć jakby się miało model samemu trenować to... o boże,o matko...
Z uruchamialnych lokalnie ciekawa jest też lokalna "alternatywa" dla gpt to jest gpt-j. Model jest ekwiwalentem gpt-2 no góra gpt-3 no ale nie można mieć wszystkiego. Nie testowałem
Zaloguj się aby komentować
Cześć, chciałbym się dowiedzieć na jakich kartach graficznych pracujecie w kwestii generowania #stablediffusion lokalnie. Interesuje mnie jedynie ilość VRAM
#aiart
Poniżej ankieta
Ile VRAM posiada twoja karta graficzna
@caly_w_bigosie 127,2
aż musiałem sprawdzić bo nie wiedziałem ile mam, a SD śmiga ładnie, ale okazuje się że 24
@slawek-borowy Zazdro mocno.
W telefonie też jest te vram?
Zaloguj się aby komentować
@Cybulion Cześć, widać dużo detali na generowanych zdjęciach. Używałeś modelu SDXL?.
Komentarz usunięty
@caly_w_bigosie tak, sdxl najlepiej reaguje na moje prompty, ale generalnie bawie sie cala czworka oznaczona alchemy v2

Takiego GUI jak na zrzucie nie kojarzę
@caly_w_bigosie leonardo.ai, mój gtx970 niezbyt nadaje sie do renderu lokalnego
kojarzy mi się z taką darmową grą multiplayer, w którą grzmociliśmy w technikum - Transformice
Zaloguj się aby komentować
#cybulionai #aiart
Jeszcze z wczoraj mi zostały cthulhowe klimaty.






@Cybulion Łoooo, podoba się dla mnie
Zaloguj się aby komentować
#cybulionai #aiart
Mały spam, wiecej w komentarzach.






Zaloguj się aby komentować
#cybulionai #aiart
Wróciłem z Delegacji. Wiecej info po 16. Ale nie jest kolorowo. Purpuraty podjeli decyzje, jeszcze w tym miesiącu koncze moja czesc projektu i... No i kurcze chyba pobede miesiac bezrobotny. XD






Zaloguj się aby komentować
Zaloguj się aby komentować
18+
Treść dla dorosłych lub kontrowersyjna





























