#uczeniemaszynowe
Zaloguj się aby komentować
https://arxiv.org/abs/2504.13126 Ja wiem, że ten temat niewielu zainteresuje, więc nawet tagi przyciąłem, żeby nie spamować zbytnio. Mnie za to interesuje bardzo
Artykuł proponuje nową metodę symulacji przepływów turbulentnych opartą na ML. Wykorzystuje hybrydową architekturę U-Net i operatora Fouriera (Fourier to był gość, gdzie się nie obrócisz w AI/ML to się nań natykasz), co pozwala na szybsze i dokładniejsze przewidywanie turbulencji nad przeszkodami. Model łączy zalety sieci konwolucyjnych i operatorów Fouriera, dając lepsze wyniki niż choćby LES (Large Eddy Simulation) i to mniejszym kosztem. Model dobrze radzi sobie z różnymi warunkami początkowymi i kształtami przeszkód - a to bynajmniej nie standard.
#turbulencje #uczeniemaszynowe #machinelearning #fizyka
@ataxbras tomek, uspokoj sie
az mi sie mechanika plynow przypomniala ze studiow i sie niedobrze zrobilo...
@onlystat Aż tak dawałeś w palnik na studiach?
@ataxbras daleko od prawdy nie jestes
Zaloguj się aby komentować
#sztucznainteligencja #uczeniemaszynowe
Okazuje się że moja karta graficzna ma za mało VRAM-u
Zdalne maszyny wymagają rezerwacji z miesięcznym wyprzedzeniem
więc pozostaje mi uczenie na CPU
Wg wyliczeń, widzimy się za jakieś 48 godzin

Zaloguj się aby komentować

OpenAI prezentuje: O3 oraz O4-mini
OpenAI zaprezentowało modele o3 i o4-mini, które wprowadzają zaawansowane możliwości rozumowania, w tym analizę obrazów oraz samodzielne korzystanie z narzędzi ChatGPT, takich jak przeglądarka internetowa, interpreter Python, generowanie obrazów i analiza plików.Model o3 wyróżnia się najwyższą...
Pytanie do ogarniających ludzi #machinelearning #uczeniemaszynowe #sztucznainteligencja #datascience
Dopiero wczoraj ogarnąłem podstawy PyTorch na tyle, żeby zrobić prosty model do klasyfikacji danych ze zbioru MNIST.
Ogólnie coś tam matematyki i ML ogarniam (wcześniej używałem tensorflow), więc to nie jest też tak że wczoraj sie nauczyłem co to jest ML.
Trafiłem na pracę Microsoftu o modelu do czytaniu struktury tabel ze zdjęć https://arxiv.org/pdf/2208.04921
Problem w tym że model nie został nigdzie opublikowany, ogólnie niewiele znalazłem na ten temat poza pracami naukowymi od tych samych ludzi.
Wg waszej oceny, jak bardzo możliwe odtworzenie tego modelu, i uzyskanie chociaż zbliżonej skuteczności?
Znalazłem nowszą, bardziej rozbudowaną wersje tej samej pracy https://arxiv.org/pdf/2303.11615 w które jest jakby więcej szczegółów. Niestety moja wiedza jest zbyt skromna żeby po przeczytaniu ocenić na podstawie tej pracy czy uda mi sie to powtórzyć

@redve Odtworzenie 1:1 to pewnie nie Twój cel, raczej odtworzenie funkcjonalności. Podstawą jest tu ten transformer: https://github.com/facebookresearch/detr. Jak go opanujesz, to reszta pójdzie z górki.
@ataxbras trafiłem na to, ale wcześniej sie mu nie przyglądalem. Rozumiem że to jest coś do wykrywania wielu obiektów (nieznanej ilości) ze zdjęcia, na przykład linii które wyciągam w module SegRETR split module, do wykrywania linii?
@redve Tak. Głębiej w strukturę, zwyczajnie ustawiasz matching pod określone FFT i robisz segmentację. Linii, komórek, itp. Jest gdzieś tego paper.
Zaloguj się aby komentować

OpenAI o3 and o3-mini—12 Days of OpenAI: Day 12 - Pokonanie benchmarku ARC-AGI - krok milowy.
OpenAI model o3 przebija barierę 85% (poziom ludzi) w bardzo trudnym benchmarku ARC-AGI.
Benchmark jest bardzo prosty dla ludzi (przykład na obrazie) albo bardzo trudny dla AI. 85% to granica jaką osiąga przeciętny człowiek. Benchmark nie opiera się na wiedzy encyklopedycznej, ale sprawdza...
Jeżeli chcecie pomóc w rozwoju naszego rodzimego bielika, to tu macie arene na której wpisujecie prompt, dostajecie dwie odpowiedzi z dwóch modeli i wybieracie, która odpowiedź jest lepsza. Więc rozwijacie bielika i macie darmowy dostęp do innych LLM
Wystarczy się zalogować przez np. githuba.
#uczeniemaszynowe #informatyka #sztucznainteligencja

Zaloguj się aby komentować
Te modele językowe są demotywujące.
Chce zaimplementować raycasting w swojej grze przeglądarkowej, więc się ucze o nim, a chatgpt potrafi mi wyrzucić cały dzialający prototym systemu znaneg z wolfensteina czy dooma.
Musiałem tylko delikatnie poprawić inicjowanie aplikacji w pixijs, ale sam raycasting działał z miejsca. Zawsze gdy mi wygeneruje działający taki duży kod, to tracę ochotę to zgłębiania tematu
#technologia #uczeniemaszynowe

@Fausto - no nie powiem - jest coraz lepiej - ale mnie to jakoś nie martwi bo nam więcej czasu na inne rzeczy gdyż programowanie nie jest główną moją czynnością w pracy - AI jeszcze nie umie lawirować w korpo
@koszotorobur "programowanie nie jest główną moją czynnością w pracy " - moją też nie, ale trochę demotywuje przy zgłębianiu tematów.
@Fausto - może i tak - ale dzięki niemu można robić rzeczy szybciej
A ja mam inne wrażenia. Ostatnio chciałem, żeby mi napisał shader. Opisałem dokładnie co ma robić i za każdym razem wypluwał gówno. Działa spoko jak go proszę o jakąś funkcję, która jest prosta, ale bardziej skomplikowane rzeczy to jakbym z koniem gadał: " nie używaj blendingu tylko ....", "tak, masz rację, nie zrozuniałem, tutaj nowy kod". I c⁎⁎j znów to samo XD
Ale i tak chatgpt do generowania kodu jest najlepszy, inne już całkiem dają d⁎⁎y.
@dotevo - tak, wszystkiego nie potrafi - ale patrząc jak się rozwija nie sposób nie zauważyć, że jest tylko lepiej.
@koszotorobur ale czasem randomowo zaczyna pisać z dupy.
Używam go teraz dużo do pisania sprawdzianów z materiału. wrzucam materiał, każę go przerobić na notatki, a potem robić sprawdzian z materiału z pytaniami otwartymi. Na koniec trzeci prompt przed moimi odpowiedziami.
I czasem daje oceny do pytań zrobionych na podstawie moich odpowiedzi zamiast oryginalnie zadanych albo jakieś inne kwiatki.
Może to będzie dla Ciebie ciekawe
Zaloguj się aby komentować

Centra danych odpowiadają za 2 proc. globalnego zużycia energii, a wkrótce ten udział może się podwoić.
Sztuczna inteligencja czy uczenie maszynowe zużywają ogromne ilości energii. Wdrażanie ich w firmach na coraz większą skalę powoduje dynamiczny wzrost zapotrzebowania na usługi centrów danych, a co za tym idzie – również na ilość energii, jakiej potrzebują one do obsługi klientów. Tym bardziej że...

Czy androidy śnią o cyfrowych kurhanach? Uczenie maszynowe w archeologii
Uczenie maszynowe w archeologii staje się coraz bardziej popularne, oferując nowe możliwości analizy dużych zbiorów danych i odkrywania ukrytych wzorców. To jednak już sam proces opisu i przygotowania danych jest często znacznie bardziej czasochłonny niż praca wybranych algorytmów. Już dziś, w...

Czy GPT-5 było rozczarowujące? Współzałożyciel OpenAI odchodzi, Figure02 przybywa, Character.AI wykastrowane, GPT-5 dopiero w 2025
Czy GPT-5 zostało opóźnione do 2025 roku? Brockman odchodzi, Schulman odchodzi, a współzałożyciele OpenAI opuszczają statek. Plus Figure02, pozew Muska, Character.AI wykastrowane, nowe Gemini 1.5 Pro, wskazówki Dev Day i wiele więcej.
Wyścig zawęża się do Meta, Anthropic, Google i OpenAI. Omówię,...
Czy ktoś zna jakiś fork SD który umożliwia użycie multi-gpu do inferencji?
Nie chodzi mi o dzielenie batcha pomiędzy GPU bo to chyba potrafi StableSwarmUI tylko o generowanie jednego obrazu równolegle na >1 GPU.
#stablediffusion #ai #sztucznainteligencja #uczeniemaszynowe #bukmacherka#machinelearning #sztuka #grafika #sd
@NrmvY Nie jestem pewien czy to w ogóle da się zrobić. Firmy nie bawiłyby się w mega układy gdyby można było to zwyczajnie podzielić na kilka mniejszych
@Amebcio LLM się da, ale z tego co widziałem w SD nie ma takiej możliwości.
Zaloguj się aby komentować

Nieopublikowany model generowania mowy OpenAI
Wystarczy 15 sekund oryginalnego źródłowego nagrania aby odtworzyć dowolny tekst mówiony replikowanym głosem.
Jednak OpenAI nie opublikuje modelu gdyż może to nieść ze sobą "niebezpieczeństwo".
W takiej sytuacji - model mógłby nie istnieć w ogóle. Może po prostu kłamią? Bez udzielenia...

SambaNova - nowa technologia LLM używająca CoE (composition of experts) - alternatywy dla MoE (Mixture of Experts)
Model zapewnia znacznie większą wydajność przy dużej jakości odpowiedzi wymagając mniej sprzętu obliczeniowego.
ai #sztucznainteligencja #si #technologia #nauka #ciekawostki #eacc #llm #uczeniemaszynowe

Jamba - nowa architektura modeli dużych modeli językowych
Model hybrydowy LLM - połączenie transformerów oraz mamby.
Transformery zapewniają dużą jakość kiedy mamba zapewnia stałe wymogi co do pamięci i mocy obliczeniowej które nie rosną z rozmiarem kontekstu.
#technologia #ai #sztucznainteligencja #nauka #ciekawostki #uczeniemaszynowe #eacc #llm
Teraz mamy super serwerownie, do odpalenia GPT 4, później będzie można go odpalić na byle laptopie, przez co sztuczna inteligencja bardzo się rozmnoży i upowszechni, a w dalekiej przyszłości będziemy mieli możliwość łatwego przeobrażania dowolnego przedmiotu w inteligentny, tak że sztuczna inteligencja będzie się sama rozmnażała w ten sposób.
#strumienmysli #rozkminydlazabawy #ai #sztucznainteligencja #artificialintelligence #machinelearning #uczeniemaszynowe #si
@fewtoast symulakr czwartego rzędu.
Zaloguj się aby komentować
Czy już używamy AI do zrozumienia DNA? Wyobrażam sobie że AI pozna jak działa DNA i AI będzie modyfikowało DNA naszych dzieci, zgodnie z wytycznymi przekazanymi jej na czat GPT. ;D
To by było totalnie nieprzewidywalne kombo. xD
#strumienmysli #rozkminydlazabawy #ai #sztucznainteligencja #artificialintelligence #machinelearning #uczeniemaszynowe #si #genetyka #dna #ewolucja
A nauczyło się już palce robić na generowanych grafikach? Bo jak nie, to czeka nas rozwój w branży rękawiczek
@smierdakow :)
Zaloguj się aby komentować



