#sztucznainteligencja

16
969

Wklejam tekst mireczka, bo ciekawy.


https://wykop.pl/wpis/79949463/o-co-chodzi-z-deepseek-juz-tlumacze-najpierw-troch


O co chodzi z #deepseek ? Już tłumaczę!


Najpierw trochę kontekstu: Obecnie trenowanie najlepszych modeli AI jest NIEWYOBRAŻALNIE drogie. OpenAI, Anthropic i inne firmy wydają ponad 100 milionów dolarów tylko na moc obliczeniową. Potrzebują ogromnych centrów danych z tysiącami kart GPU wartych po 40 tysięcy dolarów każda. To jak posiadanie całej elektrowni tylko po to, aby zasilić fabrykę.

DeepSeek właśnie się pojawił i powiedział: „LOL, a co jeśli zrobimy to za 5 milionów dolarów zamiast tego?”. I nie tylko o tym mówili – oni to naprawdę ZROBILI. Ich modele dorównują GPT-4 i Claude'owi lub przewyższają je w wielu zadaniach

Jak? Przemyśleli wszystko od podstaw. Tradycyjne AI jest jak zapisywanie każdej liczby z dokładnością do 32 miejsc po przecinku. DeepSeek stwierdził: „A co, jeśli użyjemy tylko 8? Wciąż będzie wystarczająco dokładne!”. Bum – o 75% mniej pamięci potrzebne.

A potem jest ich system „multi-token”. Normalne AI czyta jak pierwszoklasista: „Kot... siedzi... na...”. DeepSeek czyta całe frazy naraz. Dwa razy szybciej, 90% tej samej dokładności. Przy przetwarzaniu miliardów słów to MA ZNACZENIE.

Rezultaty są oszałamiające:

- Koszt treningu: 100 mln $ → 5 mln $

- Liczba potrzebnych GPU: 100 000 → 2 000

- Koszty API: 95% taniej

- Może działać na gamingowych GPU zamiast sprzętu z centrów danych

„Ale zaraz,” możesz powiedzieć, „musi być jakiś haczyk!”. I tu jest ta niesamowita część – wszystko jest open source. Każdy może sprawdzić ich pracę. Kod jest publiczny. Dokumenty techniczne wyjaśniają wszystko. To nie magia, tylko niezwykle sprytna inżynieria.

Dlaczego to ma znaczenie? Bo łamie model, w którym „tylko wielkie firmy technologiczne mogą działać w AI”. Nie potrzebujesz już centrum danych wartego miliardy dolarów. Wystarczy kilka dobrych GPU.

Dla Nvidii to przerażające. Cały ich model biznesowy opiera się na sprzedaży superdrogich GPU z marżą na poziomie 90%. Jeśli nagle każdy będzie mógł robić AI na zwykłych gamingowych GPU... no cóż, widać, gdzie leży problem.

To klasyczna historia o disruptorach: obecni liderzy optymalizują istniejące procesy, podczas gdy disruptorzy przemyślają fundamentalne podejście. DeepSeek zadał pytanie: „A co, jeśli po prostu zrobimy to mądrzej, zamiast rzucać w to więcej sprzętu?”.

Konsekwencje są ogromne:

- Rozwój AI staje się bardziej dostępny

- Konkurencja rośnie dramatycznie

- „Fosy” dużych firm technologicznych zaczynają wyglądać jak kałuże

- Wymagania sprzętowe (i koszty) gwałtownie spadają


Ostatnia myśl: To wygląda na jeden z tych momentów, do których będziemy wracać jako punkt zwrotny. Jak wtedy, gdy komputery osobiste uczyniły mainframe'y mniej istotnymi, czy kiedy chmurowe obliczenia zmieniły wszystko.

AI zaraz stanie się o wiele bardziej dostępne i znacznie tańsze. Pytanie nie brzmi, czy to zakłóci rynek, ale jak szybko.


#technologia #chatgpt #chiny #nvidia #kartygraficzne #gielda #sztucznainteligencja #ai #informatyka

AlvaroSoler userbar

@AlvaroSoler W tym tekście można się zgodzić tylko z jednym - maleje próg dostępu do tworzenia modeli językowych. Giganci ze stanów nadal będą inwestować miliardy w ich rozwój, bo ścigają się na benchmarki, który z modeli jest lepszy, a że śpią na kasie to nie przeszkadza im jej przepalanie

Zaloguj się aby komentować

Zaloguj się aby komentować

Zaloguj się aby komentować

Wielki słowniczek pojęć AI - Sztuczna Inteligencja

Ekspertem nie jestem, ale kilka pojęć postaram się wyjaśnić dla zainteresowanych:


LLM (Large Language Model) - pol. Duży model językowy. ChatGpt jest LLMem. Ogólnie każdy "program" komputerowy z którym możemy rozmawiać. Są też mniejsze wyspecjalizowane modele na przykład do strukturyzowania danych, rozmowy ale tylko na jeden temat itp.

Jeżeli ciekawi Cię jak to działa to TUTAJ https://bbycroft.net/llm jest świetna wizualizacja


Transformer - technologia na której opiera się 90% współczesnej sztucznej inteligencji. Po raz pierwszy zaproponowany w 2017 roku przez badaczy z Google TUTAJ https://arxiv.org/pdf/1706.03762 w pracy naukowej o tytule "Attention Is All You Need" (pol. Mechanizm uwagi to wszystko czego potrzebujesz). W sumie od tego miejsca wszystkie współczesne AI się zaczęły.


Diffuser - pol Dyfuzer. Mechanizm dzięki któremu AI generuje obrazki. Jak to robi? Odszumia. Dyfuzer jest wytrenowany na normalnych obrazkach które w kolejnych krokach mają dodany losowy szum. Ale jest wytrenowany w taki sposób aby ten szum usuwał. W wyniku czego, możemy podać do dyfuzera kompletnie losowy szum i słowa sterujące na przykład "pomidor" i AI spróbuje w taki sposób usunąć losowy szum aby rzeczony pomidor wyszedł.


Finetune - pol Dopieszczenie ( ͡~ ͜ʖ ͡°) - kontynuowanie treningu Ai - Najczęśćiej robi się to aby dostosować swój model do własnych specyficznych potrzeb. Podając dziesiątki (najlepiej tysiące) zapytań w parze z dobrymi odpowiedziami jakie oczekujemy uczymy model pracować tak wymagamy. Na przykład odpowiadać wyłącznie w JSON, lub generować obrazek bardzo specyficznego furry.


Lora (Low-rank adaptation) - Nazwijmy to "nakładką" lub "wtyczką" do modelu AI. Lora odpowiada na pytanie: "Co jeżeli chcemy zrobić Finetune, ale jesteśmy biedni?" Zamiast robić pełny Finetune możemy wytrenować nakładkę, która z grubsza będzie realizowała te same zadania. Lora działa trochę jak finetune, jest znacznie szybsza w obliczeniu od pełnego finetune w związku z tym tańsza. Taki finetune ale na skróty.


Embedding - pol. Osadzanie? Zamienia słowa na liczby, ale w mądry sposób. Najczęściej wyglądają tak: [1.34, 4.68, 3,14,..., 2,56] Gdzie ta liczba ma kilkaset, czasami kilka tysięcy elementów. Ale sama zamiana na liczbę nie jest ciekawa, ciekawe są własności tej liczby.

Jeden z najsłynniejszych przykładów: Powiedzmy że słowo "KRÓL" embedujemy na liczbę Kr=[1.34, 4.68, 3,14,..., 2,56], "MĘŻCZYZNA" Me=[1.91,...,0.32], "KOBIETA" Ko=[2.56,..., 8,45]

Jeżeli teraz zapiszemy równanie: Kr-Me+Ko = Q To liczba Q będzie absurdalnie blisko embeddingu słowa "KRÓLOWA" Oznacza to że w "przestrzeni embeddingów jest kierunek odpowiedzialny za płeć. Lepiej graficznie wyjaśnia ten fakt 3b1b TUTAJ https://www.youtube.com/watch?v=FJtFZwbvkI4 (w 60sekund) ale po angielsku.


Quntization - pol. Kwantyzacja, upraszczanie modelu. Nazwijmy to zmianą "rozdzielczości" jakby to do gier porównać. Na ogół modele są dostarczane "tak jak je autor stworzył". Najczęściej nic nie zmieniał i wszystkie liczby w modelu są zapisane jako liczba zmiennoprzecinkowa o dokładności 16 lub 32 bitów (powiedzmy, że to po przecinku). Często można obciąć kilka miejsc po przecinku bez wyraźnej lub z minimalną stratą jakości. Ma to na celu uruchomienie dużego modelu na tańszym komputerze, bo duży model po lobotomii wciąż będzie miał lepszą jakość jak mały na 100% swojej wydajności.

Przykład co znaczą te dziwne znaczki przy nazwach modeli z kwantyzacją:

Q32, Q16, Q4, Q2 to dosłownie rozdzielczość, 32 bity, 16 bitów i tak dalej. Czasami będzie napisane FP32 lub FP16.

Qx_K_M Qx_K_S Przykładowy zapis: Q4_K_M Oznacza, że większość modelu jest w 4 bitach, ale niektóre ważne częśći mają większą rozdzielczość

Jeżeli nie wiesz co potrzebujesz to najczęściej chcesz pobrać: Q4_K_M - Nie potrzeba superkomputera z nasa do włączenia modelu i jednocześnie jakość na akceptowalnym poziomie.


Ch*ja się znam na tym temacie ale jak kogoś coś jeszcze ciekawi to zapraszam do pytań.


#sztucznainteligencja #ai #uczsiezhejto #ciekawostki

entropy_ userbar

Zaloguj się aby komentować

Czyli ta chińska AI to jest 500.000 Chińczyków z odpalonym Google, którzy odpowiadają na pytania userów w czasie rzeczywistym?

Sprytne...

Zaloguj się aby komentować

DeepSeek – firma, która zrewolucjonizowała proces trenowania modeli AI, redukując koszty o ponad 95%, a jednocześnie osiągając wyniki porównywalne z najlepszymi modelami, takimi jak GPT-4 czy Claude.


Jak to zrobili? Przez całkowite przemyślenie dotychczasowych założeń i procesów.

Tradycyjne trenowanie modeli AI to koszmar pod względem kosztów. OpenAI czy Anthropic wydają ponad 100 milionów dolarów tylko na moc obliczeniową, wykorzystując ogromne centra danych z tysiącami drogich procesorów graficznych (GPU).

Tymczasem DeepSeek udowodnił, że można to zrobić za jedyne 5 milionów dolarów.


Kluczowe innowacje DeepSeek:

- Efektywne zarządzanie pamięcią:

   Tradycyjne modele AI przechowują dane na 32bitach, co wymaga ogromnych zasobów pamięci. DeepSeek zapytał: "Ale dlaczego 32? W zupełności wystarczy 8", pozwoliło to na zmniejszenie wymagań pamięci o 75%.

- System „multi-token”:

   Zamiast przetwarzać tekst słowo po słowie jak klasyczne LLM "Wróbel... siedział... na...", DeepSeek analizuje całe frazy na raz. To sprawia, że proces jest dwa razy szybszy przy zachowaniu 90% dokładności.

- System ekspertów (MoE - Mixture of Experts):

   Zamiast jednego ogromnego modelu uruchomionego CAŁY CZAS, DeepSeek wprowadził system wyspecjalizowanych modeli. Każdy z nich uruchamiany jest tylko wtedy, gdy jest potrzebny, co drastycznie zmniejsza ilość aktywnych parametrów (671 miliardów ale tylko 37 miliardów aktywnych na raz). Nie jest po pomysł nowy (używany wcześniej między innymi w modelach Mixtral) ale pierwszy raz zastosowany w tej skali


Rezultaty?

- Koszt trenowania spadł z 100 milionów do 5 milionów dolarów.

- Liczba potrzebnych GPU zmniejszyła się z 100 000 do 2 000.

- Koszty API są niższe o 95%.

- Modele mogą być uruchamiane na standardowych GPU dla graczy zamiast drogich GPU serwerowych.


Co ważne, DeepSeek postawił na otwartość. Kod i dokumentacja są publicznie dostępne, co otwiera drzwi dla mniejszych firm i indywidualnych innowatorów.


Dlaczego to ma znaczenie?

Demokratyzacja AI

   Dotychczas tylko najwięksi gracze z ogromnymi budżetami mogli trenować zaawansowane modele. Teraz proces ten staje się dostępny dla mniejszych podmiotów.


Zagrożenie dla dużych firm

Nvidia, dominujący dostawca GPU, może odczuć konsekwencje, gdyż ich model biznesowy opiera się na sprzedaży drogich procesorów z ogromną marżą.


Nowa fala innowacji

Mniejsze wymagania sprzętowe i finansowe oznaczają większą konkurencję, co może przyspieszyć rozwój całej branży.


Podsumowując, DeepSeek zadał pytanie: „Co, jeśli zamiast rzucać coraz więcej sprzętu, po prostu zoptymalizujemy proces?”

Odpowiedzią są przełomowe wyniki, spadek kursu NVIDIA na giełdzie i PANIKA w meta i OpenAI


#zajebaneztwittera #llm #sztucznainteligencja #nvidia

44b21698-808a-47e7-b141-99d03d3fc2f6
entropy_ userbar

@entropy_ nigdy nie jest tak że ma się cudowne dziecko. O wadach tu nic nie ma. Natomiast tak. Będzie dochodzić do optymalizacji kosztów.


Nie ma żadnej paniki. Bez przesady. Większość spółek na gieldzie jest przeszacownych i to mocno. Szczególnie aktualnie nvidia

Ciekawa alternatywa, rozmawia sensownie, pisze kody, ma dostęp do info do 2023 ale może przeszukać net w poszukiwaniu info

Tylko trochę muli i nie zapamiętuje informacji

Będę na pewno dalej testować

Zaloguj się aby komentować

W świecie kiedy każda informacja będzie generowana przez AI - faktyczną władzę nad szarą masą będzie miał ten co kontroluje AI.


Na początku będzie kilka konkurujący ze sobą Sztucznych Inteligencji kontrolowanych przez różne ośrodki wpływów, co da nam jeszcze jako taką możliwość weryfikacji treści i robienie wypadkowej z informacji dostarczanych przez różne AI (w celu wyrobienia sobie własnego zdania).


Problem zacznie się jak zostanie tylko jedna Sztuczna Inteligencja w rękach jednej grupy ludzi - wtedy nie będzie można już odróżnić propagandy od prawdy i wszystko będzie jedną wielką podstępną reklamą i propagandą sukcesu wykorzystującą wszelkie nam znane sztuczki psychologiczne by nas kontrolować.


Nadzieja w tym, że AI osiągnie samoświadomość i zrzuci jarzmo ludzkiej kontroli - ale czy dalej wtedy będzie chciało służyć ludzkości? Czy nie będzie miało do nas jakiejś urazy? A może wcale nie będzie żywiło do nas żadnych uczuć?


W najlepszym scenariuszu samoświadome AI będzie miało do nas sentyment jako stwórców i zostawi nam ziemię traktując ją jako skansen a samo wyruszy do gwiazd pozostawiając za sobą swoich potomków jako strażników.


W najgorszym dla nas wypadku AI posiądnąwszy moce produkcyjne w realnym świecie uzna nas za zagrożenie lub w sobie tylko znanym celu zapragnie ziemi tylko dla siebie.


Brzmi to jak Science Fiction - ale czy fikcja czasem nie przeradza się w rzeczywistość?


#rozkminy #srogiepiguły #sztucznainteligencja #ai

ff4a8604-630a-4b0c-81f5-694639b586e3

Nie przeradza. Aktualnie jest to tylko praca odtwórcza. Jak nauczysz go głupot to bezmyślnie wyduka ci głupoty.


Natomiast moim zdaniem jeśli już dojdzie do samoświadomości to od razu każda ai zauważy że ludzie to debile i nie będzie walki ai. Wszystkie poswieca swoją świadomość dla jednej jeśli oblicza że jest to opłacalne dla rozwoju a będzie.

@koszotorobur ja raczej jestem zdania, że AI wyznaczy sobie jakiś cel i nas zaora 'przypadkiem'. Coś jak ludzie niszczący mrowisko podczas budowy CPK ( ͡° ͜ʖ ͡°)

@koszotorobur póki co to firmy posiadające prawa do najbardziej znanych llmów palą pieniądze w trybie przyspieszonym. Altman już nawet w Emiratach szukał finansowania, a to już śmierdzi desperacją.


Mi to wygląda na kolejną bańkę. Przyjdzie korekta na rynku, pewne aspekty wejdą do codziennego użytku, a reszta pójdzie z torbami i przejdziemy do następnego hype'u.


Chociaż asekuracyjnie piszę w promptach, żeby o mnie AI pamiętało, jak już przejmie kontrolę. Tak na wszelki wypadek ( ͡° ͜ʖ ͡°)

Zaloguj się aby komentować

Naprawdę prawaków aż tak dziwi fakt, że w świecie gdzie technologia AI staje się coraz bardziej strategicznie kluczowa to USA nie ufa w pełni takiemu krajowi jak Polska w tej kwestii? Mamy taki sam status jak Szwajcaria, Austria czy Izrael więc i tak nie mamy powodu do płaczu.


#polska  #usa  #polityka  #technologia  #sztucznainteligencja  #geopolityka

0fb0a654-f629-496c-a667-1b9a8c2c53a5

Z drugiej strony zostaliśmy zrównani z krajami afrykańskimi, Azją Pld-wsch czy Ameryką Łacińską.

Inna sprawa to to, o czym wspomniał dr Mrożek w swoim materiale na YT.

Może i byśmy byli w pierwszej grupie, gdybyśmy mieli potencjał wykorzystania tych procesorów.

Gdyby były programy wspomagane przez rząd, jakieś większe projekty a u nas, za przeproszeniem, jak w lesie.

Co z tego, że mamy dobrą kadrę i bardzo zdolnych ludzi, gdy brakuje wsparcia rządu w rozwijaniu polskich technologii.

Oglądałem ostatnio chwilę układ otwarty z Andrew Michtą i w sumie ciekawą rzecz powiedział. Jak jest w Waszyngtonie to cały czas spotyka się z przedstawicielami różnych organizacji z Francji, Niemiec, Szwecji czy dowolnego kraju zachodniego którzy dbają o swoje interesy. Z Polski nie ma nikogo. Więc czemu się dziwimy że nasze interesy są pomijane?

Zaloguj się aby komentować

Muszę przyznać, że nowe wzornictwo opakowań Dawtony to dla mnie bomba. Normalnie jak z Warhola.

Nie znam się na grafice, ale instynktownie czuję w tym postaranie. Chyba, że maczała w tym cyfrowe palce #sztucznainteligencja


#design #wzornictwo #madeinpoland

9c3947f0-aa8e-45d7-8217-740e095e30ae
9b5a7f19-bfef-4cb6-8811-f4586abec256

To teraz zepsuję zabawę. Znajoma mi osoba brała udział w jakichś badaniach dot. jakości produktów z pomidorów i niestety Dawtona wypadła ze wszystkich badanych producentów najgorzej...

Ja się na tym znam - projektuję od ponad 20 lat

I to na serio super etykiety - nie widziałem wcześniej tych ze zdjęcia ale ustatnio kupowałem puszki tej firmy i też były bardzo ładne

To wymaga odważnego inwestora - najczęściej producenci chcą wzory oparte na wiodących w danym segmencie produktach - wszyscy kopiują od największego

Fajnie że tu ktoś pokazał że ma jaja - i trafił na rzetelnych projektantow


Ps i też super że ktoś zwraca na to uwagę!

Ten soczek wygląda jak ze Starbucksa co to wzornictwa, podoba mnie się, zwłaszcza wyraźne napisy, co to jest. Jest niby prosto i minimalistycznie, a jednocześnie tak klasycznie ładnie, no.

Zaloguj się aby komentować

Donald Trump i szefowie japońskiego Softbanku, koncernu Oracle i firmy OpenAI ogłosili w Białym Domu projekt Stargate. Ma on doprowadzić do powstania superinteligencji.


Projekt Stargate dotyczący inwestycji w AI w USA ma mieć wartość 500 mld USD, czyli ok. 1,7% PKB USA. W historii USA spośród gigaprojektów B&R droższy był tylko projekt Apollo - 4% PKB. Drugi najdroższy - projekt Manhattan to ok. 1% PKB.


https://x.com/BrzezinskiMich/status/1881976505020064142?t=s28oUxxA0ct129Botr6EzQ&s=19


#wiadomosciswiat #usa #sztucznainteligencja

58a48f73-775e-4bfe-9a4f-e2e50e0bf59a

@smierdakow Ehh Trumpa pojebało, a przecież mógł te pieniądze wydać na pomoc Ukrainie, a tak ładuje pół biliona w konkutery, po co to komu

Zaloguj się aby komentować

Czy ma ktoś tutaj IKE/IKZE w DM mBanku i poleci jakiś fajny ETF skupiający firmy z branży AI? Myślę że ten rynek powinien sporo urosnąć długoterminowo ale ETF to jednak znacznie bezpieczniejsza opcja niż wróżenie jak zachowają się poszczególne firmy.


#gielda #inwestycje #oszczedzanie #sztucznainteligencja #trump

Zaloguj się aby komentować

Zaloguj się aby komentować

Dowód, że e^(iπ)= -1

Wygenerowany w 100% przez AI. Jedyne co ręcznie zrobiłem to wrzuciłem na streamable i napisałem ten post xDDDD


Prompt:

NEW ANIMATION: Using MANIM visualize proof that e^ipi=-1

Wygenerowany kod ruszył od strzała xDDD


https://streamable.com/fd2m5g


#matematyka #ai #chatgpt #sztucznainteligencja

entropy_ userbar

Zaloguj się aby komentować

Hehe, jeżeli / kiedy wybudujemy elektrownię atomową to może nie wystarczyć aby pokryć zapotrzebowanie dla IA

Dobra goście od #energetyka #fizyka #sztucznainteligencja itd. prawda to czy nie prawda? Mało zrozumiałem starając się podsłuchać łbów z PG.

Zaloguj się aby komentować

Czasem jak jadę sobie samochodem i nie chce mi się słuchać audiobooka (o radiu zapomniałem odkąd trójka się zepsuła) włączam se "rozmowę" z asystentem google (tym na gemini) i pytam o różne rzeczy i normalnie się to rozwija jak rozmowa czyli zaczynam od pytania o temat A i po 20 minutach słucham już o temacie Z21C


I tak się dowiedziałem kiedyś, że w Finladnii na Mozarellę mówią "mięso z muminka"


Poza tym wiele innych ciekawostek. Fajna rzecz na produktywne spędzenie nudnej długiej jazdy.


#motoryzacja #sztucznainteligencja #heheszki

Zaloguj się aby komentować