#wiadomosciswiat #ai

Czyżby znów Chiny szykowały nam jakieś potężne przetasowanie w świecie "AI", czy tylko marketingowe bicie piany? Brzmi to baardzo mocno. No i znów otworzyli źródła!


DeepSeek to dopiero początek. Chiny już mają nowego króla AI

Ledwie opadł kurz po wstrząsie, jaki DeepSeek zaserwował Dolinie Krzemowej, a już Chiny informują o modelu AI, który idzie dalej – jest tańszy, szybszy i „bystrzejszy”.

...

Czym jest model GLM-4.5 start-upu Z.ai?

Startup Z.ai (dawniej Zhipu) poinformował, że jego nowy model GLM-4.5 będzie jeszcze tańszy w eksploatacji niż DeepSeek. Twierdzi, że w przeciwieństwie do dotychczasowych rozwiązań, jego model opiera się na tzw. „agentowej” AI, która automatycznie dzieli zadania na podzadania, by wykonać je dokładniej. Model został udostępniony jako open source, co oznacza, że programiści mogą go pobrać i używać za darmo.

Model GLM-4.5 ma około połowę rozmiaru DeepSeeka i do działania potrzebuje tylko ośmiu chipów Nvidia H20, specjalnej wersji chipu stworzonej z myślą o rynku chińskim, zgodnie z ograniczeniami eksportowymi USA. Nvidia ogłosiła w lipcu, że może wznowić sprzedaż tych chipów do Chin po trzymiesięcznej przerwie.


https://cyfrowa.rp.pl/globalne-interesy/art42774501-deepseek-to-dopiero-poczatek-chiny-juz-maja-nowego-krola-ai

Komentarze (10)

Rimfire

@Fly_agaric czasem z Deep Fejkiem nie było podobnie? Najpierw był toporny i wolny a potem kolejne wersje nie dosyć, że operowały na dużo większych rozdzielczościach to były lżejsze?

Fly_agaric

@Rimfire Z Deep Fake'iem może tak, ale DeepSeek od początku zaprezentował się lepiej niż już isntniejące modele.

Rimfire

@Fly_agaric chodzi mi o to, że te całe modele i programy AI im bardziej do przodu i potężniejsze to zarazem bardziej wydajniejsze. Uproszczone tam gdzie to pomaga, przyspieszone przez wywalenie zbyt topornych procesów. Z Deep Fejkiem to w którymś momencie dodali maskę i automatyczne jej dodawanie, żeby zaznaczało tylko i wyłącznie twarz a resztę ignorowało więc się "uczyło" podczas trainingu na dużo mniejszym obszarze bo większy był niepotrzebny. Tutaj być może też poszli w podobnym kierunku żeby usprawnić, dlatego mniej zużywa mocy obliczeniowej a daje lepsze efekty.

Czokowoko

W tej wersji dowiemy sie co się stało w Chinach w 1989?

Fly_agaric

@Czokowoko Już w poprzedniku się dało, tylko, jak to z LLM, trza było pytać na około

Trismagist

@Fly_agaric Działa poprawnie.

05e3fa15-9ce7-4ca7-ba70-bb6b0767a3a6
Marchew

@Fly_agaric

Gdzieś było że w wszelakich testach różnych LLM'mów, te darmowe offline chińskie są w ścisłym TOP zaraz obok ultra drogich zachodnich komercyjnych wynalazków. Trzeba tylko trochę V'RAM'u : )

Zaloguj się aby komentować