Zorientowani zapewne wiedzą, że AMD wypuściło ostatnio nowe Threadrippery, więc mam w związku z tym pytanie, a może nawet kilka: miał ktoś kiedyś do czynienia z tymi procesorami? Do czego typowo się je wykorzystuje? Jak one się skalują w stosunku do kilku fizycznych "normalnych" komputerów lub rozwiązań rozproszonych/chmurowych?


Czy to jest rzeczywiście jakiś poważny, profesjonalny produkt, czy może raczej niszowa ciekawostka technologiczna dla entuzjastów, którzy nie mają co zrobić z pieniędzmi?


#komputery #technologia #pcmasterrace

Komentarze (20)

MostlyRenegade

@MrHardy_ czyli to taki trochę mainframe dla ubogich - można odpalić excela, uruchomić symulację numeryczną i w międzyczasie pograć w hirołsy. Tylko dalej nie jestem przekonany, że stawianie tego wszystkiego na jednej drogiej maszynie jest najbardziej efektywnym rozwiązaniem.

Shagwest

@MostlyRenegade Koszt maszyny nie ma większego znaczenia, bo to wydatek jednorazowy i jak firma na takiej maszynie zarabia, to pewnie zwraca się jej ona w jeden dzień. Różnice robią koszty utrzymania - administracja maszynami, prąd. No i soft, bo co innego odpalić coś na wielu maszynach, a co innego na jednej, bardzo wielowątkowej.

MostlyRenegade

@Shagwest nawet nie chodzi o to, by mieć wiele fizycznych komputerów, które robią to samo. Wiele rzeczy jest teraz w chmurze i jeśli wykupujesz usługę to wszystko masz w cenie. Wiele komputerów rozumiem tu bardziej jako alternatywę do uruchamiania wielu VM-ek. Aczkolwiek nawet tutaj istnieją rozwiązania chmurowe.

Marchew

@MostlyRenegade Chmura nie działa przy rozwiązaniach offline.

Chyba że chmura w twojej infrastrukturze offline właśnie na 64c CPU.

maks_kow

Moim zdaniem do domowych zastosowań, Threadripper kompletnie nie ma sensu. Dla "duzego" przemyslu są procki EPYC, które zdominowały już rynek serwerow (cos okolo 60% serwerow pracuje na tych klockach)

Threadrippery moim zdaniem ładnie wypełniają niszę, oferują dużą ilość linii pciex, wiec swietnie sie sprawują w srodowiskach z kilkoma kartami graficznymi. CAD/CAM, obrobka video (szczegolnie duzej rozdzielczosci) czy rendering to sa podstawowe zastosowania dla tej serii. No teraz jeszcze tworzenie czy trenowanie modeli AI/ML

Skalują się spoko, odpada ci narzut opoznien sieci i synchronizacja.

MostlyRenegade

Skalują się spoko, odpada ci narzut opoznien sieci i synchronizacja.

@maks_kow no właśnie, czy tak jest naprawdę? Bo teoretycznie tak to może właśnie wyglądać, ale ciekawe, czy ten efekt jest rzeczywiście znaczący. Chyba że wynajęcie jakiegoś wielordzeniowego klastra w chmurze będzie droższe niż zmontowanie i zasilenie prądem lokalnej stacji na TR. Sądząc jednak po wielkości rynku nie jest to częsty przypadek.

maks_kow

@MostlyRenegade Wlasnie o tej niszy mowilem. Wynajecie klastra moze byc mimo wszystko drozsze. Do tego obrobka duzego projektu jednak jest wygodniejsza lokalnie. NUwazam ze dla solistow z duzym rozmachem, lub dla malych firm to dobra alternatywa.

9995WX (96 rdzeni/192 watki) poszedl na ponad 186000 pkt w cinebench. Pociagnal przy tym niecale 950W przy maksymalnym obciazeniu, co daje mniej niz 10W na rdzen. To bardzo dobry wspolczynnik mocy do wydajnosci. Dla porownania Ryzen 9 9900x pobiera ponad 13W na rdzen pod maksymalnym obciazeniem

Ocenianie tego procka w kategoriach excela i gierek to pomyłka.

To jakby zrobic test bolidu F1 na bocznych ulicachwarszawy i narzekac ze Clio w gazie objezdza to jak chce

Ponadto przetwarzanie rozproszone ma sporo wad i w codziennym uzytku moze byc uciazliwe, szcegolnie w pracy na zywym projektem.

Czym innym jest praca na zdalnej VM, gdzie jesli lacze sie zerwie to wrocisz tam gdzie byles, a czym innych zapisywanie pliku CAD/materialu video/ renderu 3D, gdzie zeranie lacza moze spowodowac posypanie calej roboty.

MostlyRenegade

przetwarzanie rozproszone ma sporo wad i w codziennym uzytku moze byc uciazliwe, szcegolnie w pracy na zywym projektem

@maks_kow wtedy właśnie lepsze może być rozwiązanie oparte w całości o chmurę - wszystko działa w środowisku serwerowym (łącznie z przechowywaniem danych), które można dowolnie skalować. Wszystkie dane są w jednym miejscu i zawsze aktualne, a stacje robocze służą tylko jako terminale.


To oczywiście wszystko teoretyczne rozważania. Na pewno nikt rozsądny nie będzie kupował do domu takiej maszyny żeby odpalać excela. Po prostu zastanawiam się, w jakich konkretnie przypadkach i scenariuszach, najlepiej wziętych z praktyki, TR sprawdza się lepiej niż inne rozwiązania. Lub inaczej - jak faktycznie wygląda praktyka i rozwiązania biznesowe w branżach, dla których TR został niby zaprojektowany. Weźmy np. ten rendering 3D - czy rzeczywiście większość branży korzysta z TR, czy jednak niekoniecznie?

maks_kow

wtedy właśnie lepsze może być rozwiązanie oparte w całości o chmurę - wszystko działa w środowisku serwerowym (łącznie z przechowywaniem danych), które można dowolnie skalować. Wszystkie dane są w jednym miejscu i zawsze aktualne, a stacje robocze służą tylko jako terminale.

@MostlyRenegade FibaCloud, przy zalozeniu ze bierzesz klaster 96c/64GB RAM i 10tb storage, pobiera ok 10 centow za godzine pracy. lub 2000 dolcow miesiecznie. Samo storage kosztuje ok 100 dolcow.

Ionos pobiera 0,05 euro za rdzen na godzine, 64GB RAM to koszt 0,4 euro na godzine a storage 10TB kosztuje 400 euro miesiecznie. Miesiecznie wyjdzie ponad 5000 euro. Do tego dochodzą jeszcze koszty przesyłu danych. Owszem - mozesz sobie skalowac i zmieniac koszty.

Musisz i tak zapewnic backup danych i opowiednie łącze by zapenic komfort pracy. Postanowienia umowy dzierzawy nie daja praktycznie zadnych zabezpieczen i gwarancji. To sa dodatkowo platne uslugi ktore podnosza koszt wykladniczo.

Oprogramowanie w obecnych czasach nie aktualizuje sie tak czesto a jesli juz to te aktualizacje nie wnosza tak drastycznych zmian jak kilkanascie lat temu.

Ponadto soft mozesz kupic w modelu subskrypcji i masz zawsze aktualny.

Osobiscie korzystam czasem z ktorego z w/w uslugodawcow, ale to 2-3 razy do roku jako wsparcia, zeby oszczedzic czas. Kosztuje mnie to maks 200-300 euro rocznie. W tym wypadku nie ma sensu kupowac maszyny z tak wydajnym procem.

Jakbym mial korzystac 2-3 razy w miesiacu to pewnie bym sobie taki sprawil.

MostlyRenegade

@maks_kow nie no, zaraz - 10 centów za godzinę to jest 2.4 dolara dziennie, czyli trochę ponad 70 dolarów miesięcznie, przy założeniu, że wykorzystujesz chmurę 24/7. Skąd nagle 2000 dolców?

maks_kow

@MostlyRenegade moj blad - FibaCloud oferuje instancje maks 16c. godzina kosztuje 10 centow, 94$ miesiecznie na 10TB storage, nie liczylem kosztów bandwith. przy 96c to juz indywidualna umowa, 2k$ miesiecznie.

ZohanTSW

Threadrippery świetnie pasują do małych firm IT z własnym produktem (czyli najczęściej startup), w których tworzy się oprogramowanie i trzeba wprowadzić jakąś regresję, budować i testować kod z każdą zmianą. Z początku pewnie może to działać na komputerach, na których pracują deweloperzy, ale po pewnym czasie trzeba zakupić mocniejszą maszynę, żeby build nie trwał całego dnia. Tutaj może wejść threadripper.

A przynajmniej ja się spotkałem z taką sytuacją. A czego używa się w większych firmach przy większych projektach? Nie wiem xd


Do gier threadrippery są bez sensu, bo nie są w stanie wykorzystać wszystkich rdzeni, a to dlatego, że nikt nie myśli o optymalizacji gry pod procesory z np 64 rdzeniami, bo po co? Xd blisko 0% rynku ma takie, a one są na tyle mocne, że na tych 16 rdzeniach (i 48 niewykorzystywanych) gra będzie działać całkiem okej xd


Podejrzewam że jak renderujesz filmy, to taki threadripper też będzie spoko

MostlyRenegade

@ZohanTSW to co oni mają za soft, że muszą go w kółko kompilować na tak mocnych maszynach? W typowym cyklu jak chcesz przetestować nową linijkę kodu, to przecież nie kompiluje się wszystkiego od zera. Chyba że masz wszystko w jednej binarce...

ZohanTSW

@MostlyRenegade każdy soft powinno budować się z każdą kolejną zmianą (mówię tu o całym commicie a nie pojedyncza linijka), do tego puścić wszystkie testy. Po prostu czasami się nie spodziewasz jak twoja mała zmiana może mieć wielki wpływ na całość. No zatkasz kibel na Podkarpaciu i wybije studzienkę w Szczecinie.

A powiedzmy jeszcze że soft ma ruszyć na różnych architekturach. Wtedy dopiero się jaja dzieją

MostlyRenegade

@ZohanTSW jeśli zmiany ograniczają się do jakiegoś jednego modułu/jednostki kompilacji, to co da przekompilowanie wszystkiego? Nic nie da, bo przecież zmiany były tylko w jednym miejscu.

ZohanTSW

@MostlyRenegade ale przebudowanie wszystkiego jest prostsze niż wymyślanie reguł kiedy co się powinno budować, no bo mogą być zależności między modułami :p

Z resztą CI CD miewa opcję włączania cache, i sprawdzanie plików których hash się zmienił. No ale testy zawsze jest dobrze puścić wszystkie, nawet te które pozornie są bez sensu, bo nie raz się zaskoczyłem jak daleko potrafią sięgać zależności.

Tak czy srak, nawet gdyby było tak jak sobie wyobrażasz, to w pewnym momencie projekt rozrośnie się do takich rozmiarów, że będziesz potrzebował mocniejszej maszyny, bo czas przekręcenia się pipeline'u będzie liczony w godzinach.

ZohanTSW

@MostlyRenegade poprawię się, racja, nie ma sensu budować wszystkiego. Ale testy warto puszczać wszystkie

baklazan

@MostlyRenegade Dodam do rzeczy, które opisują koledzy powyżej tylko kilka use case'ów z tego co sam wiem i znam:

  • oprogramowanie CAD, renderowanie 3D - wszystko co oferują standardowe procki to za mało w tych zastosowaniach w niektórych wypadkach, kupowanie procków serwerowych jest bez sensu kosztowo z reguły, a po środku jest właśnie Threadripper

  • programowanie i kompilowanie dużych projektów w językach typu C/C++/Rust/cośtam jeszcze: rozwiązania sieciowe bardzo słabo się skalują (potrzebujesz dużo więcej rdzeniuf niż gdybyś to kompilował lokalnie przez narzut sieciowy przy tej samej ilości wątków), tutaj reguła jest prosta, im więcej wątków obsłuży sprzęt tym szybciej jest wynik. To nie ma znaczenia kiedy klepiesz coś małego w domu, ale już kiedy jedziesz z własnymi obrazami OS'ów (vide yocto i podobne), albo dużymi bibliotekami, to po prostu jest oszczędność czasu

baklazan

Dodam jeszcze że w tym nad czym pracowałem poważnie rozważaliśmy taką maszynkę do CI (dla nieobeznanych: do budowania i testowania developerskich wersji projektu), wewnętrzny cloud miał kupę ograniczeń i był po prostu za wolny i ciężko coś było z tym zrobić. Mając maszynę lokalnie odpadał transfer po VPN do clouda, a mieli byśmy pełną kontrolę nad sprzętem i softem. Sprawa się rozmyła przez koniec projektu i utknęła, ale prywatnie widzę w tym duży sens.

Zaloguj się aby komentować