#kartygraficzne

2
64

Jeśli planowaliście kupno nowych kart graficznych od #nvidia to lepiej dobrze się zastanówcie co robicie. Media zaczynają donosić o sporej ilości problemów:


Użytkownicy kart graficznych GeForce RTX 50 nadal skarżą się na problemy ze stabilnością swoich GPU, w tym na czarne ekrany i awarie systemu, a NVIDIA wciąż nie ma gotowej poprawki.


Oprócz tego:

Premiera serii GeForce RTX 50 jest jedną z najbardziej problematycznych w historii firmy. Gracze i entuzjaści PC muszą zmagać się nie tylko z niedostępnością GPU i wysokimi cenami, ale również z problemem topiących się 16-pinowych złączy zasilania. Dodatkowo pojawiły się wady sprzętowe, np. przypadki kart z mniejszą liczbą jednostek ROP, niż deklarował producent. Do tego wszystkiego wydajność grafik z rodziny Blackwell po prostu rozczarowuje, więc nie rysuje to dobrego obrazu serii RTX 50. 


Jeśli ktoś doczytał do tego miejsca to może się zacząć zastanawiać o co chodzi z mniejszą ilością ROP'ów. No to już odpowiadam:


Według licznych doniesień, niektóre modele tej serii mogą posiadać wadę produkcyjną, która prowadzi do scalania partycji ROP (Render Output Unit) w procesorze graficznym, co bezpośrednio wpływa na spadek wydajności urządzeń.


Użytkownik reddita przeprowadził testy swojego RTX 5080 w popularnym benchmarku 3DMark Time Spy. Wyniki okazały się niepokojące – karta osiągnęła wynik 28 118 punktów, podczas gdy sprawna jednostka uzyskuje aż 32 273 punktów. Różnica wynosząca 12% jest ogromna, szczególnie w kontekście urządzeń klasy premium.

https://ithardware.pl/aktualnosci/nvidia_problemy_bsod_rtx_50_poprawki-39245.html


https://ithardware.pl/aktualnosci/rtx_5080_rop_wydajnosc_wpadka_nvidia-39271.html


#gpu #kartygraficzne #technologia

0c870ffa-6edf-4358-886c-7761b72009c4

@damw Prawda jest generalnie oczywista, Nvidia ma totalnie w d⁎⁎ie tworzenie konsumenckich kart graficznych dla graczy czy pół profesjonalistów i całą uwagę skupia na akceleratorach AI. Dosłownie nie opłaca im się marnować zasobów ludzkich jak i wolnych przydziałów za zamówienia wafli krzemowych na gałąź biznesu która daje im tak małe przychody w porównaniu do AI. I tak będzie dopóki cała ta bańka nie walnie w końcu.

Ja tutaj tylko zostawię te 3 obrazki:

1c1a54b1-1eca-43ad-8de2-1ad3acc24b08
8249093f-fe79-4705-a48a-585248971de4
6aebb409-4877-47ee-beff-e4e3023b1d21

Zaloguj się aby komentować

Problemów z nową generacją Gefore'ów ciąg dalszy (kolejne opóźnienia):


Jak podaje chiński serwis CTEE, jednym z powodów opóźnienia premiery kart graficznych GeForce RTX 5070 i RTX 5060 są problemy z wydajnością tych modeli. Układy rzekomo nadal wymagają dalszego debugowania. Dodatkowo sytuacji wcale nie ułatwiło niedawne trzęsienie ziemi w Tainan. W rezultacie masowa produkcja została ponoć opóźniona aż o cztery tygodnie, przy czym RTX 5070 ma być dostępny w połowie marca, natomiast RTX 5060 dopiero w połowie kwietnia. Mówiąc krótko, wiele wskazuje na to, że konsumenci będą mieli spore problemy z zakupem tych układów w okolicach premiery


https://www.purepc.pl/nvidia-geforce-rtx-5070-i-rtx-5060-masowa-produkcja-kart-miala-zostac-opozniona-z-powodu-problemow-z-wydajnoscia


#technologia #kartygraficzne #geforce #nvidia

1a035638-44c7-402e-ac3b-4409683a3029

Zaloguj się aby komentować

Wklejam tekst mireczka, bo ciekawy.


https://wykop.pl/wpis/79949463/o-co-chodzi-z-deepseek-juz-tlumacze-najpierw-troch


O co chodzi z #deepseek ? Już tłumaczę!


Najpierw trochę kontekstu: Obecnie trenowanie najlepszych modeli AI jest NIEWYOBRAŻALNIE drogie. OpenAI, Anthropic i inne firmy wydają ponad 100 milionów dolarów tylko na moc obliczeniową. Potrzebują ogromnych centrów danych z tysiącami kart GPU wartych po 40 tysięcy dolarów każda. To jak posiadanie całej elektrowni tylko po to, aby zasilić fabrykę.

DeepSeek właśnie się pojawił i powiedział: „LOL, a co jeśli zrobimy to za 5 milionów dolarów zamiast tego?”. I nie tylko o tym mówili – oni to naprawdę ZROBILI. Ich modele dorównują GPT-4 i Claude'owi lub przewyższają je w wielu zadaniach

Jak? Przemyśleli wszystko od podstaw. Tradycyjne AI jest jak zapisywanie każdej liczby z dokładnością do 32 miejsc po przecinku. DeepSeek stwierdził: „A co, jeśli użyjemy tylko 8? Wciąż będzie wystarczająco dokładne!”. Bum – o 75% mniej pamięci potrzebne.

A potem jest ich system „multi-token”. Normalne AI czyta jak pierwszoklasista: „Kot... siedzi... na...”. DeepSeek czyta całe frazy naraz. Dwa razy szybciej, 90% tej samej dokładności. Przy przetwarzaniu miliardów słów to MA ZNACZENIE.

Rezultaty są oszałamiające:

- Koszt treningu: 100 mln $ → 5 mln $

- Liczba potrzebnych GPU: 100 000 → 2 000

- Koszty API: 95% taniej

- Może działać na gamingowych GPU zamiast sprzętu z centrów danych

„Ale zaraz,” możesz powiedzieć, „musi być jakiś haczyk!”. I tu jest ta niesamowita część – wszystko jest open source. Każdy może sprawdzić ich pracę. Kod jest publiczny. Dokumenty techniczne wyjaśniają wszystko. To nie magia, tylko niezwykle sprytna inżynieria.

Dlaczego to ma znaczenie? Bo łamie model, w którym „tylko wielkie firmy technologiczne mogą działać w AI”. Nie potrzebujesz już centrum danych wartego miliardy dolarów. Wystarczy kilka dobrych GPU.

Dla Nvidii to przerażające. Cały ich model biznesowy opiera się na sprzedaży superdrogich GPU z marżą na poziomie 90%. Jeśli nagle każdy będzie mógł robić AI na zwykłych gamingowych GPU... no cóż, widać, gdzie leży problem.

To klasyczna historia o disruptorach: obecni liderzy optymalizują istniejące procesy, podczas gdy disruptorzy przemyślają fundamentalne podejście. DeepSeek zadał pytanie: „A co, jeśli po prostu zrobimy to mądrzej, zamiast rzucać w to więcej sprzętu?”.

Konsekwencje są ogromne:

- Rozwój AI staje się bardziej dostępny

- Konkurencja rośnie dramatycznie

- „Fosy” dużych firm technologicznych zaczynają wyglądać jak kałuże

- Wymagania sprzętowe (i koszty) gwałtownie spadają


Ostatnia myśl: To wygląda na jeden z tych momentów, do których będziemy wracać jako punkt zwrotny. Jak wtedy, gdy komputery osobiste uczyniły mainframe'y mniej istotnymi, czy kiedy chmurowe obliczenia zmieniły wszystko.

AI zaraz stanie się o wiele bardziej dostępne i znacznie tańsze. Pytanie nie brzmi, czy to zakłóci rynek, ale jak szybko.


#technologia #chatgpt #chiny #nvidia #kartygraficzne #gielda #sztucznainteligencja #ai #informatyka

AlvaroSoler userbar

@AlvaroSoler W tym tekście można się zgodzić tylko z jednym - maleje próg dostępu do tworzenia modeli językowych. Giganci ze stanów nadal będą inwestować miliardy w ich rozwój, bo ścigają się na benchmarki, który z modeli jest lepszy, a że śpią na kasie to nie przeszkadza im jej przepalanie

Zaloguj się aby komentować

Wyciekły zdjęcia kolejnej generacji kart RTX 6090. Mnie przekonali tymi wiatraczkami odpuszczam serie 50xx.

#kartygraficzne #nvidia #heheszki #ai

2776f4bf-17d0-4878-8960-c2e09cc577d2

@Spider z dalszych informacji:


  • wymagane podpięcie pod gniazdko 3-fazowe

  • zalecany proszkowy system gaśniczy

  • wymagana mechaniczna wentylacja pomieszczenia


xD

Zaloguj się aby komentować

You can't polish a turd.

Nie, 120fps interpolowane z 30fps nie mają takiej responsywności jak prawdziwe 120fps tylko jak właśnie 30fps. Jedyna różnica to płynność ale wtedy tworzy się dysproporcja pomiędzy tym co widzimy a tym co czujemy. W czystej wydajności RTX5070 = 4070 super.

Zaloguj się aby komentować

No to mamy nowe RTX 5000,


Ceny sugerowane:

RTX 5090 - Od 10 299 złotych

RTX 5080 - Od 5199 złotych

RTX 5070 Ti - od 3899 złotych

RTX 5070 - od 2849 złotych


Co w paczce?

Delikatnie zwiększona rasteryzacja,

2x większa wydajność dla RT,

Multi frame generator,

Reflex 2.0,

Nowy DLSS4.0 który z wyjątkiem multi frame generatora będzie dostępny też dla starszych RTX,

Cena kosmos,

Niemal ten sam proces technologiczny co poprzednia generacja,

Nowe złącze zasilające 12V-2x6 (do 600W na jednej wtyczce),

Topowy model 5090 o poborze mocy 575W ༼ ͡° ͜ʖ ͡° ༽

Pierwsze testy po 21 stycznia.


#komputery #ai #pcmasterrace #kartygraficzne #nvidia #gry

3f094b95-7e56-4e64-ae17-927ce7ed9a95
82244433-f897-4fe9-9789-eef841730bc6
f3b42106-e83a-4aaa-ab50-0a4d9b10ea25
daed28df-5868-4a1d-91e5-17dc2fc0218b

Z tymi 26fps zwiększonymi do ponad 200 to oni tak na serio? Ultra performance dlss nawet przy 4k wygląda słabo a interpolacja z 26 do 235fps moim zdaniem nie będzie mogła zwyczajnie dać poczucia większej responsywności. Co mi po płynnośći 235fps kiedy input lag pozostanie na poziomie 26fps? To będzie imo uczucie jakby człowiek był na⁎⁎⁎⁎ny a do tego płynął łodzią. No jest płynnie ale kontrola, jaka k⁎⁎wa kontrola? Sam czasem korzystam z framegen ale to nie ma zbyt wiele wspólnego z prawdziwym wysokim fps. Dysproporcja pomiędzy płynnością a responsywnością jest po prostu duża i czuć to mocno., nie ma się co czarować. NVIDIA reflex? Srefleks, k⁎⁎wa bo to było dostępne od lat i zwyczajnie polegało na zmniejszeniu ilości pre renderowanych klatek a jak ustawiało się to na 0 to efektem często był micro stutter i inne takie co właśnie miało miejsce kiedy ostatnio grałem w Horizon FW. Cuda nie istnieją i zawsze jest coś za coś i żadne bajki opowiadane przez pana w kurteczce tego nie zmienią. Tak, framegen i DLSS są fajne ale zawsze będą gorsze niż zwyczajnie wysoki fps i wysoka natywna rozdzielczość z za⁎⁎⁎⁎stym anti aliasingiem (tutaj przyznam, że dlaa robi robotę choć niestety też rozmywa obraz za bardzo w ruchu). Także nie, ficzery fajne ale brutalna moc zawsze będzie lepsza.

Zaloguj się aby komentować

Jak tam hejterzy, hajs już nazykowany na RTX 5090? ( ͡° ͜ʖ ͡°) Myślę że bez minimum 10k się nie obejdzie.


Może w końcu da się odpalić pathtracing w 1440p z sensownym FPS bez skalowania.


#pcmasterrace #pcmr #komputery #gpu #kartygraficzne #nvidia

Zaloguj się aby komentować

Pamiętacie jak w 2020 roku wyszła seria RTX 30XX, ceny były po⁎⁎⁎⁎ne a dostępność znikoma? Kumpel zamówił 3080, zapłacił, czekał 6 czy 8 miesięcy i w końcu mu anulowali zamówienie xD #kartygraficzne #komputery #rtx #nvidia

99dde9a9-a0b3-4563-87d5-4c717057ec37

Produkcja modeli 4080 oraz 4090 zostanie zakończona przed grudniem 2024. Obecnie modelu 4090 już praktycznie nie ma w sprzedaży. W styczniu 2025 ruszy sprzedaż serii 5080 oraz 5090.

@GucciSlav Teraz 4060 można kupić za jakieś 1300, a 4070 za niecałe 3000. I sądze że na obu tych kartach pójdą na średnich wszystkie nowe gry.

Zaloguj się aby komentować

Hmm, tak sobie myśle, że dla kogoś kto nie jest GPU jest obeznany technicznie to kupowanie GPU musi być cudowne.


Czy wiedzieliście, że jest 10 różnych wersji kart graficznych RTX 4070?


  • 4070 Mobile

  • 4070 Mobile MaxQ

  • 4070 10GB

  • 4070 GDDR6

  • 4070

  • 4070 AD103

  • 4070 Ti

  • 4070 Super

  • 4070 Ti Super

  • 4070 Ti Super AD102


Dodatkowo każda karta ma wiele różnych wariantów AIB i samych "RTX 4070" jest 106.


Tak, teoretycznie tam gdzie różnica jest największa, są w nazwie dodatkowe człony takie jak Super albo Ti, ale nie każda osoba chcąca sobie kupić kartę do gierek będzie robiła doktorat z GPU, więc kupi nie to co myśli, że kupuje lub kupi cokolwiek.


A przecież są jeszcze inne karty od nvidii i od innych producentów.


#gpu #kartygraficzne #komputery


Powiązany filmik od Linusa o praktykach nvidii: https://www.youtube.com/watch?v=LoPfkaSKIVo

Zaloguj się aby komentować

Po 9 latach spełniłem swoje marzenie ze studiów i kupiłem GTX Titan X xD


#pcmasterrace #nvidia #gtx #rtx #titan #komputery #gry #pcmr #gpu #kartygraficzne

779a9213-67ca-4be4-adc3-e88d54784913

Fabryczne karty nVidii są świetne od strony estetycznej. Jakbym mógł, to miałbym kolekcję ich kart tylko po to, by postawić je na regale.


Ile PLN za Titana?

@NrmvY kurde, pamiętam że 970 to już była duża karta, jak na swoje czasy. Titan tym bardziej. Ale ta 4090 to jak jakiś agregat xD bez kitu 3x więcej karty. Bawiłeś się tym, na ile taki Titan jest używalny? Wiadomo że przy 4090 wszystko będzie słabo chodzić, ale czy w ogóle gry działają bez problemu? Sterowniki już pewnie paroletnie. Fajny zakup, też pamiętam jaki to był top of the top, chociaż też nie podobało mi się trochę że 980Ti za miliony monet nie jest najmocniejszą kartą, tylko musieli coś jeszcze droższego wymyśleć. Z drugiej strony, to też było celowane oficjalnie bardziej pod użytkowników Quadro. A że kupowali to raczej entuzjaści gier, to inna sprawa xD

Zaloguj się aby komentować

Cześć,

pięknie proszę o pomoc, bo już dawno wypadłem z obiegu. Czy możecie polecić mi jaka jest najlepsza obecnie karta graficzna, którą mogę kupić za ~2k? Skłaniam się ku RTX 4060 (może Ti), ale ich modeli jest tyle, że aż boli głowa. Ewentualnie coś od radeona?

Kurczaki, za dużo tego na moją głowę. Pięknie proszę o pomoc.


#komputery #kartygraficzne #gaming

@MostlyRenegade Też biorę to pod uwagę. Nie musi być najnowsze. Ważne żeby ratio cena / osiągi było jak najlepsze w założonym budżecie, a to nie jest takie proste jak tak patrzę teraz

@alq To pomyśl co masz teraz. Jaką płytę, procesor i pamięć i będziesz wiedział czy iść w Radeona czy Nvidie. Ja bym nie mieszał AMD z Intelem, ale może ktoś, kto zna się lepiej powie dlaczego warto mieszać, bo że można to oczywiste. Ja do mego zestawu kupiłem XFX Radeon RX 6750 XT w cenie sporo poniżej 2tys. i jestem bardzo zadowolony.

@KochanekJaroslawaKaczynskiego ja większą część życia byłem z intelem / nvidią. Chyba z raz miałem combo intel / radeon i też było w sumie cacy. Rozumiem, że masz w swoim zestawie teraz ryżena? Jakiego i jak się sprawuje?

@alq 7800X3D.

Zaczynałem od Atari 65XE. Potem w budzie były McIntoshe (bleeeh do tej pory), potem wjechał jakiś pentium, ale jak wpadło własne, prywatne AMD K6-2 to była prawdziwa miłość. Potem były Intele. Wiadomo, reklama dźwignią handlu. I nagle doszedłem do sytuacji, w której mogłem sobie pozwolić na co chcę. Zachciałem tego, co czułem z K6-2. Zatem mam wszystko pod AMD. Nie wiem jak to opisać, ale jestem bardzo zadowolony ze wszystkiego co mi daje mój zestaw, a w relacji do ceny tego co mam vs. intel/nvidia to brak słów na korzyść tego co mam.

Tylko nowe czy mogą być też używane ?

Przede wszystkim 8gb vram to jest trochę mało, tzn dziś jest jeszcze okej ale nie jest to przyszłosciowe. A wersja 16gb jest za droga.


Trzy generacje temu NVIDIA wypuszczała GTX 1060 z 6gb ram...

@pokeminatour Mogą być i używki, ale wolałbym uniknąć zamawiania w ciemno z jakichś OLX.

Też mnie boli tych 8GB. Przydałoby się chociaż tych 12, ale jest jak jest. Najtańsze 4060 TI widziałem za jakieś 2100, stąd powolutku zerkam w stronę czerwonych. Dlatego z resztą ten temat taki trudny jest. Dużo możliwości, dużo parametrów, cholera wie co wybrać żeby starczyło to na jakiś czas

@alq w przypadku gołej mocy AMD bedzie miało lepszy stosunek wydajności do ceny biorąc pod uwagę vram na przyszłość

. Dopóki nie zależałoby mi na Ray tracingu to brałbym AMD, a jeżeli zależałoby mi na RT to celowałbym w minimum 4070.


Zastanowiłbym się nad używanym rx 6700 XT lub rx 6800 XT. Sam siedziałem na używanym rx 5700 i kupiłem parę miesięcy temu używanego rx 6700 XT na allegro za 1100zł do 1080p jest w nim całkiem spory zapas mocy. Obie karty mimo że używane to nie sprawiały mi żadnych problemów, kupuję i sprawdzam w grach artefakty i w stress teście temperatury i jak coś by było nie tak to bym odeslał. Generalnie stosuje strategie że kupuję używane około 2 letnie karty w okolicach 1200zl używam z 2-3 lata i puszczam w okolicach 500 zł póki jeszcze da się na tym uruchomić gry w 1080p.

Zaloguj się aby komentować

@Marchew w sumie nic. Nikt nie supportuje krat graficznych AMD do machine learningu Wszystkie patenty które są wykorzystywane (cuda, tenspor cpu) są od nvidii. Co prawda AMD ma ROCm, ale nikt nie daje j... o to

@Klopsztanga czy przypadkiem 4060 nie miała poważnego problemu z przepustowością pamięci? Niby 16GB ale magistrala tylko 128 bit?

Nie wiem czy to jest bardzo istotne w machine learning-u.

Zaloguj się aby komentować

Zagłębiam się w kontrolę obrazu (wyświetlany na ekranie) na poziomie UEFI a potem systemu operacyjnego. Ale mam masę pytań.


Istnieje GOP (UEFI Graphics Output Protocol).

Wydaje się, że on kontroluje obraz, na etapie od naciśnięcia przycisku POWER na komputerze.

W pewnym momencie kontrolę przejmuje sterownik karty graficznej.

Czy tak jest? Czy dzieje się tam coś jeszcze pomiędzy?


Czyli karta graficzna jest w trybie GOP, a potem w trybie w którym obraz kontroluje sterownik karty graficznej?


Interesuje mnie kwestia rozdzielczości i częstotliwości odświeżania obrazu nadawanego przez kartę graficzną, do ekranu.


W jaki sposób GOP to kontroluje? Rozdzielczość i częstotliwość odświeżania obrazu?

Gdy włączę OSD monitora będąc w UEFI, to widać tam 2560x1440 60 Hz.


W pewnym momencie, przy chyba przełączaniu na system operacyjny, na chwilę gaśnie ekran, a potem wraca i już ma ustawioną właściwą rozdzielczość i częstotliwość odświeżania (2560x1440 165 Hz).


Dlaczego musi dojść do tego zgaśnięcia ekranu? Czemu to nie może być płynne?

Czemu na etapie UEFI nie może być 2560x1440 165 Hz?

Zresztą, gdy ustawię w systemie 2560x1440 60 Hz (czyli taki sam jak mówi OSD, że jest przy UEFI), to ekran i tak, tak samo gaśnie.

Więc z czego to wynika? Jaki dokładnie mechanizm za tym stoi, na poziomie karty graficznej?


Po co mi ta wiedza? Z ciekawości...

Bo u mnie to gaśnięcie ekranu trwa 6 sekund, niby tak długi czas, to wina monitora, że on tak po prostu ma, i jest wiele monitorów które tak po prostu mają. Ale jest to minimalnie problematyczne, i przez to się tak zagłębiam w temat...


Monitor Gigabyte M32QC połączony DisplayPort

Grafika GeForce RTX 3060 Ti

Płyta główna ASRock A620MHDV/M.2+

#sprzetkomputerowy #uefi #windows #linux #pcmasterrace #gpu #kartygraficzne #plytyglowne #software #sterowniki

@fewtoast To już twój któryś kolejny post o tym. Masz jakąś nerwice natręctw czy coś że aż tak cię boli że ekran ci się przy włączaniu lub zmienianiu TTY przełącza te 6 sec? No bo xD. Założe się że straciłeś już na to więcej czasu niż łączny czas jaki byś spędził przez najbliższe lata patrząc jak monitor ci się przełącza między trybami wyświetlania...

@Catharsis Dlaczego śmiejesz się z nerwicy natręctw?

I tak wyprzedzająco: Nie musisz mówić że to z troski ani gdzieś wysyłać.


Tam jest taka ładna animacja w Cinnamon, jak się włącza pulpit, i jej nie widać bo ekran jest zajęty byciem czarnym. A lubiłem tę animację. A takie nagłe pojawienie pulpitu nie jest takie przyjemne jak ta animacja.

Cinnamon jest gotowy już zaraz(bo dźwięk startu pulpitu już słychać), ale jeszcze jeszcze gdzieś 5-6 sekund ekran sobie czeka.

Ale mnie razi samo to, że "coś jest nie tak", bo normalnie to powinno być zwyczajnie widoczne, twórcy czy Windowsa, czy Cinnamon nie spodziewali się, że ta zmiana ekranu może trwać tak długo i chce pokazać animację od razu.

Zaloguj się aby komentować

@Erebus ja to się bardzo cieszę, że trochę odeszły w niepamięć te czasy że do każdej nowej gry trzeba było mieć nową kartę graficzną. Moja budżetowa ma już prawie 5 lat i cały czas zdecydowaną większość nowych gier odpalam bez problemu.

Zaloguj się aby komentować

Przez 5 lat źle używałem G-Synca. Jak kupowałem pierwszy monitor z nim gdzieś przeczytałem, że w grze trzeba wtedy wyłączać Vsync. #komputery #kartygraficzne #gsync #vsync #gry

b119d555-ed89-4469-9bda-0142c4e04bd4

A nie dodajemy sobie w ten sposób opóźnienia z samego v-synca? Nie lepiej g-sync + limit fps parę klatek poniżej odświeżania ekranu?

Bo podobno wtedy gsync może się włączać/wyłączać powodując tearing. Ale może coś przez te parę lat się poprawiło w temacie.

Zaloguj się aby komentować

Płyta główna ASRock **B650M-H/M.2+** czy **A620M-HDV/M.2+**?

Wygląda, że ta pierwsza ma 1 Blazing M.2 (PCIe Gen5 x4) a druga "tylko" same Hyper M.2 (PCIe Gen4x4).

Mam SSD na PCIe Gen4x4, dokupię kiedyś drugi taki sam, więc chyba nie mam żadnego powodu, żeby kupować ASRock B650M-H/M.2+?


Reszta podzespołów chcę:

2x Kingston Fury Beast Black 16GB DDR5 (KF556C40BB-16

PROCESOR AMD RYZEN 5 7500F AM5 OEM

Chłodzenie CPU ENDORFY Fera 5 Dual Fan 2x120mm


Mam:

RTX 3060 Ti 8 GB

Dysk KINGSTON KC3000 2TB SSD

Modułowy zasilacz XPG Core Reactor 850W

i

Monitor Gigabyte M32QC Curved 31,5"

#pc #pcmasterrace #sprzetkomputerowy #procesory #kartygraficzne #plytaglowna

c9c7035f-6f35-4931-9cbe-44b91643aa32

@Bigos @pokeminatour


@fewtoast Sam obecnie delikatnie przykładam się do kupna sprzętu w podobnej półce cenowej.

Jakbym nie kombinował, Ryzen serii 7000 zawsze mi wychodzi najdrożej.

A dlaczego nie np. 13500 @ DDR4? Wyszłoby cenowo podobnie i wydajniej (w zestawie z intelem masz już chłodzenie).

Idąc po kosztach 12600KF @ DDR4, taniej i wydajniej, sam procesor to obecnie poniżej 800zł w dużych sklepach.

A ciut drożej 13600KF @ DDR4 gdzie dostajesz +70% wydajności wg np. Cinebench R23 (Multi-Core).

Nie żebyś miał odebrać to jako nagonkę na AMD, sam ich lubię, ale cena platformy AM5 jest niestety zaporowa : (

@Marchew A ciut drożej

Z tym ciut drożej przy składaniu kompa to można nieźle popłynąć ( ͡° ͜ʖ ͡°)

@Bigos Tak, dokładać można w nieskończoność...

W moim excelu wydajność/cena królują 12600KF, 13500, 13600KF, do wszystkich wybieram DDR4 (nie wiem czy słusznie). Ryzeny AM4 wypadają dobrze w tym dolnym przedziale cenowym dla multi core, przy single core nieco odstają od intela. AM5 zawsze zdecydowanie najdrożej : (

Zaloguj się aby komentować

1. Odpowiednik AMD Ryzen 7 5700x od Intela?

2. Czy AMD Ryzen 7 5700x pasuje do RTX 3060 Ti 8 GB?

#amd #intel #pc #pcmasterrace #sprzetkomputerowy #procesory #kartygraficzne

@FoxtrotLima Czasem tak jest, że coś nie pozwala w pełni wykorzystać, albo jest nadmierne w stosunku do drugiego podzespołu, w zależności od przeznaczenia.

Na wykopie napisali że 5600 wystarczy.

Albo żeby patrzeć na 7500f.


Chcę złapać orientację, bo często jak się wskaże jakiś poziom w jaki się celuje, to jest tak naprawdę tylko jeden właściwy wybór.

Zaloguj się aby komentować

#komputery #chwalesie #kartygraficzne #hardware


Podkręciłem trochę mojego staruszka, jakim MSI GTX 970 (core +140MHz/Vram+400MHz). Niby wynik bez szału, bo w necie podają więcej, ale.. Temperaturę graniczną dałem na 80 stopni i karta niestety bez większego problemu w Wieśku III ją osiągała. Postanowiłem wymienić pastę i cyk - z 80 na 65 w porywach do 70

f79f9392-6d00-4471-9b60-4b85a1ba65d9
PanNiepoprawny userbar

@PanNiepoprawny Też muszę swojego starego dziada rozkręcić, wyczyścić i powymieniać pasty. Też 970tka. Zawiozę go sobie na wieś, ostatnio dostałem starą plazme Panasonica i będzie secik do grania w starsze gierki jak w pysk strzelił

Zaloguj się aby komentować

W lolu 7900 xtx ciomgnie mi około 60 wat.

Jak odpaliłem RDR to było 350. Na trybie cichym. Ciekawe ile by poszło na biosie OC w trybie gpu overlock.


#kartygraficzne

Zaloguj się aby komentować