#kartygraficzne

2
32
Cześć,
pięknie proszę o pomoc, bo już dawno wypadłem z obiegu. Czy możecie polecić mi jaka jest najlepsza obecnie karta graficzna, którą mogę kupić za ~2k? Skłaniam się ku RTX 4060 (może Ti), ale ich modeli jest tyle, że aż boli głowa. Ewentualnie coś od radeona?
Kurczaki, za dużo tego na moją głowę. Pięknie proszę o pomoc.

#komputery #kartygraficzne #gaming
MostlyRenegade

@alq nie wiem, czy nie lepsza będzie 3070/3070 Ti w tych pieniądzach.

KochanekJaroslawaKaczynskiego

@alq To pomyśl co masz teraz. Jaką płytę, procesor i pamięć i będziesz wiedział czy iść w Radeona czy Nvidie. Ja bym nie mieszał AMD z Intelem, ale może ktoś, kto zna się lepiej powie dlaczego warto mieszać, bo że można to oczywiste. Ja do mego zestawu kupiłem XFX Radeon RX 6750 XT w cenie sporo poniżej 2tys. i jestem bardzo zadowolony.

pokeminatour

Tylko nowe czy mogą być też używane ?

Przede wszystkim 8gb vram to jest trochę mało, tzn dziś jest jeszcze okej ale nie jest to przyszłosciowe. A wersja 16gb jest za droga.


Trzy generacje temu NVIDIA wypuszczała GTX 1060 z 6gb ram...

Zaloguj się aby komentować

d_kris

@Klopsztanga czy przypadkiem 4060 nie miała poważnego problemu z przepustowością pamięci? Niby 16GB ale magistrala tylko 128 bit?

Nie wiem czy to jest bardzo istotne w machine learning-u.

Zaloguj się aby komentować

Zagłębiam się w kontrolę obrazu (wyświetlany na ekranie) na poziomie UEFI a potem systemu operacyjnego. Ale mam masę pytań.

Istnieje GOP (UEFI Graphics Output Protocol).
Wydaje się, że on kontroluje obraz, na etapie od naciśnięcia przycisku POWER na komputerze.
W pewnym momencie kontrolę przejmuje sterownik karty graficznej.
Czy tak jest? Czy dzieje się tam coś jeszcze pomiędzy?

Czyli karta graficzna jest w trybie GOP, a potem w trybie w którym obraz kontroluje sterownik karty graficznej?

Interesuje mnie kwestia rozdzielczości i częstotliwości odświeżania obrazu nadawanego przez kartę graficzną, do ekranu.

W jaki sposób GOP to kontroluje? Rozdzielczość i częstotliwość odświeżania obrazu?
Gdy włączę OSD monitora będąc w UEFI, to widać tam 2560x1440 60 Hz.

W pewnym momencie, przy chyba przełączaniu na system operacyjny, na chwilę gaśnie ekran, a potem wraca i już ma ustawioną właściwą rozdzielczość i częstotliwość odświeżania (2560x1440 165 Hz).

Dlaczego musi dojść do tego zgaśnięcia ekranu? Czemu to nie może być płynne?
Czemu na etapie UEFI nie może być 2560x1440 165 Hz?
Zresztą, gdy ustawię w systemie 2560x1440 60 Hz (czyli taki sam jak mówi OSD, że jest przy UEFI), to ekran i tak, tak samo gaśnie.
Więc z czego to wynika? Jaki dokładnie mechanizm za tym stoi, na poziomie karty graficznej?

Po co mi ta wiedza? Z ciekawości...
Bo u mnie to gaśnięcie ekranu trwa 6 sekund, niby tak długi czas, to wina monitora, że on tak po prostu ma, i jest wiele monitorów które tak po prostu mają. Ale jest to minimalnie problematyczne, i przez to się tak zagłębiam w temat...

Monitor Gigabyte M32QC połączony DisplayPort
Grafika GeForce RTX 3060 Ti
Płyta główna ASRock A620MHDV/M.2+
#sprzetkomputerowy #uefi #windows #linux #pcmasterrace #gpu #kartygraficzne #plytyglowne #software #sterowniki
Catharsis

@fewtoast To już twój któryś kolejny post o tym. Masz jakąś nerwice natręctw czy coś że aż tak cię boli że ekran ci się przy włączaniu lub zmienianiu TTY przełącza te 6 sec? No bo xD. Założe się że straciłeś już na to więcej czasu niż łączny czas jaki byś spędził przez najbliższe lata patrząc jak monitor ci się przełącza między trybami wyświetlania...

Zaloguj się aby komentować

Przez 5 lat źle używałem G-Synca. Jak kupowałem pierwszy monitor z nim gdzieś przeczytałem, że w grze trzeba wtedy wyłączać Vsync. #komputery #kartygraficzne #gsync #vsync #gry
b119d555-ed89-4469-9bda-0142c4e04bd4
Wesprzyj autora
Erebus

@GucciSlav człowiek całe życie się uczy


i umiera głupi ( ͡° ͜ʖ ͡°)

Ekci

A nie dodajemy sobie w ten sposób opóźnienia z samego v-synca? Nie lepiej g-sync + limit fps parę klatek poniżej odświeżania ekranu?

GucciSlav

@Ekci A z ciekawości, dlaczego blokować klatki kilka poniżej limitu, a nie na limicie, powiedzmy 165?

Zaloguj się aby komentować

Płyta główna ASRock **B650M-H/M.2+** czy **A620M-HDV/M.2+**?
Wygląda, że ta pierwsza ma 1 Blazing M.2 (PCIe Gen5 x4) a druga "tylko" same Hyper M.2 (PCIe Gen4x4).
Mam SSD na PCIe Gen4x4, dokupię kiedyś drugi taki sam, więc chyba nie mam żadnego powodu, żeby kupować ASRock B650M-H/M.2+?

Reszta podzespołów chcę:
2x Kingston Fury Beast Black 16GB DDR5 (KF556C40BB-16
PROCESOR AMD RYZEN 5 7500F AM5 OEM
Chłodzenie CPU ENDORFY Fera 5 Dual Fan 2x120mm

Mam:
RTX 3060 Ti 8 GB
Dysk KINGSTON KC3000 2TB SSD
Modułowy zasilacz XPG Core Reactor 850W
i
Monitor Gigabyte M32QC Curved 31,5"
#pc #pcmasterrace #sprzetkomputerowy #procesory #kartygraficzne #plytaglowna
c9c7035f-6f35-4931-9cbe-44b91643aa32
Marchew

@Bigos @pokeminatour


@fewtoast Sam obecnie delikatnie przykładam się do kupna sprzętu w podobnej półce cenowej.

Jakbym nie kombinował, Ryzen serii 7000 zawsze mi wychodzi najdrożej.

A dlaczego nie np. 13500 @ DDR4? Wyszłoby cenowo podobnie i wydajniej (w zestawie z intelem masz już chłodzenie).

Idąc po kosztach 12600KF @ DDR4, taniej i wydajniej, sam procesor to obecnie poniżej 800zł w dużych sklepach.

A ciut drożej 13600KF @ DDR4 gdzie dostajesz +70% wydajności wg np. Cinebench R23 (Multi-Core).

Nie żebyś miał odebrać to jako nagonkę na AMD, sam ich lubię, ale cena platformy AM5 jest niestety zaporowa : (

Bigos

@Marchew A ciut drożej

Z tym ciut drożej przy składaniu kompa to można nieźle popłynąć ( ͡° ͜ʖ ͡°)

Marchew

@Bigos Tak, dokładać można w nieskończoność...

W moim excelu wydajność/cena królują 12600KF, 13500, 13600KF, do wszystkich wybieram DDR4 (nie wiem czy słusznie). Ryzeny AM4 wypadają dobrze w tym dolnym przedziale cenowym dla multi core, przy single core nieco odstają od intela. AM5 zawsze zdecydowanie najdrożej : (

Zaloguj się aby komentować

1. Odpowiednik AMD Ryzen 7 5700x od Intela?
2. Czy AMD Ryzen 7 5700x pasuje do RTX 3060 Ti 8 GB?
#amd #intel #pc #pcmasterrace #sprzetkomputerowy #procesory #kartygraficzne
FoxtrotLima

@fewtoast a czemu miałby nie pasować?

fewtoast

@FoxtrotLima Czasem tak jest, że coś nie pozwala w pełni wykorzystać, albo jest nadmierne w stosunku do drugiego podzespołu, w zależności od przeznaczenia.

Na wykopie napisali że 5600 wystarczy.

Albo żeby patrzeć na 7500f.


Chcę złapać orientację, bo często jak się wskaże jakiś poziom w jaki się celuje, to jest tak naprawdę tylko jeden właściwy wybór.

Zaloguj się aby komentować

#komputery #chwalesie #kartygraficzne #hardware

Podkręciłem trochę mojego staruszka, jakim MSI GTX 970 (core +140MHz/Vram+400MHz). Niby wynik bez szału, bo w necie podają więcej, ale.. Temperaturę graniczną dałem na 80 stopni i karta niestety bez większego problemu w Wieśku III ją osiągała. Postanowiłem wymienić pastę i cyk - z 80 na 65 w porywach do 70
f79f9392-6d00-4471-9b60-4b85a1ba65d9
Hasti

@PanNiepoprawny Ja swoją 970 wypchnąłem za 400zl na olx pół roku temu. Trochę mi się z tego śmiać chce.

Basement-Chad

Pasta typu ciekły metal robi prawdziwe cuda jeśli idzie o temperatury. Niestety nie wszędzie da się jej użyć.

franaa

@PanNiepoprawny Też muszę swojego starego dziada rozkręcić, wyczyścić i powymieniać pasty. Też 970tka. Zawiozę go sobie na wieś, ostatnio dostałem starą plazme Panasonica i będzie secik do grania w starsze gierki jak w pysk strzelił

jiim

@franaa "w starsze gierki", proszę Cię. Ja cisnę w RDR i RDR2 na GTX970 :)

franaa

@jiim Tez RDR2 przeszedłem na 970tce, teraz będę ogrywał w godnych warunkach na 4070ti

Zaloguj się aby komentować

Szybkie pytanie:
#sprzetkomputerowy #komputery #pc #kartygraficzne #pcmasterrace
b69ee877-6541-4e91-b2aa-1257b3715e8e

Która karta lepsza?

9 Głosów
fewtoast

@Tomekku @highlander Dlaczego? Jest chłodniejszy, mniej wymagająca, cichszy?

highlander

6700jest mocniejsza karta i ma wiecej vram a 7600 jest porownywalna krta ale nowoczesniejsza i troche tansza

Tomekku

@fewtoast bardziej przyszłościowa, 12vram na dłużej starczy, w każdym razie po przeglądzie sporej ilości info itd. Zamierzam sam taka kartę kupić, pewno jakiś xfx. Z nVidia bym się wstrzymał do przyszłej generacji i zobaczył co za oferują. Obecnie mam 1060 i tu już czuć, że powoli się koleżanka męczy przy cięższej pracy.

Zaloguj się aby komentować

Właśnie zjarała mi się karta graficzna. Pięknie służyła te 10 lat, czy ileśtam.
RIP Gigabyte 980Ti.
#ehhhhhhhhhhhhhhhhhh #kartygraficzne #komputery #gorzkiezale
4061fc92-6f13-46d9-9e66-a588b1e06220
Suodka_Monia

@Acrivec nowych gierek się zachciało?

Pan_Buk

@Suodka_Monia Za dużo bitcoinów kopał.

Acrivec

@Suodka_Monia grałem w lola jak się zjarała. Z d4 czy SW: fallen order czy mafia 1 remastared nei było problemu

bucz

@Acrivec ja takie cos lutowalem i dziala dalej

pytanie czy warto / jaka wartosc GPU

Fausto

@Acrivec oł je, przy zakupie nowej karty zawsze są duże emocje

Zaloguj się aby komentować

Radeon RX 7900 XTX będzie najlepszym wyborem cena/wydajność dla i9-12900K? Jeśli tak, to w jakiej rewizji w sensie konkretny model, bo tego jest trochę i się gubię.
#komputery #gpu #kartygraficzne #pcmasterrace
Okrupnik

@Matador może coś używanego?

ZohanTSW

@Matador wydaje mi się że tak, ale możesz też sprawdzić rankingi GPU i ile mniej fpsów wyciąga w stosunku do najlepszego GeForce'a, potem porównać ceny i zastanowić się czy warto dopłacać te parę tysięcy dla 5-20 FPS :P (chyba że z raytracingiem to wtedy więcej)

ZohanTSW

A jeśli chodzi o rewizje itp to popatrz na różnice w poborze prądu, na opinie czy nie hałasuje, czy się nie przegrzewa itp. Jeśli chodzi o wydajność to według mnie będą raczej marginalne różnice (a przynajmniej dla mnie osobiście nieistotne)

Zaloguj się aby komentować

Stoję przed wyborem karty graficznej. Sprzęt raczej na lata, nie spodziewam się wymiany w najbliższych pięciu/dziesięciu latach. Obecnie mam 10 letni sprzęt więc ten tego Nie ma tutaj sztywnego budżetu np. 1000 czy 1500zł. Raczej chodzi o wybranie czegoś co się „nie wyłoży” za kilka lat.
Wstępny przegląd, padło dość szybko na:
RX 6600 – tanio, świetny stosunek cena/wydajność. Może nie najświeższy sprzęt...
No właśnie, dziś jest tak „na styk”.
Zacząłem szperać dalej w poszukiwaniu czegoś wydajniejszego. Znalazłem pewną trójcę:
RX 7600 – następca 6600? Niestety brak DLSS, co prawda jest FSR / XeSS ale wspierane rzadziej niż DLSS. Słabiej sobie radzi z Ray Tracking niż pozostałe z trójcy, ale czy RT jest potrzebne na tak taniej karcie? 3060 / A770 i tak nie pozwolą na RT z satysfakcjonującymi FPS’ami. Nie zwracać uwagi na RT?
ARC 770 – nieco więcej za nieco mniej niż w przypadku RX 7600 – ale ryzyko bo intel, prawdopodobieństwo nikłego wsparcia w przyszłości. Brak DLSS, ale jest FSR / XeSS. To drugie znacznie lepiej działa na kartach intela więc fajnie. Ale XeSS jest dość rzadko wspierane.
RTX 3060 – teoretycznie najbezpieczniej z trójcy. DLSS 2 jest wspierane bardzo szeroko. Jednak to wciąż DLSS 2, nie będzie upgrade do DLSS 3. Konkurencja idzie inną drogą, nawet starsze karty intel/AMD dostają „update” do nowych wersji FSR / XeSS. Ale… zawsze można na takiej nvidii odpalić FSR czy XeSS.
albo…
pchać się w cokolwiek serii RTX 40 specjalnie dla DLSS 3, tanio nie będzie, ale chyba najbardziej przyszłościowo. Premiera 4060 niedługo.
Dlaczego tak naciskam na frame generatory? Bo to przyszłość w generowaniu dużej ilości FPS’ów. Podejrzewam że w przeciągu kilku lat, wyjdą nowsze wersje frame generatorów dających jeszcze więcej kopa. Chociaż chyba tyczy się to „TOP” tytułów. Małe gierki i tak nie wspierają tych ficzerów.
Co kupić?
#komputery #pcmasterrace #kartygraficzne
w1lq

A nie lepiej kupować co pare lat jakiegoś średniaka i sprzedawać starego? Tym sposobem prog wejścia masz niższy, a jakość użytkowania utrzymujesz tez na jakimś sensownym poziomie w ciągu całego 10 letniego cyklu życia w podobnym hajsie. Technologie i standardy się bardzo szybko rozwijają i zmieniają.

Quake

@w1lq moim zdaniem to jest pozorna oszczędność. w ten sposób cały czas siedzisz na niedomagającym średniaku. karty z wyższej półki wolniej tracą na wydajności, ale także na wartości.

w1lq

Zależy co potrzebujesz - a jednak standardy się zmieniają, technologie również. Ja mam średniaki od 10 lat bo po prostu to systek który na moje potrzeby najlepiej sie sprawdza. Nie każdy musi grać w 4K na ultra widescreen.


Przykładowo kupilem 4 lata temu dość spoko ryzena i musze go wywalić by miec w11, bo architektura nie ta. Podobny przykład można miec z Mac’ami na intelu vs Apple silicon jak zajmujesz się video / renderingiem.


Moim zdaniem warto patrzeć na to co potrzebujesz w tym momencie a nie liczyć na zwrot z inwestycji w obszarze który się za szybko zmienia.

rakokuc

@Marchew jedno jest pewne, jeśli chcesz mieć sprzęt na lata - nie bierz Intela. Patrz na zielonych albo czerwonych.

5tgbnhy6

a napisz jeszcze jaki masz sprzet, monitor i w jakie gry grasz/chcesz grac, bo moze sie okazac, ze zakup GPU to nie jest najsensowniej wydany hajs w Twojej sytuacji, pozdro!

Marchew

@5tgbnhy6 Obecnie jest mobilny i5-3210M + GTX 660M + monitor 1080p, ale kolejnym będzie 1440p.

Co do grafy, fajnie aby to uciągnęło Diablo 2: Resurrected (z tym nie powinno być problemu), a też na półce czeka Wiedźmin 3. Przy W3 wiem że na ultra detalach nie pogram...

5tgbnhy6

@Marchew tutaj możesz sobie sprawdzić jakie gry uciagnie Twoja karta

https://www.notebookcheck.net/NVIDIA-GeForce-GTX-660M.71859.0.html


a mi bardziej chodzilo z jakim procesorem bedzie wspolpracowac nowa karta?


rx6600 w 1440p mniej więcej wykreci 60FPS w W3, wiec jezeli monitor wezmiesz z wyzszym odswiezaniem, to nawet w starawym Wiedzminie nie przebijesz 60FPS

https://www.notebookcheck.net/AMD-Radeon-RX-6600-GPU-Benchmarks-and-Specs.582209.0.html

Zaloguj się aby komentować

Eliasz_Oderman

W sumie myślałem że dalej chore ceny a tu 500 zł win ej od 2070s około pandemi?

Zaloguj się aby komentować

Ale potwora znalazłem w szafie.
#kartygraficzne #komputery
Fausto userbar
349807e8-45ca-4f1c-bd91-333d3f4c272d
gawafe1241

@Fausto raczej średniak, jakby to był 280 / 290 to już faktycznie byłby top. Tak samo jak taki GTX 4090 Ti a nie 4060

mrmydlo

@Fausto leży gdzieś 8800 GTS 512

Darmozjad

Check dis @Fausto

Czek dis.

be3cf7f2-06b5-4ea6-9541-89dbf8ad9176
Marchew

@Darmozjad Ooo! Grzałka na Pci-e!

Zaloguj się aby komentować

Następna