#nvidia RTX 5070 TI vs #amd RX 9070 XT
Co brać? Słucham Państwa. #pcmasterrace #gpu
Za Nvidią przemawia to, że obecnie mam 3070, a w drugim kompie mam 1060, z którymi nie miałem kompletnie żadnych problemów, podoba mi się ich apka i generalnie naturalnym krokiem wydaje się pójść dalej w nvidię, skoro mnie nie zawiodła.
Za AMD przemawia cena, bo Nvidia odleciała w tej kwestii. Windows też mnie już trochę denerwuje i zastanawiam się, czy nie przesiąść się na linuxa skrojonego pod gry, więc w takim przypadku lepiej byłoby mieć kartę od AMD... Ale ważna jest dla mnie też cisza i już czytałem kilka komentarzy o piszczących cewkach, czego już dawno temu doświadczyłem w dwóch kartach od AMD i jak miałbym do tego wracać, to chyba wolę Nvidie. No i Nvidia też wypina się coraz bardziej na graczy, więc nie chcę wspierać takiej firmy, swoim nic nie znaczącym zakupem, ale jednak zakupem.
#gpu
- jako fanboi AMD powiem bierz AMD, nvidia leci w c⁎⁎ja z ceną - jako posiadacz linuksa, do niedawna nvidia to była katorga, ale ponoć już działa wszystko elegancko (odkąd otworzyli kod sterowników), więc raczej pod tym względem jeden uj (ale AMD dłużej ma fajną politykę xd fanboi się odezwał) - piszczenie cewek to podejrzewam że kwestia producenta karty a nie samych układów od AMD
Podsumowując:
Jeden uj (ale bierz AMD bo lepszy stosunek ceny do jakości xD)
"Nvidia fuck you" tak jak pan Linus powiedział.
NVIDIA to zamknięte sterowniki = problemy na linux.
AMD nie ma problemów z linux.
Tak, nvidia lepiej sobie radzi z RT, ale głównie w kilku żarłocznych grach, w większości nie ma istotnej różnicy.
DLSS lepsze od FSR, ale FSR 4 jest już całkiem fajne, to nie FSR 3 który był kaszaniasty. Ponadto nowsze wersje FSR 4 będą działać na 9070.
FSR 4 jest obecnie pomiędzy DLSS CNN a DLSS transformers. Jednak DLSS jest dostępny w naprawdę wielu grach, FSR niestety nie.
Jeśli windows, zależy od ceny, DLSS daje 30% wydajności, więc możesz podzielić cenę prez 0,7, ponieważ w FSR często nie jest dostępne. Więc raczej nvidia.
Jednak jeśli chcesz mieć furtkę do linux, zostaje jedynie AMD.
Zaloguj się aby komentować
AMD w górę ( ͡~ ͜ʖ ͡°)
#komputery #kartygraficzne #gpu #pcmasterrace

@Marchew Ty jesteś kumaty to mi może wyjaśnisz. To jest wydajność taka normalna bez żadnego AI sztucznoklatkowania, czy już z wliczonymi klatkami AI?
też całym sercem za AMD jestem. Razem z rodzicami, sąsiadami. TYLKO AMD
9070 XT enjoyer here, gram w 1440p, na RT sram, UV -120mV i gitara.
Zaloguj się aby komentować
rozważam zakup radeona 9070xt, znalazłem taką tablekę i zacząłem przeglądać różne wersje, które się różnią lekko taktowaniem
najtańsze są za 3100zł z taktowaniem bazowym 2970mhz, OC wersje z 3100mhz zaczynają się od 3500zł, a najdroższe dochodzą do 4000zł, ale nie mam pojęcia co tam jest extra
Nie wiem co brać, doradźcie coś.
#komputery #radeon #gpu
@wewerwe-sdfsdfsdf jak cena ma dla ciebie znaczenie, to te różnice nie są jej warte.
Za to niektóre rodzaje kart są faktycznie solidniejsze. Ja polecam kupić zwykłą, ale jednocześnie sam zawsze dołożę na Asus TUF albo tańszy Strix, bo nigdy nie miałem problemu z nimi.
Jakbym miał brać dla siebie to
1. Aby nie miała tego głupiego złacza od NVIDIA
2. Zmieściła się na długość i szerokość do obudowy i płyty głównej
3. Najcichsza i z najdłuższa gwarancja
Odrzucilbym od razu Gigabyte bo z tego co wiem w innych modelach mają ostra krzywa wentylatorów i słabe łozyska czyli wentylatory po czasie zaczynają bardziej hałasować. Pewnie wziąłbym sapphire/power color lub ewentualnie asrocka.
kupiłem hellhounda, zauważyłem, że te wszystkie 3100 są za długie do mojej obudowy, tylko 2cm zapasu
zobaczymy
Zaloguj się aby komentować
Z Titanem Xp chyba lepiej wygląda ( ͡° ͜ʖ ͡°)
#pcmasterrace #nvidia #komputery #kartygraficzne #gpu

Zaloguj się aby komentować
Już niebawem, 1 kwietnia, będziemy obchodzić 25 rocznicę powstania marki Radeon.
AMD świętuje 25-lecie kart graficznych marki Radeon, której korzenie sięgają jeszcze czasów firmy ATI. Radeon wielokrotnie rywalizował, a nawet wygrywał w starciach z konkurencją. Choć w ostatnich latach karty te pozostawały w cieniu NVIDII, jednak dzięki architekturze RDNA 4 i nadchodzącej UDNA sytuacja może się ponownie odmienić.
Wracając jednak na chwilę do firmy ATI - ta została przejęta przez AMD w 2006 roku, a Radeon pozostał kluczową marką w świecie kart graficznych. W kolejnych latach AMD kontynuowało jej rozwój, wprowadzając przełomowe modele, takie jak Radeon HD 4000 i HD 5000, które jako jedne z pierwszych wspierały DirectX 11. Następnie przyszły serie Radeon R9 200 oraz RX 400 i RX 500, które umocniły pozycję firmy w segmencie graczy szukających wydajnych, ale przystępnych cenowo rozwiązań. Przez lata Radeon rywalizował z NVIDIA, niejednokrotnie oferując świetny stosunek ceny do wydajności. Jednak w ostatniej dekadzie dominacja konkurenta stała się bardziej wyraźna. Teraz, wraz z premierą RDNA 4 i zapowiedziami nadchodzącej architektury UDNA, AMD ponownie wkracza do gry, próbując odwrócić ten trend.
Pierwszą kartą graficzną był:
Radeon R100 is the first generation of Radeon graphics chips from ATI Technologies. The line features 3D acceleration based upon Direct3D 7.0 and OpenGL 1.3, and all but the entry-level versions offloading host geometry calculations to a hardware transform and lighting (T&L) engine, a major improvement in features and performance compared to the preceding Rage design. The processors also include 2D GUI acceleration, video acceleration, and multiple display outputs. "R100" refers to the development codename of the initially released GPU of the generation, various releases which were collectively known as the Radeon 7200. It is the basis for a variety of other succeeding products, including the entry-level RV100 (Radeon VE or Radeon 7000) and higher-performance refresh RV200 (Radeon 7500), the latter two having dual-monitor support.
który trafił do sprzedaży April 1, 2000
#technologia #gpu #amd #ati #kiedystobylo
IMHO nie dowieźli, bo nowe karty są drogie i takie sobie. Nvidia im odjechała.
Mam 2080ti, które już trochę nie wyrabia na moim monitorze UWQHD, więc myślałem o zmianie. Na co? Jedyny rozsądny wybór to 4070, bo niżej nie ma sensu (4060 w tej rozdziałce wypada gorzej od 2080), ale ceny są zaporowe. Już myślałem, że AMD coś wniesie, ale wniosło wielkie nic. Cenowo nieciekawie, a wydajnościowo to poziom właśnie 4070.
Nowe Nvidie to już w ogóle porąbany temat...
Zaloguj się aby komentować
Nie wiem ile jest takich osób na świecie, ale jeśli ktoś by chciał używać nowych Radeonów a nie ma UEFI z Secure Boot, to sobie nie poużywa tych kart:
Firma AMD oficjalnie potwierdziła, że najnowsza seria kart graficznych Radeon RX 9000 wymaga UEFI (Unified Extensible Firmware Interface) i nie będzie działać w trybie BIOS Legacy (CSM – Compatibility Support Module). Informację tę zawarto w nowym dokumencie wsparcia technicznego opublikowanym na stronie producenta.
Decyzja AMD jest zgodna z ogólną tendencją w branży, w tym z wymogami Windows 11, które wymagają UEFI i Secure Boot.
Potem w artykule jest trochę marketingowego bełkotu typu:
Nowoczesny firmware UEFI oferuje wiele zalet w porównaniu do tradycyjnego BIOS-u, takich jak:
-
Lepsza ochrona przed malwarem dzięki Windows Secure Boot.
-
Obsługa dysków twardych większych niż 2,2 TB.
-
Wsparcie dla nowych technologii sprzętowych, w tym bootowania z nośników NVMe SSD.
-
Szybsze czasy uruchamiania, zamykania, uśpienia i wybudzania systemu.
-
Łatwiejsze i bardziej niezawodne aktualizacje firmware'u.
Podsumowanie:
Nowa polityka AMD oznacza, że użytkownicy starszych komputerów z BIOS Legacy mogą napotkać problemy z działaniem Radeonów RX 9000. Jeśli Twój komputer nie obsługuje UEFI, a planujesz zakup nowej karty graficznej AMD, warto rozważyć modernizację platformy sprzętowej, aby uniknąć potencjalnych komplikacji i cieszyć się pełną wydajnością nowej generacji GPU.
https://ithardware.pl/aktualnosci/radeony_amd_platformy-39484.html
#technologia #gpu #amd #radeon
@damw no, jeśli ktoś ma kompa starszego niż 10 lat, to montowanie doń najnowszej karty ma niewiele sensu.
AMD w odwiecznej misji zniechęcania do siebie użytkowników gdy są na fali?
mój laptop nawet nie umie bootować z mbr, a jak reszta stwierdziła - clickbaitowy tytuł.
Zaloguj się aby komentować
Pojawiają się przecieki dotyczące cen nowej generacji #gpu od #amd
Pod koniec zeszłego tygodnia AMD przypomniało entuzjastom sprzętu komputerowego o nadchodzącym wydarzeniu poświęconym ich nadchodzącym kartom graficznym – specjalnym RDNA 4 Friday, zaplanowanym na 28 lutego. To właśnie wtedy firma oficjalnie ujawni specyfikację techniczną, wydajność oraz ceny nowych grafik z serii Radeon RX 9070.
Ostatnie przecieki sugerowały wysokie ceny nowych kart, z niektórymi spekulacjami wskazującymi na przedział 739 dolarów i więcej. Jednak według doniesień VideoCardz, które uzyskało dostęp do slajdów z prezentacji AMD, cena serii RX 9070 ma wynosić mniej niż 700 dolarów. Tu mówimy się nawet o starej zasadzie stosowanej przez czerwoną ekipę, czyli cenie takiej jak za konkurencyjnego GeFroce'a minus 50 USD (przypominamy, że GeForce RTX 5070 Ti kosztuje 749 USD, więc Radeon RX 9070 XT może zostać wyceniony na 699 USD).
Czemu taka cena?
AMD podobno argumentuje tę decyzję danymi rynkowymi – aż 85% graczy kupuje karty poniżej tej kwoty, co ma uczynić nowe Radeony bardziej atrakcyjnymi dla szerokiego grona odbiorców.
https://ithardware.pl/aktualnosci/radeon_tanszy_amd_cena-39318.html
#technologia #kartygraficzne

Więcej przecieków o XTX z 32GB ramu się pojawia w azjatyckim necie też, ja pewnie lapka wymienię na HP ZBook G1a a na black frajera dokupie mu tego XTX. Szkoda że jeszcze nie ma nic z USB4v2
Zaloguj się aby komentować
Jeśli planowaliście kupno nowych kart graficznych od #nvidia to lepiej dobrze się zastanówcie co robicie. Media zaczynają donosić o sporej ilości problemów:
Użytkownicy kart graficznych GeForce RTX 50 nadal skarżą się na problemy ze stabilnością swoich GPU, w tym na czarne ekrany i awarie systemu, a NVIDIA wciąż nie ma gotowej poprawki.
Oprócz tego:
Premiera serii GeForce RTX 50 jest jedną z najbardziej problematycznych w historii firmy. Gracze i entuzjaści PC muszą zmagać się nie tylko z niedostępnością GPU i wysokimi cenami, ale również z problemem topiących się 16-pinowych złączy zasilania. Dodatkowo pojawiły się wady sprzętowe, np. przypadki kart z mniejszą liczbą jednostek ROP, niż deklarował producent. Do tego wszystkiego wydajność grafik z rodziny Blackwell po prostu rozczarowuje, więc nie rysuje to dobrego obrazu serii RTX 50.
Jeśli ktoś doczytał do tego miejsca to może się zacząć zastanawiać o co chodzi z mniejszą ilością ROP'ów. No to już odpowiadam:
Według licznych doniesień, niektóre modele tej serii mogą posiadać wadę produkcyjną, która prowadzi do scalania partycji ROP (Render Output Unit) w procesorze graficznym, co bezpośrednio wpływa na spadek wydajności urządzeń.
Użytkownik reddita przeprowadził testy swojego RTX 5080 w popularnym benchmarku 3DMark Time Spy. Wyniki okazały się niepokojące – karta osiągnęła wynik 28 118 punktów, podczas gdy sprawna jednostka uzyskuje aż 32 273 punktów. Różnica wynosząca 12% jest ogromna, szczególnie w kontekście urządzeń klasy premium.
https://ithardware.pl/aktualnosci/nvidia_problemy_bsod_rtx_50_poprawki-39245.html
https://ithardware.pl/aktualnosci/rtx_5080_rop_wydajnosc_wpadka_nvidia-39271.html
#gpu #kartygraficzne #technologia

Intel się już wy⁎⁎⁎ał. Teraz pora na nvidię
Najpierw Intel teraz NVIDIA... d
Doczekaliśmy czasów w których będziemy się cieszyć z bezawaryjnego produktu....
@damw Prawda jest generalnie oczywista, Nvidia ma totalnie w d⁎⁎ie tworzenie konsumenckich kart graficznych dla graczy czy pół profesjonalistów i całą uwagę skupia na akceleratorach AI. Dosłownie nie opłaca im się marnować zasobów ludzkich jak i wolnych przydziałów za zamówienia wafli krzemowych na gałąź biznesu która daje im tak małe przychody w porównaniu do AI. I tak będzie dopóki cała ta bańka nie walnie w końcu.
Ja tutaj tylko zostawię te 3 obrazki:



Zaloguj się aby komentować
Patrzcie jakie śmieszki z KRSystem...
A gdyby ktoś był zainteresowany, to od razu podrzucam do pepperka link:
https://www.pepper.pl/promocje/sapphire-pulse-amd-radeon-rx-7800-xt-16gb-995652
#heheszki #2137 #radeon #gpu #69

Dobre smieszki
Zaloguj się aby komentować
Jak tam hejterzy, hajs już nazykowany na RTX 5090? ( ͡° ͜ʖ ͡°) Myślę że bez minimum 10k się nie obejdzie.
Może w końcu da się odpalić pathtracing w 1440p z sensownym FPS bez skalowania.
#pcmasterrace #pcmr #komputery #gpu #kartygraficzne #nvidia
Panie za tyle to mam trzy stimdeki
@NrmvY 32gb vram i 680tensorcores to się opłaca kupić za 10k
Populacja kryptokopaczy zwieksza się.
Zaloguj się aby komentować
Ktoś mi to zrobi? Albo jakiś gotowiec uniwersalny do kupienia?
Wielkie i ciche chłodzenie z CPU, użyte do GPU.
stara wieza z cpu, trytytki i jedziesz
Zaloguj się aby komentować
Niesamowite, że za dolana mogę sobie od tak Nvidia A100 wynająć.
Zapłaciłem za całą kartę to będę używał całej.
#gownowpis #gpu

@entropy_ Zwróci się za prąd?
co kopiesz?
@entropy_ ile coś takiego kosztuje?
W ogóle to nie wiem jak się czegoś takiego uzywa...
Zaloguj się aby komentować
Hmm, tak sobie myśle, że dla kogoś kto nie jest GPU jest obeznany technicznie to kupowanie GPU musi być cudowne.
Czy wiedzieliście, że jest 10 różnych wersji kart graficznych RTX 4070?
-
4070 Mobile
-
4070 Mobile MaxQ
-
4070 10GB
-
4070 GDDR6
-
4070
-
4070 AD103
-
4070 Ti
-
4070 Super
-
4070 Ti Super
-
4070 Ti Super AD102
Dodatkowo każda karta ma wiele różnych wariantów AIB i samych "RTX 4070" jest 106.
Tak, teoretycznie tam gdzie różnica jest największa, są w nazwie dodatkowe człony takie jak Super albo Ti, ale nie każda osoba chcąca sobie kupić kartę do gierek będzie robiła doktorat z GPU, więc kupi nie to co myśli, że kupuje lub kupi cokolwiek.
A przecież są jeszcze inne karty od nvidii i od innych producentów.
#gpu #kartygraficzne #komputery
Powiązany filmik od Linusa o praktykach nvidii: https://www.youtube.com/watch?v=LoPfkaSKIVo
No i, jaki rozrzut cenowy między poszczególnymi wersjami...
Zaloguj się aby komentować
Po 9 latach spełniłem swoje marzenie ze studiów i kupiłem GTX Titan X xD
#pcmasterrace #nvidia #gtx #rtx #titan #komputery #gry #pcmr #gpu #kartygraficzne

Fabryczne karty nVidii są świetne od strony estetycznej. Jakbym mógł, to miałbym kolekcję ich kart tylko po to, by postawić je na regale.
Ile PLN za Titana?
@NrmvY potrzymaj to teraz 15 lat, będzie retro ( ͡° ͜ʖ ͡°)
@NrmvY kurde, pamiętam że 970 to już była duża karta, jak na swoje czasy. Titan tym bardziej. Ale ta 4090 to jak jakiś agregat xD bez kitu 3x więcej karty. Bawiłeś się tym, na ile taki Titan jest używalny? Wiadomo że przy 4090 wszystko będzie słabo chodzić, ale czy w ogóle gry działają bez problemu? Sterowniki już pewnie paroletnie. Fajny zakup, też pamiętam jaki to był top of the top, chociaż też nie podobało mi się trochę że 980Ti za miliony monet nie jest najmocniejszą kartą, tylko musieli coś jeszcze droższego wymyśleć. Z drugiej strony, to też było celowane oficjalnie bardziej pod użytkowników Quadro. A że kupowali to raczej entuzjaści gier, to inna sprawa xD
Zaloguj się aby komentować
Dla procesorów są Fortis 5 albo ENDORFY Fera 5.
A są takie duże ciche, półpasywne chłodzenia do GPU? Polećcie coś.
Mój GPU to ASUS GeForce RTX 3060 Ti DUAL OC 8GB GDDR6X. Jest dosyć głośny, realnie, to jedyny element który wydaje dźwięk w moim PC, i to głośno szumi i coś tam brzęczy.
#gpu #kartagraficzna #pc #pcmasterrace #sprzetkomputerowy #podzespoly
@fewtoast o, zaciekawiłeś mnie tym pół pasywnym chłodzeniem. Spora różnica jest od zwykłego? Droższe, mniej wydajne?
@pszemek przecież półpasywne chłodzenie w kartach graficznych to standard od lat, właściwie każda je ma
@Erebus No w moim wbudowane też jest półpasywne, ale jak się zakręci nawet lekko, to brzęczy.
Zaloguj się aby komentować
Widzę wideo, że Monitor można podłączyć do Laptopa przez USB C.
https://www.youtube.com/watch?v=1UweRdxWI78
A co z podłączeniem Monitora do stacjonarnego, gdy na wkładanej (nie wbudowanej w płytę główną/procesor) karcie graficznej nie ma USB C? Czy jak wtedy podłączyć Monitor do USB C płyty głównej, to obraz z karty graficznej będzie wysłany z GPU na płytę główną, a z niej przez USB C do Monitora?
Bo wiem, że są nieliczne karty graficzne, które mają USB C, więc wtedy przesył jest bezpośredni.
A z tym pośrednictwem płyty głównej, to może dziwne pytanie, ale mnie nurtuje.
Generalne chodzi o to, żeby podłączyć różne urządzenia USB do monitora, a do jednostki centralnej puścić tylko jeden kabel USB C, tak jak jest z tym laptopem z filmu.
#pc #sprzetkomputerowy #usbc #displayport #kartagraficzna #gpu #pcmasterrace
@fewtoast
> Widzę wideo, że Monitor można podłączyć do Laptopa przez USB C.
Próbowałem to zrobić jeszcze w czasach zarazy - i kicha, za słaby zasilacz w monitorze.
Zaloguj się aby komentować
Zagłębiam się w kontrolę obrazu (wyświetlany na ekranie) na poziomie UEFI a potem systemu operacyjnego. Ale mam masę pytań.
Istnieje GOP (UEFI Graphics Output Protocol).
Wydaje się, że on kontroluje obraz, na etapie od naciśnięcia przycisku POWER na komputerze.
W pewnym momencie kontrolę przejmuje sterownik karty graficznej.
Czy tak jest? Czy dzieje się tam coś jeszcze pomiędzy?
Czyli karta graficzna jest w trybie GOP, a potem w trybie w którym obraz kontroluje sterownik karty graficznej?
Interesuje mnie kwestia rozdzielczości i częstotliwości odświeżania obrazu nadawanego przez kartę graficzną, do ekranu.
W jaki sposób GOP to kontroluje? Rozdzielczość i częstotliwość odświeżania obrazu?
Gdy włączę OSD monitora będąc w UEFI, to widać tam 2560x1440 60 Hz.
W pewnym momencie, przy chyba przełączaniu na system operacyjny, na chwilę gaśnie ekran, a potem wraca i już ma ustawioną właściwą rozdzielczość i częstotliwość odświeżania (2560x1440 165 Hz).
Dlaczego musi dojść do tego zgaśnięcia ekranu? Czemu to nie może być płynne?
Czemu na etapie UEFI nie może być 2560x1440 165 Hz?
Zresztą, gdy ustawię w systemie 2560x1440 60 Hz (czyli taki sam jak mówi OSD, że jest przy UEFI), to ekran i tak, tak samo gaśnie.
Więc z czego to wynika? Jaki dokładnie mechanizm za tym stoi, na poziomie karty graficznej?
Po co mi ta wiedza? Z ciekawości...
Bo u mnie to gaśnięcie ekranu trwa 6 sekund, niby tak długi czas, to wina monitora, że on tak po prostu ma, i jest wiele monitorów które tak po prostu mają. Ale jest to minimalnie problematyczne, i przez to się tak zagłębiam w temat...
Monitor Gigabyte M32QC połączony DisplayPort
Grafika GeForce RTX 3060 Ti
Płyta główna ASRock A620MHDV/M.2+
#sprzetkomputerowy #uefi #windows #linux #pcmasterrace #gpu #kartygraficzne #plytyglowne #software #sterowniki
@fewtoast To już twój któryś kolejny post o tym. Masz jakąś nerwice natręctw czy coś że aż tak cię boli że ekran ci się przy włączaniu lub zmienianiu TTY przełącza te 6 sec? No bo xD. Założe się że straciłeś już na to więcej czasu niż łączny czas jaki byś spędził przez najbliższe lata patrząc jak monitor ci się przełącza między trybami wyświetlania...
@Catharsis Dlaczego śmiejesz się z nerwicy natręctw?
I tak wyprzedzająco: Nie musisz mówić że to z troski ani gdzieś wysyłać.
Tam jest taka ładna animacja w Cinnamon, jak się włącza pulpit, i jej nie widać bo ekran jest zajęty byciem czarnym. A lubiłem tę animację. A takie nagłe pojawienie pulpitu nie jest takie przyjemne jak ta animacja.
Cinnamon jest gotowy już zaraz(bo dźwięk startu pulpitu już słychać), ale jeszcze jeszcze gdzieś 5-6 sekund ekran sobie czeka.
Ale mnie razi samo to, że "coś jest nie tak", bo normalnie to powinno być zwyczajnie widoczne, twórcy czy Windowsa, czy Cinnamon nie spodziewali się, że ta zmiana ekranu może trwać tak długo i chce pokazać animację od razu.
Zaloguj się aby komentować
rok temu kupilem #laptopy #pcmasterrace za jakies 5k. wiem, ze to nie jest turbo high-end sprzet, ale tez nie jest jakies byle co. dzis #starfield #gry rzucil mi bledem przy uruchamianiu, ze moja karta graficzna jest za slaba i nie spelnia minimalnych wymagan ( ͡° ʖ̯ ͡°)
naprawde na rynku PC do gier jest az tak ciezko, ze trzeba pakowac po grube tysiace, zeby sprzet chociaz przez rok odpalal najnowsze gry? ja tu nie mowie nawet o max ustawieniach grafiki, gra w ogole sie nie chce wlaczyc, bo #gpu za slabe
to chyba serio lepiej jest isc w #konsole , bo tam przynajmniej mam pewnosc, ze gra mi odpali
@sayda
Bo kupiłeś laptopa. Zintegrowana karta graficzna odpadnie dużo szybciej niż klasyczna.
Kupiłem kompa rok przed premierą wiedźmina. I jeśli chodzi o odpalanie nowych gierek to poddał się ok 2 lata temu. Nie dlatego, że sprzęt nie wydala, tylko nie zainstaluje na nim win10, a na 7 już dużo produkcji się nie odpali (chociaż remaster Mass Effect mi się udało).
Za kompa dałem 2.5k xD
Laptopy spokojnie sobie radzą z grami, szczególnie w FHD. Nikt tu nie mówi o intergrze.
@Jarem @Roark dokladnie, mam dedykowane GPU, konkretnie AMD Radeon RX 6600M
Czemu określasz cały rynek PC na podstawie jednej, gównianej gry? Akurat Starfield jest na kiepskim silniku i ma beznadziejną optymalizację, a patrząc na wymagania minimalne to spokojnie powinien Ci ruszyć. Masz aktualne sterowniki?
Zresztą Starfield oficjalnie "nie wspiera" grafik Intela, a przecież również są mocniejsze niż te z minimalnych wymagań:
Stosunek twórców do graczy pokazuje, że nie powinno się tej gry kupować póki nie przeproszą:
@Roark mnie rozjebała cena za to guano.
Już lepiej wychodzi wziąć poczciwego No Man's Sky, ruszy na ziemniaku i na promce cena daje radę, a ciągle aktualizowana.
@sayda z łaski swojej nie stawiaj obok siebie #laptopy i #pcmasterrace ( ͠° ͟ʖ ͡°)
edytuj jakiś plik konfiguracyjny czy coś i będzie banglać
Zaloguj się aby komentować
Radeon RX 7900 XTX będzie najlepszym wyborem cena/wydajność dla i9-12900K? Jeśli tak, to w jakiej rewizji w sensie konkretny model, bo tego jest trochę i się gubię.
#komputery #gpu #kartygraficzne #pcmasterrace
@Matador może coś używanego?
@Matador wydaje mi się że tak, ale możesz też sprawdzić rankingi GPU i ile mniej fpsów wyciąga w stosunku do najlepszego GeForce'a, potem porównać ceny i zastanowić się czy warto dopłacać te parę tysięcy dla 5-20 FPS :P (chyba że z raytracingiem to wtedy więcej)
A jeśli chodzi o rewizje itp to popatrz na różnice w poborze prądu, na opinie czy nie hałasuje, czy się nie przegrzewa itp. Jeśli chodzi o wydajność to według mnie będą raczej marginalne różnice (a przynajmniej dla mnie osobiście nieistotne)
Zaloguj się aby komentować




![NVIDIA i Ray Tracing 10000 razy szybciej? A dlaczego nie? [ENG]](https://cdn.hejto.pl/uploads/posts/images/250x250/3da5cd765ceb4bcd2958adf0acbd5d27.jpg)