#nvidia

3
94

Elo. Posiadam procek i5 4690 i mam do wyboru dwie karty: GTX 1060 3 gb i Radeon rx 470 4gb.

Która będzie lepsza do starszych gierek w dx11? Minusem czerwonych jest wysoki pobór mocy i temperatury,

zaś zieloni mają mniej vramu. Co sądzicie? Wiem, że to starocie, ale kompa będę zmieniał za rok, jak połatają STALKERA 2 xD #komputery


#pcmasterrace #nvidia #amd #kartygraficzne

Zaloguj się aby komentować

Zaloguj się aby komentować

Jeśli planowaliście kupno nowych kart graficznych od #nvidia to lepiej dobrze się zastanówcie co robicie. Media zaczynają donosić o sporej ilości problemów:


Użytkownicy kart graficznych GeForce RTX 50 nadal skarżą się na problemy ze stabilnością swoich GPU, w tym na czarne ekrany i awarie systemu, a NVIDIA wciąż nie ma gotowej poprawki.


Oprócz tego:

Premiera serii GeForce RTX 50 jest jedną z najbardziej problematycznych w historii firmy. Gracze i entuzjaści PC muszą zmagać się nie tylko z niedostępnością GPU i wysokimi cenami, ale również z problemem topiących się 16-pinowych złączy zasilania. Dodatkowo pojawiły się wady sprzętowe, np. przypadki kart z mniejszą liczbą jednostek ROP, niż deklarował producent. Do tego wszystkiego wydajność grafik z rodziny Blackwell po prostu rozczarowuje, więc nie rysuje to dobrego obrazu serii RTX 50. 


Jeśli ktoś doczytał do tego miejsca to może się zacząć zastanawiać o co chodzi z mniejszą ilością ROP'ów. No to już odpowiadam:


Według licznych doniesień, niektóre modele tej serii mogą posiadać wadę produkcyjną, która prowadzi do scalania partycji ROP (Render Output Unit) w procesorze graficznym, co bezpośrednio wpływa na spadek wydajności urządzeń.


Użytkownik reddita przeprowadził testy swojego RTX 5080 w popularnym benchmarku 3DMark Time Spy. Wyniki okazały się niepokojące – karta osiągnęła wynik 28 118 punktów, podczas gdy sprawna jednostka uzyskuje aż 32 273 punktów. Różnica wynosząca 12% jest ogromna, szczególnie w kontekście urządzeń klasy premium.

https://ithardware.pl/aktualnosci/nvidia_problemy_bsod_rtx_50_poprawki-39245.html


https://ithardware.pl/aktualnosci/rtx_5080_rop_wydajnosc_wpadka_nvidia-39271.html


#gpu #kartygraficzne #technologia

0c870ffa-6edf-4358-886c-7761b72009c4

@damw Prawda jest generalnie oczywista, Nvidia ma totalnie w d⁎⁎ie tworzenie konsumenckich kart graficznych dla graczy czy pół profesjonalistów i całą uwagę skupia na akceleratorach AI. Dosłownie nie opłaca im się marnować zasobów ludzkich jak i wolnych przydziałów za zamówienia wafli krzemowych na gałąź biznesu która daje im tak małe przychody w porównaniu do AI. I tak będzie dopóki cała ta bańka nie walnie w końcu.

Ja tutaj tylko zostawię te 3 obrazki:

1c1a54b1-1eca-43ad-8de2-1ad3acc24b08
8249093f-fe79-4705-a48a-585248971de4
6aebb409-4877-47ee-beff-e4e3023b1d21

Zaloguj się aby komentować

Problemów z nową generacją Gefore'ów ciąg dalszy (kolejne opóźnienia):


Jak podaje chiński serwis CTEE, jednym z powodów opóźnienia premiery kart graficznych GeForce RTX 5070 i RTX 5060 są problemy z wydajnością tych modeli. Układy rzekomo nadal wymagają dalszego debugowania. Dodatkowo sytuacji wcale nie ułatwiło niedawne trzęsienie ziemi w Tainan. W rezultacie masowa produkcja została ponoć opóźniona aż o cztery tygodnie, przy czym RTX 5070 ma być dostępny w połowie marca, natomiast RTX 5060 dopiero w połowie kwietnia. Mówiąc krótko, wiele wskazuje na to, że konsumenci będą mieli spore problemy z zakupem tych układów w okolicach premiery


https://www.purepc.pl/nvidia-geforce-rtx-5070-i-rtx-5060-masowa-produkcja-kart-miala-zostac-opozniona-z-powodu-problemow-z-wydajnoscia


#technologia #kartygraficzne #geforce #nvidia

1a035638-44c7-402e-ac3b-4409683a3029

Zaloguj się aby komentować

Udało mi się kupić wczoraj 5070ti w msrp. Tylko coś jakoś nie wysłali. Sprawdzam dzisiaj status zamówienia a tam "oczekiwanie na dostawę". Coś czuję, że potrzymają chujki kasę przez parę dni i anulują xD


Kocham papierowe premiery ( ͡~ ͜ʖ ͡°)


#pcmasterrace #komputery #nvidia

Zaloguj się aby komentować

Zaloguj się aby komentować

Zaloguj się aby komentować

Zaloguj się aby komentować

  1. bartek sprzedaje tmc z niezlym zyskiem, tmc spada

  2. bartek kupuje nvidie

  3. nvidia wypierdala sie na ryj w historycznie najwiekszej stracie na nasdaq

  4. tmc wypierdala do gory

  5. bartek placa pieniadze na konto, zeby kupic wiecej nvidii w dolku

  6. nvidia zapierdala do gory

  7. profit? nie znam typa


#gielda #inwestycje #nvidia #heheszki

Zaloguj się aby komentować

@bartek555 spadnie do 110 i wtedy wchodzę ja, cały na pińcet euro xD


EDIT: poczytałem recenzje nowej 5080, jednak nie wchodzę xD

Zaloguj się aby komentować

Zaloguj się aby komentować

Wklejam tekst mireczka, bo ciekawy.


https://wykop.pl/wpis/79949463/o-co-chodzi-z-deepseek-juz-tlumacze-najpierw-troch


O co chodzi z #deepseek ? Już tłumaczę!


Najpierw trochę kontekstu: Obecnie trenowanie najlepszych modeli AI jest NIEWYOBRAŻALNIE drogie. OpenAI, Anthropic i inne firmy wydają ponad 100 milionów dolarów tylko na moc obliczeniową. Potrzebują ogromnych centrów danych z tysiącami kart GPU wartych po 40 tysięcy dolarów każda. To jak posiadanie całej elektrowni tylko po to, aby zasilić fabrykę.

DeepSeek właśnie się pojawił i powiedział: „LOL, a co jeśli zrobimy to za 5 milionów dolarów zamiast tego?”. I nie tylko o tym mówili – oni to naprawdę ZROBILI. Ich modele dorównują GPT-4 i Claude'owi lub przewyższają je w wielu zadaniach

Jak? Przemyśleli wszystko od podstaw. Tradycyjne AI jest jak zapisywanie każdej liczby z dokładnością do 32 miejsc po przecinku. DeepSeek stwierdził: „A co, jeśli użyjemy tylko 8? Wciąż będzie wystarczająco dokładne!”. Bum – o 75% mniej pamięci potrzebne.

A potem jest ich system „multi-token”. Normalne AI czyta jak pierwszoklasista: „Kot... siedzi... na...”. DeepSeek czyta całe frazy naraz. Dwa razy szybciej, 90% tej samej dokładności. Przy przetwarzaniu miliardów słów to MA ZNACZENIE.

Rezultaty są oszałamiające:

- Koszt treningu: 100 mln $ → 5 mln $

- Liczba potrzebnych GPU: 100 000 → 2 000

- Koszty API: 95% taniej

- Może działać na gamingowych GPU zamiast sprzętu z centrów danych

„Ale zaraz,” możesz powiedzieć, „musi być jakiś haczyk!”. I tu jest ta niesamowita część – wszystko jest open source. Każdy może sprawdzić ich pracę. Kod jest publiczny. Dokumenty techniczne wyjaśniają wszystko. To nie magia, tylko niezwykle sprytna inżynieria.

Dlaczego to ma znaczenie? Bo łamie model, w którym „tylko wielkie firmy technologiczne mogą działać w AI”. Nie potrzebujesz już centrum danych wartego miliardy dolarów. Wystarczy kilka dobrych GPU.

Dla Nvidii to przerażające. Cały ich model biznesowy opiera się na sprzedaży superdrogich GPU z marżą na poziomie 90%. Jeśli nagle każdy będzie mógł robić AI na zwykłych gamingowych GPU... no cóż, widać, gdzie leży problem.

To klasyczna historia o disruptorach: obecni liderzy optymalizują istniejące procesy, podczas gdy disruptorzy przemyślają fundamentalne podejście. DeepSeek zadał pytanie: „A co, jeśli po prostu zrobimy to mądrzej, zamiast rzucać w to więcej sprzętu?”.

Konsekwencje są ogromne:

- Rozwój AI staje się bardziej dostępny

- Konkurencja rośnie dramatycznie

- „Fosy” dużych firm technologicznych zaczynają wyglądać jak kałuże

- Wymagania sprzętowe (i koszty) gwałtownie spadają


Ostatnia myśl: To wygląda na jeden z tych momentów, do których będziemy wracać jako punkt zwrotny. Jak wtedy, gdy komputery osobiste uczyniły mainframe'y mniej istotnymi, czy kiedy chmurowe obliczenia zmieniły wszystko.

AI zaraz stanie się o wiele bardziej dostępne i znacznie tańsze. Pytanie nie brzmi, czy to zakłóci rynek, ale jak szybko.


#technologia #chatgpt #chiny #nvidia #kartygraficzne #gielda #sztucznainteligencja #ai #informatyka

AlvaroSoler userbar

@AlvaroSoler W tym tekście można się zgodzić tylko z jednym - maleje próg dostępu do tworzenia modeli językowych. Giganci ze stanów nadal będą inwestować miliardy w ich rozwój, bo ścigają się na benchmarki, który z modeli jest lepszy, a że śpią na kasie to nie przeszkadza im jej przepalanie

Zaloguj się aby komentować

Zaloguj się aby komentować

Zaloguj się aby komentować

DeepSeek – firma, która zrewolucjonizowała proces trenowania modeli AI, redukując koszty o ponad 95%, a jednocześnie osiągając wyniki porównywalne z najlepszymi modelami, takimi jak GPT-4 czy Claude.


Jak to zrobili? Przez całkowite przemyślenie dotychczasowych założeń i procesów.

Tradycyjne trenowanie modeli AI to koszmar pod względem kosztów. OpenAI czy Anthropic wydają ponad 100 milionów dolarów tylko na moc obliczeniową, wykorzystując ogromne centra danych z tysiącami drogich procesorów graficznych (GPU).

Tymczasem DeepSeek udowodnił, że można to zrobić za jedyne 5 milionów dolarów.


Kluczowe innowacje DeepSeek:

- Efektywne zarządzanie pamięcią:

   Tradycyjne modele AI przechowują dane na 32bitach, co wymaga ogromnych zasobów pamięci. DeepSeek zapytał: "Ale dlaczego 32? W zupełności wystarczy 8", pozwoliło to na zmniejszenie wymagań pamięci o 75%.

- System „multi-token”:

   Zamiast przetwarzać tekst słowo po słowie jak klasyczne LLM "Wróbel... siedział... na...", DeepSeek analizuje całe frazy na raz. To sprawia, że proces jest dwa razy szybszy przy zachowaniu 90% dokładności.

- System ekspertów (MoE - Mixture of Experts):

   Zamiast jednego ogromnego modelu uruchomionego CAŁY CZAS, DeepSeek wprowadził system wyspecjalizowanych modeli. Każdy z nich uruchamiany jest tylko wtedy, gdy jest potrzebny, co drastycznie zmniejsza ilość aktywnych parametrów (671 miliardów ale tylko 37 miliardów aktywnych na raz). Nie jest po pomysł nowy (używany wcześniej między innymi w modelach Mixtral) ale pierwszy raz zastosowany w tej skali


Rezultaty?

- Koszt trenowania spadł z 100 milionów do 5 milionów dolarów.

- Liczba potrzebnych GPU zmniejszyła się z 100 000 do 2 000.

- Koszty API są niższe o 95%.

- Modele mogą być uruchamiane na standardowych GPU dla graczy zamiast drogich GPU serwerowych.


Co ważne, DeepSeek postawił na otwartość. Kod i dokumentacja są publicznie dostępne, co otwiera drzwi dla mniejszych firm i indywidualnych innowatorów.


Dlaczego to ma znaczenie?

Demokratyzacja AI

   Dotychczas tylko najwięksi gracze z ogromnymi budżetami mogli trenować zaawansowane modele. Teraz proces ten staje się dostępny dla mniejszych podmiotów.


Zagrożenie dla dużych firm

Nvidia, dominujący dostawca GPU, może odczuć konsekwencje, gdyż ich model biznesowy opiera się na sprzedaży drogich procesorów z ogromną marżą.


Nowa fala innowacji

Mniejsze wymagania sprzętowe i finansowe oznaczają większą konkurencję, co może przyspieszyć rozwój całej branży.


Podsumowując, DeepSeek zadał pytanie: „Co, jeśli zamiast rzucać coraz więcej sprzętu, po prostu zoptymalizujemy proces?”

Odpowiedzią są przełomowe wyniki, spadek kursu NVIDIA na giełdzie i PANIKA w meta i OpenAI


#zajebaneztwittera #llm #sztucznainteligencja #nvidia

44b21698-808a-47e7-b141-99d03d3fc2f6

@entropy_ nigdy nie jest tak że ma się cudowne dziecko. O wadach tu nic nie ma. Natomiast tak. Będzie dochodzić do optymalizacji kosztów.


Nie ma żadnej paniki. Bez przesady. Większość spółek na gieldzie jest przeszacownych i to mocno. Szczególnie aktualnie nvidia

Ciekawa alternatywa, rozmawia sensownie, pisze kody, ma dostęp do info do 2023 ale może przeszukać net w poszukiwaniu info

Tylko trochę muli i nie zapamiętuje informacji

Będę na pewno dalej testować

Zaloguj się aby komentować

#pc #pcmasterrace #gry #nvidia

Muszę Wam powiedzieć, że jestem pod dużym wrażeniem co Ngreedia zrobiła z tym nowym DLSS4 transformacyjnym. Niebo a ziemia gdzie w DLSS3 1080p + skalowanie na quality wyglądało jak gówno a teraz koła mi siadły, no rewelacja. Jest kilka niedoróbek jak na przykład mocny shimmering np. drzew i liści ale jak się ten ich superkomputer podszkoli to może być niemal idealnie. Spadek wydajności to tak z 10% u mnie na RTX 3060 12gb ale poprawa jakości obrazu i ostrości w ruchu to tak z 99%. Mowa oczywiście o Cyberbugu 2077 bo to pierwsza gierka w której to dali.

@Jim_Morrison myślałem, że dlss4 miało być ekskluzywne tylko dla serii rtx5000. Fajnie, że dziala ze starszymi generacjami.

Zaloguj się aby komentować

Uuuuuuuuuu

Bantustan i kraj pośledni drugiej kategorii. To juz oficjalne.

Tu dla Ciebie pomarancza!

To tylko pokazuje, ze ciagle gramy w innej lidze sojusznikow USA, jesli komus zdawalo sie kiedykolwiek inaczej

#nvidia #technologia #ai #programowanie #geopolityka #ciekawostki

82bbd775-0438-4039-9e77-97f2f8889493

Wszedłem teraz na R i takie coś znalazłem. Komentarz pod tą mapką.

(tak łagodnie i grzecznie napisał, że Polska robi "everything to align with USA" )

ff1decbd-b864-49dc-9bd4-ee2bade8c6b2

Zaloguj się aby komentować

Oho widac boja sie, steam os za rogiem à tam weszystko gotowe pod amd, ha tfu korporacyjne swinie z nvidi, za pozno, o wiele za pozno. Niech wrwcaja do sprzedawania srednich kart za krocie gigantom od ai, ja umre jak zylem: czerwony!

Zaloguj się aby komentować

Wyciekły zdjęcia kolejnej generacji kart RTX 6090. Mnie przekonali tymi wiatraczkami odpuszczam serie 50xx.

#kartygraficzne #nvidia #heheszki #ai

2776f4bf-17d0-4878-8960-c2e09cc577d2

@Spider z dalszych informacji:


  • wymagane podpięcie pod gniazdko 3-fazowe

  • zalecany proszkowy system gaśniczy

  • wymagana mechaniczna wentylacja pomieszczenia


xD

Zaloguj się aby komentować