Zdjęcie w tle

Społeczność

Technologia

1k+

Już niebawem, 1 kwietnia, będziemy obchodzić 25 rocznicę powstania marki Radeon.


AMD świętuje 25-lecie kart graficznych marki Radeon, której korzenie sięgają jeszcze czasów firmy ATI. Radeon wielokrotnie rywalizował, a nawet wygrywał w starciach z konkurencją. Choć w ostatnich latach karty te pozostawały w cieniu NVIDII, jednak dzięki architekturze RDNA 4 i nadchodzącej UDNA sytuacja może się ponownie odmienić.


Wracając jednak na chwilę do firmy ATI - ta została przejęta przez AMD w 2006 roku, a Radeon pozostał kluczową marką w świecie kart graficznych. W kolejnych latach AMD kontynuowało jej rozwój, wprowadzając przełomowe modele, takie jak Radeon HD 4000 i HD 5000, które jako jedne z pierwszych wspierały DirectX 11. Następnie przyszły serie Radeon R9 200 oraz RX 400 i RX 500, które umocniły pozycję firmy w segmencie graczy szukających wydajnych, ale przystępnych cenowo rozwiązań. Przez lata Radeon rywalizował z NVIDIA, niejednokrotnie oferując świetny stosunek ceny do wydajności. Jednak w ostatniej dekadzie dominacja konkurenta stała się bardziej wyraźna. Teraz, wraz z premierą RDNA 4 i zapowiedziami nadchodzącej architektury UDNA, AMD ponownie wkracza do gry, próbując odwrócić ten trend.


Pierwszą kartą graficzną był:

Radeon R100 is the first generation of Radeon graphics chips from ATI Technologies. The line features 3D acceleration based upon Direct3D 7.0 and OpenGL 1.3, and all but the entry-level versions offloading host geometry calculations to a hardware transform and lighting (T&L) engine, a major improvement in features and performance compared to the preceding Rage design. The processors also include 2D GUI acceleration, video acceleration, and multiple display outputs. "R100" refers to the development codename of the initially released GPU of the generation, various releases which were collectively known as the Radeon 7200. It is the basis for a variety of other succeeding products, including the entry-level RV100 (Radeon VE or Radeon 7000) and higher-performance refresh RV200 (Radeon 7500), the latter two having dual-monitor support.

który trafił do sprzedaży April 1, 2000


https://www.purepc.pl/amd-radeon-marka-karty-graficzne-swietuje-25-lecie-historia-poczatek-2000-rok-firma-ati


#technologia #gpu #amd #ati #kiedystobylo

IMHO nie dowieźli, bo nowe karty są drogie i takie sobie. Nvidia im odjechała.

Mam 2080ti, które już trochę nie wyrabia na moim monitorze UWQHD, więc myślałem o zmianie. Na co? Jedyny rozsądny wybór to 4070, bo niżej nie ma sensu (4060 w tej rozdziałce wypada gorzej od 2080), ale ceny są zaporowe. Już myślałem, że AMD coś wniesie, ale wniosło wielkie nic. Cenowo nieciekawie, a wydajnościowo to poziom właśnie 4070.

Nowe Nvidie to już w ogóle porąbany temat...

Zaloguj się aby komentować

Sztuczna inteligencja od kilku lat wywołuje zachwyt, ale coraz częściej pojawiają się głosy podważające wiarygodność i rzetelność narzędzi opartych na modelach językowych. Najnowsze badania Tow Center for Digital Journalism dowodzą, że wyszukiwarki AI nie tylko nie gwarantują dokładności wyników, ale też wprowadzają użytkowników w błąd. I to w ponad połowie przypadków.


  • Wyszukiwarki AI — w największym skrócie — nie są wiarygodne

  • To istotne wyzwanie z perspektywy biznesowej, ponieważ wskazuje na realne zagrożenia dla firm, które liczą na niezawodne narzędzia do przetwarzania informacji i poszukiwania wiarygodnych danych

  • Niezależnie od tego, czy to ChatGPT Search, Perplexity czy DeepSeek, wyniki są rozczarowujące

  • Najgorsze rezultaty odnotował Grok Elona Muska — myli się w ponad 90 proc. przypadków


Aisvarya Chandrasekar i Klaudia Jaźwińska, autorki raportu z Tow Center for Digital Journalism, przebadały osiem zaawansowanych narzędzi, m.in. ChatGPT Search, Perplexity, Perplexity Pro, Gemini, DeepSeek Search, Grok-2, Grok-3 i Copilot. W każdym przypadku poddały je prostemu testowi sprawdzającemu, czy AI jest w stanie prawidłowo zidentyfikować publikację prasową na podstawie krótkiego cytatu.


Ocenie podlegało to, czy chatbot poprawnie podaje tytuł, nazwę wydawcy i właściwy adres URL. Wyniki? Te okazały się rozczarowujące. Po zgromadzeniu danych z 200 artykułów z 20 różnych źródeł okazało się, że łączny odsetek błędów przekracza 60 proc. W obszarze wyszukiwania, będącym teoretycznie kluczową funkcją sztucznej inteligencji, jest to wynik alarmujący.


Problemem nie jest jedynie to, że AI nie potrafi udzielić wiarygodnej odpowiedzi. Jeszcze bardziej niepokojące jest zjawisko określane mianem halucynacji — algorytm prezentuje błędne wnioski z pełnym przekonaniem, a gdy zostaje przyłapany na nieścisłościach, potrafi dalej brnąć w kolejne wymyślone treści.


W praktyce oznacza to, że generowane odpowiedzi często wyglądają bardzo profesjonalnie, ale nie mają pokrycia w faktach. Ta fałszywa pewność siebie ułatwia wprowadzanie użytkowników w błąd, zwłaszcza gdy ufają oni reputacji marki tworzącej narzędzie AI i nie weryfikują uzyskanych informacji w innych źródłach.


Co istotne, nawet płatne modele, oferowane rzekomo w bardziej zaawansowanej formie, nie wypadają o wiele lepiej. Usługi kosztujące kilkadziesiąt dol. miesięcznie wcale nie gwarantują większej dokładności, a często kreują jeszcze więcej błędów, powołując się na nieistniejące linki czy przypisując autorstwo zupełnie innym redakcjom.


Z biznesowego punktu widzenia kłopotliwe jest także to, że pośrednio uderza to w wizerunek wydawców, którym AI błędnie przypisuje teksty lub w ogóle nie przekierowuje na źródło. Część wydawców zdecydowała się więc całkowicie zablokować dostęp robotów indeksujących, mając nadzieję na zachowanie kontroli nad własnymi treściami. Tu także natrafiono na paradoksalne sytuacje: niektóre narzędzia i tak publikują streszczenia wybranych artykułów, ignorując wolę właścicieli oryginalnych artykułów.


Badania pokazują, że sama technologia, choć robi wrażenie szybkością działania czy płynnością języka, nadal bywa nierzetelna. Wyszukiwarki AI potrafią bez wahania udzielać odpowiedzi o charakterze politycznym lub specjalistycznym, a następnie przyznać się do błędu i… po chwili ponownie serwować zmyślone fakty. Tego typu manipulacje, świadome bądź nie, mogą w dłuższej perspektywie prowadzić do utraty zaufania do rozwiązań AI i poważnych konsekwencji dla użytkowników, którzy polegają na informacjach będących efektem algorytmicznej analizy danych.


https://businessinsider.com.pl/technologie/nowe-technologie/wyszukiwarki-ai-czesto-kieruja-na-manowce-najgorszy-jest-grok-elona-muska/2gnlkrr


#wiadomosciswiat #technologia #ai

To bardzo zła wiadomość, bo obecna wyszukiwarka google to.... ech. Szkoda gadać. Kiedyś było dużo lepiej.


BTW śmieszy mnie pisanie o "halucynacjach", jak to przecież tak czy siak są "zgadywarki", tylko że no

folded 9000 times, przez co działają lepiej, niż bym się spodziewał.

nothing new, ale jak mam coś researchować ręcznie w google, ręcznie przez przekopywać się przez dziesiątki stron i spróbować z tego wyciągnąć esencję, to już wolę, żeby AI zrobiło to za mnie w 3 sekundy


i jeśli temat jest ważny, to wyplute wnioski sobie już ręcznie zweryfikuję czy doresearchuję

Serio, a w uczeniu maszynowym są jakieś bramki logiczne? W sensie odsiewające bzdury, hipotezy, rojenia od faktów i sensownie uargumentowanych opinii? No bo jeśli nie, to trudno się spodziewać sztucznego geniusza po tym, jak na wejściu jego mózg zalany został gównem. To jak na wyjściu ma nie być gówna?

Zaloguj się aby komentować

Zaloguj się aby komentować

Voyager 1 i 2 to dwie sondy kosmiczne NASA, które jako jedyne w historii ludzkości opuściły umowną granicę Układu Słonecznego. Oba statki przebywają w kosmosie od blisko 50 lat i kończy się im paliwo. Dlatego NASA podjęła decyzje związane z wyłączeniem pewnych instrumentów sond Voyager 1 i 2, co pozwoli wydłużyć ich misje.


NASA przekazała, że 25 lutego wyłączono eksperyment z podsystemem promieni kosmicznych, który znajduje się na pokładzie Voyagera 1. Natomiast 24 marca zostanie dezaktywowany jeden z instrumentów jego brata bliźniaka. W przypadku Voyagera 2 planowane jest wyłączenie narzędzia do badania niskoenergetycznych cząstek naładowanych.


Voyagery są gwiazdami głębokiego kosmosu od czasu startu i chcemy, aby tak pozostało jak najdłużej. Ale energia elektryczna się kończy. Jeśli nie wyłączymy teraz jednego instrumentu na każdym Voyagerze, prawdopodobnie będą miały tylko kilka miesięcy zasilania, zanim będziemy musieli ogłosić koniec misji


Takie decyzje zostały podjęte nie bez przyczyny. Oba statki mają coraz mniej energii i w skali roku ubywa im około 4 W mocy. Jeśli NASA nie powyłącza części instrumentów, to obie sondy kosmiczne przestaną dostarczać dane, a są w miejscu, gdzie ludzkość wcześniej w historii nie była w stanie ich zdobyć.


Po operacji planowanej na 24 marca obu sondom kosmicznym pozostaną po trzy aktywne instrumenty. Początkowo Voyagery miały ich po 10. Pierwszy ze statków dotarł do bariery heliosfery w 2012 r. Sześć lat później podobny cel osiągnął Voyager 2. Wcześniej żadne inne sondy kosmiczne zbudowane przez człowieka nie działały w przestrzeni międzygwiezdnej.


https://geekweek.interia.pl/nauka/news-opuscily-uklad-sloneczny-nasa-walczy-o-misje-sond-voyager-1,nId,21320037


#ciekawostki #technologia #kosmos #voyager

Trochę niepojęte jest dla mnie, że oba Voyagery będą sobie lecieć prawdopodobnie przez setki tysięcy lat, możliwe, że nawet po tym, jak ludzkość już zniknie z powierzchni ziemi 🤯

@Aksal89 no jest na to bardzo duża szansa:


Za 300 lat Voyager 1 dotrze do Obłoku Oorta, a jego przebycie zajmie mu 30 000 lat. Jeśli sonda nie zostanie zniszczona, za około 18 000 lat Voyager 1 oddali się od Słońca na odległość 1 roku świetlnego. W roku 40 272 sonda minie gwiazdę Gliese 445 (AC+79 3888) w gwiazdozbiorze Żyrafy w najmniejszej odległości wynoszącej 1,64 roku świetlnego. Prędkość radialna Gliese 445 wynosi −119 km/s i gwiazda ta zbliża się obecnie do Słońca oraz do Voyagera. NASA stwierdziła, iż „sondy Voyager będą – prawdopodobnie wiecznie – przemierzać Drogę Mleczną”


Przewiduje się, że wytwarzana przez generatory MHW-RTG energia wystarczy do utrzymania pracy ostatnich instrumentów naukowych na pokładzie sondy do około 2025 roku. Około roku 40 176 Voyager 2 minie gwiazdę Ross 248 w gwiazdozbiorze Andromedy w najmniejszej odległości wynoszącej 1,65 roku świetlnego, a za około 294 000 lat minie, w odległości około 4,32 lat świetlnych, najjaśniejszą gwiazdę ziemskiego nieba - Syriusza w gwiazdozbiorze Wielkiego Psa

Przy tej prędkości czeka ich wiele setek tysięcy lat podróży

Zaloguj się aby komentować

Kiedyś uzbierałem kilka fajnych materiałów (zdjęć) z Lenovo w roli głównej. Co by nie wymyślili, i tak będzie się rozpadało

Zaloguj się aby komentować

* https://youtu.be/gkJ4qv5RLRc)

* roztlumaczcie sobie same

* wyciek danych 6 milionów użytkowników (dzieci i rodziców)

* Dzięki tabletom kupionym dzieciom #vtech #wallmart

* Zabawki produkcji VTech©= #visa , tak to rozumiem.

* serwery #Ted

* miliony #pedofile mogli sobie namierzać i oglądać ofiary , ale nie mogli

* facet znalazł lukę i wstęp, lecz wzięło go sumienie,

* ujawnił lukę przez haveibeenpwned zamiast opylić to za ułamek miliarda $

#cybersecurity

Zaloguj się aby komentować

Cześć!


Ma ktoś dzieci i używa Android i ich apki: family link do limitowania czasu dostępu? Krew mnie zalała. Mam córkę w 3 klasie, w kontaktach alarmowych jesteśmy my - rodzice i kilka koleżanek. Okazuje się, że po wyczerpaniu limitu czasu nie może połączyć się z kontaktami ustawionymi na alarmowe, cokolwiek jej się nie stanie, nie będzie w stanie się skontaktować. Jak zwiększam limit, to kontakty alarmowe działają właściwie. Ktoś wie jak to rozwiązać? Ma ktoś taki problem?


#android #blokada

78626db3-cad9-40a0-9227-96dc71057f0f

@AdelbertVonBimberstein wydaje mi się, że działało, ale teraz nie zadziałało. Dodanie czasu pomogło. Właśnie starszy syn mi zgłasza podobny problem, że zdarza się, że nie działa i dlatego przestaje często zabierać telefon ze sobą. Ja pierdykam, to masakra jakaś.

Zaloguj się aby komentować

Nie wiem ile jest takich osób na świecie, ale jeśli ktoś by chciał używać nowych Radeonów a nie ma UEFI z Secure Boot, to sobie nie poużywa tych kart:


Firma AMD oficjalnie potwierdziła, że najnowsza seria kart graficznych Radeon RX 9000 wymaga UEFI (Unified Extensible Firmware Interface) i nie będzie działać w trybie BIOS Legacy (CSM – Compatibility Support Module). Informację tę zawarto w nowym dokumencie wsparcia technicznego opublikowanym na stronie producenta.

Decyzja AMD jest zgodna z ogólną tendencją w branży, w tym z wymogami Windows 11, które wymagają UEFI i Secure Boot.


Potem w artykule jest trochę marketingowego bełkotu typu:


Nowoczesny firmware UEFI oferuje wiele zalet w porównaniu do tradycyjnego BIOS-u, takich jak:


  • Lepsza ochrona przed malwarem dzięki Windows Secure Boot.

  • Obsługa dysków twardych większych niż 2,2 TB.

  • Wsparcie dla nowych technologii sprzętowych, w tym bootowania z nośników NVMe SSD.

  • Szybsze czasy uruchamiania, zamykania, uśpienia i wybudzania systemu.

  • Łatwiejsze i bardziej niezawodne aktualizacje firmware'u.


Podsumowanie:

Nowa polityka AMD oznacza, że użytkownicy starszych komputerów z BIOS Legacy mogą napotkać problemy z działaniem Radeonów RX 9000. Jeśli Twój komputer nie obsługuje UEFI, a planujesz zakup nowej karty graficznej AMD, warto rozważyć modernizację platformy sprzętowej, aby uniknąć potencjalnych komplikacji i cieszyć się pełną wydajnością nowej generacji GPU.


https://ithardware.pl/aktualnosci/radeony_amd_platformy-39484.html


#technologia #gpu #amd #radeon

@MostlyRenegade A jest w ogóle możliwe? Mój ma tyle i czeka mnie, odwlekany, długi reaserch co da się do niego wsadzić by nie kupować wszystkiego od zera, i czy w ogóle jest sens.

@sireplama uefi z secure bootem było wymagane do Windowsa 8 czyli 12 lat temu przynajmniej. Pytanie jest: kto chce parować taki prehistoryczny sprzęt (CPU, RAM) z tak nowoczesną kartą graficzną - przecież CPU będzie zajechany na 100%, a GPU się będzie tutaj nudzić. Dlatego napisałem:

Nie wiem ile jest takich osób na świecie

bo wiem, że się tacy znajdą, ale chyba ich dużo nie ma

@rhqq ale te GPU to nie są karty do laptopa tylko normalnego, wolnostojącego PC... A te komputery już potrafią tak bootować w legacy mode

@damw ależ absolutnie nie, korzystam z egpu od dawna, a od niedawna 7600XT tak więc proszę mi tu nie dyskryminować.


idąc dalej, AM3 i LGA775 to ostatnie platformy które miały typowy bios bądź coś przejściowego co jako-tako umiało bootować z GPT. Więc podtrzymuję temat, że tytuł z dupy. A BIOS miał więcej dziur niż UEFI, tylko o tym się już nie mówi, bo stare sprzęty należą do muzeum albo na wysypisko - w zależności od sentymentu.

Zaloguj się aby komentować

Zaloguj się aby komentować

@fadeimageone


Er, ale nic nie zrobili. To jest dopiero propozycja zmian, po rewizji.


Tłumaczą to tak:

TL;DR Mozilla doesn’t sell data about you (in the way that most people think about “selling data”), and we don’t buy data about you. We changed our language because some jurisdictions define “sell” more broadly than most people would usually understand that word. Firefox has built-in privacy and security features, plus options that let you fine-tune your data settings.


Możesz się z tym nie zgadzać, ale czy masz pewność, że ich intencje były niewłaściwe?

Ja po tych zmianach z miejsca przesiadłem się na Floorp. Tranzycja trwała 30 sekund (trzeba było przenieść pliki profilu z Firefox do Floorp). Problem solved

Zaloguj się aby komentować

Wersja PC zajmuje 800MB?! #CDK ?


Szybko skończyła się moja przygoda z Brave - nie można wybrać folderu instalacji?! Żart jakiś ...

Zaloguj się aby komentować

Grupa doświadczonych inżynierów, w tym były główny architekt AMD Jim Keller, dołącza do startupu AheadComputing, który stawia na rozwój procesorów opartych na architekturze RISC-V. Nowa technologia ma potencjał, by zagrozić dominacji układów x86, co może doprowadzić do istotnych zmian na rynku procesorów.


AheadComputing to firma, której trzon tworzą byli inżynierowie Intela, pracujący wcześniej w zaawansowanym zespole badawczo-rozwojowym Intel Advanced Architecture Development Group. Wśród nich znajdują się Debbie Marr, Mark Dechene, Jonathan Pearce oraz Srikanth Srinivasan – specjaliści, którzy przez dekady brali udział w projektowaniu najbardziej zaawansowanych układów scalonych Intela.


Nowy startup może pochwalić się wyjątkowo mocnym zespołem:


  • Jim Keller - znany z prac nad architekturą Zen oraz procesorami Ryzen, które przyczyniły się do powrotu AMD na pozycję lidera wydajności. Jako członek zarządu AheadComputing wniesie swoje doświadczenie w zakresie projektowania nowoczesnych układów scalonych i optymalizacji architektur procesorowych.

  • Debbie Marr – przez 33 lata związana z Intelem, kluczowa postać odpowiedzialna za technologię wielowątkowości (Hyper-Threading), która znacząco zwiększyła efektywność procesorów x86.

  • Mark Dechene – były główny inżynier i architekt procesorów Intela, współtwórca linii Haswell, Broadwell, Goldmont i Tremont. Właściciel 15 patentów związanych z technologią procesorową.

  • Jonathan Pearce – ekspert od procesorów CPU, AI oraz układów graficznych, z 19 patentami na koncie. Przez 22 lata pracował nad kluczowymi technologiami Intela.

  • Srikanth Srinivasan – rekordzista w liczbie patentów (ponad 50). Twórca rozwiązań dla układów Nehalem, Haswell i Broadwell.


RISC-V, otwarta architektura procesorowa, zdobywa coraz większą popularność, oferując elastyczność, niższe koszty produkcji oraz większą efektywność energetyczną. Nie bez powodu Chiny i Rosja wykazują duże zainteresowanie tą technologią – możliwość tworzenia własnych układów bez konieczności płacenia licencji gigantycznym korporacjom, takim jak Intel i AMD, jest niezwykle kusząca.


Mimo że AheadComputing nie ujawnia jeszcze szczegółowych informacji na temat swoich pierwszych produktów, analitycy przewidują, że firma skupi się na wysokowydajnych rozwiązaniach do zastosowań w AI i obliczeniach chmurowych. Istnieje również możliwość licencjonowania opracowanych technologii innym firmom, co mogłoby znacznie przyspieszyć popularyzację RISC-V.


Na razie AheadComputing skupiło się na zabezpieczeniu finansowania. W ciągu zaledwie sześciu miesięcy startup pozyskał 21,5 mln USD od inwestorów takich jak Eclipse Ventures, Maverick Capital, Fundomo oraz EPIQ Capital Group. Co więcej, Jim Keller osobiście zainwestował w projekt, co dodatkowo podkreśla jego zaangażowanie i wiarę w sukces RISC-V.


Hmm jeśli Jim dołącza do tego projektu, to przy odpowiednim finansowaniu mogą faktycznie całkiem sensowne układy zaprojektować O_o


https://ithardware.pl/aktualnosci/weterani_intel_risc_v_amd_zen-39383.html


#technologia #cpu #riscv #ciekawostki

6aff2e4b-46e3-4c07-acdd-779604a1172b
8d7b01f8-da53-4124-a1de-7429e105b8c2

@MostlyRenegade nie widzisz szansy na to, żeby np te CPU siedziały w serwerach i napędzały bazy danych, http serwery czy coś takiego? Bo laptopy/pc to faktycznie mała szansa

@damw no, jestem sceptyczny. Szczególnie, że RISC-V rozwijany jest już od przeszło 15 lat, ale nic konkretnego i komercyjnego się nie ukazało do tej pory.


Wbrew pozorom, otwartość platformy może stanowić przeszkodę. W ostatecznym rozrachunku, w biznesie liczy się efekt i cena, a nie to, jak bardzo otwartego rozwiązania używamy (vide Linux). Zamknięte i własnościowe produkty będą dominowały jeśli będą po prostu oferowały więcej.

Zaloguj się aby komentować