
Na całym świecie pojawiła się awaria powodująca nieustanne rebootowanie urządzeń i pojawianie się niebieskiego ekranu śmierci na komputerach z Windows
#Microsoft #crowdstrike #bsod

Na całym świecie pojawiła się awaria powodująca nieustanne rebootowanie urządzeń i pojawianie się niebieskiego ekranu śmierci na komputerach z Windows
#Microsoft #crowdstrike #bsod
@LondoMollari oj tam oj tam. To był po prostu niezapowiedziany test, taki jak to niby biznes ma wpisany w tabelce przy sekcji "odporność aplikacji"
"Na szczęście" tylko tych, które mają oprogramowanie Crowdstrike
Jak się ktoś tutaj taki trafi, to jest sposób na naprawienie tego problemu:
"Boot Windows into Safe Mode
Navigate to the C:\Windows\System32\drivers\CrowdStrike directory in Explorer
Locate the “C-00000291-00000000-00000032.sys” file, rightclick and rename it to “C-00000291-00000000-00000032.renamed”
Boot the host normally.
"
Problem jest o tyle powazny, że windows wpada w pętlę bootowania i bez ręcznej naprawy nic nie zrobisz, bo nie ma jak wczytać poprawki. Ktoś nieźle dał ciała (albo sabotował firmę)
U nas CrowrdStrike nie jest popularny, więc jakieś tam incydenty mogą być (głównie w korpo, które są tylko oddziałami jakichś firm z USA), ale raczej przejdziemy przez to suchą stopą. No i ci, którzy oparli się na chmurze mają teraz problem.
Mnie zastanawia skala tego problemu - nagle się okazuje, że mnóstwo systemów, które nie powinny być wystawione do sieci, jednak jest wystawiona. Dlaczego? Pewnie dlatego, że coraz więcej oprogramowania wymusza stały dostęp do Sieci, żeby coś tam w chmurze porobić, cały czas się aktualizować itd. I widać jakie tego mogą być skutki.
Czekam na jakąś analizę techniczną, a nie na clickbaitowe nagłówki i artykuły pisane przez ludzi, którzy nie mają pojęcia o czym piszą
@LovelyPL dlaczego? To proste- bo wszelkiej maści wizjonerzy na kiju sprzedali managerom w korpo bajeczki, że jak przejdą do chmury to będzie taniej i niezawodniej. Sprzedali na tyle skuteczne, że managerowie poszli do swoich managerów z przygotowanymi pod tezę wykresikami w pptxach, a ci poszli do management boardu. A temu słysząc słowo "oszczędność" oczy zmieniły się w pięciozłotówki i zanim prezentacja się skończyła, to decyzja już była podjęta. Dziś po prostu było delikatne pierdnięcie jako ostrzeżenie, a i tak obsrali się po całości ci, którzy absolutnie nigdy nie powinny tego problemu doświadczyć. Czemu doświadczyli- chyba wszyscy wiemy.
@NiebieskiSzpadelNihilizmu
I tak szczerze mówiąc, to ci wizjonerzy mieli rację. Chmura często wychodzi taniej i jest bardziej niezawodna. Nie powiedzieli im tylko o tym, że jak dobrze walnie, to będzie to, co dzisiaj
Jak mi w piwnicy walnie serwer, to ja mam problem. Jak walnie MS parę datacenter, to wszyscy mamy problem.
Ciekaw jestem czy po dzisiejszej lekcji będą jakiekolwiek zmiany w podejściu:
a) do chmury
b) do odpowiedzialności dostawców oprogramowania
Czy po prostu czekamy na kolejny raz ale większy niż dzisiaj.
@LovelyPL no i w sumie to ze wszystkim się zgodzę poza tym fragmentem, że wizjonerzy mieli rację, bo chmura często wychodzi tanio. Chmura prawie nigdy nie wychodzi tanio, a już na pewno nie w rozwiązaniach czysto enterprise'owych, jak musisz postawić maszynę, która ma określone wymagania wydajnościowe, a nie jest jakimś odpowiednikiem t2.micro. Może jakieś jumphosty, albo środowiska DT i od biedy A, ale ujmę to tak- korpo w którym robię świadczy klientom usługi hostingowe, utrzymaniowe, wdrożeniowe itp. I też wpadli na pewnym etapie w to szaleństwo, że chmura to jest tańsza, szybsza, wydajniejsza i niezawodniejsza. Zaczęły się wielkie projekty, wielkie wyliczenia, wielkie prezentacje... przeflancowali bezpiekę, do dziś nie wiem jak patrząc po papierach, które przedstawili, ale dobra, no i doszliśmy do etapu testów. I faktycznie- jakieś jumphosty i inne maszyny typu "siedzę i się nudzę" działały spoko. A potem zaczęły się testy baz danych z naszego scenariusza, gdzie dla klienta liczą się pojedyncze IOPSy i się zrobiło niezręcznie, bo żadna konfiguracja nie dawała stabilnych rezultatów, nawet ta najbardziej wyjebana. A potem się zaczęło robić jeszcze ciekawiej, jak przeliczyliśmy jakie konfiguracje musielibyśmy mieć, żeby odwzorować wydajność nawet normalnych aplikacji i koszty jakie to wygenerowało były takie, że nie było nawet sensu iść do klientów pytać czy chcą iść do "lepszej" chmury, bo znaliśmy z góry odpowiedź. W poprzedniej pracy też brałem udział w projekcie migracji jakichś 8000 serwerów do chmury, w sumie to do dwóch- AWS i Azure i też dziwnym trafem baaaaardzo szybko po przeliczeniu kosztów okazało się, że kurde, jednak taniej jest utrzymywać swój on-prem i wymieniać sprzęt co 4-5 lat i płacić nawet za najbardziej premium support. Ja rozumiem zalety chmury, spoko, ale to naprawdę nie jest tanie rozwiązanie. A już na pewno nie tak elastyczne, jak własny on-prem.
@conradowl Tylko mnie średnio obchodzi, czy zawiniła firma Pajeet Development Bity Parzyste, czy Januszex Zaufany Microsoftu Bity Nieparzyste … jestem przerażony, że awaria jednego komponentu pociągnęła za sobą tak kolosalne skutki na całym świecie.
Internet miał w założeniu przetrwać nawet kilka celnych ataków jądrowych - a centralizacja i wepchanie tylu istotnych elementów w ręce zaledwie kilku korporacji wszystko zaprzepaściły.
@sierzant_armii_12_malp internet trwa i będzie trwać. Wymiana informacji istnieje
Zresztą z roku na rok zmienia się wszystko coraz bardziej. To, że kilka czy kilkanaście lat temu ktoś mówił, że internet wytrzyma ataki jądrowe nie oznacza, że dziś to wytrzyma. Takie są i będą efekty uzależnienia wszystkiego od AI, ujednolicenia standardów itp.
Coś za coś.
Można w Kambodży płacić Visą i nie trzeba zakładać tam konta w banku czy wymieniać gotówki. Ale za to jak coś padnie to wszędzie.
Może przeciętny Kowalski polecieć do Tajlandii bo są jednolite, ustandaryzowane procedury - ale jak coś padło to wszędzie.
Nie da się mieć ciastka i zjeść ciastko.
I nigdzie nie bronię MS @kodyak po prostu trzymam się faktów. I właśnie - jakie włamanie?
@conradowl
To, że kilka czy kilkanaście lat temu ktoś mówił, że internet wytrzyma ataki jądrowe nie oznacza, że dziś to wytrzyma
To do kitu, jest zbyt ważny. Swoją drogą, nie można zwyczajnie wyłączyć startowanie demona, który nawalił?
Można w Kambodży płacić Visą i nie trzeba zakładać tam konta w banku czy wymieniać gotówki. Ale za to jak coś padnie to wszędzie.
Doświadczenia z niedziałającymi kartami nauczyły mnie już, że gotówkę trzeba mieć ZAWSZE. Nigdy nie wiesz, kiedy 8 czy 10 kart z różnych banków padnie jednocześnie (zdarzyło się tak, jak z ekipą wyjechaliśmy na urlop), bo jakieś tam prace konserwacyjne we wszystkich bankach na raz. A ty musisz zatankować czy zapłacić za taksówkę.
@sierzant_armii_12_malp zdarzenia losowe to jedno. Kiedyś musiałeś po prostu mieć gotówkę, co więcej musiałeś kupić dolary, potem je wymienić na inną walutę itp. Wcale nie tak dawno, jeszcze z 50 lat temu... Wizy, kontrole osobiste, różne standardy bagażu, hoteli, jakości wody itp itd.
Dziś lecisz do Brazylii i McDonald's w Brazylii jest w zasadzie niemal taki sam jak McDonald's w Polsce, Wietnamie czy Alasce
@conradowl
Jednolity system zawsze jebnie.
No właśnie, monokultura jest ZAWSZE niebezpieczna, nie tylko w IT. Posadzisz las samych kasztanowców, to przyjdzie szrotówek i wszystko ześrutuje.
Swoją drogą - dobry system operacyjny powinien umożliwiać łatwe podniesienie w przypadku awarii jednej z usług podczas startu. Jeśli Windows ma z tym problem, to bardzo źle o nim świadczy.
@kodyak "Jakby nie robili na Microsofcie to wszystko było by git "
Lol, lmao even xD
https://access.redhat.com/solutions/7068083
Kernel panic miesiąc temu na Redhat wywołali XD
Zaloguj się aby komentować