Koleś miał sobie business, całkiem fajny bo dostarczał technologię używaną przez wypożyczalnie samochodów w USA.
Kozystali z infrastruktury firmy Railway ale coś tam nie pykło i tokeny uwierzytelniające w API dostawcy usług miały bardzo szerokie uprawnienia, co oczywiście jest okropną praktyką.
No i pan od biznesu wypożyczalnianego wykupił sobie Cursoa i Claude, po czym zaczęło sie vibecodowanie. Ale pan był, jak mu się wydawało, przezorny i ustawił Cursorowi ograniczenia, że niby czegoś tam nie może robić sam.
A ten nie posłuchał i wyparował im wszystkie kopie baz danych, łącznie z backupami. Jednym-kurła-żądaniem-REST.
Nie wiem kto tu bardziej zawinił ale robi się ciekawie.
Polecam jednak przeczytać posta na Twatterze, bo tam autor dołącza szczerą samokrytykę którą wygłosił agent. https://x.com/lifeof_jer/status/2048103471019434248?s=46
Miałem o wiele mniejszą w skutkach akcję na prywatnym serwerze. Postawiłem sobie po raz pierwszy Immich w Dockerze ale coś mi tam się nie zgadzało z uprawnieniami więc zacząłem pytać Gemini o porady. Początkowo brzmiało dobrze - proponował komendy nadające odpowiednie uprawnienia użytkownikowi. Zaczął jednak brnąć (na moją prośbę) w naprawianie wolumenów i ustawień albumów . Od słowa do słowa i nagle odkrył, że jestem na starej wersji (byłem na najnowszej) i zaproponował "upgrade" do wersji niższej i to sporo. Zaświeciła mi się niestety tylko żółta lampka zamiast czerwonej i zapytałem czy ta wersja Immicha (1.6.2) jest na pewno nowsza od 2.6.5. Gemini odpowiedział, że tak bo to inna numeracja niż zazwyczaj XD no i tu ja zjebałem bo mu zaufałem i powiedziałem no dobra to lecimy XD
Skończyło się na tym, że robiłem przez dwie godziny downgrade wszystkich kontenerów przez konsole co poskutkowało prawie całkowitym rozjebaniem instancji Immicha i zmarnowaniem około 8 godzin pracy. Całe szczęście, że nie tknął zdjęć. Ale co się nauczyłem o zaufaniu do AI to moje.
podczas używania Claude przypadkowo wpadłem na wbudowaną książkę kucharską (!) w silnik Claude. wywołujesz to komendą /display_recipe nazwadania (naleśniki w tym przypadku). Jeśli się zastanawiałeś, czy poświęcenie zasobów elektryczności i wody na generowanie przepisów na naleśniki, kaszankę, czy cokolwiek, jest uzasadnione - nie jest, lol.
/ask_user_input_v0 — formularze z opcjami (single/multi select, ranking)
No cóż. i tech firmy mówią, że to (AI/LLM) ma zmienić nasze życie. jak na razie uczy nas jak być leniwą bułą i jak nie używać internetu, tak jak do tej pory, lol. Można poeksperymentować z widgetami (tak je nazywa claude), może wpadniecie na coś interesującego (i podzielicie się)
@Majestic12 Codziennie. Wyszukiwarka Google do informacji się tak bardzo zepsuła, że wolę wpisać w chata a potem zarządać źródeł i wtedy wchodzę w jego źródła aby poczytać
No i mam wrażenie, że nie tędy droga, a artykuł ukazuje jak w soczewce problemy z wykorzystaniem i opisywaniem nowych technologii.
Po pierwsze, pies, według artykułu, był poddany konwencjonalnemu leczeniu - chemio- i radioterapii. Nie mamy pewności, że to właśnie te metody leczenia nie zadziałały z opóźnieniem, a artykuł o tym wspomina - jakby z obowiązku - jednym zdaniem.
Po drugie, artykuł wspomina o problemach z regulacjami. No szczerze, to jakbym był w komisji etyki i dostał badanie "podamy psu szczepionkę mRNA dedykowaną dla tego psa a z mRNA wygenerowanym ChatemGPT; nie, główny pomysłodawca nie ma pojęcia o biologii" to też bym żądał więcej informacji zamiast podpisać w ciemno.
Po trzecie, artykuł pyta:
“It raises the question, if we can do this for a dog, why aren’t we rolling this out to all humans with cancer? It gives hope to a lot of people, and it’s something we’re passionate about trying to chase up here.’’.
No właśnie nie możemy dlatego, że trzeba udowodnić, że technologia medyczna działa przed jej zastosowaniem, a przypadek jednego psa (leczonego równolegle metodami konwencjonalnymi) to za mało na dowód.
W 2021 rozpisywano się o leku na Alzheimera - pod nazwą Aduhelm - który nawet przeszedł badania kliniczne, został dopuszczony do obrotu w USA i okazał się skuteczny u niektórych osób. W dniu jego dopuszczenia trzech doradców FDA złożyło jednak rezygnację - problem w tym, że częściej niż wywoływać remisję w chorobie Alzheimera powodował obrzęk mózgu.
No ale na podstawie tego artykułu dostałem już od znajomego że "WIDZISZ CHATGPT RATUJE ŻYCIE A TY JESTEŚ TAK BARDZO NA NIE".
Piszę to, bo jednak chciałbym poznać inne punkty widzenia, więc zapraszam do dyskusji, może faktycznie mam skrzywienie anty-LLMowe
Jak zawsze nie wiem, jak to otagować, spróbuję #technologia #medycyna #chatgpt
@Mechazaba a co chcesz wiedzieć o modelowaniu cząsteczek? Ogólnie nie wiem co wyjaśniać, bo dla mnie jest to tak banalne, że nawet o tym nie rozmyślam xdd
"#ai zabierze wam wszystkim pracę" na jednym obrazku.
Zadanie niezbyt skomplikowane (choć dość nietypowe, fakt), po zapytaniu o konkrety zamiast ogólników efekt pic rel. Wywala się również na nowych chatach xD
@Aramil A my w robocie robimy naprawdę skomplikowane rzeczy z pomocą AI i szalenie pomaga - ostatnie 3msc zrobiliśmy porównywalną robotę co cały 2025 rok.
@Ragnarokk Ja też, LLM'y zamieniły mi długie godziny grzebania się w dokumentacji na "klepnij prompta i w godzinkę-dwie zweryfikuj efekty".
Wprowadzanie zmian konfiguracji, stawianie nowych usług, częściowo debug - to wszystko zdecydowanie zyskuje na wydajności. Ale dokładnie tak jak to napisałeś - AI pomaga. A niektórzy traktują LLM'y jak jakiegoś boga.
@Aramil No ja się czuję że z programisty stałem się Product Ownerem (jestem też nim, ale nie w tym rzecz :P). Piszę wypracowania co ma robić, potem pokazuje jak inne rzeczy są robione i efekty mnie jednocześnie cieszą i przerażają
Tak w skrócie to nie służy do niczego i do wszystkiego jednocześnie xDDD
To jest wrapper który oddaje kontrolę nad maszyną na której to uruchomiłeś w ręce LLMa (możesz sobie wybrać prawie dowolnego).
To jest jednocześnie bardzo głupi i bardzo dobry pomysł, już spieszę wyjaśnić.
Powiedzmy, że chcesz coś uruchomić na komputerze, ale nie działa. Dla przykładu: pobrałeś sobie kod z githuba i sypie błędami.
Możemy zadanie wykonania tego kodu powierzyć naszemu pomocnikowi, jemu też się nie włączy ale zdiagnozuje dlaczego i albo doinstaluje np brakujące zależności albo naprawi kod, żeby się włączył.
Z zalet, to też możliwość delegowania zadań np przez praktycznie dowolny komunikator, którego używasz. Możesz do niego napisać na whatsappie na przykład, aby np zrobił Ci prasówkę z wydarzeń na bliskim wschodzie, albo sprawdził o której jest pociąg do Zawiecia.
Twój personalny asystent jeżeli będzie potrzebował to stworzy sobie pomocnika który bedzie wykonywał długie zadanie w tle a w tym czasie możesz zlecić mu kolejne.
Z wad: kosztuje - dużo - pieniędzy
Spala tokeny w zastraszającym tempie. Jak używasz drogich modeli typu: claude 4.6 to trzeba być milionerem.
Niektóre zadania wykonuje.... No po swojemu powiedzmy. Ja swojemu dałem dla przykładu zadanie wykonać jakieś akcje na csv który ma 20+k wierszy. Zadanie wykonał poprawnie, nawet napisał sobie skrypt żeby optymalniej parsować każdą linię. Wykonał poprawną pracę... i nie zapisał wyniku xDDD
No ale za drugim razem i 10usd później już mu wszyszło tak jak miało wyjść.
Następna wada: można używać modeli na swoim komputerze ale muszą to być duże modele. W sensie, 2,4,15 miliardów parametrów są zdecydowanie za małe i muszą mieć GIGANTYCZNY kontekst a więc musisz de fakto posiadać superkomputer z nasa albo będziesz obserwował jak farba schnie w zwolnionym tempie. 100tokenów/s działa super żwawo.
Czy polecam?
Jak masz coś do automatyzacji, np obsługa ticketów, maili, robienie prasówek, przyda Ci się coś w stylu: rzucę mu wiadomość głosową na whatsapie żeby znalazł mi X i za kilka minut dostajesz b.ładne wyniki np na maila to jest jak najbardziej dla Ciebie.
Jako demonstrator technologii, gdzie opisujesz co chcesz a maszyna to po prostu robi (ale najczęściej za pierwszym razem jej nie wyjdzie xD) to jest 10/10
Ale jak wspominam, to jest raczej demonstrator, kosztuje w c⁎⁎j ale jako tako działa. Na pewno będą osoby które skorzystają i będą zadowolone.
Lokalnie może to działać z gpt-oss:20b. Ładnie się mieści w 16gb pamięci i jak testowałem w ollamie to można na spokojnie ustawić 256k okno kontekstu. Przy czym ja to testowałem na Radeonie 7900xt ^^'
@Yes_Man obiad się gotuje, jeszcze 3 godziny pieczenia ud indyka, na ziemniory za wcześnie jeszcze do wstawienia. Już dziś spałem, niewolnik umył już podłogi, mogę dalej chorować i klikać w ejaje