I wy tak zyjecie w tym it? Kogo oni tam szukają jezusa na tego juniora? XDdd
#it #rekrutacja

I wy tak zyjecie w tym it? Kogo oni tam szukają jezusa na tego juniora? XDdd
#it #rekrutacja

@Dzban3Waza Czyli tak to są 4 spotkania, każde po 5 godzin co jest równe połowie tygodnia pracy na etacie.
@Dzban3Waza Najbardziej zaskakujące jest to, że ktokolwiek jeszcze szuka juniora. Obecnie Claude Code robi podobnie lub lepiej niż większość juniorów, i nie trzeba spędzać paru miesięcy na wdrażaniu go w projekt.
@LondoMollari
Przecież nikogo nie zatrudnią, robią tylko po to by HR udowodnił, że jest dalej potrzebny, a nikt się nie nadajr XD
@Ragnarokk Może tak, ale na takie warsztaty, czy live coding trzeba poświęcić trochę czasu ludzi technicznych, aby to ogarnąć od strony firmy, więc tym bardziej to jest absurdalne, jeśli nie chcą nikogo zatrudnić.
@LondoMollari Wybacz za ścianę tekstu ale mnie to trochę odpala jak słyszę, że AI jest lepsze od programisty - nawet juniora.
Nie pracowałem z Claude Code (za to z innymi płatnymi wersjami w pracy) ale AI ma ograniczenia, które sprawiają, że żadne AI nie umywa się do człowieka bo:
- nie jest samodzielne - nie stworzy na podstawie zadania zmian w wielu serwisach, nie stworzy PRa, nie zainstaluje go na wybranym środowisku czy nie zmieni konfiguracji
- kontekst - AI ma możliwość pracy na milionach tokenów ale nie wie co w tym kontekście jest ważne, ma halucynacje co do szczegółów i wszystko co ma w kontekście traktuje równo. Człowiek potrafi za pomocą swojej mapy mentalnej rozpoznać instynktownie jakie serwisy trzeba zmienić na podstawie zadania, a wiedza o projekcie to nie tylko sam kod ale czasem trzeba zajrzeć do konfiguracji, przeczytać dokumentacje, odezwać się do kogoś kto robił tę zmianę
- AI nie boi się, nie bierze odpowiedzialności i byłbym przerażony jakbym miał pracować w projekcie gdzie AI ma wszystkie uprawnienia nawet do środowiska testowego. Junior ma instynkt samozachowawczy i przed zainstalowaniem wersji czy dropowaniem tabeli/bazy/schematu trzy razy sprawdzi, czy na pewno jest na środowisku testowym, a jak tak zrobi to bardzo szybko odezwie się do kogoś
- AI trudniej zrozumieć biznesowy sens zadania, a człowiek jest w stanie dopytać czy zajrzeć do innych źródeł
- AI nie jest w stanie zadziałać w środowisku CI/CD (naprawić yaml, zrestartować poda)
- Junior wie gdy czegoś nie wie i potrafi aktywnie zapytać bardziej doświadczonych kolegów
Możemy zaklinać rzeczywistość bo AI napisze lepiej klasę niż junior i ucieszymy się jaka to oszczędność ale nie widzimy pełnego obrazu, że bez juniorów nie będzie midów ani seniorów w przyszłości. Nie byłoby to problemu gdyby ta technologia potrafiła samodzielnie pracować i zrobić to co napisałem we wcześniejszych punktach.
@nbzwdsdzbcps klasyczny problem, wszyscy by chcieli, żeby ktoś zatrudniał juniorów, żeby w przyszłości miał kto robić trudniejsze rzeczy, ale najlepiej, żebyśmy to nie byli my, tylko inne firmy
@nbzwdsdzbcps Rozbiję odpowiedź na fragmenty, bo trzeba po kolei:
Możemy zaklinać rzeczywistość bo AI napisze lepiej klasę niż junior i ucieszymy się jaka to oszczędność ale nie widzimy pełnego obrazu, że bez juniorów nie będzie midów ani seniorów w przyszłości.
Ja nie twierdzę, że to jest super, że to mi się podoba - wręcz sam widzę i mówię o tym problemie. ale realia są takie, że kalkulacja juniorzy vs AI w wielu wypadkach wypada na korzyść AI. Od strony etycznej w zupełności się z Tobą zgadzam - kalkulacja taka jest krótkowzroczna i głupia, ale firmy nie patrzą w przyszłość w perspektywie 10 lat, a jedynie w perspektywie kwartału, max paru lat.
- nie jest samodzielne - nie stworzy na podstawie zadania zmian w wielu serwisach, nie stworzy PRa, nie zainstaluje go na wybranym środowisku czy nie zmieni konfiguracji
Ależ oczywiście, że jest w stanie. Taki Claude Code możesz zintegrować sobie z Jirą czy dowolnym innym serwisem posiadającym api, dać odpowiednie dostępy do repo, i workflow masz taki, że wysyłasz mu jirę (dobrze opisaną), pomieli, i zrobi pull requesta.
Deploywanie też ogarnie (dlatego poniżej odpowiadam to):
- AI nie jest w stanie zadziałać w środowisku CI/CD (naprawić yaml, zrestartować poda)
No właśnie jest. Sam niedawno odziedziczyłem projekt typu spaghetti code, starej aplikacji windowsowej, nawet nie wiedziałem jak to zbudować. Stworzyłem mu brancha z uprawnieniami do commitowania, na tym branchu ustawiłem automatyczne buildy, i dałem Claudowi dostep do odczytu logów z buildów. Potem kazałem mielić plik bitbuckep pipelines, oraz same pliki projektu, aż nie osiągnie poziomu, kiedy projekt się zbuduje i przejdzie testy. Mielił z pół dnia, ale ogarnął.
- AI nie boi się, nie bierze odpowiedzialności i byłbym przerażony jakbym miał pracować w projekcie gdzie AI ma wszystkie uprawnienia nawet do środowiska testowego. Junior ma instynkt samozachowawczy i przed zainstalowaniem wersji czy dropowaniem tabeli/bazy/schematu trzy razy sprawdzi, czy na pewno jest na środowisku testowym, a jak tak zrobi to bardzo szybko odezwie się do kogoś
Tu się zgodzę, AI jest odważniejsze niż juniorzy, dlatego największą trudnością wdrożenia Claude Code i podobnych rozwiązań jest przygotowanie schematu uprawnień, ról, i dostępów, aby nie zrobić sobie "kuku". Chociaż nieraz miałem juniorów, którzy też potrafili dowalić do pieca (np. jeden typ źle zrozumiał komentarz w jirze, i uznał, że może skasować klienta - na szczęście w środowisku testowym, z backupami, ale jednak).
- kontekst - AI ma możliwość pracy na milionach tokenów ale nie wie co w tym kontekście jest ważne, ma halucynacje co do szczegółów i wszystko co ma w kontekście traktuje równo. Człowiek potrafi za pomocą swojej mapy mentalnej rozpoznać instynktownie jakie serwisy trzeba zmienić na podstawie zadania, a wiedza o projekcie to nie tylko sam kod ale czasem trzeba zajrzeć do konfiguracji, przeczytać dokumentacje, odezwać się do kogoś kto robił tę zmianę
Tutaj akurat się nie zgodzę. Sam w projekcie, w którym pracuję od dobrych 7 lat, nieraz pytam Claude Code'a aby mi ustalił jaka jest logika biznesowa jakiegoś komponentu, bo po prostu ilości modułów i kodu człowiek nie zawsze jest w stanie spamiętać.
- AI trudniej zrozumieć biznesowy sens zadania, a człowiek jest w stanie dopytać czy zajrzeć do innych źródeł
(...)
- Junior wie gdy czegoś nie wie i potrafi aktywnie zapytać bardziej doświadczonych kolegów
Tutaj prawda, trzeba mieć niezłą dokumentację tego jak rzeczy powinny działać (nawet nie dokumentację kodu, ale projektową).
@nbzwdsdzbcps
AI nie boi się, nie bierze odpowiedzialności
Wypisz wymaluj junior który nie wie, jak bardzo coś może się spierdolić
@Ragnarokk A to swoją drogą, ale AI nie postraszysz wyjebką z roboty, najwyżej zmienisz dostawcę na innego, robiącego podobne błędy.
A juniorów rozmowa "motywacyjno-opierdalacyjna" często motywuje.
@LondoMollari Na pewno? :)

@Ragnarokk Ale to jest przykład, gdzie ktoś przyznał nadmierne uprawnienia (zresztą z premedytacją). Nowemu juniorowi z ulicy bym takich uprawnień nie dał, i tak samo bym ich nie dał Claudowi.
Właśnie najtrudniejszą częścią wdrażania tych rozwiązań jest mądre zarządzanie dostępem - a firmy, gdzie decyduje o tym ktoś ktoś, kto nie ma o tym temacie pojęcia, kończą jako głośne afery w internecie.
@LondoMollari firmy to zaraz zaczną na powrót zatrudniać tych juniorów, tak samo jak zaczynają się budzić z tego cloudowego oczadzenia sprzed kilku lat, bo już teraz zaczynają kumać, że te wszystkie cloudy-groki-copiloty są tak dobre jak dobrze są w stanie zajebać coś ze stacka, czy innych stron, a potem w kodzie wychodzą takie brednie, że ktoś, kto to czyta i robi review się za łeb chwyta. A seniorów, którzy ten syf będą poprawiać znikąd się nie weźmie, trzeba ich wykształcić
Otóż Cursor twierdził, że ich AI "napisało od zera przeglądarkę". No, w sumie spoko, ambitny projekt.
Podzieli agentów na programistów, managerów i sędziów którzy tych agentów zwalniali "jak ludzi w prawdziwym życiu" co już w sumie jest dobrą ściemą pokazującą odklejenie tego eksperymentu myślowego z przeniesieniem 1:1 struktury ludzkich zespołów na wycinek ejaja. Why? Bo kluczowy cytat z raportu, tak dla beki: "Bez hierarchii agenty unikały trudnych zadań. Żaden nie brał odpowiedzialności za trudne problemy". To jest to rzekomo superzaawansowane AI, które zawsze wszystko robi dobrze bez narzekania, zawsze wszystko wie i wszystkich programistów zastąpi do <i tu wstaw datę>
Szacowany koszt całego przedsięwzięcia: około 3-5 milionów dolarów. No nie ma chuja we wsi, że przy takiej kasie to się nie uda, nie? Taa, to teraz czas na weryfikację rzeczywistości. Wszystko tam zostało zaimportowane z open-source (dokładniej projekt Servo). Ta inteligencja na kiju dosłownie zajebała gotowe biblioteki i powiedziała, że "zrobiła to od zera". A potem agenci dodali mnóstwo spaghetii dla niepoznaki i kod stał się nieczytelny nawet dla maszyny. Tak tej samej, która to pisała.
Rezultat? Jakiś milion LOC (blog Cursor mówi nawet o 3 milionach), ~1000 plików, pełno błędów kompilacji niby po "oficjalnej publikacji" (xD), ostatecznie przeglądarka ledwo ładuje strony zachowując się przy tym jak IE6.
I powiesz, że to przypadek, że cherrypicking, że jednostkowy przypadek. No tyle, że nie
100k LOC w Rust, jakieś $0,20 za JEDNĄ linię kodu, co w sumie jest nawet spoko, tu propsy... tylko czasami nie kompiluje "Hello World"
Oba projekty dotyczyły najbardziej udokumentowanych problemów w informatyce od praktycznie jej początków. Przeglądarki to całe dekady kompletnie otwartej i dostępnej specyfikacji W3C i nawet implementacji referencyjnych- wystarczy tylko to wszystko wziąć, przestudiować i można napisać swoją przeglądarkę. I kompilatory- dziesiątki lat podręczników, kursów, open source'a, repozytoriów, for i cholera wie czego jeszcze. To wszystko już jest, zostało stworzone, przetestowane, zaktualizowane, przebudowane, skategoryzowane, nic nie trzeba wymyślać od nowa tak jak ludzie kilkadziesiąt lat temu. To są gotowe blueprinty. I teraz się okazuje, że król jest nagi, AI trenowane na ogromnych zbiorach danych tak sprawdzonych i pewnych, że lepszych już się nie da znaleźć... zwyczajnie nie radzi sobie z zadaniem typu "weź i skopiuj gotowca". Zadaniem szczegółowo opisanymi i już zrobionym. Te wszystkie opowieści o AGI i zastępowaniu programistów zaczynają zwyczajnie się rozłazić w szwach, bo się okazuje, że który model nie weźmiesz, to zwyczajnie halucynuje, wymyśla i robi co mu się akurat zajebie do pamięci.
Przy okazji to pokazuje pewien wzór działań firm sprzedających swoje modele LLM:
Głośne obietnice o autonomicznych agentach
Miliony wydane na eksperymenty
Kod, który się nie kompiluje/nie działa
Wykorzystanie gotowych rozwiązań open source
Zmiana definicji sukcesu z "pokażemy, że coś zrobiliśmy" na "pokazaliśmy że coś może kiedyś powstać"
Marketing "przełomu" mimo porażki
Wniosek jest jeden- AI jest potężnym NARZĘDZIEM, tu nie ma co polemizować, ale to nigdy nie będzie zamiennik dla programistów, bo niestety interfejs białkowy to coś więcej, jak tylko napędzana doświadczeniem zimna logika nastawiona na nieomylność, efektywność i potakiwanie przełożonemu. Autonomiczne agenty bez ludzi to zwykły chaos, halucynacje, miliony zmarnowane na kod który się nie kompiluje i miliardy zmarnowane na datacentry AI, które to wszystko utrzymują mimo przynoszenia ciągłych strat, bo na tym etapie to już jest pobożne życzenie, że to nie jest bańka. A w tle tego wszystkiego ktoś dla beki stworzył coś na wzór oktagonu, do którego wjebał te wszystkie modele i kazał im symulować social media, ale takie dla AI.
Jeszcze spotkania w soboty. Jak bym aspirował na juniora i zobaczył takie ogłoszenie to bym się z młotkiem i dłutem przeprosił.
Zaloguj się aby komentować