Komentarze (10)

@Unknow Z LLMów można mieć kasę od frajerów, którzy wierzą w użyteczność tej technologii w codziennym życiu. Można ich też używać do automatyzowania oszustw metodą na wnuczka i innych tego typu. Albo można ich używać do spławiania klientów, którzy dzwonią do pomocy technicznej - ale z tym ostrożnie, bo mogą się wkurzyć i sobie pójść.

@sierzant_armii_12_malp Ta technologia jest użyteczna, jeśli wiemy jak jej używać.


Zrobiłem eksperyment i poprosiłem czterech ludzi, żeby mi napisali skrypt w Pythonie, który robi coś tam. Jeden był ekspertem, drugi średniakiem, trzeci noobem, czwarty nie miał nic wspólnego z Pythonem.


ChatGPT napisał kod, który oczywiście nie działał. Ekspert:

"- Tu jest błąd, tu jest błąd, tu jest błąd. Szybko to naprawimy, ale i tak napisał kod szybciej niż ja".

Średniak:

"- Tu jest błąd, tu jest błąd, nie wiem co to jest, ani to.

- Popraw kod, żeby to było to, a to było to.

- Okej, teraz działa."

Noob:

"- Jak się to ma do algorytmu podróżującego sprzedawcy?"

- Czwarty:

" - Tu jest błąd, jak go naprawić?

- Teraz tu jest błąd, jak go naprawić?

- Coś zajebałeś, nadal nie działa.

- Teraz działa, ale kończy z błędem.

- Znowu błąd.

- Kurwa, znowu błąd.

- To działa, ale wysypuje błąd.

- Nadal błąd.

- Teraz działa, dzięki."


Na tym poziomie to nie ma nas zastąpić, a jedynie wspomóc.

@dolitd Ja poprosiłem AI Google’a o napisanie czegoś, czego na 100% nie da się znaleźć na Stack Overflow. Skopał chyba wszystko, co się dało skopać.


Kolega poprosił Copilota o review kilku pull requestów na GitHubie. Na jakieś 20 uwag, tylko jedna była trafna - nasz dzielny Copilot znalazł literówkę w komentarzu. Dwa niebezpieczne kawałki kodu, prawidłowo wskazane przez statyczną analizę kodu, Copilot przepuścił bez uwag.


I tak za każdym chędożonym razem.

@dolitd no właśnie z tym wspomaganiem to też tak średnio Wcisnęli nam to (w sensie copilota) w pracy (a w domu prywatnie czasem oram groka z ciekawości) i powiem ci że to się jedynie jako tako sprawdza jako alternatywa googla czy może raczej takie "bardziej ogarnięte google które nie wpierdala ci 1000 chuja wyników z SEO tylko odpowiada na twoje pytanie (czyli tak jak to kilkanaście lat temu robiło też samo google)". Dobrze podpowiada takie gołe "szkieletowe" konstrukcje w programowaniu, jakieś gołe klasy, interfejsy, struktury, ify i tak dalej, ale niech cię ręka boska broni przed tym, żebyś tym chciał coś faktycznie pisać, albo żeby ci to podpowiadało cokolwiek więcej jak dokończenie pisanego słowa, bo wtedy płynie w takie halucynacje, że krzyż na drogę.


I wtedy cała ta masturbacja ejajami kończy się tak, że faktyczny ekspert sam napisze to, czego chce, w sposób w jaki chce i ma to przemyślane, zgodnie z wymaganiami projektu i na raz. I zrobi to szybciej na raz, niż jakby miał pierwsze klepać ejajem kod, a potem go jeszcze naprawiać, poprawiać i odszczurzać. A noob? A noob tak jak nie wiedział jak coś napisać, tak dalej nie wie jak coś napisać, plus nie wie jak coś poprawić, bo ejaj go wpuścił w takie gówno, że noob albo nie wie w ogóle o co zapytać, albo bot mu wciska jeszcze większe brednie jako rozwiązania. I potem się to kończy tak jak napisałeś- "nie działa. nie działa. popraw. dalej nie działa. dalej nie działa. dalej błąd".

@sierzant_armii_12_malp w mojej branży chem jest sporo przekłamań pokutujących wśród niedoświadczonych laików. I co zrobił kupolot? Ano za prawdę objawioną przyjął wszelkie bzdury wmawiając wszem i wobec z takim przekonaniem, że to co wysrywa jest jedyne i słuszne... Według mnie jest to bardzo niebezpieczne narzędzie.

Chłopaki... a wy wiecie, że w całym wystąpieniu nie ma ani słowa o użyciu AI do generowania kodu, a komentarze tutaj są tylko o tym?

Nie oglądałem ale do czego ja używam oprócz pisania kodu:

  • szybie googlowanie prostych rzeczy

  • pisanie dokumentacji, pisanie plików readme.md do repo, wiki, instrukcji itp

  • tłumaczenie polskiego na angielski oraz poprawianie mojego angielskiego

  • testy jednostkowe

  • prototypowanie

  • wyszukiwanie odpowiedniej biblioteki do danego zadania

Uzywalem tego do generowania dość zaawansowanego kodu. Wniosek jest taki że programista musi mieć kontekst szerszy niż llm. Musinrozumeic aplikacje, najlepiej na poziomie systemowy i sprawdzać każdy poszczególny etap przetwarzania danych. Jeśli dobrze umie zadać pytanie, nie jest leniwy i rozumie co robi llm, używa odpowiedniego modelu w odpowiedni sposób to boost jest X10. I nie mówcie że nie bo zrobiłem z tym rzeczy których normalnie nie zrobił bym w tak krótkim czasie i takiej jakości. Kto nie umie tego używać ten odpadnie. A dobrze używane narzędzia że średniaka robią pro progammera.

Zaloguj się aby komentować