@Catharsis potwierdzam. W pracy też nam dali dostęp do kilku modeli do takiego devopsowania i nie powiem- zaskakująco świetnie się sprawdza toto jako taka wyszukiwarka na sterydach do jakiegoś zapytania, gdzie musiałbyś się mocno napocić, żeby google w ogóle zakumał o co ci chodzi, albo jak zadajesz konkretne pytanie odnośnie bardzo małego, jakby to ująć- "zamkniętego" wycinka z pełnym kontekstem do takiego kodu, albo ogólnego zapytania. Wtedy potrafi dać solidne odpowiedzi, ale jak ma czegoś się "domyślić", albo przez dłuższą wymianę promptów pamiętać kontekst tych poprzednich, albo zanalizować kilka plików, to zaczyna tak płynąć, że dłużej potem już zajmuje dopisywanie do prompta wszystkich warunków, które ma pamiętać, uwzględnić i jak to ma przeprocesować.
I koniec końców dochodzisz do takiego etapu, gdzie zdajesz sobie sprawę, że jak robisz w swojej działce już dostatecznie długo, to sam wszystko wiesz bez szukania, tylko co najwyżej składni potrzebujesz, albo... po prostu sam to szybciej napiszesz, bo stajesz przed wyborem dostania wadliwych wyników i potrzeby poprawy, albo napisania tego raz a dobrze. Nie mówiąc już o tym, że LLMowa zgaduj-zgadula notorycznie robi taki niewinny, acz wkurwiający szwindel, gdzie podmienia sobie nazwy zmiennych. Ot z "item" zrobi "items", albo na odwrót i nagle połowa rzeczy się rozjeżdża i finalnie i tak to musisz poprawiać.