Zdjęcie w tle

Społeczność

IT

6

Nie ma to jak uzywac ej aj do podsumowania wideło o oszczędnościach w pracy z ej aj XD:


(nie probowalem ale wrzucam moze komus sie przyda)


Optymalizacja pracy z Claude Code, aby uniknąć przekraczania limitów użycia:


Głównym problemem jest tzw. "Context Compound" – każda nowa wiadomość przesyła ponownie całą historię rozmowy, co szybko zużywa tokeny i może prowadzić do spadku precyzji modelu ("Context Rot").

Kluczowe strategie optymalizacji:

  1. Zarządzanie narzędziami MCP (Model Context Protocol):

    • Leniwe ładowanie (Lazy Loading): Włączenie zmiennej środowiskowej ENABLE_TOOL_SEARCH sprawia, że Claude ładuje definicje narzędzi tylko wtedy, gdy są potrzebne, zamiast ładować wszystko na starcie (co może oszczędzić 20-100 tys. tokenów).

    • Zamiana MCP na CLI: Wiele narzędzi (np. Supabase, Sentry, Jira, Vercel) lepiej obsługiwać przez interfejs wiersza poleceń (CLI). Wywołania CLI zużywają znacznie mniej tokenów niż ich odpowiedniki MCP.

  2. Optymalizacja "Umiejętności" (Skills) i Promptu Systemowego:

    • Audyt umiejętności: Usuwanie przestarzałych lub dublujących się skryptów/umiejętności zainstalowanych w Claude Code.

    • Odchudzanie CLAUDE.md : Przenoszenie szczegółowych instrukcji z głównego pliku promptu systemowego do osobnych plików referencyjnych w folderze dokumentacji. Claude będzie po nie sięgał tylko w razie potrzeby.

  3. Zmiany w ustawieniach konfiguracyjnych (settings.json):

    • Wcześniejsze autokompaktowanie: Zmiana progu auto_compact_percentage_override (np. z domyślnych 83% na 50-75%), aby model streszczał kontekst zanim zacznie tracić na dokładności.

    • Zwiększenie limitu wyjścia Bash: Ustawienie wyższego limitu BASH_MAX_OUTPUT_LENGTH zapobiega ucinaniu wyników komend, co eliminuje kosztowne (w tokenach) ponowne próby ich uruchamiania przez model.

    • Reguły odmowy dostępu (Deny Rules): Podobnie jak w .gitignore, warto zdefiniować foldery, których Claude nie powinien czytać (np. node_modules, dist, cache), aby niepotrzebnie nie zapychały kontekstu.

Wprowadzenie tych zmian pozwala na zmniejszenie początkowego zużycia kontekstu o kilkadziesiąt procent, co przekłada się na dłuższą i bardziej efektywną pracę bez uderzania w limity.


#ai #it

Zaloguj się aby komentować

Zaloguj się aby komentować

Wiecie co jest gorsze od tego, że AI uprościło algorytm do czterech linii kodu. Algorytm z którego byłem dumny jak go tworzyłem 3 lata temu i który był sercem całej aplikacji?


To, że wyszło że oryginalny algorytm był niedokładny.


Idę się zakopać


#programowanie #ai

Ragnarokk userbar

Zaloguj się aby komentować

Nie ma to jak profesjonalna rozmowa kwalifikacyjna na seniora do dużego korpo.

Rekruter nie wysłał linka do rozmowy w mailu z zaproszeniem, miał się skontaktować do 1-2 dni przed rozmową, co również nie nastąpiło. Z pół godziny przed rozmową zapytałem co jest, link dostałem dopiero 5 minut po rozpoczęciu, zapewne dopiero wtedy ogarnęli.

Po small talku pierwsze zadanie, C++... Ja zszokowany, bo nigdy nie twierdziłem, że umiem C++ na jakimkolwiek poziomie. Gdy rektuter ma w wymaganiach cokolwiek, czego nie umiem, to mówię z góry.

Umiem dobrze C, więc mimo wszystko 3 banalne zadanka zrobione w czasie, choć z kilkoma spowolnieniami i na styk. Przeprowadzający rozmowę próbując podpowiedzieć co chwilę wytrącał mnie z rytmu, chociaż i tak byłem wystarczająco sfrustrowany dotychczasowymi. wydarzeniami.

Kilka godzin później mail, że mi dziękują i nie będzie współpracy. Spojrzałem jeszcze w CV, czy to nie ja nakłamałem. Z C++ były tam tylko 2 miesiące pracy po stażu, no ekspert.

Ktoś jeszcze spotkał się z takimi kwiatkami na rozmowach w IT? #rozmowakwalifikacyjna #praca #it

To korpo. Tam wszystko dzieje się przypadkiem. Nie bierz do siebie. To naprawdę wypadkowa braku zarzadzania, przypadku i niekompetencji.

Zaloguj się aby komentować

Zaloguj się aby komentować

Siedzę na audycie IT z asseorem...luźna refluksja nt temat tego jak wygląda UX/UI jakiejś tam apki pisanej na starą Windę (okolice 2006-2008). Rzucam tekstem, że "to jest tak siermiężne i fchuj nieużywalne jakbyśmy korzystali z "Nestacape Navigator" w 2025!""

2 minuty pauzy i odzywa sie młody koleżka z mojego zespolu:

"- Karwa, aż musiałem wyguglać co to za technologia i o czym gadacie bo nigdy o tym nie słyszałem xD"

Dobrze, ze nie wspomniałem, że administrowałem onegdaj sieciami Novel Network na topologii BMC a IMO audytor też mógł kminić to co za tech I ugułem by sie spotkanie moglo przeciągnąć niepotrzebnie bo #stareludzia lubią sie nostalgować.. Lucky me ¯\_(ツ)_/¯

Trochę poczułem się staro 🙃.

EDIT: ciekawostka - współczesne zarabiarki do kabli ethernetowych nadal mają (chyba) zaciski do BMC. Przynajmniej ta która kupiłem 5 lat temu!

"- Anrzeju, zastanów sie czy pół dekady to nadal "spółczesne?" 😀

#cybersecurity #stareludzia #konkutery #bezsennosc

@AndrzejZupa Dopiero teraz doczytałem o zaciskarce. To jest BNC, nie BMC. (Bayonet Neill-Concelman). Borze, też ciągałem takie sieci po akademiku. Raz nawet musiałem użyć swoich umiejętności wspinaczkowych, żeby wywiercić dziury i przeciągnąć kabel pomiędzy 7 i 4 piętrem (czego się nie robi dla koleżanek). Wisiałem wówczas na linie za oknem z wiertarką, a cała żeńska część akademika wstrzymywała oddech ze stresu xD.

@AndrzejZupa jestem audytorem bezpieczeństwa informacji i jakby ktoś przy mnie ku⁎⁎⁎mi rzucał na audycie to szybko by atmosfera audytu siadła xD

Zaloguj się aby komentować

Rzadko mi się to zdarza (na szczęśliwości), ale czasami wpada spotkanie świąteczne w społeczności CSO/CISO. I wtem zwykły czarnuch z IT przepoczwarza sie w korpoludka "żeby tym na górze żyło się ze świadomością "it's fine!"" Żartuję - społeczność CSO/CISO to mega support w ramach wymiany doświadczeń, edukacji nt sec i szeroko rozumianego networking. ᕦ( ͡° ͜ʖ ͡°)ᕤ

Taaak, to pierwszy Andzej w garniaku tutej. 🙃 #cybersecurity #security #it #brandzlowaniesieitsec #spolecznosc #jebacbiede

46fdddb5-113a-486b-93e9-044671d6a3b1
f3637880-f1e9-41fd-b346-7c0e8300c671
37ddc588-4e38-424b-a1f4-137df4396c56
1328517e-6f9a-4264-af5b-9a2d1e30ef85
7b430b12-e10d-43dd-bcbd-db40d3f4e66a

Zaloguj się aby komentować

Widzę że dość aktywny jest tu tag #linux więc mam pytanie co robię nie tak. Mam lapka:

ryzen 5600h, 16gb, rtx 3050

Próbowałem przesiąść się na fedorę więc poszła instalacja, następnie przez rpm pobrałem sterowniki do nvidii i cała fedora z zerowego użycia karty graficznej i lekkiego użycia procka (mówię o samym gui) zaczęła mieć problem z przesuwaniem okienek i ogólnym działaniem systemu. Oczywiście problem z odinstalowaniem sterowników wystąpił więc wróciłem do poprzedniego snapshota i zadziałało. Trochę poczytałem że jest problem z obsługą kart nvidia jako dedykowanych system sobie z obsługą 2 kart w zależności obciążenia i procesu nie radzi więc dałem sobie spokój i odinstalowałem.


Następnie wpadłem na pomysł z podziałem dysku część użyłem na win 11 część na fedorę. 11 napierw zainstalowana zaktualizowana później fedora i wszystko działało. DO momentu aż nie wyłączyłem komputera.

Rano wstaję fedora nie wstaje XD Windows oczywiście bez problemów. Nie udało mi się przywrócić z tego obrazu linuxa musiałem go od nowa postawić. Przy dłuższej zabawie znowu wróciłem do win 11 mimo że jestem bardzo niezadowolony z działania systemu i płynności.


2 pytania:

Czy coś tutaj robiłem nie tak czy mogłem uniknąć jakoś tych problemów?

Czy jest na fedorze współpraca kart integry i dedykowanej?

#technologia #systemyoperacyjne

@inne_rzeczy @MICK3Y To samo bym polecił, zainstaluj jakieś distro które ma już wgrane stery od Nvidii od początku i zobacz czy tam działa. Najlepiej jakieś Gamingowe typu Bazzite albo ten PopOS. Jeżeli tam nie zadziała to średnio to widzę, ewentualnie wpisz jeszcze model laptopa w google albo chociaż markę i zobacz czy ktoś nie zrobił jakiegoś programu do przełączania się pomiedzy iGPU a dGPU. Sterowniki Nvidii to jest największy problem na Linuxie od lat i rzecz która powstrzymuje wielu przed przejściem. Na PC to działa trochę prosciej bo zawsze korzystasz z dGPU. Na laptopie zaś trzeba się przełączać i to bezproblemowo działa chyba tylko jedynie z kartami AMD. Ogólnie dużo rzeczy na Linuxie ma problem z Nvidią a bez problemu działa na Radeonach dlatego community Linuxa nie lubi Nvidii. Zwłaszcza teraz jak śpią na kasie a sterowniki to dalej gówno. Jedyne dobre sterowniki Nvidii na Linuxa to te pod AI bo na Linuxie stoi prawie cała infrastruktura od tego.

Po pierwsze to dużo łatwiej byłoby czytać gdybyś przed wysłaniem posta sprawdził zawsze interpunkcję oraz podzielił wiadomość na akapity.


Przy dłuższych wiadomościach tekst się zlewa i ciężko/wolno się czyta.

Idę czytać dalej

@MICK3Y jak na pierwszy raz z linuksem to bardzo dużo osiągnąłeś, gratki.


To co się dzieje z bootloaderem to standard przy instalacji Linuxa przed Windowsem. Powinno być tak (dopóki nie będziesz prosem):

1. Robisz partycje Linuxem.

2. Instalujesz Windows.

3. Instalujesz Linux.


Możesz reinstalować Linuxa, a możesz naprawić bootloader. Jak się uda jednak odpalić Linux (czasem z UEFI/BIOS można wybrać system do bootowania) to z niego.


Jak Linux nie odpala to odpal jakiś Linux (najlepiej ten sam z tego samego USB instalacyjnego) z live CD i wybierz test czy co tam (a nie instalację). Tam musisz przeprowadzić trochę hakerski zabieg naprawy gruba przez chroot: https://www.system-rescue.org/disk-partitioning/Repairing-a-damaged-Grub/

Nie czytałem całego, ale coś w tym stylu możesz znaleźć gdzieś indziej. Może potrwać, ale dużo się nauczysz. Bo pewnie kiedyś grzebiąc w dyskach lub systemie znowu zepsujesz gruba i będziesz musiał go odzyskać. Zanim zaczniesz poproś LLM żeby powiedział na jakiej zasadzie działa taka naprawa z live cd z chroot, żebyś wiedział co w sumie robisz, a nie tylko kopiował komendy.


Jeśli chodzi o Wayland - ja słyszałem, że NVIDIA nie pójdzie z Wayland więc nawet nie próbowałem. A mam fedorke.


Stery do Nvidii jak już ktoś pisał mają kilka wersji. Upewnij się, że masz NVIDIA non free. Chyba z rpmfusion można je dostać. Wiedząc o tym i o wayland powinieneś dać radę patrząc na to jak dobrze ci poszło do tej pory. 


Powodzenia i miłej zabawy. Windows dobrze mieć na backup gdybyś zepsuł Linuxa. I jak się go używa raz na rok, to nawet nie irytuje. Czujesz się jakbyś był w Chinach/Rosji - i wy tak żyjecie? O kurde! I tyle.

Zaloguj się aby komentować

Segmentation Fault

Zaadresowanie zerowego bloku pamięci albo próba czytania z przypadkowego adresu pamięci kończy się w systemach Unixowych (najczęściej) zdawkowym komunikatem "Segmentation fault (core dumped)" i nagłym końcem działania procesu. Sama nazwa wyjątku - Segmentation fault - albo Segmentation violation - jest trochę tajemniczą. Linux wypisze nam komunikat "Segmentation fault" ale mnemonik sygnału Unixowego który stoi za tym wyjątkiem to SIGSEGV, gdzie V wskazuje na "violation". Skąd to się w ogóle wzięło? Windowsy definiują analogiczny wyjątek jako po prostu "Access violation" - elegancko.

Zaczęło się od komputera GE 645 od General Electric, jeszcze w 1965r. Dla niego powstał też system operacyjny Multics. Do projektu GE 635 dorzucono mechanizm segmentacji pamięci, czyli wczesną formę pamięci wirtualnej. Każdemu procesowi można było przydzielić jednorodny wycinek pamięci, którą tenże proces widział tak, jakby zaczynała się od adresu 0. W założeniu jeden proces nie mógł nagrzebać w pamięci innemu. Potem inżynierowie w DEC podchwycili to rozwiązanie dla komputera PDP-11/45 . Dla niego też powstał Unix w wersji 4, całkowicie pisany w języku C. Tenże PDP (1972) miał już układ zarządzania pamięcią (KT-11C) opartą o segmenty. Więcej - segmenty mogły być rozmaitego rodzaju - np segment kodu, segment tylko do odczytu. Na liście sygnałów Unixa wersji 4 pojawił się sygnał SIGSEGV jako właśnie wyjątek spowodowany na przykład zapisem do segmentu w trybie tylko do odczytu. Intel wprowadził segmentację zdaje się w latach '80 w 80286, gdy upowszechniał się już model pamięci stronicowanej. Ale zanim Intel zawiązał rynkowy kartel z Microsoftem zdawał się być mocno zacofany jeśli chodzi o rozwój architektury komputerowej. No i ten segmentation fault wlecze się za nami od wczesnych lat '70 we wszystkich unixopodobnych systemach operacyjnych. #systemyoperacyjne #linux #oesowo

0baa9b2d-f42c-4039-b453-a240edd98c52

Zaloguj się aby komentować

Jako iż black week trwa to jest to dobry okres żeby kupić VPSa (no i w cyber monday też się opłaca) - można dorwać serwer o dobrych parametrach w niskiej cenie.. Tak w ogóle to nie wiem czy wiecie ale od niedawna #ovh ma super ofertę #vps 4vCores / 8GB / 75GB SSD za 20zl brutto 🤯

Poza tym warto regulanie zaglądać na - lowendbox.com - lowendtalk.com

#serwer #promocje #blackfriday #lowendbox #lowendtalk

@spam_only ładnie, pamiętasz z jakiej ofery? Soyourstart? Noo dokładnie najlepszy okres na zakupy serwerów - przynajmniej w tej branży nie zawyżają cen przed promkami x)

Zaloguj się aby komentować

Zaloguj się aby komentować

Core dump

Dzisiaj pod tym określeniem rozumiemy zrzut pamięci i rejestrów procesu który się wykrzaczył. Szczególnie w systemach unixopodobnych. Tylko skąd się to wzięło?

A wzięło się to z technologii pierwszych pamięci operacyjnych - magnetycznych pamięci rdzeniowych (magnetic core). Sam pomysł był genialny, a w zasadzie genialnie prosty. Pamięć tworzyła prostokątna siatka z przewodów. W węzłach tej siatki umieszczono ferrytowe obręcze. Dodatkowy jeden wspólny przewód przewleczony był przez wszystkie rdzenie.

Rdzeń był tak dobrany, żeby określony prąd wywoływał nasycenie rdzenia, ale połowa wartości tego prądu nie powodowała jego przemagnesowania. I tak podanie połowy prądu na jeden przewód pionowy i jeden przewód poziomy umożliwiał przemagnesowanie tylko pojedynczego rdzenia. I tak prąd w jednym kierunku oznacza logiczne 1 a w przeciwnym - logiczne 0.

Odczyt polega na próbie zapisania logicznego 0. Jeśli w rdzeniu zapisana była logiczna 1 to na tym wspólnym drucie wyindukuje się napięcie. W przeciwnym wypadku można założyć że było tam zapisane 0. Ponieważ odczyt jest destrukcyjny, jedynkę trzeba zapisać ponownie.

#oesowo #linux #systemyoperacyjne

1151845a-0a9a-4968-acb6-037af8c21ca9
14f021fd-1552-45d3-9e16-22a6eef781c0

Dodam że pamięć rdzeniowa jak to pamięć magnetyczna była de facto nieulotna. Dlatego po awarii i wykrzaczeniu się programu można było, nawet pomimo zaniku zasilania, odczytać całą zawartość - ten faktyczny 'dump'

Zaloguj się aby komentować

Linus i Linus, niedługo bedzie jakis collab na youtubie LinusTechTips

#technologia #linustorvalds #linustechtips

632d7220-7aa4-4b7b-b5d5-ba12a7071d4e

Zaloguj się aby komentować

@Fausto Chrobok z tą swoją gadającą głową jakoś nigdy mnie nie przekonywał, a jego 'manierę' czy sposób mówienia zawsze uważałem za skok na kasę, przez wydłużanie własnych filmików ;P

Tu widać podobnie - profesjonalna fasada, buzzwordy, a backend.. no cóż..

Zaloguj się aby komentować

#systemyoperacyjne #linux #oesowo

Sterowniki urządzeń

Długo żem się zbierał do tego wpisu. Jak tu zrobić żeby nie było za nudno albo niezrozumiale, a pewnie i jedno o drugie, no nie da się.

Obsługa jakiegokolwiek urządzenia, czy to wewnątrz czy na zewnątrz kąkutera polega na wysyłaniu określonych w dokumentacji urządzenia komend pod adresy pod którymi te urządzenia nasłuchują. Procesory linii 8086 od Intela miały osobne rozkazy do pisania i czytania z komórek pamięci, a osobne do pisania i czytania z urządzeń. Trudno teraz odkopać faktyczny i oficjalny powód dlaczego Intel tak zrobił. Czyli napisanie czegoś do pamięci (mov) pod adres 0xb00b wypełniało komórkę pamięci, a wysłanie czegoś pod adres IO (out) wysyłało bajty na szynę w nadziei że pod PORTEM (bo adresy IO Intel nazywał portami) o tym adresie słucha jakieś urządzenie.

Szyna ISA o ile dobrze pamiętam była po prostu wystawieniem szyny systemowej. Urządzenia - jakieś soundblastery, sieciówki, modemy itp miały na płytach zworki do konfiguracji. Nie przewidywano, że to system czy bios będą się dogadywać z urządzeniami i ustalać pod jakimi adresami IO będą występować ani jakie numery przerwań trącać. To robił człowiek przed umieszczeniem karty w slocie, a potem musiał pamiętać.

Sound Blaster, na adresie IO 0x220, nr przerwania 7, kanał DMA 1. Chyba tak domyślnie układano zwory i rzadko kto to ruszał chyba że inna karta nie dała się ustawić tak, żeby nie kłóciła się z SB.

DOS umiał obsługiwać szereg urządzeń - kartę graficzną w trybie tekstowym, dyski i system plików FAT, dzięku czemu można było czytać plik c:\file.txt i wystarczyło wywołać ze swojego programu funkcję systemową. DOS z kolei wołał funkcję BIOSa do odczytu sektorów. Jak w wierszyku o rzepce - program do DOSa, DOS do BIOSa, BIOS do dysku. Po drodze w DOSie był jeszcze właśnie "sterownik" FAT umiejący przetłumaczyć żądanie o plik po nazwie na szereg odczytów z sektorów dysku.

DOS jednak nie umiał ani w karty muzyczne ani w sieciówki. W CD ROMa też nie umiał.

Co robili programiści - głównie gier, bo to one napędzały rynek mikrokomputerów IBMopochodnych? DOS całe szczęście był prymitywny aż do końca. Architektura już chyba od 286 pozwalała na rozgraniczenie co może robić program użytkownika a co (wszystko) system operacyjny. DOS miał to w pompie, wszystkim wolno wszystko, niech klawisz Reset ma nas w swojej opiece. I całe szczęście.

Sterowniki do kart muzycznych były częściami programów gier. Program install.exe albo częściej setup.exe pozwalał ustawić, przetestować i zapisać ustawienia karty muzycznej dla danej gry. Potem właściwa gra korzystała ze SWOJEGO sterownika. Biedny Gravis Ultrasound mimo że produktem był świetnym to spóźnił się na pociąg i niewiele gier go wspierało. To był ten minus. Można było mieć GUSa ale w ulubionej gierce być skazanym na pierdzenie z PC speakera.

Opcja druga - tak jak robiły to sieciówki. Chciało się pograć w Dooma z kolegami? Najpierw każdy musiał załadować w odpowiedniej kolejności pakiet sterowników dla swojej karty. lsl.exe, potem właściwy sterownik karty, zwykle nazywający się jak model karty - np ne2000.exe dla kart Novella czy 3c5x9x.exe dla 3COM, a na końcu stos protokołu, w Doomie był to IPX, czyli o ile pamiętam ipxodi.exe. Albo .com zamiast exe. Sterowniki były programami wykonywalnymi ale "kończąc" swoje działanie zamiast uruchamiać w dosie funkcję terminate wołały terminate and stay resident co powodowało że mimo że już formalnie skończyły, DOS po nich nie sprzątał. Ich kod zostawał dostępny w pamięci. I tak stawały się sterownikami, z których mógł skorzystać Doom, bo producenci kart umówili się na wspólny interfejs programowy.

Można by zaryzykować stwierdzenie, że DOS był akurat tak prymitywny, że nie przeszkadzał w niezwykle gwałtownym rozwoju zarówno sprzętu jak i gier. Wobec braku internetu ciągłe aktualizacje systemu były w zasadzie niemożliwe, bardziej elegancki system operacyjny wykorzystujący ochronę pamięci i jądra mógł być poważną przeszkodą dla twórców gier. Ale był DOS - może nie najtaniej ale jako tako.

e3ac3237-d5ef-4779-b766-40dbf2bae53e
78a649d4-f788-4ac7-bf8d-c5d5679c00e2

Ja byłem na przekór i zawsze ustawiałem SB Pro na IRQ 5 xd

A GUS miał, o ile pamiętam, emulację Adlib, więc wcale na speakera nikt nie był skazany.

Zaloguj się aby komentować