Nie ma to jak uzywac ej aj do podsumowania wideło o oszczędnościach w pracy z ej aj XD:


(nie probowalem ale wrzucam moze komus sie przyda)


Optymalizacja pracy z Claude Code, aby uniknąć przekraczania limitów użycia:


Głównym problemem jest tzw. "Context Compound" – każda nowa wiadomość przesyła ponownie całą historię rozmowy, co szybko zużywa tokeny i może prowadzić do spadku precyzji modelu ("Context Rot").

Kluczowe strategie optymalizacji:

  1. Zarządzanie narzędziami MCP (Model Context Protocol):

    • Leniwe ładowanie (Lazy Loading): Włączenie zmiennej środowiskowej ENABLE_TOOL_SEARCH sprawia, że Claude ładuje definicje narzędzi tylko wtedy, gdy są potrzebne, zamiast ładować wszystko na starcie (co może oszczędzić 20-100 tys. tokenów).

    • Zamiana MCP na CLI: Wiele narzędzi (np. Supabase, Sentry, Jira, Vercel) lepiej obsługiwać przez interfejs wiersza poleceń (CLI). Wywołania CLI zużywają znacznie mniej tokenów niż ich odpowiedniki MCP.

  2. Optymalizacja "Umiejętności" (Skills) i Promptu Systemowego:

    • Audyt umiejętności: Usuwanie przestarzałych lub dublujących się skryptów/umiejętności zainstalowanych w Claude Code.

    • Odchudzanie CLAUDE.md : Przenoszenie szczegółowych instrukcji z głównego pliku promptu systemowego do osobnych plików referencyjnych w folderze dokumentacji. Claude będzie po nie sięgał tylko w razie potrzeby.

  3. Zmiany w ustawieniach konfiguracyjnych (settings.json):

    • Wcześniejsze autokompaktowanie: Zmiana progu auto_compact_percentage_override (np. z domyślnych 83% na 50-75%), aby model streszczał kontekst zanim zacznie tracić na dokładności.

    • Zwiększenie limitu wyjścia Bash: Ustawienie wyższego limitu BASH_MAX_OUTPUT_LENGTH zapobiega ucinaniu wyników komend, co eliminuje kosztowne (w tokenach) ponowne próby ich uruchamiania przez model.

    • Reguły odmowy dostępu (Deny Rules): Podobnie jak w .gitignore, warto zdefiniować foldery, których Claude nie powinien czytać (np. node_modules, dist, cache), aby niepotrzebnie nie zapychały kontekstu.

Wprowadzenie tych zmian pozwala na zmniejszenie początkowego zużycia kontekstu o kilkadziesiąt procent, co przekłada się na dłuższą i bardziej efektywną pracę bez uderzania w limity.


#ai #it

Komentarze (0)

Zaloguj się aby komentować