Komentarze (7)

@Half_NEET_Half_Amazing Juniorzy zawsze będą potrzebni, midy i seniorzy nie są nieśmiertelni. Teraz nikt nie chce a za parę lat będzie boom.

@chess_peppe No, tylko że powstanie "gap" i wtedy będzie płacz, że jest mało doświadczonych pracowników na rynku.

@Half_NEET_Half_Amazing Już gdzieś pisałam, że jak bańka AI będzie chciała realizować zyski i zacznie podnosić ceny, to okażę się że jednak murzyn z wschodniej Europy tańszy XD

@GazelkaFarelka Jest szansa że dojdzie spora optymalizacja i będzie można uruchomić średniej wielkości model lokalnie, ale wiadomo będzie to miało swoje ograniczenia "intelektualne"

@chess_peppe już teraz się da, gemma 4 e4b mieści się w 16GB VRAM i daje ponad 100k tokenów. To już pozwala na pracę z agentem nad jakimiś prostszymi zadaniami.


Jakiś czas temu zaczęły powstawać sprzęty, które dają wydajność dGPU z 16GB, ale są dostarczane jako jeden moduł na płycie głównej.


Obecnie to już tylko kwestia czasu aż powstanie laptop z takim modułem kosztującym ok. 3K oraz model na poziomie gemmy, ale z 200k tokenów. Do tego już prawie każda większa firma zajmująca się ai opracowuje swój odpowiednik openclaw.

@GazelkaFarelka No to było wiadome xd tylko najpierw trzeba nałapać murzynów SEO w siatkę żeby wdrożyli do siebie. Już Anthorpic szponci z tokenami od kilku miesięcy sztucznie zawyżając ich zużycie.

@chess_peppe @Boksik tylko te lokalne będą pewnie miały ograniczone bazy uczenia się

trochę mi to teraz przypomina sytuację z początków muzyki sprzedawanej na nośnikach czy programów komputerowych, kiedy nie istniały w zasadzie żadne prawa dotyczące kopiowania, własności intelektualnej, prywatności, danych osobowych, wrażliwych i tak dalej, każdy se kopiował co potrzebował i nie zawracał sobie dupy.

w tym momencie AI tez ma wolną amerykankę, karmią modele wszystkim co było dostępne w sieci, książkami i tak dalej, bez uwzględniania praw ich autorów i teraz będą kosić kasę nie odpalając ani grosza twórcom tej wiedzy

Zaloguj się aby komentować