Komentarze (7)

@smierdakow no to słuchaj tego:

Llama3.2 ZAPIERDALA, nawet uruchomiona na telefonie szybciej pisze odpowiedź niż da się czytać.

No ale pisze tylko po angielsku. Trochę po polsku rozumie z tego co widziałem ale nie jest w stanie sensownie odpisać. Po angielsku do prostych zadań: podsumuj mi maile czy tam dodaj do kalendarza jak coś znajdziesz ciekawego nadaje się jak najbardziej.

No ale u nas nie da się poświęcić w ncbir kilku tysięcy godzin gpu żeby wypuścili polski model.

A bielik 2.2 jest zjebany pod wględem prędkości i jakości w stosunku do llama3.2 bo jest na innej architekturze.

Także będziemy na końcu już zawsze bo nikt na to pieniędzy nie położy bo nie ma efektów natychmiast

Nstępna kwestia że modele z otwartymi wagami są potrzebne bo przecież nie będę swoich maili wysyłał do openai albo na jakieś chińskie endpointy.

Jak nie będzie dobrych otwartych polskich modeli to tak zostanie na zawsze

@smierdakow - nie zazdroszczę tym nielicznym ludziom co będą musieli naprawiać, rozwijać lub utrzymywać kod różnorakich programów i aplikacji w Skandynawii

Zaloguj się aby komentować