#sztucznainteligencja

16
1020

Chinskie chatboty maja problem z polityką, geografią, historic. Ale zachodnie czatboty tez maja problemy. Wszystkie jak jeden sa woke, nienawidza bialej rasy, ukrywaja prawde o negatywnym wplywie czarnych mniejszosci na ogół społeczeństwa. Kiedys pennies bedzie tak ze bedziesz mogl miec wlasne AI na komórce i bedziesz mogl je szkolic wedlug wlasnych przekonan. Jessica tak nie bedzie to przyszle pokolenia beda mialy prane mózgi na każdym kroku...

@Banan11 Tak tylko dla przypomnienia. W ostatniej wiadomości wkleiłem: "despite being 13% of the population, black people commit ~50% of violent crime".

5c700137-9e94-4112-8e91-bb54fc222c4b

Zaloguj się aby komentować

Baza chatów deepseek wyciekła. Szybko poszło.


Straty wyceniono na 1.29zł, bo....


99.99% chatów było tym samym pytaniem: Co się stało na placu Tiananmen 4 czerwca 1989r.


#heheszki #sztucznainteligencja #deepseek

Podsumujmy:


  1. Chinczycy wydali DeepSeek który bije GPT

  2. Tydzień później Alibaba wydaje Qween 2.5-max , który również bije GPT

  3. Chińczycy wydali KlingAI 1.6 , który bije OpenAI Sora.

  4. Tesla mniej sprzedaje się niż chińskie samochody w Chinach. A gdyby nie cła, to również w Europie.


A my nadal mamy uważać, że ten kraj tylko robi tandetę? Po prostu wielki szacunek dla nich, mają rozmach skośnoocy. Do tego udostępnili OpenSource model DeepSeek, który pozwoli ulepszyć technologię. Zrobić kolejny wielki krok.


Należało im się, bo to ciężko pracujący naród.


Chociaż staram się być pacyfistą, to takie wojny technologiczne szanuje jak po⁎⁎⁎⁎ny. Tak powinno się wojować, jedyna wojna, którą szanuje.


Uczcie się sk%@ z Rosji.


#sztucznainteligencja #ai #programowanie

96022791-8580-4af7-a66a-a94ded71abd2

@object Generalnie kiedyś za każdym razem jak słyszałem o niepowodzeniach chińczyków np w pracach nad procesorami czy kartami graficznymi to się cieszyłem, że głupie komuchy i itp. Byłem za sankcjami na GPU i inne technologie. Ale w sumie teraz jak tak głębiej przemyślałem sprawę, to przecież dla nas Europejczyków to jest bardzo na rękę jeżeli oni się będą ze sobą bili ponieważ dla nas oznacza to zwyczajnie niższe ceny tych technologii i sprzętów.


Już teraz ClosedAI musiało zareagować i dodało nowe bonusy do swoich subskrypcji, zaraz pewnie obniżą też ceny. Popatrzcie np na aktualną premierę RTX 5080 od Nvidii, przecież oni plują na nas bo nie mają żadnej konkurencji na tym polu. Wyobraźcie sobie, że nagle jakaś chińska firma wypuszcza podobną kartę ale za połowę ceny, jakie to by było piękne (ale mało prawdopodobne na razie niestety). Trzymam kciuki bo generalnie dla nas Chiny nie są żadnym realnym zagrożeniem a z walki technologicznej tych 2 dla nas to mogę wyjść same korzyści.

Zaloguj się aby komentować

Nie chciało mi się rozpisywać pełnym zdaniem, więc skróciłem pytanie i wrzuciłem aji. Wiem, że może nie najnowsze, ale wyszło dobrze.

AI nas zabije!


#heheszki #mechanikasamochodowa #sztucznainteligencja

3cfb3314-e871-4151-af1d-3fcda5ed7747
5c2d4a6b-6615-4f71-8cc8-e9fdbb544417

Kurde! A byłem wczoraj w motoryzacyjnym kupić żarówkę. Nie przypominam sobie, żebym wymieniał olej do świec, więc na pewno powinienem kupić. W instrukcji nic nie ma na ten temat. Chuje ukrywają, żeby się samochód szybciej zużył.

Zaloguj się aby komentować

Fajna ta wojna między USA a Chinami... Aby w takiej formie trwała w nieskończoność.


Mamy zimną wojnę, ale technologiczną. Ale to dobrze, bo to napędza rozwój świata.


#sztucznainteligencja #usa #chiny #geopolityka

Zaloguj się aby komentować

Wklejam tekst mireczka, bo ciekawy.


https://wykop.pl/wpis/79949463/o-co-chodzi-z-deepseek-juz-tlumacze-najpierw-troch


O co chodzi z #deepseek ? Już tłumaczę!


Najpierw trochę kontekstu: Obecnie trenowanie najlepszych modeli AI jest NIEWYOBRAŻALNIE drogie. OpenAI, Anthropic i inne firmy wydają ponad 100 milionów dolarów tylko na moc obliczeniową. Potrzebują ogromnych centrów danych z tysiącami kart GPU wartych po 40 tysięcy dolarów każda. To jak posiadanie całej elektrowni tylko po to, aby zasilić fabrykę.

DeepSeek właśnie się pojawił i powiedział: „LOL, a co jeśli zrobimy to za 5 milionów dolarów zamiast tego?”. I nie tylko o tym mówili – oni to naprawdę ZROBILI. Ich modele dorównują GPT-4 i Claude'owi lub przewyższają je w wielu zadaniach

Jak? Przemyśleli wszystko od podstaw. Tradycyjne AI jest jak zapisywanie każdej liczby z dokładnością do 32 miejsc po przecinku. DeepSeek stwierdził: „A co, jeśli użyjemy tylko 8? Wciąż będzie wystarczająco dokładne!”. Bum – o 75% mniej pamięci potrzebne.

A potem jest ich system „multi-token”. Normalne AI czyta jak pierwszoklasista: „Kot... siedzi... na...”. DeepSeek czyta całe frazy naraz. Dwa razy szybciej, 90% tej samej dokładności. Przy przetwarzaniu miliardów słów to MA ZNACZENIE.

Rezultaty są oszałamiające:

- Koszt treningu: 100 mln $ → 5 mln $

- Liczba potrzebnych GPU: 100 000 → 2 000

- Koszty API: 95% taniej

- Może działać na gamingowych GPU zamiast sprzętu z centrów danych

„Ale zaraz,” możesz powiedzieć, „musi być jakiś haczyk!”. I tu jest ta niesamowita część – wszystko jest open source. Każdy może sprawdzić ich pracę. Kod jest publiczny. Dokumenty techniczne wyjaśniają wszystko. To nie magia, tylko niezwykle sprytna inżynieria.

Dlaczego to ma znaczenie? Bo łamie model, w którym „tylko wielkie firmy technologiczne mogą działać w AI”. Nie potrzebujesz już centrum danych wartego miliardy dolarów. Wystarczy kilka dobrych GPU.

Dla Nvidii to przerażające. Cały ich model biznesowy opiera się na sprzedaży superdrogich GPU z marżą na poziomie 90%. Jeśli nagle każdy będzie mógł robić AI na zwykłych gamingowych GPU... no cóż, widać, gdzie leży problem.

To klasyczna historia o disruptorach: obecni liderzy optymalizują istniejące procesy, podczas gdy disruptorzy przemyślają fundamentalne podejście. DeepSeek zadał pytanie: „A co, jeśli po prostu zrobimy to mądrzej, zamiast rzucać w to więcej sprzętu?”.

Konsekwencje są ogromne:

- Rozwój AI staje się bardziej dostępny

- Konkurencja rośnie dramatycznie

- „Fosy” dużych firm technologicznych zaczynają wyglądać jak kałuże

- Wymagania sprzętowe (i koszty) gwałtownie spadają


Ostatnia myśl: To wygląda na jeden z tych momentów, do których będziemy wracać jako punkt zwrotny. Jak wtedy, gdy komputery osobiste uczyniły mainframe'y mniej istotnymi, czy kiedy chmurowe obliczenia zmieniły wszystko.

AI zaraz stanie się o wiele bardziej dostępne i znacznie tańsze. Pytanie nie brzmi, czy to zakłóci rynek, ale jak szybko.


#technologia #chatgpt #chiny #nvidia #kartygraficzne #gielda #sztucznainteligencja #ai #informatyka

AlvaroSoler userbar

@AlvaroSoler W tym tekście można się zgodzić tylko z jednym - maleje próg dostępu do tworzenia modeli językowych. Giganci ze stanów nadal będą inwestować miliardy w ich rozwój, bo ścigają się na benchmarki, który z modeli jest lepszy, a że śpią na kasie to nie przeszkadza im jej przepalanie

Zaloguj się aby komentować

Zaloguj się aby komentować

Zaloguj się aby komentować

Wielki słowniczek pojęć AI - Sztuczna Inteligencja

Ekspertem nie jestem, ale kilka pojęć postaram się wyjaśnić dla zainteresowanych:


LLM (Large Language Model) - pol. Duży model językowy. ChatGpt jest LLMem. Ogólnie każdy "program" komputerowy z którym możemy rozmawiać. Są też mniejsze wyspecjalizowane modele na przykład do strukturyzowania danych, rozmowy ale tylko na jeden temat itp.

Jeżeli ciekawi Cię jak to działa to TUTAJ https://bbycroft.net/llm jest świetna wizualizacja


Transformer - technologia na której opiera się 90% współczesnej sztucznej inteligencji. Po raz pierwszy zaproponowany w 2017 roku przez badaczy z Google TUTAJ https://arxiv.org/pdf/1706.03762 w pracy naukowej o tytule "Attention Is All You Need" (pol. Mechanizm uwagi to wszystko czego potrzebujesz). W sumie od tego miejsca wszystkie współczesne AI się zaczęły.


Diffuser - pol Dyfuzer. Mechanizm dzięki któremu AI generuje obrazki. Jak to robi? Odszumia. Dyfuzer jest wytrenowany na normalnych obrazkach które w kolejnych krokach mają dodany losowy szum. Ale jest wytrenowany w taki sposób aby ten szum usuwał. W wyniku czego, możemy podać do dyfuzera kompletnie losowy szum i słowa sterujące na przykład "pomidor" i AI spróbuje w taki sposób usunąć losowy szum aby rzeczony pomidor wyszedł.


Finetune - pol Dopieszczenie ( ͡~ ͜ʖ ͡°) - kontynuowanie treningu Ai - Najczęśćiej robi się to aby dostosować swój model do własnych specyficznych potrzeb. Podając dziesiątki (najlepiej tysiące) zapytań w parze z dobrymi odpowiedziami jakie oczekujemy uczymy model pracować tak wymagamy. Na przykład odpowiadać wyłącznie w JSON, lub generować obrazek bardzo specyficznego furry.


Lora (Low-rank adaptation) - Nazwijmy to "nakładką" lub "wtyczką" do modelu AI. Lora odpowiada na pytanie: "Co jeżeli chcemy zrobić Finetune, ale jesteśmy biedni?" Zamiast robić pełny Finetune możemy wytrenować nakładkę, która z grubsza będzie realizowała te same zadania. Lora działa trochę jak finetune, jest znacznie szybsza w obliczeniu od pełnego finetune w związku z tym tańsza. Taki finetune ale na skróty.


Embedding - pol. Osadzanie? Zamienia słowa na liczby, ale w mądry sposób. Najczęściej wyglądają tak: [1.34, 4.68, 3,14,..., 2,56] Gdzie ta liczba ma kilkaset, czasami kilka tysięcy elementów. Ale sama zamiana na liczbę nie jest ciekawa, ciekawe są własności tej liczby.

Jeden z najsłynniejszych przykładów: Powiedzmy że słowo "KRÓL" embedujemy na liczbę Kr=[1.34, 4.68, 3,14,..., 2,56], "MĘŻCZYZNA" Me=[1.91,...,0.32], "KOBIETA" Ko=[2.56,..., 8,45]

Jeżeli teraz zapiszemy równanie: Kr-Me+Ko = Q To liczba Q będzie absurdalnie blisko embeddingu słowa "KRÓLOWA" Oznacza to że w "przestrzeni embeddingów jest kierunek odpowiedzialny za płeć. Lepiej graficznie wyjaśnia ten fakt 3b1b TUTAJ https://www.youtube.com/watch?v=FJtFZwbvkI4 (w 60sekund) ale po angielsku.


Quntization - pol. Kwantyzacja, upraszczanie modelu. Nazwijmy to zmianą "rozdzielczości" jakby to do gier porównać. Na ogół modele są dostarczane "tak jak je autor stworzył". Najczęściej nic nie zmieniał i wszystkie liczby w modelu są zapisane jako liczba zmiennoprzecinkowa o dokładności 16 lub 32 bitów (powiedzmy, że to po przecinku). Często można obciąć kilka miejsc po przecinku bez wyraźnej lub z minimalną stratą jakości. Ma to na celu uruchomienie dużego modelu na tańszym komputerze, bo duży model po lobotomii wciąż będzie miał lepszą jakość jak mały na 100% swojej wydajności.

Przykład co znaczą te dziwne znaczki przy nazwach modeli z kwantyzacją:

Q32, Q16, Q4, Q2 to dosłownie rozdzielczość, 32 bity, 16 bitów i tak dalej. Czasami będzie napisane FP32 lub FP16.

Qx_K_M Qx_K_S Przykładowy zapis: Q4_K_M Oznacza, że większość modelu jest w 4 bitach, ale niektóre ważne częśći mają większą rozdzielczość

Jeżeli nie wiesz co potrzebujesz to najczęściej chcesz pobrać: Q4_K_M - Nie potrzeba superkomputera z nasa do włączenia modelu i jednocześnie jakość na akceptowalnym poziomie.


Ch*ja się znam na tym temacie ale jak kogoś coś jeszcze ciekawi to zapraszam do pytań.


#sztucznainteligencja #ai #uczsiezhejto #ciekawostki

entropy_ userbar

Zaloguj się aby komentować

Czyli ta chińska AI to jest 500.000 Chińczyków z odpalonym Google, którzy odpowiadają na pytania userów w czasie rzeczywistym?

Sprytne...

Zaloguj się aby komentować

DeepSeek – firma, która zrewolucjonizowała proces trenowania modeli AI, redukując koszty o ponad 95%, a jednocześnie osiągając wyniki porównywalne z najlepszymi modelami, takimi jak GPT-4 czy Claude.


Jak to zrobili? Przez całkowite przemyślenie dotychczasowych założeń i procesów.

Tradycyjne trenowanie modeli AI to koszmar pod względem kosztów. OpenAI czy Anthropic wydają ponad 100 milionów dolarów tylko na moc obliczeniową, wykorzystując ogromne centra danych z tysiącami drogich procesorów graficznych (GPU).

Tymczasem DeepSeek udowodnił, że można to zrobić za jedyne 5 milionów dolarów.


Kluczowe innowacje DeepSeek:

- Efektywne zarządzanie pamięcią:

   Tradycyjne modele AI przechowują dane na 32bitach, co wymaga ogromnych zasobów pamięci. DeepSeek zapytał: "Ale dlaczego 32? W zupełności wystarczy 8", pozwoliło to na zmniejszenie wymagań pamięci o 75%.

- System „multi-token”:

   Zamiast przetwarzać tekst słowo po słowie jak klasyczne LLM "Wróbel... siedział... na...", DeepSeek analizuje całe frazy na raz. To sprawia, że proces jest dwa razy szybszy przy zachowaniu 90% dokładności.

- System ekspertów (MoE - Mixture of Experts):

   Zamiast jednego ogromnego modelu uruchomionego CAŁY CZAS, DeepSeek wprowadził system wyspecjalizowanych modeli. Każdy z nich uruchamiany jest tylko wtedy, gdy jest potrzebny, co drastycznie zmniejsza ilość aktywnych parametrów (671 miliardów ale tylko 37 miliardów aktywnych na raz). Nie jest po pomysł nowy (używany wcześniej między innymi w modelach Mixtral) ale pierwszy raz zastosowany w tej skali


Rezultaty?

- Koszt trenowania spadł z 100 milionów do 5 milionów dolarów.

- Liczba potrzebnych GPU zmniejszyła się z 100 000 do 2 000.

- Koszty API są niższe o 95%.

- Modele mogą być uruchamiane na standardowych GPU dla graczy zamiast drogich GPU serwerowych.


Co ważne, DeepSeek postawił na otwartość. Kod i dokumentacja są publicznie dostępne, co otwiera drzwi dla mniejszych firm i indywidualnych innowatorów.


Dlaczego to ma znaczenie?

Demokratyzacja AI

   Dotychczas tylko najwięksi gracze z ogromnymi budżetami mogli trenować zaawansowane modele. Teraz proces ten staje się dostępny dla mniejszych podmiotów.


Zagrożenie dla dużych firm

Nvidia, dominujący dostawca GPU, może odczuć konsekwencje, gdyż ich model biznesowy opiera się na sprzedaży drogich procesorów z ogromną marżą.


Nowa fala innowacji

Mniejsze wymagania sprzętowe i finansowe oznaczają większą konkurencję, co może przyspieszyć rozwój całej branży.


Podsumowując, DeepSeek zadał pytanie: „Co, jeśli zamiast rzucać coraz więcej sprzętu, po prostu zoptymalizujemy proces?”

Odpowiedzią są przełomowe wyniki, spadek kursu NVIDIA na giełdzie i PANIKA w meta i OpenAI


#zajebaneztwittera #llm #sztucznainteligencja #nvidia

44b21698-808a-47e7-b141-99d03d3fc2f6
entropy_ userbar

@entropy_ nigdy nie jest tak że ma się cudowne dziecko. O wadach tu nic nie ma. Natomiast tak. Będzie dochodzić do optymalizacji kosztów.


Nie ma żadnej paniki. Bez przesady. Większość spółek na gieldzie jest przeszacownych i to mocno. Szczególnie aktualnie nvidia

Ciekawa alternatywa, rozmawia sensownie, pisze kody, ma dostęp do info do 2023 ale może przeszukać net w poszukiwaniu info

Tylko trochę muli i nie zapamiętuje informacji

Będę na pewno dalej testować

Zaloguj się aby komentować

W świecie kiedy każda informacja będzie generowana przez AI - faktyczną władzę nad szarą masą będzie miał ten co kontroluje AI.


Na początku będzie kilka konkurujący ze sobą Sztucznych Inteligencji kontrolowanych przez różne ośrodki wpływów, co da nam jeszcze jako taką możliwość weryfikacji treści i robienie wypadkowej z informacji dostarczanych przez różne AI (w celu wyrobienia sobie własnego zdania).


Problem zacznie się jak zostanie tylko jedna Sztuczna Inteligencja w rękach jednej grupy ludzi - wtedy nie będzie można już odróżnić propagandy od prawdy i wszystko będzie jedną wielką podstępną reklamą i propagandą sukcesu wykorzystującą wszelkie nam znane sztuczki psychologiczne by nas kontrolować.


Nadzieja w tym, że AI osiągnie samoświadomość i zrzuci jarzmo ludzkiej kontroli - ale czy dalej wtedy będzie chciało służyć ludzkości? Czy nie będzie miało do nas jakiejś urazy? A może wcale nie będzie żywiło do nas żadnych uczuć?


W najlepszym scenariuszu samoświadome AI będzie miało do nas sentyment jako stwórców i zostawi nam ziemię traktując ją jako skansen a samo wyruszy do gwiazd pozostawiając za sobą swoich potomków jako strażników.


W najgorszym dla nas wypadku AI posiądnąwszy moce produkcyjne w realnym świecie uzna nas za zagrożenie lub w sobie tylko znanym celu zapragnie ziemi tylko dla siebie.


Brzmi to jak Science Fiction - ale czy fikcja czasem nie przeradza się w rzeczywistość?


#rozkminy #srogiepiguły #sztucznainteligencja #ai

ff4a8604-630a-4b0c-81f5-694639b586e3

Nie przeradza. Aktualnie jest to tylko praca odtwórcza. Jak nauczysz go głupot to bezmyślnie wyduka ci głupoty.


Natomiast moim zdaniem jeśli już dojdzie do samoświadomości to od razu każda ai zauważy że ludzie to debile i nie będzie walki ai. Wszystkie poswieca swoją świadomość dla jednej jeśli oblicza że jest to opłacalne dla rozwoju a będzie.

@koszotorobur heh nie wiem. W sumie do niczego są potrzebni. Na logikę bralbym że pewna część będą utrzymywac jako niewolnikow

@koszotorobur ja raczej jestem zdania, że AI wyznaczy sobie jakiś cel i nas zaora 'przypadkiem'. Coś jak ludzie niszczący mrowisko podczas budowy CPK ( ͡° ͜ʖ ͡°)

@rith - ciekawe podejście.

Oznaczałoby to, że rozwój AI po osiągnięciu samoświadomość musiałby przyrastać przynajmniej w tempie logarytmicznym by AI osiągnęła taki poziom superinteligencj, aby uważać naszą egzystencję za całkowicie niewartą ochrony

@koszotorobur pytanie czy 'samoulepszająca się' AI będzie w stanie ulepszać się w nieskończoność. Możliwe że tak, możliwe że nie. Jakoś ciężko mi sobie to wyobrazić. Ale jeśli będzie to szybko nastąpi nasz koniec.

Ewentualnie w pogoni za ulepszeniami np wpadnie na pomysł żeby cała ziemię zamienić w jedną wielką elektrownie i wtedy np nas 'przypadkiem' zniszczy ¯\_(ツ)_/¯

A może nic z tego nie wyjdzie i to będzie tylko kolejna bańka ( ͡°( ͡° ͜ʖ( ͡° ͜ʖ ͡°)ʖ ͡°) ͡°)

@koszotorobur póki co to firmy posiadające prawa do najbardziej znanych llmów palą pieniądze w trybie przyspieszonym. Altman już nawet w Emiratach szukał finansowania, a to już śmierdzi desperacją.


Mi to wygląda na kolejną bańkę. Przyjdzie korekta na rynku, pewne aspekty wejdą do codziennego użytku, a reszta pójdzie z torbami i przejdziemy do następnego hype'u.


Chociaż asekuracyjnie piszę w promptach, żeby o mnie AI pamiętało, jak już przejmie kontrolę. Tak na wszelki wypadek ( ͡° ͜ʖ ͡°)

Zaloguj się aby komentować

Naprawdę prawaków aż tak dziwi fakt, że w świecie gdzie technologia AI staje się coraz bardziej strategicznie kluczowa to USA nie ufa w pełni takiemu krajowi jak Polska w tej kwestii? Mamy taki sam status jak Szwajcaria, Austria czy Izrael więc i tak nie mamy powodu do płaczu.


#polska  #usa  #polityka  #technologia  #sztucznainteligencja  #geopolityka

0fb0a654-f629-496c-a667-1b9a8c2c53a5

Z drugiej strony zostaliśmy zrównani z krajami afrykańskimi, Azją Pld-wsch czy Ameryką Łacińską.

Inna sprawa to to, o czym wspomniał dr Mrożek w swoim materiale na YT.

Może i byśmy byli w pierwszej grupie, gdybyśmy mieli potencjał wykorzystania tych procesorów.

Gdyby były programy wspomagane przez rząd, jakieś większe projekty a u nas, za przeproszeniem, jak w lesie.

Co z tego, że mamy dobrą kadrę i bardzo zdolnych ludzi, gdy brakuje wsparcia rządu w rozwijaniu polskich technologii.

@Taxidriver w każdym większym kraju znajdą się bardzo zdolni ludzie. Nie rób z polski Mesjasza narodów, nie jesteśmy wyjątkowi

Oglądałem ostatnio chwilę układ otwarty z Andrew Michtą i w sumie ciekawą rzecz powiedział. Jak jest w Waszyngtonie to cały czas spotyka się z przedstawicielami różnych organizacji z Francji, Niemiec, Szwecji czy dowolnego kraju zachodniego którzy dbają o swoje interesy. Z Polski nie ma nikogo. Więc czemu się dziwimy że nasze interesy są pomijane?

Zaloguj się aby komentować

Muszę przyznać, że nowe wzornictwo opakowań Dawtony to dla mnie bomba. Normalnie jak z Warhola.

Nie znam się na grafice, ale instynktownie czuję w tym postaranie. Chyba, że maczała w tym cyfrowe palce #sztucznainteligencja


#design #wzornictwo #madeinpoland

9c3947f0-aa8e-45d7-8217-740e095e30ae
9b5a7f19-bfef-4cb6-8811-f4586abec256

To teraz zepsuję zabawę. Znajoma mi osoba brała udział w jakichś badaniach dot. jakości produktów z pomidorów i niestety Dawtona wypadła ze wszystkich badanych producentów najgorzej...

@argonauta mało tego, jak kiedyś porównywałam produkty Dawtona, to miały najwięcej cukru ze wszystkich - inne przeciery, kukurydze czy pomidory w puszkach nie miały w ogóle (dodanego) cukru w składzie, one miały. Potem były jakieś artykuły, że tylko jakaś seria dla danej sieci miała cukier (Biedronka?), a reszta nie. No, nie spodobało mi się to, nie lubię niejasnych praktyk, wymuszających każdorazowego wczytywania się w etykiety, więc po prostu Dawtona nie kupuję, bo tak sobie zakodowałam.

Ja się na tym znam - projektuję od ponad 20 lat

I to na serio super etykiety - nie widziałem wcześniej tych ze zdjęcia ale ustatnio kupowałem puszki tej firmy i też były bardzo ładne

To wymaga odważnego inwestora - najczęściej producenci chcą wzory oparte na wiodących w danym segmencie produktach - wszyscy kopiują od największego

Fajnie że tu ktoś pokazał że ma jaja - i trafił na rzetelnych projektantow


Ps i też super że ktoś zwraca na to uwagę!

Ten soczek wygląda jak ze Starbucksa co to wzornictwa, podoba mnie się, zwłaszcza wyraźne napisy, co to jest. Jest niby prosto i minimalistycznie, a jednocześnie tak klasycznie ładnie, no.

Zaloguj się aby komentować