Ponieważ sporo siedzę w AI, pomyślałem, że mógłbym dzielić się wskazówkami, jak efektywniej korzystać z modeli językowych (LLM). Jeśli jest zainteresowanie, to zróbmy ankietę.


Na początek mam technikę Blank Page Prompt (BPP), czyli „prompt z pustą kartką”. Zamiast dawać modelowi od razu gotowy, szczegółowy schemat, budujesz pełen kontekst w trakcie rozmowy, na podstawie jego odpowiedzi. To daje lepsze rezultaty, bo pozwala AI precyzyjniej dostosować się do Twoich potrzeb.


Przykład

Zamiast (gotowy prompt): „Napisz post o tym, jak AI zmieni rynek pracy, uwzględniając zawody kreatywne i techniczne, w 10 punktach i używając języka formalnego”.

Lepiej (metodą BPP):
Ty: „Jakie są największe wyzwania związane z integracją AI w biznesie?”
AI: „Etyka, bezpieczeństwo danych, brak specjalistów…”
Ty: „Rozwiń temat braku wykwalifikowanych specjalistów. Podaj przykłady zawodów.”
AI: „Wzrośnie zapotrzebowanie na inżynierów promptów, specjalistów od AI governance…”

W ten sposób stopniowo budujesz kontekst (i możesz dowiedzieć się czegoś nowego), zamiast rzucać wszystko naraz.

#ai #ankieta

Pisać czy nie pisać?

396 Głosów

Komentarze (47)

fisti

Jest zainteresowanie!

WujekAlien

@jestemtuodwczoraj Ciekawe podejście, ja zazwyczaj piszę dość rozbudowany prompt, bo średnio jestem zadowolony z tych kolejnych iteracji. Do tego w GPT-5 trochę to trwa, a czas mnie raczej goni, jak używam AI

jestemtuodwczoraj

@WujekAlien polecam w takim razie meta-prompting. Prompt, którego celem jest generowanie promptu opisujesz ai, jak ma docelowy prompt brzmieć (sprawdza się w długich promptach, żeby nie klikać w klawiature długo)

m_h

@WujekAlien ja zazwyczaj piszę żeby przygotował mi najbardziej efektywy prompt do następnej sesji llm.

fisti

@jestemtuodwczoraj Możesz podać przykład takiego meta-promptu?

WujekAlien

@m_h ja też, tzn. proszę o przygotowanie tego i tego, z opisem co chciałbym, żeby w nim było i na czym ma się skupić w tym prompcie.
Też trochę inaczej korzystam z prywatnego ChatuGPT i służbowego Copilota M365.

jestemtuodwczoraj

@fisti przykład meta-promptu. Może też się przyda @bojowonastawionaowca


"Jesteś doświadczonym strategiem marketingu internetowego. Twoim zadaniem jest opracowanie strategii dla Hejto, mającej na celu zwiększenie liczby aktywnych użytkowników.

  1. Przedstaw strategię w punktach, od najważniejszych.

  2. Dla każdego punktu: zwięzły nagłówek, szczegółowe wyjaśnienie i konkretny przykład działania na Hejto.

  3. Nie używaj powitalnych/pożegnalnych fraz.

  4. Skup się na praktycznych rozwiązaniach, możliwych do wdrożenia przez małą platformę.

  5. Używaj języka bezpośredniego, bez lania wody."

sireplama

O! Tez to zauważyłem, że zadawanie przygłupowi Gemini długich i skomplikowanych pytań przynosi słabe rezultaty i lepiej liznąć temat a potem pytać szczegółowiej odnosząc się do jego wcześniejszych odpowiedzi.


Niech mnie ktoś pochwali, że mądry jestem! :]

Atexor

@sireplama @jestemtuodwczoraj ja Gemini nie używam, czasem gpt. I zauważyłem, że właśnie ma problem z context size. Dlatego zamiast dopytywać, to piszę szczegółową wiadomość. I wtedy z automatu używa myślenia zamiast od razu wybrać (na gpt-4 była osobna opcja do rozumowania). Im dalej w las, tym bardziej zapomina i zmyśla. A jak skończy się trial i leci na gpt-4 to już mordęga. Wymyśla jak z nut, nawet źródła na które się powołuje (choć to dość często na 5 też się zdarza).

RACO

@sireplama twoja babcia cie chwali

jestemtuodwczoraj

@sireplama zależy o co pytasz i czy Gemini Pro czy Flash

l__p

@jestemtuodwczoraj LLM wy⁎⁎⁎⁎⁎olic do kosza. Największy rak IT w tym momencie.

l__p

@jestemtuodwczoraj Osoby nie siedzące w branży i nie znające się na AI myślą, że LLM i ogólnie Generative AI to lek na wszystko. Najgorzej, że management w wielu firmach IT też się nie zna i naciskają na sprzedaż tego badziewia klientom. Systemy sztucznej inteligencji wyspecjalizowane do konkretnego problemu są zajebiste (e.g. AlphaFold) i to powinna być przyszłość, no ale lepiej zrobić wrapper pod ChataGPT i elo...

l__p

@jestemtuodwczoraj Już nie mówię o masowej produkcji gówno contentu na wszystkich platformach internetowych, automatyczne tłumaczenia, których nie idzie wyłączyć, itd.

jestemtuodwczoraj

@l__p to nie samym problemem jest ai, tylko ludzie ślepo w nią patrzący. AI może pomóc i przyspieszyć rzeczy, ale nie zrobi czegoś za nas.

Pouek

@l__p przynajmniej czyści rynek :V. To nie tylko problem klepaczy kodu, model językowy zaczyna kłamać na potęgę w każdej dziedzinie

poprostumort

@Pouek Garbage in garbage out. Modele trenowane na scrapowanych danych, halucynacje dobijające do poziomu 20% -a w nastepnej iteracji scrapujemy więcej danych, w tym generowane przez AI i zawierające halucynacje.

Równia pochyła, bez porządnego filtrowania danych do nauki nie ma szans na nic wiecej niż jebnięcie.

Pantokrator

@l__p Jak widzę artykuł napisany przez AI, to z góry wiadomo, że nie dość, że niczego pewnego się nie dowiem, to jeszcze w paru miejscach napisze bzdury, bo przeczytał w instrukcji obsługi do podobnego produktu albo powtórzył niedoinformownaego leszcza z reddita.

Cały internet tym zasrany. A najgorsze, że to gówno udaje, że zna odpowiedzi na trudne pytania. Jakieś odpowiedzi zna, tylko potem się okazuje, że są błędne. Trochę się interesuję historią i sprzętem wojskowym. Kocham "gimboanalizy" od AI. Co za koszmarna strata czasu. Może i to nie AI winne, że powtarza popularne bzdury, ale dzięki AI jest tego po prostu o wiele więcej.

Lemon_

@jestemtuodwczoraj A ja słyszałem, że trzeba już na początku podać jak najbardziej szczegółowy prompt. Bo jak podasz zbyt ogólny, to chat zaczyna pi⁎⁎⁎⁎lić głupoty i zbacza na manowce. A tak jak go przygwoździsz szczegółowym promptem, to zmuszasz go do większej prawdomówności i weryfikacji źródeł.

Zresztą ja temu komputerowemu cwaniakowi nie ufam ani trochę i sprawdzam niezależnie wszystko, co mi mówi. Jak go przyłapię na błędzie (a zdarza się to często), to przeprasza i bardziej się stara.

jestemtuodwczoraj

@Lemon_ Tak, zazwyczaj to się sprawdzi najlepiej. Podałem jedną opcje z... W tym przypadku co ja opisałem sprawdzi się, kiedy nie mamy za bardzo pojęcia o danej rzeczy i pytamy ai, rozmawiamy z nim a potem na koniec, z całej tej rozmowy coś powstaje

DEAFCON_ONE

>sporo wiem o AI

>prompt engineering


to jakiś żart?

Bylina_Rdestu

@jestemtuodwczoraj koledze @DEAFCON_ONE chodzi pewnie o to, że jeśli nie potrafisz cytować z pamięci Attention Is All You Need to jest linkedinowy ekspert od ejaja a nie, że masz jakieś pojęcie o AI xD

A tak serio mówiąc że sporo wiesz o AI to część ludzi faktycznie znająca temat może się spodziewać że masz wiedzę trochę obszerniejsza niż wpisywanie promptow czy koszystanie z n8n

jestemtuodwczoraj

@Bylina_Rdestu kieruje to do ludzi, ktorzy mało korzystają z ai, żeby im pomoc w użytkowaniu codziennym, albo jakieś mikro biznesowy sprawy a nie dla zawodowców

DEAFCON_ONE

@jestemtuodwczoraj prompt engineering to wróżenie z fusów i MBTI. Jak realnie chcesz ludziom pomóc to wytłumacz jak zapiąć RAGa i co to jest, o cholerę chodzi z LORA i jak podłączyć sobie rzeczy tak, żeby móc korzystać z wszystkich możliwych providerów, w tym lokalnych.


z podobnych tematów ostatnio uczyłem kogoś jak korzystać z whispera, coś takiego mogłoby być przydatne – mimo że dla mnie to 30 sekund z instrukcją. Zapięcie ComfyUI też – połowa osób tutaj korzysta z losowych stron (większość to generator slopu napędzany przez stable diffusion).


Podany przykład też wygląda beznadziejnie, te słynne ej aj jest beznadziejne do zbierania informacji i każdą rzecz trzeba fact checkować – warto podkreślać że to sprytny generator tekstu, a nie myśląca jednostka (serio).

jestemtuodwczoraj

@DEAFCON_ONE Rozumiem, że dla kogoś technicznego te narzędzia są ważne, ale mój kontent jest dla początkujących. A dla nich najważniejsze jest zrozumienie, że z modelem trzeba umieć rozmawiać, żeby osiągnąć cel. RAG-i i LORA przyjdą później, jak ktoś złapie bakcyla i będzie chciał iść głębiej

Farmer111

Pisz, bo ciekawe i na czasie.

Catharsis

Czy tylko ja mam tak, że im dłużej piszę z modelem tym bardziej pi⁎⁎⁎⁎li głupoty i zazwyczaj jeśli w pierwszych paru wiadomościach nie dostałem tego co chce to już nie dostane w ogóle i muszę zaczynać nowy chat? Szczególnie zauważam ten problem w Gemini używając go w Gemini CLI. Fajnie że ma ogromny kontekst, chyba ponad milion tokenów czy coś takiego no ale co z tego kiedy zaczyna pisać głupoty już po paru edycjach kodu jeśli pracuje na dużym codebase.

jestemtuodwczoraj

@Catharsis ja Gemini używam przeglądarkowo w wersji Pro i daje radę, ale nigdy nie używałem go do kodu. Słyszałem, że Claude dużo lepiej sobie radzi z kodem niż Gemini czy GPT.

DEAFCON_ONE

@Catharsis nie jestem specjalistą i wuja się znam (industry standard, filmik 2blue6brown, te dwa artykuły które czytali wszyscy i jazda) ale w czerwcu-sierpniu klepałem jakąś wioskę potomkinowską. Dojebałem ficzery żeby dało się podłączyć do różnych providerów i dokleiłem RAGa. RAG to obraźliwie prymitywny koncept – w dużym skrócie mielisz dokumenty do zapisu na którym operuje LLM, czyli wektorów z numerkami (embedding się to nazywa), wkładasz do specjalnej bazy danych, jak przychodzi prompt to zmieniasz go na embeddingi i wyciągasz z wspomnianej bazy podobne embeddingi i dosłownie je przyklejasz do prompta, co jest pewnym uproszczeniem tego jak działa transformer właściwy.


nie pytaj mnie jak działa transformer właściwy bo nie wiem


w teorii RAG pozwala ci dać LLMowi nieskończony kontekst, pozwala mu się uczyć i parsować nowe fakty itdede, w praktyce dupy nie urywa i się gubi nawet jak dosłownie wysyłasz odpowiedź w prompcie.


DOBRA DO RZECZY

otóż dodałem wsparcie embeddingu audio i nakarmiłem LLMy dziełami drugiego najwspanialszego amerykanina polskiego pochodzenia – Francis E. Deca. https://www.bentoandstarchky.com/dec/rants.htm. Na początku LLMy wypluwały disclaimer że to oszustwo w odpowiedzi na pytania o bełkocie Deca, ale 100-200 wiadomości później wszystkie generowały odpowiedzi zawierające COMMUNIST GANGSTER COMPUTER GOD nawet jeśli nie o to pytałeś


cudne.


https://www.youtube.com/watch?v=SCj0G68sClg


a odpowiadając na zadane pytanie – tak, to standard, wiodącym trendem jest stworzenie jakiegoś CLAUDE.MD jako system prompt dla agentów + odpalanie sesji na każdy mały task. IMO """ageci""" to ślepy zaułek bo jakość tego co wypluwają jest ujemna (chyba że robisz szybkie PoC albo potrzebujesz zamiennika SO), na dobre rozwiązania musimy poczekać aż bańka pęknie

Bylina_Rdestu

@DEAFCON_ONE

Co jest pewnym uproszczeniem tego jak działa transformer właściwy

Ogólnie wszystko wytłumaczyłeś dobrze, uproszczenia zgodne z prawdą, ale w cytowanym punkcie przeze mnie nie masz racji.

Transformery nie mają nic wspólnego z RAG, to są dwa zupełnie inne poziomy. Transformer to architektura modelu językowego. Mega upraszczając: bierze tokeny z prompta, przetwarza je i generuje tekst. RAG to taki pipeline który rozszerza kontekst i sam wykorzystuje modele językowe do embeddingu i generowania treści.

RAG to raczej taka metoda łączenia

Catharsis

@DEAFCON_ONE Tbh nie mam pojęcia o czym mówisz, Panie ja na co dzień piszę CRUDy w JS a nie jakieś RAG, transformery i inne xDDDD.


na dobre rozwiązania musimy poczekać aż bańka pęknie

Też mi się tak wydaje, cały czas wychodzą nowe modele, agenci, narzędzia. Czytam tylko artykuły, że to już teraz i zaraz tracimy wszyscy pracę po czym nic dalej się nie zmieniło xD. Pracę to na pewno tracą ci od tych gównianych artykułów xD.

motokate

@Catharsis Bywa tak, że się model zakorbia i wymyśla coraz gorsze rozwiązania. Wtedy przerywam czymś w stylu "you're overcomplicating" i naprowadzam na właściwe tory, i wtedy jakoś idzie. Ale i tak zawsze dużo po nim poprawiam.

jestemtuodwczoraj

@Half_NEET_Half_Amazing tak jest

pacjent44

@jestemtuodwczoraj i nie zawadzi cokolwiek napisać o sobie.
Czekam na twoje porady, mimo że nie jestem z IT, a artysta. Ostatnio się biłem z AI o stworzenie pewnej sceny (concept) z braku funduszy na modeli, studio i fotografa. Szału nie ma. Używałem gemini i coopilota. Teraz cię czytając, żachnąłem się, że AI w odpowiedzi na mojego promta, którego nie chciał wykonać, wyprodukował... własnego prompta, jako propozycję.

dzień dobry

jestemtuodwczoraj

@Brodimir postprodukcją wideo, ale z racji zawodu dużo używam ai i jest to moja zajawka

bzyk260

@jestemtuodwczoraj Dawaj mnie te posty! Oczywiscie że przyda się umiejętność korzystania z takiego narzędzia jakim jest AI. Jednak wolałbym żeby to było w stronę bardziej praktycznych życiowych rzeczy np. Jak zadać dobrze pytania kiedy chcemy się nauczyć jakiejś konkretnej umiejętności i żeby cię poprowadził itp.

SST82

Pisać czy nie pisać?


@jestemtuodwczoraj Nie pisać. Niech ajaj to napisze

W sumie fajne wyzwanie. Napisz to "rekoma" AI.

kodyak

Warto jednak pamiętać że odpowiedź to będzie uśrednienie wszystkiego. Niekoniecznie zawsze o to nam chodzi. Mam jednak wrażenie że na razie wszyscy idą w to na slepo

tptak

@jestemtuodwczoraj ustaw tag tematyczny żeby się zapisać, proponuję #wczorai

DonkeyKong

To wszystko brzmi jak jakieś techno-voodoo. Masz dowód na to że to działa lepiej? I chodzi mi o faktyczny dowód, nie twoje subiektywne odczucia.

jestemtuodwczoraj

@DonkeyKong jest to bardzo łatwo weryfikowalne przez każdego

Zaloguj się aby komentować