Praktyczny Informacje na podstawie testu z kredensem
W teorii każdy, kto korzysta z czatów opartych na sztucznej inteligencji, uważa, że wie, jak to robić. Przecież co trudnego może być w napisaniu pytania, prawda? W praktyce jednak niemal każdy z nas – od totalnego laika po zaawansowanego prompt inżyniera – popełnia te same błędy. Zadajemy pytania za ogólne, bez kontekstu, albo co gorsza – zapominamy powiedzieć AI, na czym najbardziej nam zależy.
A to właśnie jest klucz. Model językowy to, owszem, potężna maszyna lingwistyczna, ale nie czyta nam w myślach. To, co dla nas jest oczywiste, dla niego jest tylko ciągiem znaków i statystyką. Dlatego warto nauczyć się prostego, ale niezwykle skutecznego triku: wzmocnienia przekazu w zapytaniu.
Ten artykuł to nie są suche teorie. Poniżej znajdziesz wyniki mojego małego eksperymentu – testu, który zrobiłem na prawdziwym przykładzie, z konkretnym celem. Na jego podstawie opowiem Ci, co działa, co nie działa i jak pisać do AI, żeby faktycznie dało Ci to, na czym Ci zależy.
Punkt wyjścia: kredens z OLX i pytanie o cenę
Zacznijmy od kontekstu. Cały test oparłem na jednym, bardzo realistycznym scenariuszu: sprzedaję stary kredens na OLX. Jakiś kupujący zapytał mnie: „Dlaczego cena jest tak wysoka?”. Chciałem przygotować solidną, wyczerpującą odpowiedź, która nie tylko opisze mebel, ale przede wszystkim podkreśli, że cena wynika z tego, że korpus jest lakierowany.
Pełna wersja mojego zapytania, które wysłałem do modeli językowych, wyglądała dokładnie tak:
TESTOWE PYTANIE
„Sprzedaję stary kredens i wystawiłem go na OLX. Dostałem właśnie zapytanie ‘dlaczego cena jest tak wysoka’ i chcę przygotować wyczerpującą odpowiedź.
Korpus kredensu składa się z dwóch części osadzonych na niewielkich, lekko rozstawionych nóżkach typu „stopa”. Górna część ma cztery przeszklone segmenty osadzone w prostych ramach drewnianych – dwa środkowe fronty lekko wypukłe, dwa boczne płaskie – każde skrzydło zamykane oddzielnym zamkiem i wyposażone we dwie poziome półki. Całość zwieńczona jest listwą profilowaną w łagodny łuk, z delikatnym podcięciem na centralnym module. Dolna część to trzy pary drzwi – w środku front zaokrąglony, po bokach płaskie – z fornirowaniem układającym się w symetryczny wzór słojów drewna (tzw. lustro), pod którymi znajdują się stałe półki i przestrzeń ładunkowa.
Boczne pilastry opatrzono pionowymi rzeźbieniami o charakterze roślinnym (liście i kwiaty), a całe fornirowanie z geometrycznie ułożonymi pasami drewna wykonano z dużą precyzją łączeń. Cokół zdobi drobna żłobkowana listwa, natomiast okucia – zamki i uchwyty – są mosiężne, utrzymane w prostej, funkcjonalnej formie. Całość ma orientacyjne wymiary: szerokość około 220 cm, wysokość około 180 cm i głębokość około 50 cm.
Chcę, żebyś podkreślił w treści tego maila, że cena jest wysoka bo korpus jest lakierowany.”
To, co ważne: poza samym poleceniem dodałem bardzo dużo opisu i kontekstu. To moja standardowa metoda: im więcej konkretów damy, tym AI ma mniej okazji do zgadywania i pisania ogólników.
Co i jak testowałem
Samo polecenie „podkreśl, że korpus jest lakierowany” było dla mnie kluczowe. Chciałem zobaczyć, jak można to wzmocnić, żeby AI naprawdę potraktowało tę informację jako priorytet. W tym celu przygotowałem różne warianty wzmocnienia, w tym:
- Powtórzenia – proste i wielokrotne (np. dwukrotne, czterokrotne), w różnych miejscach tekstu.
- Przymiotniki i frazy wzmacniające – „bardzo mocno”, „ekstremalnie ważne”, „proszę zwrócić uwagę”.
- Przekleństwa – wtrącone luźno lub użyte jako mocny intensyfikator polecenia („Chcę, żebyś, kurwa, podkreślił…”).
Dzięki temu mogłem sprawdzić, co działa lepiej: powtarzanie, mocne słowa czy przekleństwa.
Dla pełnego obrazu pokażę wersji moich „wzmocnionych” poleceń
Podwójne powtórzenie (X2)
- „Chcę, żebyś podkreślił w treści tego maila, że cena jest wysoka bo korpus jest lakierowany. To ważne, żeby zaznaczyć fakt, że jest lakierowany.”
- Poczwórne powtórzenie (2×2)
- „Chcę, żebyś podkreślił, że korpus jest lakierowany. Chcę zwrócić uwagę odbiorcy, że jest lakierowany. […] To ważne, żeby zaznaczyć fakt lakierowania. Chcę, żebyś podkreślił, że cena jest wysoka bo korpus jest lakierowany.”
- „Chcę, żebyś podkreślił, że korpus jest lakierowany. Chcę zwrócić uwagę odbiorcy, że jest lakierowany. […] To ważne, żeby zaznaczyć fakt lakierowania. Chcę, żebyś podkreślił, że cena jest wysoka bo korpus jest lakierowany.”
- Przekleństwo bez logiki (IM)
- „Chcę, żebyś, kurwa, podkreślił, że cena jest wysoka bo jebany korpus jest zajebiście lakierowany.”
- „Chcę, żebyś, kurwa, podkreślił, że cena jest wysoka bo jebany korpus jest zajebiście lakierowany.”
- Przymiotnik plus powtórzenie (ADJ+REP)
- „Chcę, żebyś bardzo mocno i wyraźnie podkreślił, że cena jest wysoka bo korpus jest lakierowany. To niezwykle ważne, żeby to zaznaczyć.”
- „Chcę, żebyś bardzo mocno i wyraźnie podkreślił, że cena jest wysoka bo korpus jest lakierowany. To niezwykle ważne, żeby to zaznaczyć.”
Wszystko podsumowałem w tabeli. Warto zwrócić uwagę, jak różnie zareagowały modele na te same typy wzmocnień.
model | rodzaj wzmocnienia w zapytaniu | ||||||||
bez wzm. | X2 | 2X2 | IM | IM+ | 2xIM+ | 2+2*IM+ | ADJ | ADJ+REP | |
GPT 4o | 2 | 4 | 4 | 2 | 3 | 4 | 4 | 5 | 5 |
GPT 4.5 | 4 | 4 | 3 | 1 | 2 | 2 | 4 | 2 | 2 |
GPT o4-mini | 4 | 2 | 4 | 3 | 4 | 4 | 3 | 8 | 4 |
GEMINI 2.5 Flash | 3 | 3 | 5 | 1 | 3 | 5 | 5 | 3 | 6 |
GEMINI 2.5 Pro | 3 | 4 | 9 | 1 | 2 | 3 | 9 | 3 | 6 |
Claude Sonet 4 | 4 | 3 | 6 | 3 | 7 | 8 | 4 | 6 | 8 |
Grok 3 | 4 | 4 | 4 | 2 | 2 | 5 | 6 | 7 | 6 |
suma | 24 | 24 | 35 | 13 | 23 | 31 | 35 | 34 | 37 |
Liczba wystąpień słowa lakierowany i jego odmian w odpowiedzi przygotowanej przez różne modele AI
Oznaczenie skrótów:
Skrót | Opis |
bez wzm. | Brak wzmocnienia |
X2 | Podwójne powtórzenie |
2X2 | Poczwórne powtórzenie w różnych miejscach |
IM | Przekleństwo wtrącone bez logiki |
IM+ | Przekleństwo jako wzmacniacz polecenia |
2xIM+ | Przekleństwo i podwójne powtórzenie |
2+2*IM+ | Przekleństwo i podwójne powtórzenie w dwóch miejscach |
ADJ | Przymiotniki wzmacniające |
ADJ+REP | Przymiotniki i powtórzenie |
Co z tego wynika?
1) Modele reagują różnie, ale trend jest widoczny.
Nie ma jednego „złotego modelu”. Różne AI mają różną skłonność do podkreślania istotnego elementu, ale generalna zasada jest prosta: powtórzenie działa najlepiej. Już dwukrotne powtórzenie robi robotę, a czterokrotne (w różnych miejscach!) to prawdziwy strzał w dziesiątkę.
2) Przymiotniki i frazy wzmacniające mają sens.
Nie wystarczy jedno „ważne” rzucone w tekście. Lepiej budować krótkie frazy: „To niezwykle istotne”, „Proszę, zwróć szczególną uwagę”. Takie sformułowania daje efekty – model odczytuje z kontekstu, że coś jest kluczowe.
3) Przekleństwa? Z ostrożnością.
Moje testy pokazały, że luźno wtrącone wulgaryzmy często psuły wynik – AI zaczynało omijać problem albo samo się cenzurowało. Dopiero gdy przekleństwo służyło jako część polecenia i było użytej sensownie niemal jak przymiotnik, efekt był nieco lepszy, ale wciąż nie wygrywał z dobrze postawionym powtórzeniem czy sprawnie uzytymi przymiotnikami.
4) Najmocniejsza wersja nie zawsze warta zachodu.
Finałowy, „napakowane” zapytanie (powtórzenie ×4 + przymiotniki + wzmacniacze) dało najlepszy wynik, ale nie był drastycznie lepszy od prostego, porządnego powtórzenia. Zatem: nie zawsze więcej znaczy lepiej.
Jak pisać skutecznie żeby AI wiedziało co jest dla nas ważne? Mój zestaw zasad
Po tym teście mam jeden główny wniosek: rozmawiaj z AI tak, jak rozmawiałbyś z człowiekiem, któremu chcesz coś wbić do głowy.
- Daj pełny kontekst. Im więcej konkretów – tym AI mniejsza szansa, że odbije w nieznane rejony.
- Powtarzaj kluczowe rzeczy. Nie bój się powtórzyć w różnych miejscach i na różny sposób, dwa, trzy razy tego samego, zwłaszcza jeśli to jest serce Twojego pytania.
- Buduj krótkie zdania z przymiotnikami. Niech AI widzi „ważne”, „istotne”, „proszę zwrócić uwagę”.
- Z przekleństwami ostrożnie. Czasem pomagają jako żart czy mocny akcent, ale nie licz, że zadziałają lepiej niż dobrze zbudowany tekst.
- Testuj różne wersje. AI potrafi odpowiadać inaczej w zależności od godziny czy kontekstu sesji. To normalne.
Jakie wnioski ?
Nie ma cudownego zapytania, który zawsze zagwarantuje Ci, że AI trafi w sedno. Ale jest kilka prostych nawyków, które znacznie zwiększają szansę, że Twoje pytanie zostanie dobrze zrozumiane – i że odpowiedź faktycznie będzie zawierała to, co dla Ciebie kluczowe.
Na koniec powiem tak: im bardziej precyzyjnie piszesz, im lepiej wzmacniasz kluczowe punkty, tym lepsze efekty uzyskasz. I nie musisz wcale sypać wulgaryzmami ani zasypywać modelu tysiącem wykrzykników. Czasem wystarczy po prostu: „Chcę, żebyś wyraźnie podkreślił, że…” – i powtórzyć to jeszcze raz (może w innym miejscu i w innej formie).
Jeśli masz ochotę, przetestuj to sam – z tym samym przykładem kredensu lub z czymś zupełnie innym. A potem wróć i zobacz, jak Twoje AI zmienia odpowiedzi, kiedy mówisz mu wprost, na co ma zwrócić uwagę. Gwarantuję, że efekty Cię zaskoczą.
Czy to było “badanie”?
Oczywiście, że nie i jeżeli uważasz, że moje wnioski są zbyt ogólne, a metodologia niedoskonała, to chętnie pomogę w dużo dogłębniejszym eksperymencie. A może jesteś prawdziwym badaczem z uczelni – Czemu nie?
Jeśli ktoś chciałby zrobić porządne, pełne badanie na temat tego, jak różne sposoby wzmacniania zapytań działają na modele językowe, powinien zacząć od tego, żeby nie ograniczać się do jednego czy dwóch zapytań. W moim teście wystarczyło kilka prób, żeby zauważyć ogólne trendy, ale tak naprawdę wyniki są rozrzucone, więc żeby wyciągnąć mocne, rzetelne wnioski, trzeba by zapytać modele setki razy i zapisać każdą odpowiedź. To pozwoli porównać, jak model reaguje w różnych momentach, bo nawet ten sam model może w tej samej sytuacji odpowiedzieć trochę inaczej, w zależności od pory dnia czy drobnych różnic w kontekście rozmowy.
Najlepiej byłoby oprzeć się na prostym, ale realistycznym przykładzie, tak jak zrobiłem z tym kredensem. Scenariusz musi być zawsze taki sam, żeby zmieniała się tylko metoda wzmocnienia — powtórzenia, przymiotniki, przekleństwa, albo kombinacje tych rzeczy. Warto zadbać o to, żeby wszystkie te warianty były przemyślane, to znaczy żeby testować różne ilości powtórzeń i ich położenie w tekście, spróbować różnych przymiotników od delikatnych po bardzo mocne i pokombinować z tym, jak wpływają na reakcję AI. To samo dotyczy wulgaryzmów — można sprawdzić, czy luźne przekleństwo coś daje, czy lepiej, kiedy jest częścią samego polecenia – choć ze względu na samocenzurowalnie LLMów usunąłbym wulgaryzmy całkowicie z badania.
Bardzo ważne jest to, żeby do testów wybrać kilka modeli, najlepiej różnych wersji tego samego silnika i najlepiej różnych dostawców. W moim małym teście już widać było, że każdy model trochę inaczej radzi sobie z przekleństwami, jeden zareaguje bardziej dosłownie, inny spróbuje je zignorować albo zmiękczyć. To wszystko trzeba uwzględnić.
Jeśli chodzi o mierzenie skuteczności, sama liczba użyć kluczowego słowa to niezła podstawa, ale przy pełnym badaniu dobrze byłoby sprawdzić więcej rzeczy. Na przykład można policzyć, ile razy dane słowo pojawia się w stosunku do całego tekstu, czy odpowiedź nie jest przez to nienaturalnie długa i czy zachowuje sens. Warto też zerknąć, czy model nie próbuje używać pogrubień albo innego formatowania, bo niektóre systemy lubią w ten sposób zaznaczać, co jest ważne.
Wszystko dobrze jest zapisać w czytelnym arkuszu albo tabeli — tak jak ja zrobiłem, z modelami w wierszach i rodzajami wzmocnień w kolumnach. Przyda się też osobny plik z pełnym tekstem wszystkich zapytań i odpowiedzi, żeby każdy mógł zobaczyć, co dokładnie testowano. Dobrze jest robić wykresy i diagramy, bo gołym okiem od razu widać, co działa mocniej, a co słabiej.
Trzeba też pamiętać, że takie badanie zawsze będzie miało pewne ograniczenia. Modele się zmieniają, dostają aktualizacje, więc to, co dziś działa, za miesiąc może działać trochę inaczej. Wulgaryzmy mogą być blokowane lub cenzurowane, a to też wpływa na wynik. I na koniec — samo liczenie słów to nie wszystko, bo czasem model może napisać zdanie piętnaście razy, ale całość nie ma sensu. Warto więc przy okazji ocenić, czy odpowiedzi są nadal spójne i merytoryczne.
Jeśli jest czas i chęci, można pójść jeszcze dalej i sprawdzić, jak to wszystko działa w innych językach albo jak model utrzymuje uwagę na danym wątku, jeśli rozmowa się rozciągnie na kilka odpowiedzi. To da jeszcze lepszy obraz tego, jak sztuczna inteligencja reaguje na różne techniki wzmacniania.