Pobierz logotypy Dla mediów
Garbage in, garbage out (w skrócie: GIGO) to powiedzenie używane w informatyce, które oznacza, że jakość danych wejściowych bezpośrednio wpływa na jakość danych wyjściowych. W kontekście generowania treści przez modele językowe AI (np. LLM – Large Language Models), zwrot ten nabiera szczególnego znaczenia: jeśli podasz modelowi nieprecyzyjne, chaotyczne lub źle zaprojektowane dane wejściowe (prompty), otrzymasz treści równie słabej jakości.
Modele językowe nie są bazami wiedzy w tradycyjnym sensie, tj. nie przechowują faktów w uporządkowany sposób, lecz działają jako algorytmy przetwarzania języka naturalnego, które na podstawie zadanej sekwencji tekstu (promptu) generują kolejną sekwencję zgodną z prawdopodobieństwem językowym i kontekstem.
Oznacza to, że:
Źle sformułowane polecenie:
„Napisz coś o treściach SEO.”
Model wygeneruje ogólnikową, nic niewnoszącą treść.
Dobrze sformułowane polecenie:
„Napisz definicję pojęcia 'duplicate content’ w kontekście SEO, uwzględniając wpływ na indeksację i sposoby zapobiegania.”
Model odpowie bardziej precyzyjnie, trafnie i w kontekście zastosowania.
W erze rosnącej popularności LLM-ów takich jak ChatGPT czy Claude, kluczową kompetencją staje się umiejętność formułowania wysokiej jakości danych wejściowych, czyli:
W przeciwnym razie, niezależnie od mocy obliczeniowej modelu, otrzymasz odpowiedź, która przypomina dokładnie to, co „wrzuciłeś do środka”: śmieciowe dane wejściowe dają śmieciowe wyniki.