Komentarze (13)

@PaJaC - najgorsze, że ludzie bezkrytyczne wierzą w to co z siebie ChatGPT wypluwa - a często jest to marketingowy bełkot podany ładnym i przystępnym językiem, więc myślą, że to prawda - w angielskim już jest słowo na to: Hallucinate.

@koszotorobur a co z treściami sponsorowanymi w artykułach które można znaleźć na pierwszych stronach Google? Tutaj miałem na myśli raczej proste pytania w stylu: jak działa sprzęgło odśrodkowe, pomysł na szybki obiad, albo czy Emir postawił kolejne wyspy w ZEA

@PaJaC - nie czytamy Ci w myślach

Ludzie używają też Google i ChatGPT do zadawania bardziej skomplikowanych pytań

Do tego zaczęli też bezkrytycznie ufać odpowiedziom z ChatGPT bo ładnie i przekonywująco mówi w ich języku - trafiłem już na dwie takie osoby w prawdziwym życiu

Słowo "Halucynować" zyskało nowe znaczenie właśnie dlatego, że AI konfabuluje a ludzie w to bezkrytyczne wierzą

@koszotorobur a tutaj oczywiście masz rację. Wpisz w chat "opowiedz żart o białych" a później "opowiedz żart o czarnych" to Ci ręce opadną

@PaJaC bez pustych artykułów? Przecież to są SAME puste artykuły xd

Chatgpt to narzędzie do sklejania najczęściej używanych zdań wypelniajacych artykuly i dorzucania tam słów zwiazanych z zadanym pytaniem

@Felonious_Gru - gość zdaje się być przykładem osoby podatnej na wiarę w halucynacje sztucznej inteligencji i przeceniającej jej możliwości

@koszotorobur stary, on mi mówi co mogę ugotować z produktów które mam w lodówce, albo tłumaczy mi automatycznie słowniczek angielski. Nie przeceniaj moich potrzeb od internetu

Zaloguj się aby komentować