Komentarze (6)

MosznaGrodzkiej

jak na ten moment działanie gpt-4 w bingu jest upośledzone. Chatbot obraża się gdy pytasz o tematy z poprawnością polityczną albo w połowie generowania odpowiedzi, ją kasuje i wypisuje żart

Niggauke

@MosznaGrodzkiej a to ciekawe, nie wiedzialem. Ja dalej z tego nie korzystalem, bo nie wiem o co chcialbym zapytac

krokodil3

@Niggauke za dużo kontrowersji było w poprzednich latach. Microsoft wprowadził na próbę swojego bota kilka lat temu i w ciągu kilku godzin 4chan tak bardzo go zradykalizował, że bot pisał "hitler did nothing wrong" itp. w kółko. Zanim projekt będzie funkcjonalny, Potrzebna będzie masa nakładu pracy, żeby bot nie radykalizował odbiorcy w którąkolwiek stronę polityczną, szury oczywiście obrażone, bo nie można pisać źle o prawakach / lewakach przez pewien okres czasu, stosując to narzędzie. W tych czasach wystarczą dwa incydenty i tuzin nagłówków z topowych mediów, żeby zszargać reputację do tego stopnia, że musisz zaorać cały projekt.

Emantes

@Niggauke ja np znalazłem dzięki niemu część do irygatora, przez wyszukiwarkę google nie dało rady. No i kupiłem telefon, wpisałem co oczekuje i nawet bym nie pomyślał, że będę korzystał z motoroli

Blask

@MosznaGrodzkiej no jest dramat i ogólnie gpt używane przez MS jest kompletnie bezużyteczne dla mnie. Obraża się o wszystko, raz potrafi ułożyć, np playlistę, a później nie. Jak wytkniesz, że nie podał szczegółów lub ma rozwinąć odpowiedź, to potrafi zablokować i tyle.

Zaloguj się aby komentować