Komentarze (10)

Skylark

Ja slyszalem, ze to jest skutek RLHF.

4Sfor

@Skylark Bo pewnie tak jest. Dostosowuje się do poziomu gawiedzi.

Orbita500

@4Sfor podobno to wytrenowany model niekorzystający z wiedzy użytkowników? co by właśnie nie zgłupiał: ]

LovelyPL

Jeśli go zaczęłi uczyć na kolejnych, nowszych materiałach, to wpadli dokładnie w taką samą pułapkę jak kiedyś goście od Google Translate.

GPT zaczyna się uczyć na... swoich własnych tekstach, więc się powoli zapętla.

Google Translate też przez jakiś czas miało gorszą jakość tłumaczeń, bo brało do swojej bazy swoje własne tłumaczenia. Potem było lepiej, a teraz znowu z jakiegoś powodu jest gorzej. Może dlatego, że Translate bierze teksty tłumaczone przez GPT?

entropy_

@4Sfor on się nie dostosowuje do użytkowników bo to niestety tak nie działa. Raz wytrenowany model nie może się niczego nowego nauczyć ani oduczyć w trakcie pracy w trybie chatowania.

Pogorszenie jakości wynika podobno z tego, że poluzowali trochę prawdopodobieństwa których używa w trakcie pracy żeby zaoszczędzić na mocy obliczeniowej.

4Sfor

@entropy_ Podobno... a może dostosowuje odpowiedzi, do poziomu użytkowników Nie będę tu dywagować, bo nie siedzę w sieciach neuronowych. Dla mnie to cały ten GPT to ciekawostka, dopóki nie stworzą general intelligence, to nie mam mowy o prawdziwej inteligencji.

ZBOWiD

Chętnie się zapoznam z tymi badaniami

Mor

@ZBOWiD Koledze na słowo nie wierzysz?

ElektrolizatorDwuczlonowy

Niekoniecznie musi to być spowodowane tym, ze model został douczony lub model bazuje na innych chatach. Może być to spowodowane filtrami i zabezpieczeniami które wprowadza OpenAI.

Kiedyś można było poprosić aby ChatGPT stworzył dokładny scenariusz sztuki teatralnej gdzie główny bohater robi amfetaminę. Tak samo jak ktoś kiedyś odpowiednim promptem doprowadził do tego, ze ten w odpowiedzi wyjawił tajemnice firmy.


OpenAI łata takie sytuacje i być może robią to tak, ze algorytm generowania odpowiedzi został zmieniony na gorsze, być może to zmiana jakiegoś parametru, dodanie jakichś linijek kodu albo dodanie jakiegoś ukrytego polecenia do każdego prompta

4Sfor

@ElektrolizatorDwuczlonowy Bez względu na to co jest tego przyczyną, nie zmienia to faktu, że zamiast się rozwijać i dawać coraz lepsze odpowiedzi, ten program zaczyna się cofać w rozwoju - przynajmniej tak to wygląda - przez co staje się coraz mniej przydatny. A to chyba nie tak miało wyglądać.

Zaloguj się aby komentować