Komentarze (23)
@anervis ChatGPT najwyżej zniszczy zawód klepacza CRUDów, a nie programisty.
Kiedy trzeba zintegrować ze sobą 3 różne systemy, każdy z nich ma za sobą od 30 do 10 lat "rozwoju", dokumentacja jest niekompletna/niespójna i na dodatek klient nie wie jak to ma działać, to dopiero wtedy się robi się "ciekawie", i póki co żadne AI tego nie ogarnie.
@dotevo gdyby powiedzieć 10 lat temu, jaki poziom rozwoju AI osiągnie w 2023 roku to większość ludzi by się za głowę łapała i to wyśmiała.
AI będzie lepsze od ludzi pod każdym względem to nie budzi wątpliwości (gdyż ludzie to też tylko biologiczne maszyny); dyskusja toczy się tylko nad tym, ile lat to jeszcze zajmie.
Za AI będą stały praktycznie nieskończone zasoby sprzętowe; moc nieosiągalna dla biologicznego mózgu, doskonała wydajność, baza danych całego Internetu zapełnianego od kilkudziesięciu lat.
z jednej strony tak, z drugiej strony problemem jest trening AI. Skąd ona ma wiedzieć, że jakieś rozwiązanie jest gorsze jeśli jej tego nie nauczymy. Myślę, że można spokojnie wytrenować sieć piszącą algorytmy. Bo można to skompilować, sprawdzić złożoność czy zajmowaną pamięć i w ten sposób ją dokształcać i trenować. Ale jeśli coś wymaga zrozumienia potrzeb klienta, przygotowania dema technicznego używającego nowej technologii to AI w mojej opinii nie da rady jeszcze długi czas.
@anervis ai nie ma żadnej wiedzy. Obecne AI, to zindeksowany internet, który za pomocą algorytmu próbuje wydumać różne rzeczy.
Póki nie będzie sam komputer podejmował decyzji (które nie zostały zaprogramowane, albo nie ma barier stworzonych przez programistów) to jest niczym więcej jak zaawansowanym botem.
@Jason_Stafford tutaj wchodzimy już w kwestię tego, czy ludzie też nie są w pewien sposób zaprogramowani i czy rzeczywiście podejmują całkowicie wolne decyzje; a jest to kwestia tak olbrzymia, że można o tym dywagować latami.
Jednak na pewno nie bez powodu w buddyzmie od kilku tysięcy lat praktykuje się wielogodzinną medytację jako jedyną formę uwolnienia się od ludzkich instynktów.
Najprostszym przykładem ograniczeń ludzkiego mózgu jest istnieje uzależnień psychicznych; nawet nie fizycznych. Spróbuj teraz postanowić sobie przez miesiąc nie wchodzić przez miesiąc na hejto i powiedz czy było łatwo, a przecież masz wolną wolę, sam rządzisz swoim ciałem w tym mózgiem, nieprawdaż?
@anervis oczywiście że tak jest, ludzie są zaprogramowani przez tych ufoków, co ostatnio ich widziano w USA.
Co do nie wchodzenia na hejto, to mogę skończyć i dziś. Tylko czy przyniesie mi to jakaś korzyść? Nie bardzo.
Ale np jakiś czas temu powiedziałem sobie, że koniec słodyczy, i bez problemu z tym skończyłem. Także proszę nie mierzyć wszystkich swoją miarą. To że jedni nie mają silnej woli, to nie znaczy że każdy taki jest.
@anervis ale ja to całkiem poważnie mówię.
Jeśli jesteśmy zaprogramowani to przez kogo? Jakiś wyższy byt? Czy może jesteśmy częścią algorytmu? Bez odpowiedzi na takie pytania to dla mnie to jest tylko gadanie ze jesteśmy zaprogramowani.
Zaprogramowani jesteśmy do jedzenia, picia, spania, bo bez tego nie przeżyjemy.
dodaj, że w tym i przyszłym roku; za 5 lat nie wiadomo do czego dojdzie.
a rozwój AI wcale nie zamierza hamować, wręcz wystrzeliwuje do góry
gdyby powiedzieć 10 lat temu, jaki poziom rozwoju AI osiągnie w 2023 roku to większość ludzi by się za głowę łapała i to wyśmiała.
@anervis Nie jestem i nigdy nie byłem ekspertem, a ostatnio mocno "wypadłem z obiegu", ale jakieś 9 lat temu bawiłem się projektami sieci neuronowych i chatbotów w oparciu o modele LSTM. Nic odkrywczego, ale tworzyłem i trenowałem modele na bazie tego co było dostępne we w miarę nowych artykułach.
ChatGPT jest oparty o modele GPT, którymi się nie bawiłem, ale które z tego co rozumiem w odróżnieniu od modeli LSTM bardziej symbolicznie przechowują kontekst wypowiedzi (tj. uczą się znaczeń a nie samych słów + formy składniowej), i przewidują prawdopodobieństwa słów w oparciu o ten kontekst, a nie tylko o słowa w dotychczasowym tekście. Cały czas jest to jednak tylko przewidywanie kolejnych słów, a nie autentyczne rozumienie wypowiedzi. Co gorsza, teksty ChatGPT czesto są formułowane z dużą dozą pewności siebie, nawet jeśli dane przez niego przedstawione są niepoprawne.
W każdym razie, wracając do meritum, patrząc na to co było możliwe w home-labie (lub na korpo-klastrze po godzinach pracy
Oj wy wszyscy kompletnie źle do tego podchodzicie. Narzekacie na rozwiązanie, które powstawało co najwyżej kilka lat i teraz błyskawicznie się rozwija. To trochę jak marudzenie, że bobas nie potrafi zrobić działania 100x100. Poczekajcie aż Meta wypuści swój model oparty o książki i wszelkie możliwe instrukcje, dokumentacje czy badania naukowe. Wtedy porozmawiamy.
@anervis tymczasem spawacze w drodze do polski żeby zamieszkać w obozie pracy orlenu
Polskie obozy pracy
W każdym z czteroosobowych pokoi ustawiono po dwa piętrowe łóżka wyposażone w materace, poduszki, prześcieradła i koce, dwie metalowe szafy na ubrania. Na każdym piętrze może zamieszkać ok. 200 osób. Na część wspólną na każdym piętrze oprócz korytarza składają się dwa segmenty sanitarne z łazienkami, prysznicami, umywalkami i toaletami, także pokój socjalny ze zlewem i szafką, sześcioma stołami, do każdego dostawiono po cztery taborety

@Boltzman Dokładnie. To cały czas jest tylko przewidywarka prawdopodobieństwa odpowiedzi w oparciu o zbiór danych szkoleniowych, a nie coś co buduje abstrakcyjne idee w oparciu o pytania.
Jeśli w zbiorze danych, dominującą odpowiedzią na pytania arytmetyczne było 42, to 42 będzie też nadreprezentowaną odpowiedzią na pytania co do których GPT nie ma danych, lub których nie pojmie.
Zaloguj się aby komentować
