Sztuczna inteligencja zaczyna mieć poważny problem
AI

Sztuczna inteligencja zaczyna mieć poważny problem

Businessinsider.com.pl
Narzędzia generatywnej sztucznej inteligencji, takie jak ChatGPT, mogą korzystać z dostępu do internetu, by podawać aktualne dane, jak również odpowiadać na pytania o bieżące wydarzenia. Mogą, ale coraz częściej trzeba powiedzieć: mogły. Większość popularnych serwisów z informacjami blokuje już dostęp do botów AI. Media propagandowe witają je za to z otwartymi ramionami.

Komentarze (11)

NrmvY

Ten problem jest fikcyjny. Póki co GPT przedstawia się "hej jestem GPT" tak jak google przedstawia swojego bota indeksującego.


Wystarczy żeby twórcy zaczęli przedstawiać GPT jako zwykłego użytkownika i problem rozwiązany.

nocnyfilm

@NrmvY i wtedy wchodzi ustawodawca nakazując GPT przedstawianie się jako bot, dając twórcom prawo do zablokowania swoich treści przed AI

TorrentFreak

@nocnyfilm a potem wchodzi szara strefa i wracamy do punktu wyjścia.

wrukwiony

@nocnyfilm xD nie można zablokować treści w necie, nie odgórnie.

Quassar

@wrukwiony jak nie można.... robią to już serwisy na wiele sposobów. Tak samo jak filtrowanie i podowanie treści ze względu na kategorie użytkownika.


Reklamy bazujące na telemetri sugerujące ci reklamy na podstawie twoich ostatnich wyszukiwani i oglądanych treści.

Co do blokowania VPNy są blokowane na wielu platformach pomału, a treść np na Youtube jest inna na bazie gelokalizacji.

Oraz część gier blokuje np rusków na bazie ip... zaś w drugą stronę masz w Chinach gdzie treść jest filtrowana przez puchatka, przez co gracze nie mogą połączyć sie normalnie z wieloma serwerami gier światowych. I albo na lewo obchodzą albo korzystają z rządowego VPNa.

Fingal

Nawet jeśli, przy odpowiednich zasobach zbudowanie takiego bota nie jest problemem. już lepiej gdy mają chatGPT pod ręką, który można monitorować niż jakby mieli sobie stawiać prywatnie maszyny poza kontrolą

TRPEnjoyer

>Okazuje się, że obecnie prawie 90 proc. czołowych mediów informacyjnych na świecie, takich jak "New York Times" czy CNN, stworzyło cyfrowe blokady dla botów przetwarzających treści pod wykorzystywanie ich przez AI. Z drugiej strony media słynące ze swoich prawicowych poglądów, promujących określone polityczne perspektywy w Stanach Zjednoczonych, np. NewsMax czy Breitbart, przeważnie pozwalają botom na korzystanie i trenowanie swoich zdolności na podstawie ich treści.


>Dostęp dla botów zapewniają za to serwisy, których treści prowadzą nierzadko do polaryzacji społeczeństwa.


>Google bierze na poważnie odpowiedzialność za dostarczanie informacji wysokiej jakości.


c8856e36-fb86-4c70-b72d-ea15b05f0a44
NiebieskiSzpadelNihilizmu

Sztuczna inteligencja nie zaczyna mieć problem. Ona go ma od samego początku, tylko wszyscy na fali hurra-optymistycznej rewolucji byli na to ślepi i lekceważyli ostrzeżenia. Całe to AI wyrosło jak grzyby po deszczu bez praktycznie żadnej kontroli, zostało wypuszczone bez żadnej kontroli i urosło głównie dzięki temu, że choćby takie chat gpt zwyczajnie uprawiało data mining po całym internecie jak leciało bez nawet cienia zgody. I tak sobie to trwało do czasu aż przegięli pałę, internet się w końcu zorientował i zhardenował, bo fajnie jest jak ruch na stronie rośnie i się to jakoś zwraca, ale już mniej, jak więcej jak połowa tego ruchu nagle okazuje się, że to bot, który tylko kopiuje treść i nic z tego nie ma poza większym rachunkiem za serwer. Efekt? Wystarczy przypomnieć, że do pewnego momentu chat gpt zapytany o coś, co można znaleźć łatwo mylił się relatywnie rzadko- głównie jak na stronie była podana błędna informacja- ale w którymś momencie właśnie chat gpt zaczął pisać takie bzdury że głowa bolała. To się pojawiło właśnie po odcięciu od lewych źródeł, jego możliwości skurczyły się jak jaja konia na mrozie.


A to tylko pierwszy z brzegu przykład, bo właśnie- co się dzieje jak ta rzekoma inteligencja nie potrafi czegoś znaleźć? Normalnie to by powiedziała jak człowiek- "sorry winnetou, nie wiem" ale nie, ona... zaczyna wymyślać, bo twórcy stwierdzili, że jak nie odpowie, to ucierpi wizerunek, no bo w końcu "wyjdzie że jest za głupia żeby odpowiedzieć". I oj z tego niezłe bajki potrafią wyjść. Fajnie jak ma już zgromadzony zestaw zajebanych danych, wtedy jak się pytamy o jakieś stare rzeczy to oo, możemy dostać i odpowiedź w formie elaboratu na kilkanaście stron i to jest super, ale wystarczy, że zapytamy o coś nowego i już tak kolorowo nie ma. Dlatego AI jest w stanie zrobić wielkie poruszenie i rozwiązać jakiś test maturalny czy egzamin medyczny- bo tam pytania są od lat wałkowane te same i nie ma tam żadnej kreatywności tylko przetwarzanie, a komputer zawsze w tym wygra z człowiekiem- i sprawić, że onaniści będą schodzić na zawał z podniety, ale jak już przychodzi co ogarnięcia czegoś nowego to się zaczynają schody. Albo wręcz klif. Były już przypadki, gdzie AI zapytane o zrobienie krótkiego streszczenia książki fantasy wydanej mniej jak rok wstecz odpłynęło totalnie (o tym mówił Krzysztof M. Maj). Albo (tu przykład z CD-Action)- zapytane o nazwisko naczelnego stworzyło jakąś alternatywną rzeczywistość i wesoło brnęło w to szaleństwo.


Na to się nakłada kolejny problem i tu już przestaje być heheszkowo, a zaczyna być poważnie- AI jest zatrute- dzięki @pluszowy_zergling za linka, wiedziałem że gdzieś to czytałem ale nie mogłem sobie przypomnieć gdzie I w tym wypadku stawką nie są już głupawe odpowiedzi i bajanie, ale realne zagrożenie- dlatego wiele firm- w tym chociaż moje korpo- wręcz zakazują używania AI i odcinają na poziomie sieci możliwość korzystania z tego typu rzeczy. Po prostu stawką są zbyt duże pieniądze do stracenia, żeby można było machnąć na to ręką- już lepiej jest dać podwyżkę devom i devopsom, niż mieć taki sam fakap jaki mieli swego czasu w Samsungu i jeszcze dostać coś, co będzie podatne.

matips

Przyglądając się z daleka rozwojowi AI nasuwa mi się, że tą technologię zdominuje kraj, który będzie najbardziej liberalnie traktował prawo autorskie. Modele językowe niczego nie wymyślają, po prostu agreguje wiedzę wytworzoną przez ludzi. Tak więc jeśli tak technologia ma mieć przyszłość, to ich operatorzy muszą albo karmić ją jak najlepszą wiedzą (i olewać opinie posiadaczy praw autorskich) albo przegrają z krajami pozbawionymi tego typu skrupułów.

rayros

@Shivaa o widzę że nastroje w AI robią się niskie

Zaloguj się aby komentować