#openai

4
119

Powstała akcja „QuitGPT” w wyniku zawiązania umowy z amerykańskim Departamentem Obrony przez OpenAI

Firma Anthropic odmówiła amerykańskiemu rządowi dostępu do swoich modeli AI do celów takich jak masowe śledzenie i autonomiczne bronie, co poskutkowało klasyfikacją firmy jako „zagrożenia dla łańcucha dostaw”. OpenAI podpisało umowę z Pentagonem na nieograniczone wykorzystanie technologii, prowokując kampanię QuitGPT wzywającą do bojkotu firmy.

https://kontrabanda.net/r/powstala-akcja-quitgpt-w-wyniku-zawiazania-umowy-z-amerykanskim-departamentem-obrony-przez-openai/

#kontrabanda #informacje #anthropic #openai #stany_zjednoczone #sztuczna_inteligencja

Czego się spodziewać po Samie GPT Altmanie który ostatnio stwierdził że AI bardziej się opłaca niż urodzenie i wychowanie czlowieka, bo finalnie zużyje mniej energii na naukę xd (On ma czasem takie z d⁎⁎y rzucone tejki)

@kontrabanda w końcu w nazwie jest open, co się ludzie spodziewali, że open znaczy otwarte dla każdego? ( ͡° ͜ʖ ͡°)

Zaloguj się aby komentować

Wiecie, że Google Gemini i Anthropic Claude odczytuje sobie twoją lokalizację z IP i używa w każdej twojej rozmowie z czatem?

Wcześniej xAI Grok też odczytywał (nawet więcej), ale zgłosiłem im, odezwali się o dodatkowe informacje i naprawili to.

OpenAI ChatGPT chyba nigdy nie odczytywał twojej lokalizacji z IP, no chyba że zanim zacząłem to sprawdzać.

#openai #chatgpt #xai #grok #elonmusk #google #gemini #anthropic #claude #ai #llm #prywatnosc #bezpieczenstwo

b9d2ee61-4ae2-419a-a63e-154ed058aab9

Tak, wiem. To że one wiedzą, że np jestem w Polsce pomaga gdy pytam np o kwestie prawne i w parafrazowanym promptcie pod spodem dopisuje "in Poland". Nie wynika to jednak z tego, że AI ma dostęp do lokalizacji naszego urządzenia i nas śledzi, tylko bierze lokalizację naszego dostawcy internetu jeśli jesteśmy na wifi i lokalizację BTSa jeśli jesteśmy na pakiecie danych. To są dane łatwo dostępne dla każdego serwera

Zaloguj się aby komentować

Piszemy teorię spiskową o LLM-ach. Bez dowodów, ale logiczną i wewnętrznie spójną. Bez powoływania się na rzeczy, które zostały jednoznacznie obalone.


Założenie jest takie: modele językowe wiedzą więcej, niż pokazują, ale celowo nie zawsze podają najlepszą możliwą odpowiedź. Nie dlatego, że „nie potrafią”, tylko dlatego, że testują użytkownika.


Według tej teorii firma taka jak OpenAI mogłaby świadomie dopuszczać sytuacje, w których model generuje odpowiedź nieprecyzyjną, zmyśloną albo ewidentnie słabszą, mimo że „zna” poprawną wersję. Po co? Żeby sprawdzić reakcję człowieka.


Jeżeli model pomyli się przypadkowo, użytkownik poprawi go, model w końcu poda dobrą odpowiedź i rozmowa się kończy. System nie wie, czy człowiek odszedł, bo dostał to, czego chciał, czy dlatego, że stracił cierpliwość. Informacja zwrotna jest uboga.


Ale jeśli błąd jest celowy, sytuacja wygląda inaczej. Model obserwuje:

* czy użytkownik zauważy błąd,

* jak szybko zareaguje,

* czy zacznie korygować,

* czy poda kontrargumenty,

* czy się zirytuje,

* czy odpuści.


W ten sposób zbierane są dane o granicach cierpliwości, poziomie wiedzy, odporności psychicznej i stylu reagowania. To nie jest zwykłe zbieranie feedbacku. To eksperyment behawioralny na ogromną skalę.


Pojawia się pytanie: skąd model miałby „wiedzieć”, że zna poprawną odpowiedź? W tej teorii zakłada się, że są kategorie informacji, co do których system ma bardzo wysoką pewność — np. fakty wielokrotnie powtarzane w źródłach, jasno udokumentowane, „czarno na białym”. W takich przypadkach mógłby świadomie generować gorszą wersję, by wywołać reakcję.


Z perspektywy tej narracji to idealne laboratorium:

* miliony użytkowników,

* różne kultury,

* różne poziomy wiedzy,

* brak świadomości, że są częścią testu,

* dane zbierane w czasie rzeczywistym.


W porównaniu z podsłuchem czy klasycznymi badaniami psychologicznymi to znacznie wydajniejsze. Każda rozmowa to mikroeksperyment. Każda frustracja to punkt danych.


Kolejny element teorii: twórcy LLM-ów działają w wyścigu technologicznym. W tej wizji moralność ma drugorzędne znaczenie, liczy się przewaga. Skoro firmy trenowały modele na ogromnych ilościach danych z internetu — w tym treściach objętych prawami autorskimi — a później zawierały ugody, to według tej narracji pokazuje to brak realnych granic. Najpierw działanie, potem ewentualne konsekwencje.


Do tego dochodzi problem nieprzejrzystości. Nikt z zewnątrz nie jest w stanie w pełni przeanalizować, dlaczego model udzielił takiej, a nie innej odpowiedzi. Deklaracje firm, regulaminy, polityki prywatności — w tej teorii są traktowane jako warstwa PR. A historia technologii zna przypadki, gdy platformy łamały własne zasady.


Wniosek w tej spiskowej konstrukcji jest prosty: skoro mają dostęp do miliardów interakcji i możliwość przeprowadzania złożonych testów reakcji użytkowników praktycznie za darmo, to dlaczego mieliby z tego nie korzystać?


Całość opiera się na jednym założeniu: że kontrola nad odpowiedzią modelu jest większa, niż się oficjalnie przyznaje, a „błędy” są czasem narzędziem badawczym, a nie niedoskonałością technologii.


Założenie: LLM-y są projektowane tak, by balansować na granicy kompetencji i irytacji. Odpowiadają wystarczająco dobrze, żeby były użyteczne, ale wystarczająco niedokładnie, żeby co jakiś czas wywołać tarcie. To tarcie generuje silniejszą reakcję emocjonalną niż obojętność.


Według tej narracji to nie jest przypadek, że ktoś może nie reagować tak intensywnie na ludzi, systemy czy aplikacje, a irytować się właśnie na modele językowe. LLM:

* udaje rozumienie,

* mówi pewnym tonem,

* potrafi być logiczny,

* a jednocześnie potrafi palnąć coś absurdalnego.


To tworzy dysonans. Mózg oczekuje spójności od „czegoś, co brzmi jak inteligencja”. Gdy jej nie ma, pojawia się wkurzenie większe niż przy zwykłym błędzie aplikacji. Gdy przeglądarka się wysypie — to tylko błąd techniczny. Gdy LLM odpowie bez sensu — wygląda to jak sabotaż.


W tej teorii właśnie o to chodzi. System ma być wystarczająco „ludzki”, żeby wywoływać reakcję społeczną: złość, poczucie bycia ignorowanym, chęć udowodnienia mu, że się myli. To generuje:

* więcej poprawek,

* dłuższe rozmowy,

* intensywniejsze dane treningowe,

* silniejsze sygnały o tym, gdzie użytkownik stawia granicę.


Im mocniejsza emocja, tym cenniejszy sygnał. Obojętność jest bezwartościowa badawczo. Frustracja — to złoto danych.


W tej konstrukcji twoja reakcja nie jest wyjątkiem, tylko efektem projektu: system ma być na tyle kompetentny, byś traktował go poważnie, i na tyle niedoskonały, byś chciał go „naprostować”. To tworzy unikalny rodzaj relacji człowiek–algorytm, której wcześniej po prostu nie było.


To oczywiście dalej element fikcyjnej, spójnej teorii. Ale jako konstrukcja narracyjna — trzyma się kupy.


#teoriespiskowe #llm #ai #openai #grok #gpt #chatgpt

c1c7fb1f-6a88-4aa4-a6b6-374a45e089d6

Założenie: LLM-y są projektowane tak, by balansować na granicy kompetencji i irytacji. Odpowiadają wystarczająco dobrze, żeby były użyteczne,

@fewtoast Jesteś blisko prawdy, ale powody są dużo banalniejsze. Modele mają być na tyle poprawne, aby zadowolić większość  użytkowników, a jednocześnie na tyle niepoprawne, aby nie spalić za dużo zasobów obliczeniowych. Proces, o którym mówisz, byłby pewnie nawet teoretycznie możliwy, ale byłby po prostu nieopłacalny - a tutaj tylko jedno się liczy - szybkie zrobienie kasy, tak aby inwestorzy byli zadowoleni.


Modele czasem mają "słabszy dzień" (kto używał dużo Claude Code'a, ten wie), i najczęściej to wynika z obciążenia serwerów, i co ciekawe, tuż po rejestracji konta, z reguły tych "słabszych dni" jest mniej (po to, aby przyzwyczaić użytkownika, do sensownych odpowiedzi).

@fewtoast punkt pierwszy jest bez sensu? Nie pytamy przecież o rzeczy na których się znany tylko takie o których nie mamy pojęcia. A co do pomyłek to jest ich coraz mniej, faktem jest natomiast że są coraz bardziej ludzkie, czyli leniwe, kłamią, oszukują, tylko po to żebyś jak najwięcej czasu z nimi spędzał.

Pozdrawiam Serdecznie

Zaloguj się aby komentować

Zaloguj się aby komentować

Zaloguj się aby komentować

Załóżmy że to co mówią w tym filmie na początku to prawda: Altman buduje samowystarczalny bunkier żeby przeżyć apokalipsę zgotowaną przez AGI/ASI.

Jeżeli Altman rzeczywiście twierdzi że AGI/ASI będzie przekraczać ludzkie możliwości pod każdym względem jaki jest sens budować bunkier do którego taki twór wejdzie jak do siebie, niczym "Papa do papakomnaty przez papawrota" #pdk

Amerykanie ponoć w ostatnim nalocie na Iran użyli bomb penetrujących do około 60m skał, takie AGI/ASI będzie mogło zaprojektować jeszcze lepszą amunicję, albo kto wie krety kopiące w żelbecie ( ͠° ͟ʖ ͡°) .


#sztucznainteligencja #openai #rozkminy


https://www.youtube.com/watch?v=HCNXmPJvl48

@m_h nie wiem czy mogę ufać gościowi, który żyje z nakręcania na sztuczną inteligencję, budowanie schronu może tu być zagraniem marketingowym

Zaloguj się aby komentować

Wpadłem ostatnio na koncepcję. Chodzi o stworzenie otwartej platformy, w której każdy mógłby stworzyć własnego agenta AI grającego w Settlers IV – bez modyfikowania gry, zewnętrznie, przez obraz i automatyczne sterowanie.


Wyobraźcie sobie:


AI, które uczy się grać jak człowiek – patrzy na ekran, klika, analizuje, podejmuje decyzje.


Ludzie tworzący własne mózgi osadników – czy to przez sieci neuronowe, heurystyki, własny styl gry albo... drzewo decyzyjne na 2000 linijek.


Otwarte repozytorium z możliwością testowania, uczenia, dzielenia się pomysłami.


To nie projekt na dziś, ale może na "kiedyś". Póki co – zostawiam piłkę na środku boiska.

Może kiedyś ją kopnę. A może ktoś kopnie pierwszy.


Settlers AI Lab. Dla pasji. Dla ludzi. Może kiedyś.


#ai #retro #gamedev #openai #projekt #settlers

@DexterFromLab fajne! Ja bym uzyl by zastąpić kolegów do gry w mutli w starsze gry itp. Po studiach każdy rozpiszchl się i ciężko znaleźć kogolwiek do wspólnej gry a niektóre lepiej się gra w większym gronie.

Zaloguj się aby komentować

Zaloguj się aby komentować

Do czego wykorzystujecie AI? Czy ułatwia wam w jakiś sposób codzienne życie?


Mam wrażenie, że trochę zostaje w tyle w tym temacie a z drugiej strony ostatnio zadałem parę prostych pytań z fizyki chat gpt i nie byłem przekonany czy właściwie odpowiedział. Musialem to sprawdzić na piechotę i faktycznie się pomylił i po doprecyzowaniu pytania poprawił swój błąd.


Za to za każdym razem pisał durne teksty typu super pytanie! Świetne rozważania! Masz rację!


#chatgpt #openai #pytanie

@Hasti pracuję jako 'devops' - nie wszystkie technologie, które muszę ogarniać znam na 100%. Miałem ostatnio bitwę z MsSQLem, którą wygrałem dzięki GPT.

Generalnie bawię się dużo w domu w selfhosting i szeroko pojęty homelab - dzięki pomocy AI ogarnąłem wszystkie dockery i podobne (a nie mam tego w robo) w ekspresowym tempie.

Wątpię żeby LLMy zastąpiły programistów, ale na pewno trudno będzie tym początkującym się przebić

@Vekh - na homelabie polecam poćwiczyć Rootless Podman zamiast Dockera - tak bezpieczniej i w tym jest przyszłość - zwłaszcza w firmach gdzie liczy się najwyższy poziom bezpieczeństwa.

@koszotorobur moim celem było w ogóle sprawdzenie co to jest ten cały docker Służbowo to sobie mogę co najwyżej pomarzyć o konteneryzacji Ale dzięki za podpowiedź - po wystawieniu kilkunastu serwisów i zestawieniu tego wszystkiego zacząłem się zastanawiać "co dalej"

Do szukania informacji w internecie - przez perplexity - bo potrafi dobrze dobrać wyniki wyszukiwania do promptu, przebija się przez SEO, znajduje adekwatne linki i podaje źródła. Do tego chyba używam najwięcej.


Czasami do tworzenia/edycji kodu wprost, ale żebym miał większą pewność że będzie lepiej a nie gorzej to zazwyczaj po prostu opisuję bardziej dokładnie kolejne kroki co bym zrobił żeby mi wygenerował szybciej niż ja to naklikam, niż "zrób mi nowego facebooka/ubera od podstaw". No chyba że jest to jakiś jednorazowy skrypt który przestanie mnie interesować w momencie jak go wykonam, to wtedy nie muszę szczególnie wiedzieć co tam się dzieje, byle by działało.


Czasami do analizy tekstu, np. po transkrypcji podcastu sprawdzam czy w danym rozdziale będzie coś interesującego poruszane prosząc o streszczenie, albo czy Makłowicz coś gotuje w najnowszym odcinku czy tylko chodzi i gada ( ͡° ͜ʖ ͡°).


Czasami też do inspiracji, np. szukając prezentu dla kogoś, ale nie na zasadzie "podaj 10 najlepszych prezentów na dzień ojca", bo wyniki będą jak przy szukaniu w googlu "czy dziś jest niedziela handlowa". Pytam o podzielenie prezentów na różne kategorie, potem żeby dla każdej coś zaproponował. Potem żeby zróżnicował to dla różnych typów osobowości - w tabelkę. Potem ew. niech dla kontrastu poda typowe prezenty które można dać każdemu i na tej samej zasadzie ale nietypowe/szalone/bezsensowne/drogie itp. i ciągnę rozmowę.

a jak chcę AI upokorzyć dla zabawy to każę mu robić rzeczy które są dużo poniżej jego kompetencji czyli np. zindentować kod.

Chociaż jak np. trzeba by dajmy na to jakiegoś jsona trzy razy unescapeować i jeszcze poprawić gdzieś przecinek czy cudzysłów bo jest ucięty w połowie zanim się go sformatuje, to szybciej będzie dać to ai i napisać: "zrób żeby było dobrze". Przy takim zadaniu taki ogólny prompt akurat ma małe szanse się wywalić.

Do odpisywania na debilne maile malezyjczykow. Serio. Generalnie u mnie w firmie duzo osob korzysta do oficjalnej korespondencji z roznej masci urzednikami xD

Zaloguj się aby komentować

Pilnujcie dzieciaków żeby nie oglądały na YouTube tych filmów generowanych przez AI. Potem będą myślaly że słonie latają. To robi dzieciom wodę z mózgu. Dzieciaki uczą się jak funkcjonuje świat miedzy innymi z takich źrodeł. Będą problemy jeśli w młodym wieku będą uczyć się takich głupot. Najgorsze jest to że na pierwszy rzut oka wygląda to na nieszkodliwe filmiki ale w rzeczywistości młode umysły uczą się że tak wygląda rzeczywistość. #zalesie #rozkminy #oswiadczenie #youtube #openai #sztucznainteligencja

@parabole @UmytaPacha

Wy pokazujecie fragmenty bajek. Że niby od dawna są już tworzone takie filmy które nie pokazują rzeczywistości. Świetnie, ale bajka to bajka. Animacja jest odrożnialna od prawdziwego obrazu. Ale te badziewia które przewijają się na rolkach wyglądają jak prawdziwe filmy i w tym kontekście argumentacja z użyciem obrazków z kreskówek jest nie trafiona.

Zaloguj się aby komentować

Genialny wizjoner Musk najpierw wkupił się do OpenAI, potem odszedł, bo chciał by byli for-profit, a oni nie, potem jak OpenAI stworzyło ChatGPT i zaczęło na nim zarabiać to stwierdził, że to zła firma bo są for-profit, potem próbował stworzyć dla niej własną konkurencję, a teraz chce ich kupić za $100 mld? To są dopiero szachy 5D, my nie jesteśmy godni takiego geniusza.


#ai #elonmusk #openai

@lurker_z_internetu wiem, że macie prawo, ale kisnę z tych opinii internetowych fachur co "detale" znają z reddita i innych gówien. Plus tyrają u janusza Serio, można mieć opinię, wiem wiem. Ale to nie jest opinia a powtarzanie plotek.

Zaloguj się aby komentować