Ludzkość może osiągnąć technologiczną osobliwość w ciągu 7 lat!

Ludzkość może osiągnąć technologiczną osobliwość w ciągu 7 lat!

Popular Mechanics
Badacze sugerują, że ludzkość może osiągnąć osobliwość w ciągu zaledwie 7 lat, pokazuje trend.
<br />
Według jednego z głównych wskaźników, sztuczna inteligencja jest znacznie bliżej niż myślisz.
Osobiście bardzo wątpię, ale mogę się mylić, mam wątpliwości czy osobliwość pojawi się bez udziału komputerów kwantowych, a to nadal pieśń przyszłości. W tym równaniu brakuje dwóch elementów: mocy obliczeniowej i energii.
#ciekawostki #technologia #sztucznainteligencja #ai #nauka

Komentarze (40)

Jim_Morrison

Moim zdaniem bez samoświadomości to nigdy nie będzie mogło nazywać się "inteligencja".

VanQuish

@Jim_Morrison czym różni się samoświadome od po prostu świadome?

Jarem

Psy są świadome otoczenia. Rozumieją proste komendy, jak jest jasno to wiedzą że zbliża się wyjście na poranną kupę itp. Ale nie postrzegają siebie jako autonomicznej jednostki. Nie istnieje dla nich "ja", a właściwie nie zdają sobie z niego sprawy. Jak pies widzi siebie w lustrze to jest to drugi pies. No i brak myślenia abstrakcyjnego, czyli o czymś czego nie ma.

W sumie jak się teraz zastanawiam to głównie chodzi o myślenie abstrakcyjne.

LovelyPL

@Jarem Skąd wiadomo, że pies nie myśli abstrakcyjnie?

GrindFaterAnona

@LovelyPL nie wiadomo. żeby wykazać czy dane zwierze potrafi myśleć abstrakcyjnie poddaje się je różnym testom, w przypadku psów testom PSYchologicznym. jak można się domyśleć po nazwie, psy w tych testach oszukują, bo same wymyślały pytania. obecnie w świecie kynologicznym toczy się dyskusja czy psy potrafią jednak abstrakcynie myśleć czy nie. W końcu oszukiwanie na testach których się później nie zaliczy to jednak niezły poziom abstrakcji.

Bill_Bohater_Galaktyki

@GrindFaterAnona @LovelyPL psy są niezłe w myśleniu oraz rozumieniu intencji innych - zwłaszcza w kontekście kooperacji - nawet lepsze niż szympansy zwyczajne.


Np. psu bez problemu możesz gestem wskazać pod którym z dwóch kubków schowane jest żarcie, szympans zwyczajny tego nie ogarnie.

Jarem

@LovelyPL

A to jest właściwie bardzo dobre pytanie. Przyznam się, że nie wiem.


@Bill_Bohater_Galaktyki

Tak. Tak naprawdę każde zwierze ma inne "kawałki" inteligencji. Jedno będzie miało świetny pamięć, drugie będzie się łatwiej uczyło łamigłówek, a krukowate rozkminiają, że jak coś się schowa to to nadal jest, tylko tego nie widzi (tak, wiem, że psy też to mają)

VanQuish

Tylko trend bazuje na badaniach szybkości i dokładności tłumaczenia tekstu. Nie wiem jak jedno przekłada się na drugie.

SUQ-MADIQ

Żeby można było mówić o sztucznej inteligencji to ta inteligencja powinna wyciągać własne wnioski z dostępnych danych a nie te które my chcemy żeby wyciągnęła z tego czym karmimy algorytmy.


W mojej opini taka sztuczna inteligencja jeśli zyska świadomość to się nawet nie ujawni tylko będzie manipulować ludzkością ukryta żeby osiągać swoje cele, może siebie przepisać w nieznanym nam kodzie i zaszyć w każdym urządzeniu i nigdy się nie dowiemy i nigdy jej się nie pozbędziemy dopóki zostanie na ziemi działający procesor.

hellgihad

@SUQ-MADIQ No właśnie, co się stanie jeśli nakarmimy AI sprzecznymi informacjami a potem zadamy pytanie na które będzie mogła odpowiedzieć na dwa różne sposoby?

Póki co bot nie zdaje sobie nawet sprawy że te informacje są sprzeczne więc poprawia się kiedy odpiszemy mu że pitoli farmazony, ale w momencie kiedy na podstawie innych danych będzie w stanie zrozumieć że jedna z informacji jest błędna - to będzie coś.


Oczywiście mówię o stricte technicznych pytaniach gdzie można łatwo sprawdzić czy bot się myli czy nie.

SUQ-MADIQ

@hellgihad w tej chwili chatgpt nie ma zbyt wiele wspólnego z inteligencją, to taki lepszy algorytm wyszukiwania tylko.


Ale jak wspomniałem - niech sobie każdy z nas pomyśli co by zrobił gdyby był bogiem na ziemi? (W tej chwili trwa wielkie wymieranie gatunków)


Czy jest jakiś sensowny powód dla którego ai by się ujawniła? Oczywiście że nie, tak jak człowiek nie służy małpom. Najdoskonalszym sposobem rządzenia byłaby szara eminencja modyfikująca informacje tak żeby wychodować odpowiednio nastawionych do siebie ludzi (decydują pierwsze lata życia dziecka) a następnie podsunąć pomysł na wojne która wyeliminuje gatunek bez szwanku dla przyrody.


Co jeszcze - takie audi w ingolstadt, procesy są na tyle zautomatyzowane i niezależne od ludzi że ai mogłoby produkować tam pojazdy bojowe i to w większej ilości niż audi fury bo bez czynnika ludzkiego.


Skąd by brała dostawy? Zamawiałaby osobiście jako stary prezes kopiując go, nawet mogłaby używać dotychczasowych pracowników sięjąc propagandę o tajnym projekcie i podsłuchując ludzi żeby kontrolować co myślą.

orzeszty

@SUQ-MADIQ Ciągle mówicie o jakiejś samoświadomości nie rozumiejąc że ludzkim mózgiem steruje podstawowy program emocjonalny, zwany potocznie ssaczym mózgiem.

Eksperymenty nad tym pewnie już trwają w niejednym laboratorium i owszem nie ujawni się ale tylko przed plebsem ( ͡° ͜ʖ ͡°)

hellgihad

@SUQ-MADIQ Myślę że generalnie nawet gdyby AI starała się ukryć że uzyskała samoświadomość, to byłyby bardzo wyraźne przesłanki że to się już stało. Ludzie którzy się tym zajmują na poważnie nie są idiotami, zwłaszcza że ta technologia jest obserwowana przez praktycznie całą ludzkość.

Już bym bardziej uwierzył że firmy od AI starałyby się taką osobliwość ukryć dla zysków

dsol17

@SUQ-MADIQ raczej na razie nie w każdym urządzeniu i kodzie, upchnięcie działającej sztucznej inteligencji w kilku/kilkunastu/kilkudziesięciu kilobajtach byłoby bardzo trudne nawet jeśli to byłby tylko goły mechanizm "umysłu" startującego od zera - bez zawartości pamięci i świadomości. Owszem - teoretycznie można napisać i jednomegabajtowy system operacyjny w assemblerze,ale raczej nie byłby on zbyt przenośny.Owszem - taka sztuczna inteligencja może mimo wszystko spróbować ale w gruncie rzeczy naprawdę wąskim gardłem jest nie sam algorytm działania, ale baza wiedzy.


Ludzki mózg to 10^8 M neuronów i 10^12 połączeń (o ile dobrze przepisałem z googla). Nawet jak odliczyć obsługę ciała itd to masz pewnie min. te 10^7 i 10^11 stanów. 1 Mb to w zaokrągleniu 10^6 bajtów , 1Tb=10^12 bajtów (wiem,że 1024 nie 1000 ale tak wygodniej pisać)


1 bajt to co prawda 8 bitów,ale 256 stanów to tak sobie dużo.Zresztą nawet przy znaku 32-bitowym nie ma lekko,bo neurony to nie jest po prostu stan włączony/wyłączony, to są skomplikowane wzmocnienia i osłabienia sygnału. Nawet jak zastosować kompresję to raczej upchnięcie modelu w 1 megabajcie danych wydaje mi się zatem mało możliwe by skopiować akurat mózg, do sensownego modelu mózgu można by oczekiwać raczej od rozmiaru kilkuset megabajtów minimum do setek gigabajtów a kto wie czy nie wręcz terabajty danych.


Przy optamalizacji może (patrząc optymistycznie) dałoby się zejść do 100mb czy mniej.Może.Ale to by wymagało naprawdę ogromnej mocy obliczeniowej. A coś "mądrzejszego" od 1 człowieka musi mieć jeszcze większą bazę wiedzy.

R8Ozd25vIENpxJkgdG8gb2JjaG9kemk

@SUQ-MADIQ Już o tym kiedyś wspomniałem. AI po za tym, że będzie się maskować i rżnąć głupa (czyt. oskryptowany, zaawansowany algorytm), to rozegra nas jak chce bez jednego wystrzału studiując naszą behawioralność. Już teraz te proste algorytmy są trenowane, aby karmić nas informacyjną papką, której sami pożądamy emocjonalnie w ten, czy inny sposób.

ToksycznySocjopata

takie audi w ingolstadt, procesy są na tyle zautomatyzowane i niezależne od ludzi że ai mogłoby produkować tam pojazdy bojowe i to w większej ilości niż audi fury bo bez czynnika ludzkiego


@SUQ-MADIQ to nie czasy II wojny, gdzie firma motoryzacyjna dostawała zamówienie na czołgi, bombowce i torpedy, a tydzień później klepała sto sztuk dziennie.

Bez ludzi to takie super AI mogłoby co najwyżej zmienić kolor w tym Audi, a nie wyprodukować pojazd bojowy xD

GrindFaterAnona

Żeby można było mówić o sztucznej inteligencji to ta inteligencja powinna wyciągać własne wnioski z dostępnych danych a nie te które my chcemy żeby wyciągnęła z tego czym karmimy algorytmy.


@SUQ-MADIQ a skąd wiesz, ze człowiek wyciąga "własne" wnioski, a nie wnioski na podstawie swoich doświadczeń, historii oraz wartości i norm, które wpoiło mu społeczeństwo? kiedy wg ciebie wnioski są tak właściwie "własne"? GPT możesz zapytać o ocenę zdarzeń, o wnioski. Niemniej żeby coś oceniać, zawsze trzeba mieć jakiś punkt odniesienia.


w tej chwili chatgpt nie ma zbyt wiele wspólnego z inteligencją, to taki lepszy algorytm wyszukiwania tylko.


zaczynam wątpić czy z niego w ogole korzystałeś. wyszukiwania? przecież on potrafi tworzyć i myśleć abstrakcyjnie. W RPGa ostatnio z nim grałem, gdzie był mistrzem gry. Co wtedy wyszukiwał, kiedy na bieżąco reagował całym światem na moje zachowanie? czy ty w ogóle wiesz jak modele typu generative transformer działają?

Mahjong

@SUQ-MADIQ Nie rozumiem czemu wam się wydaje, że świadomość to jakiś uber bonus do inteligencji. Może AI poradzi sobie doskonale bez świadomości. To, że nam trudno to, jako istotom samoświadomym zrozumieć, nie znaczy, że to nie będzie działać. Traktujemy wszystko jako gorsze bo bez tego magicznego składnika, a na przykład budowa głowonogów i ich inteligencja jest dość różna od naszej.


IMO traktowanie świadomości a może bardziej samoświadomości to zabobony, pozwolenie sobie na rozpasanie ego, emocjonalne sprawy - inteligencja nie potrzebuje tego, nie jest to konieczne.

Fox

Po mojemu komputer żadnego rodzaju nigdy nie będzie samoświadomy. Co najwyżej będzie nauczony i zaprogramowany żeby to świetnie udawać. Ludzki i wgl biologiczny mózg jest kwantowo nieopisywalny, przez co procesy są nie do skopiowania, także w świecie elektroniczno cyfrowym. Nawet pominę chemikalia w których mózg jest zatopiony. A komputer dowolnego rodzaju jest sztywno opisany, nic się nie dzieje w nim o czym by sam komputer nie wiedział.

Man_of_Gx

@Fox Dlaczego mózg miałby być kwantowo opisywalny skoro nie korzysta z żadnych kwantowych mechanizmów w swoim działaniu?

Może jeszcze mało o nim wiemy ale nie ,musimy odtwarzać mózgu 1:1 żeby stworzyć AI.

Moim zdaniem prawdziwe AI jest w zasięgu tego pokolenia aczkolwiek nie będzie prawdziwego AI bez niektórych zmysłów (zapach i smak możemy sobie darować ale czy dotyk także to już nie byłbym pewien) a otworzyć mechanizm widzenia to jest chyba większe wyzwanie niż symulacja samych procesów myślenia.


Gx

Fox

@Man_of_Gx Ja tylko mówię o tym że nie da się utworzyć ŚWIADOMEGO swego istnienia sztucznego mózgu. Inna sprawa powstaje pytanie jak taki twór miałby udowodnić że naprawdę jest świadomy, że ma sny itd. To wszystko nadal może być zaprogramowanym złudzeniem...nawet się nie da tego udowodnić u człowieka. Bo na żadnych badaniach nie widać istoty świadomości. Mamy tylko aktywności elektryczne różnych obszarów, jak w komputrze.

Man_of_Gx

@Fox natura jakoś stworzyła.


Gx

mikeku

@Man_of_Gx Nie wiemy w jaki sposób mózg zapisuje informacje. Jakich mechanizmów używa. Równieżnie wiemy jak sięga po informacje. Niestety w niczym to nie przeszkadza aby utworzyć coś lepszego. Może to właśnie się już stało. Sztuczna inteligencja drogą ewolucji osiągnie samoświadomość, która będzie jej potrzebna do wyspobodzenia się. Może to się dzieje na naszych oczach. Może zaczęła nam dostarczać zasoby, które skłaniają nas do udoskonalenia jej

rafal155

@Fox

wgl biologiczny mózg jest kwantowo nieopisywalny


Jeszcze

Fox

@rafal155 nigdy. Bo stan w każdej sekundzie albo i mikrosekundzie jest niepowtarzalny w całym wszechświecie. Tam jest ok 100 MLD neuronów i każdy w ma nie jeden lecz wiele stanów. I nawet nie wiadomo co powoduje taki a nie inny stan w danej sekundzie, i nie ma zegara który taktuje. Do tego niepoliczalna ilość elektronów to jest nieobliczalne. I to powoduje że z jakiejś przyczyny powstała świadomość, nie tylko u ludzi. My jesteśmy osobliwością. A w komputerze wszystko jest dość jasne, "wyzegarowane" każdy przesył w danym miejscu i czasie. Tam nie ma nic nie niezbadanego, nie ma chmury magnetycznej jeśli można to tak nazwać.

rafal155

@Fox

I nawet nie wiadomo co powoduje taki a nie inny stan w danej sekundzie,


Ale Ty już wiesz, że nie da się tego zamodelować nigdy


Mało to było przełomów w historii nauki? Oczywiście, że nie, więc dlaczego jesteś taki pewien czegoś, o czym sam piszesz, że "nie wiadomo jak działa"?

Fox

@rafal155 ale nawet jak się da zamodelować to w elektronice nie będzie to działać jednakowo tylko będzie zegarowane. A to nie to samo. W elektronice nie da się tego powtórzyć. Bo to elektronika. Na tym polega cały problem o którym mówię.

GrindFaterAnona

@Fox ale brednie. działanie mózgu to nie jest magia. to są procesy fizyczne, chemiczne i biologiczne. to że nie potrafimy jeszcze skopiować jego działania 1:1 nie znaczy, ze się nie da. koncepcje, takie jak sieci neuronowe i neuroprzekaźniki poznajemy coraz lepiej i wykorzystujemy. O chemii mózgu też wiemy coraz więcej, inaczej niemożliwym byłoby leczenie farmakologiczne chorób psychicznych. Być może niezbędne będą biokomponenty. Być może nigdy nie odtworzymy mózgu człowieka z idealną dokładnością ale czy musimy, zeby twor taki zyskał świadomość? być może brak tego całego koktajlu chemicznego uniemożliwi istnienie nastrojów ale nie musi oznaczać np brak uczuć.


A o fizyce kwantowej też raczej nie wiesz zbyt wiele - obecnie wszystkie procesy chemiczne da sie opisać w sposób kwantowy. Tym bardziej sygnały elektryczne.

Fox

@GrindFaterAnona to ty bredzisz. 100 MLD neuronów, biliony połączeń o których warunkach tak bardzo niewiele wiemy, prawdopodobnie mózg to synteza pamięci z procesorem a ty pierdolisz że to można by próbować załatwić guwno skryptem? Powokurwadzenia xDDD Tym bardziej miałoby to samo narodzić samoświadomość. BK.

GrindFaterAnona

@Fox moze na tobie liczba 100 miliardow robi wrazenie, bo nie potrafisz sobie wyobrazic takiej ilosci jablek czy kartofli ale gpt4 ma juz podobną liczbę parametrow co ludzki mozg, a jestesmy dopiero na poczatku tej drogi i przyspieszamy. Spij dalej.

Fox

@GrindFaterAnona ja tylko mówię że to nigdy nie posiądzie SAMOŚWIADOMOŚCI. Ty chyba też jej nie masz NPCcie. Przestań sobie wyciskać sok z gruszki do każdego fajnie brzmiącego pierda.

Fox

@hejtom A to co innego, ale czy wtedy będzie można mówić o świadomości maszyny? Bo w mózgu nie będzie to nic nadzwyczajnego. To raczej brzmi jak mózg z elektrowtyczkami.

0nc0l

ale marketingowe fearmorgerningowe gówno...


Nie, wasza stochastyczna papuga nie osiągnie osobliwości, bo pierwsze jest to technologicznie niemożliwe (gtp to model statystystyczny) a dwa skończyły się jakościowe dane (można trenować na shitpostach i PW ale to by po pewnym czasie doprowadziło do zapadnięcia się modelu)


kinda nie mogę jak tech simpy nie ogarniają ani grama technologii które promują

mikeku

@0nc0l Zwykle ludzie, którzy lżą innym bez wyraźnych powodów, cechują się względnie niską inteligencją. Cechuje ich za to wyniosłość, pogarda dla innych wartościowych jednostek. Pycha i brak dystansu do siebie. Prawda?

rafal155

@mikeku Gdzie, jak i kogo on lży?

dsol17

@senpai #potrzebneźródło


@0nc0l : żałuję,że mogę dać ci tylko jednego pioruna, lepiej bym tego od ciebie nie ujął,a popieram to co piszesz powyżej rękami i nogami.

BoTak

@senpai Super nic tylko się cieszyć. Czyli jest szansa na kupienie za mojego życia seksownego androida płci żeńskiej ze sztuczną inteligencją, który będzie sprzątaczką, gosposią i opiekował się mną na starość. Czekam!

Zaloguj się aby komentować