ChatGPT zagrożeniem dla prywatności? Każdy z nas codziennie trenuje algorytmy
Fascynacja ChatGPT nie ma końca. Platforma i sam model sztucznej inteligencji udostępniony przez OpenAI bije rekordy popularności. Jak podaje serwis The Verge, w ciągu ostatnich dwóch miesięcy liczba osób korzystających z pomocy ChatGPT przekroczyła 100 milionów. Eksperci zaczynają jednak zadawać słuszne pytanie - czy na pewno chcemy samodzielnie trenować opisywany model i tym samym go ulepszać?
W ostatnim czasie korzystają z niego praktycznie wszyscy: marketerzy, designerzy, programiści, a nawet osoby zajmujące się na co dzień szeroko pojętą kulturą i sztuką. Nikt jednak nie mówi za bardzo o tym, co dokładnie dzieje się z danymi, które wprowadzane są w setkach, jeśli nie milionach tekstowych linijek każdego dnia.
To szczególnie ważne w dobie rozwoju algorytmów sztucznej inteligencji, które napędzane są danymi wprowadzanymi przez użytkowników. To swoisty, niekończący się cykl, w którym nowe informacje trenują dany model, aby zapewnić jego lepsze i szybsze funkcjonowanie. Metody zbierania danych przez ChatGPT przerażają już niektóre firmy. Wśród nich znajduje się na przykład amerykański Amazon.
Dane, dane i jeszcze raz dane
Do trenowania i ulepszania większości modeli sztucznej inteligencji potrzebne są ogromne ilości danych. Im więcej z nich będzie trafiało do bazy, tym lepiej dane algorytmy będą w stanie odkryć wzorce, przewidzieć co będzie dalej i bezpośrednio stworzyć z tego wszystkiego nowe treści.Codziennie przecież setki tysięcy osób wchodzą w interakcję z tym modelem, tym samym przyczyniając się do jego regularnego trenowania. W przyszłości może to rodzić wiele problemów (z niektórymi z nich twórcy ChatGPT muszą mierzyć się już dziś). Konkretnie w tym przypadku chodzi mi o wprowadzanie danych z uprzedzeniami, nacechowanymi rasizmem oraz zdominowanych przez internetowych trolli, którzy w oryginalny sposób bawią się z opisywanym modelem. Twórcy OpenAI zaczęli się kajać, kiedy wyszło na jaw, że tego typu dane są moderowane i przeglądane przez specjalny zespół Kenijczyków pracujących za równowartość 2 dolarów za godzinę.
Dla zobrazowania tego, jak dużym modelem AI jest ChatGPT - cała angielska odsłona Wikipedii zawiera w sobie około 6 milionów artykułów. Taka ilość danych stanowi zaledwie 0,6 proc. całej bazy danych, z której może korzystać produkt rozwijany przez OpenAI.
Przy takiej skali, uniknięcie gromadzenia niewłaściwych danych jest praktycznie nie do przeskoczenia. OpenAI nie wyjaśnia dokładnie na swojej stronie, co robi z wprowadzanymi do chatbota informacjami (oczywiście poza tym, że służą one do trenowania modelu sztucznej inteligencji).
Problem Amazona
Amazon jest pierwszą z dużych firm technologicznych, które już teraz zaczęły borykać się z problemami powiązanymi bezpośrednio z ChatGPT. Jak donosi Business Insider, któremu udało się dotrzeć do wewnętrznych notatek amerykańskiej firmy, Amazon ostrzegał swoich pracowników przed udostępnieniem poufnych informacji lub firmowego kodu chatbotowi stworzonemu przez OpenAI. Środki ostrożności zostały zastosowane bezpośrednio po tym, jak sam ChatGPT zaczął w swoich odpowiedziach udostępniać informacje będące niczym innym, jak kopią wewnętrznych danych Amazona.
Firma Jeffa Bezosa wprowadziła odpowiednie przepisy oraz regulacje, które ostrzegają pracowników przed wchodzeniem w interakcję z ChatGPT - przyczynił się do tego dział Amazon Security. Przedsiębiorstwo nie przyznaje się jednak do tego, co ma zamiar dalej zrobić z tym tematem. Można się spodziewać, że w pewnym momencie restrykcje posuną się znacznie dalej.
Czy spóźniliśmy się z odpowiednimi regulacjami?
Obecnie nie ma powszechnie akceptowanej metody związanej z usuwaniem danych wprowadzonych do modeli sztucznej inteligencji przez osoby fizyczne - chwilę po tym, jak zostały one wykorzystane do wytrenowania danego zestawu algorytmów. Z czasem osoby, które przyczyniły się do rozwoju konkretnych technologii mogą mieć ochotę do skorzystania z “prawa do zapomnienia” i usunięcia wprowadzonych przez siebie danych. Na ten moment jest to bardzo trudne, jeśli nie niemożliwe do osiągnięcia.
Czy w takim razie ChatGPT jest legalny? To wszystko zależy od praw oraz przepisów w danym kraju lub regionie. To, co jako pierwsze przychodzi na myśl, to oczywiście RODO stosowane szeroko w Unii Europejskiej - regulujące wykorzystanie danych osobowych i dbanie o to, aby były one wykorzystywane tylko i wyłącznie do zgodnych z prawem celów. Dla porównania, w Stanach Zjednoczonych nie ma prawa federalnego, które regulowałoby podobne sytuacje.
Ciężko więc ocenić czy obecnie spóźniliśmy się z regulacjami dotyczącymi wykorzystania sztucznej inteligencji, chatbotów oraz wpływu samych algorytmów na pozyskiwanie naszych danych. Prawda jest niestety przykra i bolesna: prawo będzie zawsze w tyle za tempem rozwoju nowych technologii i obecnie trzeba się chyba po prostu pogodzić z taką sytuacją.
Unia Europejska pracuje obecnie nad zestawem przepisów wycelowanych w sztuczną inteligencję - noszą one nazwę European Artificial Intelligence Act i mają pokrywać wiele obszarów związanych z wykorzystaniem algorytmów każdego dnia.
Korzystajmy z dóbr sztucznej inteligencji, ale… z głową
ChatGPT na razie "nie zniszczy cywilizacji", ani nie zabierze nam pracy - nie oznacza to także, że trzeba kategorycznie blokować wszystko, co z nim związane. Warto jednak podczas korzystania z tego chatbota mieć świadomość, że wszystkie wprowadzane przez nas informacje mogą zostać wykorzystane na różne sposoby.
Podobnie, jak i ze wszystkim w życiu - sztuczna inteligencja może nam pomóc. Trzeba tylko korzystać z niej z głową. I wszystko powinno być w jak najlepszym porządku.
Tekst pochodzi z mojej publikacjidla portalu CyberDefence24.
.
Interesują Cię podobne treści? Chciałbym zaprosić Cię więc do obserwacji tagu #techpigulka lub do obserwacji mojego profilu. W każdy poniedziałek, środę i piątek podsumowuję w krótkiej formie ważne wydarzenia ze świata #technologia #biznes i #nauka . Z poszanowainem dla Twojego czasu. Bez bullshitu.
#nauka #technologia #ciekawostki #biznes #programowanie #chatgpt
Half_NEET_Half_Amazing

@the_dude powinni mi płacić za trenowanie tych algorytmów wszystkich..

Hjuman

@the_dude prawda stara jak net. nie ma darmowego oprogramowania. czytałem, że najdroższą operacją w zrobieniu AI to właśnie nauczenie, dostawa danych ( nie wiem czemu, prąd? wymagania sprzętowe?) i czas trwania - kilka miesięcy.

a tu panowie poszli najtańsza drogą: dali dostęp (jeszcze) za darmo i voila: maszynka się uczy w tempie przerażającym.

the_dude

@Hjuman no jestem bardzo ciekaw, jak to wszystko będzie wyglądało, jak faktycznie w marcu uruchomią ten model GPT-4

the_dude

@Half_NEET_Half_Amazing no i to się nazywa dochód pasywny...

4Sfor

A propos zbierania danych, polecam książeczkę "The Numerati" Stephen'a Baker'a.


Fragment:


"A jednak, krok po kroku, Numerati robią postępy. Nie, tak naprawdę nas nie znają i nigdy nie poznają. Ale w każdej domenie rozumieją i przewidują nasze zachowanie dzisiaj nieco lepiej niż w zeszłym tygodniu. Uczą się na swoich błędach. Przechwytują więcej danych. Kontynuują eksperymenty. Jest to proces naukowy i od laboratoriów reklamowych po antyterrorystyczne, każdy z nas jest przedstawiony jako próbka. W niektórych jesteśmy renderowani w najdrobniejszych szczegółach. W innych to gołe kości. Ale od trendu nie ma odwrotu. W epoce, w którą wchodzimy, nasze życie będzie opisywane, badane i przewidywane każdego dnia za pomocą tej analizy statystycznej.


Doprowadzi to do różnego rodzaju frustracji. Od czasu do czasu będziemy konfrontowani z wnioskami, które są wątpliwe, a nawet całkowicie błędne – ale dostarczane z pewnością naukową. Czasami ogranicza to nasze możliwości. Już teraz firmy ubezpieczeniowe wyposażone w analizy statystyczne kosztów i wskaźników przeżywalności narzucają swoje mandaty lekarzom, którzy kiedyś mieli większą swobodę w ufaniu swojej intuicji. Ten trend będzie tylko wzrastał. W miarę jak liczby będą się mnożyć, a badacze dowiadują się więcej o naszym DNA, szpitale, ubezpieczyciele i agencje rządowe będą otrzymywać instrukcje od automatycznych systemów, aby dyskryminować. Podobnie jak wymagający ochroniarze w ekskluzywnych klubach, pomachają niektórym osobom, zanim podniosą rękę i powiedzą: „Nie ty”."

the_dude

@4Sfor dziękuję Ci bardzo - sprawdzę sobie, bo wygląda ciekawie. NIe masz może jakiejś kopii w wersji cyfrowej? (większość rzeczy czytam na iPadzie)

Jarasznikos

@the_dude Czyli podobnie jak z mediami społecznościowymi. Wszystko jest spoko, póki nie wywlekasz tam całego swojego życia z najdrobniejszymi szczegółami.

4Sfor

@Jarasznikos Tak, aczkolwiek obecnie żyjemy w czasach, że trudno nie dzielić się sobą. Czasami odbywa się to nieświadomie, a czasami za naszym, często bezrefleksyjnym przyzwoleniem. Kamery na każdym kroku, smartwatch'e zbierające dane o naszym śnie, pracy serca, saturacji krwi, smartfony słuchające i widzące wszystko co robimy - staliśmy się pokarmem dla firm pozyskujących dane, teraz stajem się nim dla AI.

Zaloguj się aby komentować