AI pomaga pedofilom w generowaniu nielegalnych treści. Dzieci w Internecie są narażone - GikLik

AI pomaga pedofilom w generowaniu nielegalnych treści. Dzieci w Internecie są narażone - GikLik

GikLik
Otwarte oprogramowanie AI jest modyfikowane przez przestępców seksualnych tak, aby generować nielegalne obrazki z dziećmi. Na Wykopie spotkałem się z twierdzeniem, że przecież to tylko generowane obrazki i nikt nie jest tu ofiarą, ale miejmy na uwadze, że twórca Midjourney przyznał, że obrazy trenują na tym, co dostępne w necie. Czyli również na naszych fotkach z FB między innymi.

Komentarze (9)

moll

@Dragotrim kolejny powód dlaczego nie wstawia się zdjęć własnych dzieci do internetu

Acrivec

To chyba chroni dzieci - mają treści bez ich molestowania.

maximilianan

@Acrivec chyba że któryś wpadnie na pomysł, że mu to nie wystarcza

Acrivec

@maximilianan a gdyby w tym miejscu kiedyś było pszeczkole!!11

Dragotrim

@Acrivec Tylko że według twórcy Midjourney AI trenuje na wszystkim, co jest w Internecie. Czyli np. na fotce jakiegoś dziecka na FB. To dziecko może mieć potem przerąbane. Zresztą, to się nie tyczy tylko dzieci, a ogólnie osób dorosłych, bo jak wygenerują realistyczną fotkę jakiegoś pracownika w niezręcznej sytuacji, to może on nawet stracić prace, bo Januszex nie będzie analizował czy to prawda.

sireplama

Jak sobie generują to trochę nie zwiększa to bezpieczeństwa dzieci?

sireplama

Inna sprawa, że jak to działa? Wrzucam fotki ubranej osoby do AI i ona generuje mi nudesy?

Dragotrim

@sireplama bawiłem się trochę z AI i ogólnie można tak zrobić. Możesz np. wysłać swoją fotę i poprosić, aby wygenerowali cię jako syrenę w morzu xD ChatGPT nie wygeneruje ci nudesa, ot tak, bo jest tam pewnego rodzaju blokada, ale przy open source można sobie to zmodyfikować.

LondoMollari

ale miejmy na uwadze, że twórca Midjourney przyznał, że obrazy trenują na tym, co dostępne w necie. Czyli również na naszych fotkach z FB między innymi.

@Dragotrim O ile ktoś nie ma dzieciaka celebryty, który występuje w istotnym procencie zdjęć w internecie, to są praktycznie zerowe szanse, że obraz ich dziecka utrwali się w sieci neuronowej w sposób pozwalający na odtworzenie jego podobizny.


Ktoś, kto ma ból dupy o to, że AI trenuje na obrazkach, które sam wrzucił do internetu, po pierwsze nie czytał regulaminu serwisu, gdzie wrzucał zdjęcia, po drugie nie ma zielonego pojęcia jak działa trenowanie AI.


Potencjalnie dużo, dużo niebezpieczniejszym niż trening systemów w stylu Midjourney naruszeniem jest łatwa dostępność rozwiązań tworzących deep fake'i w oparciu o przeróbki istniejącego zdjęcia. Serwisy w sieci blokują to oczywiście, ale dla kogoś z w miarę przyzwoitym sprzętem, pobranie i odpalenie tego u siebie jest dosyć prostą sprawą.


Reasumując - mleko się rozlało, puszka pandory jest już otwarta, etc, etc... takie narzędzia są, i już nie znikną. Bez całkowitego zlikwidowania jakiejkolwiek prywatności ludzi (nie tylko w internecie ale w ogóle) nie da się tego wyeliminować. Trzeba jedynie skutecznie namierzać i ścigać ludzi publikujących to, mając świadomość, że w domowym zaciszu ludzie robili, robią i będą robić różne pojebane rzeczy.

Zaloguj się aby komentować