W niniejszym raporcie zbadano rolę sztucznej inteligencji (AI) w moderowaniu treści w mediach społecznościowych. Obejmuje: (1) dlaczego sztuczna inteligencja będzie prawdopodobnie odgrywać coraz większą rolę w moderowaniu wypowiedzi w Internecie, (2) dlaczego nawet osoby z minimalistycznym zestawem założeń wyjściowych nie będą w stanie uniknąć angażowania się w moderację oraz wszystkich wyzwań i kompromisów, które się z tym wiążą poniżej, (3) kilka przykładów roli, jaką sztuczna inteligencja może odegrać w procesie moderacji, oraz niektóre kompromisy wynikające z każdego rodzaju zastosowania oraz (4) dlaczego oczekiwanie zbyt wiele od sztucznej inteligencji lub nieuwzględnianie jej głównych niedociągnięć będzie prowadzić do ciągłego rozczarowania i większej niesprawiedliwości. Wykorzystanie sztucznej inteligencji w moderowaniu treści online: czyli sektor technologiczny zainwestował w automatyzację, a ja dostałem tylko to wątpliwe orzeczenie
W marcu 2021 r. podczas jednego z wielu przesłuchań w Kongresie w mediach społecznościowych Mark Zuckerberg, dyrektor generalny Facebooka (obecnie Meta), poinformował:
Ponad 95% mowy nienawiści, którą usuwamy, jest generowana przez sztuczną inteligencję, a nie przez osobę. . . . Myślę też, że 98–99% treści o charakterze terrorystycznym, które usuwamy, jest identyfikowanych przez sztuczną inteligencję, a nie osobę.
To brzmi jak wysokie wartości procentowe. Od jakiegoś czasu firmy technologiczne wskazują na sztuczną inteligencję (AI) jako rozwiązanie, które jest dostępne tuż za rogiem i pozwala na moderację treści. (Szczerze mówiąc, niektórzy organy regulacyjne pytają: „Czy już na miejscu?” również od jakiegoś czasu.) Potem nagle – przynajmniej szybciej, niż się spodziewałem – te magiczne roboty najwyraźniej całkiem nieźle poradziły sobie z klasyfikacją kaprysów ludzkiej ekspresji . Więc . . . problem rozwiązany? Czy po prostu powitamy erę Pax Machina i wrócimy do publikowania memów o kotach i szylingów alt coinów?
Cóż, najpierw cofnijmy się. Dlaczego używamy sztucznej inteligencji do podejmowania decyzji dotyczących ekspresji online? Dlaczego mielibyśmy delegować coś tak ważnego nieludziom? Do czego dokładnie go używamy? Jak dobry jest w tym? Skąd mamy wiedzieć, czy jest w tym dobry? Jak dobre jest wystarczająco dobre? Co się stanie, jeśli okaże się, że jest w tym mniej dobry, niż się spodziewaliśmy?
Krótka odpowiedź na pytanie „dlaczego sztuczna inteligencja” to skala – zwykły, niekończący się ogrom wypowiedzi w Internecie. Skala jest głównym motorem platform internetowych, przynajmniej w ich obecnej, opartej głównie na reklamach formie, a być może we wszystkich wcieleniach. Nie da się zinternalizować dynamiki prowadzenia platformy cyfrowej bez spędzenia najpierw trochę czasu na siedzeniu i medytacji nad oszałamiającą, wzniosłą ilością przemówień, o których mówimy: 500 milionów tweetów dziennie przekłada się na 200 miliardów tweetów każdego roku.2 Więcej na Instagram przesłano ponad 50 miliardów zdjęć3. Codziennie do YouTube przesyłanych jest ponad 700 000 godzin filmów4. Mógłbym wymieniać dalej. Wyrażenia, które wcześniej były efemeryczne lub miały ograniczony zasięg w świetle istniejących praw natury i ekonomii publikacji przed erą cyfrową, mogą teraz rozprzestrzeniać się i rozprzestrzeniać po całym świecie. Okazuje się, że jeśli mamy szansę, bardzo lubimy słuchać siebie rozmawiających.