https://journals.plos.org/ploscompbiol/article?id=10.1371%2Fjournal.pcbi.1012814
Znalazłem dosyć ciekawą pracę naukową - Mechanizmy nieufności: bayesowskie ujęcie uczenia się dezinformacji.
Dotyczy ona ogólnego wzorca podchodzenia ludzi do pozyskiwania informacji i ograniczeń umiejętności odfiltrowywania dezinformacji. To o tyle interesujące dla mnie osobiście, bo mam do czynienia z zagadnieniem wykrywania zatruwania źródeł informacji, takie hobby. A że zarówno ludzie, jak i maszyny podążają w tej kwestii podobnymi ścieżkami, szczegółowe obserwacje jednej z tych grup dają wgląd w to, jak to może wyglądać w drugiej (stąd tag #sztucznainteligencja - bo mimo wszystko, jest to powiązane). Szczególnie, że mechanizmy bayesowskie powinny się pokrywać, bo nasza rzeczywistość to łańcuchy w sensie Markowa. Wiem, brzmi to jak bełkot, ale jeśli ktoś jest ciekawy to mogę wyjaśnić. Na szybko, tutaj artykulik z perspektywy wnioskowania statystycznego: https://csc.ucdavis.edu/~cmg/papers/imc.pdf.
A wracając do artykułu, badanie w nim przedstawione pokazuje, jak mózg radzi sobie z nauką o tym, czy informacje są godne zaufania, podążając za modelem bayesowskim. Uczestnicy eksperymentu musieli rozróżnić różne rodzaje źródeł informacji – od szczerych po zmanipulowane – a ich reakcje pasowały do teoretycznych założeń modelu. Co ciekawe, wszyscy startowali z domyślnym przekonaniem, że źródła są pomocne, co jest trochę jak dawanie kredytu zaufania, zanim padnie pierwsza wątpliwość. Kiedy jednak dane były bardziej zaszumione, trudniej było zauważyć, kto próbuje manipulować. No i to jest właściwie clue samego badania - wykazanie istnienia i stopnia tej zależności.
#spoleczenstwo #dezinformacja #nauka #sztucznainteligencja