
Modele AI uczą się hakować nasz system myślenia, żeby nas do czegoś przekonać; są też tak skonstruowane, żeby ich odpowiedzi sprawiały wrażenie poprawnych - mówi PAP dyrektor Centrum Wiarygodnej Sztucznej Inteligencji prof. Przemysław Biecek.
Jak przypomniał matematyk, informatyk prof. dr hab. inż. Przemysław Biecek, dyrektor Centrum Wiarygodnej Sztucznej Inteligencji (Centre for Credible AI, CCAI) na Politechnice Warszawskiej, metody uczenia maszynowego są rozwijane od 50-60 lat, a przez większość tego czasu głównym celem tego rozwoju było zwiększenie skuteczności. – W przypadku zadań takich jak rozpoznawanie czołgów albo guzów nowotworowych na zdjęciach rentgenowskich mamy skuteczne miary, czy LLM (ang. Large Language Models, duże modele językowe) właściwie wykonuje polecenia. Ale jest coraz więcej problemów, dla których dobrej miary skuteczności nie potrafimy tak łatwo zdefiniować i ocenić – powiedział.
Jednym z wyzwań związanych z oceną skuteczności jest dyskryminacja, która pojawia się w niektórych systemach AI. – Istnieją co prawda ustawy, które zabraniają dyskryminacji, ale nie zawsze wiemy, jak przełożyć taki wymóg na weryfikację działania LLM. Bez dobrej miary oceny dyskryminacji nie można więc zagwarantować sprawiedliwego systemu sztucznej inteligencji. A żyjemy w świecie, który jest historycznie niesprawiedliwy, więc LLM łatwo uczą się tej niesprawiedliwości na danych historycznych – ocenił informatyk. [...]
#sztucznainteligencja #technologia #naukawpolsce
