
Ludzie mogą lepiej zrozumieć decyzje podejmowane przez sztuczną inteligencję. Narzędzie, które to umożliwia - system LogosXAI - rozwija w Polsce prof. Krzysztof Michalik z Uniwersytetu WSB Merito.
XAI (ang. Explainable Artificial Intelligence, czyli wyjaśnialna sztuczna inteligencja) to nowy nurt badań w AI. Jego celem jest sprawienie, by decyzje algorytmów nie były dla człowieka tajemnicą.
- Dzięki XAI lekarz może zobaczyć, dlaczego system AI zaproponował daną diagnozę i na jakich danych się oparł. To daje większe zaufanie do technologii i pomaga w decyzjach klinicznych. W bankowości dzięki XAI wiadomo, dlaczego system przyznał lub odrzucił kredyt. Klient i analityk widzą kryteria, które miały największy wpływ. W edukacji LogosXAI pozwala studentom eksperymentalnie sprawdzić, jak działają sieci neuronowe: mogą usuwać poszczególne neurony i obserwować, jak zmienia się dokładność modelu. To uczenie się przez praktykę, które sprawia, że sztuczna inteligencja przestaje być abstrakcją - wyjaśnia prof. Krzysztof Michalik z Uniwersytetu WSB Merito, który od dwóch lat rozwija system LogosXAI - polski system, który tłumaczy decyzje sztucznej inteligencji. O jego pracy poinformowało Centrum Rozwoju Szkół Wyższych Merito. [...]
#technologia #sztucznainteligencja #algorytmy #naukawpolsce