Czy ktoś z Tomeczków zna może polski odpowiednik pojęcia "attention" w kontekście uczenia maszynowego?
#pytanie #pytaniedoeksperta #informatyka #ai #uczeniemaszynowe
francis0440

@DonDussy Nie wiem, czy dosłowne tłumaczenie w pełni oddaje naturę zjawiska - szczególnie, gdy opisuje np. bloki. "Attention block" to "blok uwagi", "blok uważny"?

Niesporczak

@francis0440 Ciężko cokolwiek znaleźć na necie, ale widzę, że w większości przypadków autorzy tłumaczą to dosłownie jako "uwaga":

"natomiast BERT jest oparty na mechanizmie przeniesienia uwagi (ang. Transformer attention)."

https://nofluffjobs.com/blog/jak-wykorzystac-uczenie-maszynowe-by-wydobyc-istotna-tresc/


I tutaj akapit "Transformatory":

https://learn.microsoft.com/pl-pl/azure/machine-learning/concept-deep-learning-vs-machine-learning

Airani

Jestem niemalże pewien, że pisałem o "attention blocks" jak i o innych "blocks" w swojej magisterce o generatywnych sieciach neuronowych, na 99% przetłumaczyłem je jako "bloki uwagi".

francis0440

@Niesporczak @Airani Dzięki za pomoc, Panowie

Zaloguj się aby komentować