Cześć, dawno temu trochę się interesowałem otwarto źródłowym asystentem głosowym (MyCroft)
Od dłuższego czasu chodzą za mną dwie myśli.
Pierwsza to przedstawiony w cyberpunkowym anime z 1998 roku (Serial Experiments Lain - pić related) system operacyjny w dużej mierze sterowany głosem.
Ciekawi mnie jak dużo spośród na codzień używanych przez większość ludzi w współczesnym świecie rzeczy dałoby się realnie obsłużyć interfejsem głosowym. Wiem, że były nawet takie próby (KDE Simon) ciekawi mnie bajdziej to co byłoby maksem jaki dałoby się z tego wyciągnąć.
Druga rzecz to jak można takie interfejsy wykorzystać w web devie. Wyobrażam sobie zarówno prosty plugin do przeglądarki, który by po prostu po jednej komendzie głosowej wyświetlał jakieś łatwe do wypowiedzenia nazwy w postaci hintu nad linkami, a po wypowiedzeniu nazwy ten link otwierał. Ale to jest małe i nie będzie jakieś super wygodne. Bardziej mnie ciekawi, co powinien móc pozwalać robić jakiś framework (a może tylko biblioteka) w Javascriptcie sprzężona z speachtotext i text to speach, aby to jakkolwiek chwyciło.
Sama biblioteka pozwalającą wywołać jakąś funkcje w JS i przekazać jako argument co następuje po słowie wywołującym już brzmi dość ciekawie, bo to praktycznie pisanie skillsów na voice assystenta w przeglądarce.
Ale zastanawiam się, jakie wyzwania pojawiałyby się przed chcącymi tego użyć programistami na tyle często, że warto by było dostarczyć juz gotowe ficzery je rozwiązujące.
Co o tych dwóch kwestiach myślicie wizjonerzy z hejto?
f1e00f7b-b47c-44d8-99db-5e44157540ec
Gierapek_dwukropektrzy

przestały działać na ten kraj

Zaloguj się aby komentować