Używanie asystenta głosowego jest wygodne. Często spotyka się taksówkarzy, którzy w ten sposób wprowadzają adres do nawigacji, osoby robiące notatki głosowe czy wprowadzające terminy do kalendarza także nie należą do rzadkości. Przyzwyczajonym do syntezatorów mowy niewidomym wydawało się, że upowszechnienie się takich funkcjonalności w środowisku cyfrowym spowoduje rozwiązanie bardzo wielu problemów. Tym czasem okazało się, że wprawdzie pojawienie się możliwości, o których mowa otworzyło przed środowiskiem osób z dysfunkcją wzroku szerokie perspektywy, ale, jak to zwykle z technologią bywa, przy okazji ujawniło cały szereg ważnych i godnych zaspokojenia potrzeb, które są konsekwencją tej niepełnosprawności.
Jednym z wielu rozwiązań, nad którymi obecnie się pracuje Jest Ally rozwijany przez znaną ze swoich inteligentnych okularów firmę Envision. Wersja beta tego niezwykle obiecującego asystenta jest dostępna dla użytkowników systemu Android, IOS oraz sprzedawanych przez Envision okularów. Autorzy rozwiązania deklarują gotowość udostępnienia swojej aplikacji na inne urządzenia zdolne udźwignąć sztuczną inteligencję.
Ally więcej niż gadżet
Jeśli ktoś chciałby wiedzieć, dlaczego warto zwrócić uwagę na tego inteligentnego asystenta, niech poświęci odrobinę czasu na zapoznanie się z filmem, który pokazuje omawiane rozwiązanie w działaniu.
Asystent jest rozwiązaniem przenoszącym działanie sztucznej inteligencji do realu.
Czy skarpety są sparowane poprawnie? Gdzie upadło mi opakowanie tabletek? Czy koszulka jest zaplamiona? Wyjrzyj za okno i powiedz mi jak mam się ubrać. Oto przykładowe polecenia, które nasz asystent potrafi wykonać. Ponieważ łączy on świat realny z wirtualnym możemy bez obawy poprosić powiedzmy o obejrzenie okładki starej winylowej płyty i poszukanie wersji albumu wydanej na płycie CD.
Czy Asystent kupi dla nas tę płytę, jeśli go o to poprosimy? Jeśli nawet dziś jest to nie możliwe, to być może wkrótce i takie możliwości się pojawią.
A ograniczenia?
Nasz asystent potrzebuje czasu. Musi zrobić zdjęcie i wysłać je na jakiś serwer do analizy. Wsparcie dla takich funkcji jak nawigacja hybrydowa, czyli oparta na synchronizowaniu obrazu z kamery z danymi nawigacji GPS, jakkolwiek teoretycznie możliwe, ze względu na ograniczenia wykorzystywanych w takim potencjalnym rozwiązaniu technologii, jest na razie pieśnią przyszłości. Czy asystent zrobi nam w kinie audio deskrypcję w czasie rzeczywistym? Być może kiedyś tak. Malkontenci powiedzą, że wobec tego po co tyle hałasu o coś, co jak zwykle w przypadku rozwiązań dla ludzi z niepełnosprawnością, nie działa i nie będą mieli racji, bo swoboda korzystania z urządzenia, by tak się wyrazić, protezującego naszą niepełnosprawność, nigdy nie była tak wielka, a płynące z rozmycia granicy między światem realnym i wirtualnym korzyści nie były nigdy tak łatwo zauważalne.
W filmie pokazującym Ally w akcji jest scena, gdy jeden z użytkowników spieszy się gdzieś i dowiaduje się, że jeśli nie zdąży na pociąg to następne połączenie jest za kilka minut. A wszystko w ramach naturalnej, nie wymagającej zbytniej uwagi, konwersacji.
Gdzie maszyna nie może
Korzystanie z pomocy wolontariuszy lub profesjonalnych asystentów, to dla osób z niepełnosprawnością istotna możliwość poprawy jakości życia, uczynienia naszego uczestnictwa we wspólnocie ludzkiej pełniejszym. Sztuczna inteligencja ma póki co ograniczenia, których nie potrafimy pokonać. Dlatego deweloperzy z Envision rozszerzają swoje rozwiązanie o możliwość skorzystania z ludzkiego asystenta tam, gdzie Sztuczna inteligencja nie jest w stanie sprostać naszym oczekiwaniom.
I tak Enwision Ally, który jeszcze nie doczekał się stabilnej wersji zmienia się w Envision Companion. Jeśli nie znacie angielskiego, to być może nie wiecie, że ta z pozoru nic nie znacząca zmiana nazwy tak naprawdę oznacza zmianę relacji między nami a wspierającą nas infrastrukturą. Teraz mamy już nie „sprzymierzeńca”, „sojusznika” (inne tłumaczenia dostępne w słownikach), ale „towarzysza” lub jeśli wolicie nieco ze staropolska, kompaniona, czyli kogoś nam równego.
Rozwiązanie od Envision wzbogacone o możliwość uzyskania ludzkiego wsparcia staje się teraz kompletne i wygląda na to, że gdy ujrzymy wersję stabilną, to będzie to najlepszy dostępny produkt wspierający osoby z dysfunkcją wzroku.
Jakie będą możliwości naszego asystenta?
Czy będąc narzędziem wspierającym osoby z dysfunkcją wzroku uzyska on możliwość rozpoznawania twarzy w realu i na zdjęciach?
Ile zapłacimy za subskrypcję, gdy rozwiązanie wyjdzie wreszcie z fazy beta?
Jakie niebezpieczeństwa wynikają z zezwolenia na tak głęboką ingerencję technologii a tym samym stojących za nią twórców/operatorów?
Na te wszystkie pytania trudno w tej chwili odpowiedzieć. Dlatego, póki rozwiązanie jest darmowe, cieszmy się możliwościami, które nam daje, rozbudzajmy bezkarnie ciekawość i pozwalajmy twórcom tak obiecującego narzędzia uczyć się na naszych zachowaniach, jak działa i czego potrzebuje z powodu swojej niepełnosprawności niewidomy lub słabowidzący użytkownik świata.
Czego trzeba by zostać beta testerem?
Aby zainstalować omawianą aplikację należy skorzystać z odnośnika, który znajduje się w artykule powyżej, a następnie wybrać platformę, na której zainstalujemy asystenta. Wymagania sprzętowe nie są wielkie. Wystarczy telefon z Androidem lub IOS’em. Na stronie dla użytkowników nie znalazłem ostrzeżenia o konieczności używania wyłącznie najnowszej wersji systemu. Wystarczy nam zatem jakaś rozsądnie nowa wersja. Z asystentem trzeba rozmawiać wyłącznie po angielsku, ale umie on już czytać teksty w innych językach. Robi to z silnym amerykańskim akcentem, ale tekst obcojęzyczny jest zrozumiały. Asystent potrafi rozpoznać nazwy miast takich jak łódź czy Wyszków i znaleźć odpowiednie informacje pogodowe w sieci.
Skuteczność działania naszego „sojusznika” będzie zależała od tego, ile go o sobie nauczymy.
Podczas pierwszego uruchomienia otrzymamy do wyboru cztery różne profile asystenta. Dwa kobiece i dwa męskie. Różnią się one między sobą nie tylko płcią, lecz także stylem konwersacji, sposobem mówienia. Asystent zapyta nas o to jak ma się do nas zwracać i poprosi o garść informacji o sobie. Warto te pola uzupełnić, bo od tego bardzo zależy jakość pomocy, którą uzyskamy od asystenta.
Gdy już przejdziemy przez ustawienia wstępne możemy wybrać sposób interakcji z asystentem. Do wyboru jest tryb pisania, tryb głosowy uruchamiany przyciskiem i wreszcie ciągły, naturalny tryb konwersacji.
Uwaga! Bywa, że asystent przejawia niepochamowany apetyt na naszą baterię. Aby go wyłączyć trzeba w takim wypadku wejść w miejsce, gdzie wyłącza się aplikacje działające w tle lub zresetować telefon. Na koniec już tylko przypomnienie: prezentowane tutaj rozwiązanie, jakkolwiek zachwyca swoimi dostępnymi już teraz możliwościami, a potencjał, który nam pokazuje może przyprawić nie jednego o zawrót głowy, jest tylko wersją beta i to wersją beta rozwijaną bardzo szybko, a więc może mieć wiele błędów i niestabilnych zachowań.
Odważnym, ciekawym świata i ostrożnym, życzę wielu interesujących przygód podczas testowania.
Damian Przybyła