W maju 2024 we Frankfurcie nad Menem odbyło się kolejne SightCity, czyli jedna z największych w Europie wystaw sprzętu dla niewidomych i słabowidzących. Pogoda tym razem dopisała, co, jak dowiecie się z artykułu, miało pewne znaczenie. Sprzętu i oprogramowania, jak zwykle, było tak dużo, że pełna relacja zajęłaby mnóstwo miejsca, nie dałaby się czytać i byłaby nieuczciwa, bo nawet trzy dni to za mało, by dokładnie zapoznać się ze wszystkim, oczywiście o ile nie jest się sztuczną inteligencją, pod nieformalnym znakiem której tegoroczne SightCity się odbywało. W pisaniu nie wspomagam się AI, piszę sam i dlatego będę pisał o tym, co najbardziej mnie interesuje, czyli o orientacji i okolicach.
Tegoroczne SightCity było ciekawe, a rządziła nim, jak wspomniałem, sztuczna inteligencja. Niemal każde rozwiązanie, nie tylko dotyczące orientacji, miało ją na pokładzie. AI była tak powszechna, że gdy na jednym stoisku znalazłem smartfona z funkcjami dla niewidomych, który nie miał AI, producent od razu zaczął tłumaczyć, że choć AI nie ma, to właściwie jest, bo można się do niej dostać drogą pośrednią, a w ogóle to za jakiś czas będzie. ChatGPT i podobne rozwiązania znajdziemy nie tylko na smartfonach, inteligentnych okularach czy monitorach dotykowych, ale nawet w białych laskach. Tak, tak… Wieki temu z okazji Prima Aprilis wysłałem na listę dyskusyjną „Typhlos” fake newsa (wtedy mówiło się „żart”) z opisem inteligentnej laski, która śpiewa i z którą można rozmawiać. Śpiewających lasek jeszcze nie widziałem, ale z jedną porozmawiać się dało.
Zanim przejdę do lasek będzie jednak o rowerze. Jak wspominałem pogoda we Frankfurcie była ładna. Skorzystała na tym niemiecka firma BamBuk. Na placu przed wejściem do budynku Kap Europa, w którym odbywały się targi, oferowała ona przejażdżkę swoim trójkołowym elektrycznym tandemem. Na początku idea trójkołowca wydawała mi się dziwna, ale producent przekonał mnie, że takie rozwiązanie ma sens, choć oczywiście nie jest potrzebne każdemu.
Tandem BamBuka ma służyć do jazdy na dalsze odległości, nawet we wielodniowe trasy. Trzy koła gwarantują zachowanie lepszej równowagi, co ma znaczenie, gdy rowerzyści wyraźnie różnią się od siebie wagą i wzrostem. Nie ma problemu ze zgraniem się podczas startu i, co ważniejsze, podczas hamowania. Silnik elektryczny Boscha wspomaga pedałowanie, co szczególnie ma sens przy większej wadze roweru. Zrobiłem dwa kółka i powiem, że wcale nie pedałowało się tak lekko, jak przypuszczałem. Generalnie jechało się dobrze, ale musiałem przyzwyczaić się do nietypowej pozycji, bo siedzi się dość nisko na siodełku raczej przypominającym krzesełko, a nogi trzyma się niemal w poziomie, czyli pedałuje się do przodu a nie w dół. Rower jest drogi, ale jestem przekonany, że znajdzie klientów. Absolutnie nie zgadzam się z twierdzeniem, że rowery elektryczne są dla ludzi ze sprzężonymi niepełnosprawnościami. Wystarczy sprawdzić w Internecie, jak bogata jest oferta zwykłych rowerów elektrycznych i wiem, że w grupach rowerowych, w których jeżdżą tzw. zdrowi ludzie, rowery elektryczne nie są niczym niezwykłym. A teraz zeskakujemy z roweru i zaczynamy chodzić, czyli będzie o laskach.
Inteligentne białe laski. WeWalk i Rango
Gdy chcę wyrobić sobie zdanie o jakiejś pomocy w orientacji, która wykrywa przeszkody, robię dwa testy. Pierwszy test polega na szybkim marszu w stronę ściany. Urządzenie powinno zdążyć ostrzec mnie przed przeszkodą, nim na nią wejdę. Czyli np. detektor przeszkód musi w porę zawibrować. Drugi test jest trochę bardziej skomplikowany i wymaga udziału jeszcze jednej osoby. Potrzebna jest też laska, ale tę, standardową lub sygnalizacyjną, zawsze mam przy sobie, więc problemu nie ma. Proszę pomocnika (najczęściej jest to moja żona), by trzymał laskę poziomo na wysokości mojej twarzy. Chodzi o zasymulowanie przeszkody, o którą mogę się uderzyć. Pomocnik stoi w pewnej odległości ode mnie, a ja, posługując się testowanym urządzeniem, idę w stronę przeszkody utworzonej za pomocą laski. Jeśli urządzenie ostrzeże mnie przed nią, test uznaję za zaliczony. Wykrycie ściany i przeszkody na wysokości twarzy może wydawać się prostym zadaniem, ale w praktyce okazuje się, że niewiele urządzeń sobie z nimi radzi. Oba testy są zresztą dość perfidne: większość niewidomych nie chodzi tak szybko, jak ja w kierunku ściany, a moduł wibrujący zawsze potrzebuje chwili na rozruch; cienka laska na wysokości głowy jest dość trudna do wykrycia przez detektory, a w tzw. realu taka przeszkoda zdarza się niezwykle rzadko. Mógłbym być oczywiście jeszcze bardziej wredny i pomalować białą laskę na czarno, tak by utrudnić pracę detektorom podczerwieniowym, ale na co mi czarna biała laska…
WeWalk
Na inteligentną laskę WeWalk ostrzyłem sobie zęby od czasu, gdy usłyszałem o jej nowej wersji. Producent reklamuje ją jako jeszcze bardziej inteligentną, lekką, z różnymi przydatnymi funkcjami i do tego odporną na deszcz. Ostatni punkt może dziwić, bo po co komu laska, której nie można używać podczas deszczu, ale tak właśnie było z poprzednią wersją laski WeWalk, na której, nomen omen, suchej nitki nie zostawili Steven Scott i Shaun Preece prowadzący kanał „Double Tap”, właśnie za ten brak deszczoodporności. Steven i Shaun czasem opowiadają rzeczy, które burzą mi krew, ale jeśli chodzi o laskę w deszczu, trudno się z nimi nie zgodzić. Opisy nowej wersji laski były bardzo obiecujące, więc stoisko WeWalk odwiedziłem jako jedno z pierwszych. I rzeczywiście, prototyp laski (na razie laska jest wciąż w przedsprzedaży) robi dobre wrażenie. Nie jest ciężka, a rękojeść nie odbiega wielkością od typowych rękojeści w standardowych laskach. To naprawdę osiągnięcie. Wszystkie mniej lub bardziej inteligentne laski, które do tej pory oglądałem, miały powiększone rękojeści. Wyjątkiem były tylko te, które elektronikę miały mocowaną na lasce, a nie w rękojeści. Laska WeWalk ma cztery przyciski, głośnik, mikrofon i oczywiście detektory przeszkód. W dłoni leży dobrze, ale nie idealnie, bo rękojeść jest bardzo zaokrąglona, a przynajmniej ja tak to zapamiętałem. Sądzę, że jako podstawowe narzędzie w orientacji sprawdzi się większości użytkowników, pomijając tych najbardziej wymagających. Mnie wystarczyłaby w zupełności. Laska oczywiście wykrywa przeszkody. Ostrzega nas przed nimi za pomocą wibracji i/lub dźwięku. Od inteligentnej laski teraz jednak oczekuje się więcej i WeWalk spełnia te oczekiwania. W połączeniu z aplikacją na smartfonie, prowadzi nas po trasach, bo ma dostęp do nawigacji GPS. Możemy też szybko dodawać własne punkty, naciskając stosowny przycisk na lasce. Z poziomu laski, czyli bez konieczności wyciągania smartfona z kieszeni lub plecaka, mamy dostęp do asystenta głosowego, m.in. wykorzystującego ChatGPT (to właśnie z nim możemy porozmawiać) oraz do rozkładów jazdy w czasie rzeczywistym obsługiwanych przez Moovit. Możemy zatem odnaleźć najbliższą restaurację, zapytać o menu i ceny przed wejściem do niej, a po obiedzie laska doprowadzi nas do przystanku i powie nam, kiedy odjeżdża nasz autobus i gdzie mamy się przesiąść. Wystarczy tylko zapytać. Brzmi to fajnie, ale oczywiście na targach nie było warunków, by sprawdzić, jak dobrze działają te wszystkie funkcje.
Niestety laska nie poradziła sobie z moimi zadaniami, tj. z testem ściany i testem drążka. Test ściany nie był idealny, bo zamiast twardej ściany miałem przed sobą krzesła. Siedzisko krzesła jest trudniejsze do wykrycia niż ściana, szczególnie, gdy mamy ultradźwiękowe sensory. No ale laska powinna ostrzegać przed przeszkodami, a ja najpierw wyczułem krzesło laską, a dopiero potem poczułem wibrację rękojeści. W teście drążka nie było żadnych komplikacji, a wynik był jednoznaczny: dotknąłem czołem laski trzymanej przez moją żonę, a rękojeść nie zawibrowała. Przyznaję, że byłem rozczarowany, bo pierwsze wrażenie było bardzo dobre. Warto jednak podkreślić, że laska wciąż ma status prototypu, a pracownik WeWalk nagrywał moje testy i mówił, że przekaże film dalej. Kto wie, może problemy zostaną szybko rozwiązane. No i to, że laska oblała mój egzamin, nie znaczy, że komuś innemu się nie sprawdzi. Sam zamierzam uważnie obserwować WeWalk i przy kolejnej okazji ponowię swoje testy.
Na koniec jeszcze dwie ciekawe rzeczy, o których można przeczytać na stronie producenta. WeWalk oferuje usługę WeAssist, która trochę przypomina AIRA, tyle że jest ograniczona do nawigacji. Możemy skontaktować się z asystentem, który pomoże nam np. podczas poruszania się wewnątrz budynku. Fajna sprawa, ale, jak pisałem w artykule o okularach Envision, chodzenie ze smartfonem trzymanym w ręku, do tego tak, by kamera łapała sensowny obraz, wydaje mi się niepraktyczne. Oczywiście w krytycznej sytuacji każde narzędzie jest dobre.
Druga rzecz to możliwości jakie daje laska, jeśli chodzi o naukę orientacji. Z opisu nie wynika, czy ta usługa jest już dostępna, ale laska jest wyposażona w technologię pozwalającą zbierać informacje o tym, w jaki sposób użytkownik porusza się z laską, czyli np. pod jakim kątem ją trzyma, jakie robi ruchy, itp. Te informacje może otrzymywać instruktor orientacji śledzący nasze postępy i przygotowujący nam szkolenie. Taka laska to już nie tylko narzędzie do orientacji, ale także narzędzie do ćwiczeń.
Rango
Po obejrzeniu laski WeWalk poszedłem do konkurencji, czyli firmy GoSense. Tu muszę przyznać się do tego, że mam pewną słabość do Francuzów albo raczej do ich wyrobów. Obok win i serów bardzo lubię francuskie pomoce w orientacji przestrzennej. Te, które oglądałem, zawsze były dopracowane, a sam wciąż używam Minitacta, którego opisywałem w „Tyfloświecie” w 2011 roku (artykuł pt. „Niedoceniane detektory przeszkód”).
Wróćmy do GoSense. Ich produkt nazywa się Rango i jest to niewielki moduł mocowany na lasce. Inaczej zatem niż w przypadku WeWalk, gdzie co najmniej rękojeść laski musi pochodzić od producenta, mamy tu zupełną swobodę. Rango po prostu montujemy na naszej lasce. Rango również wymaga aplikacji na smartfona. Aplikacja zapewnia nam dostęp do naszej pozycji na mapie, informacji o skrzyżowaniach i rozkładów jazdy. Najważniejsza różnica między WeWalk i Rango jest taka, że Rango używa słuchawek. GoSense oferuje własne słuchawki Noor (oczywiście Bluetooth), które nie zasłaniają uszu, ale jednocześnie nie są słuchawkami kostnymi. GoSense pisze, że to słuchawki otwarte, które dają znacznie wyższą jakość dźwięku niż słuchawki kostne. Według instrukcji, pozwalają one na pracę z dwoma urządzeniami jednocześnie oraz są odporne na pot i zachlapanie. Producent składa je sam z zamawianych podzespołów.
Minęło już kilka miesięcy od czasu, gdy testowałem je na SightCity, więc nie pamiętam dokładnie, w którym miejscu ucha znajdowały się głośniki. Na filmach widać, że ciut przed małżowiną. Pamiętam, że jakość dźwięku była dobra (biorąc poprawkę na targowy hałas) i że rzeczywiście uszy były odsłonięte. Rango informuje nas o przeszkodach tzw. dźwiękiem 3D, czyli słyszymy kierunek, w którym jest przeszkoda. Sprawdza się to całkiem nieźle. Tu warto wspomnieć, że Rango monitoruje naszą pozycję względem laski, czyli wie, gdzie stoimy. Dzięki temu podawanie kierunku za pomocą dźwięku może być bardziej precyzyjne. Pisząc o WeWalk wspominałem o możliwościach, jakie daje inteligentna laska, jeśli chodzi o naukę orientacji. W Rango też o tym pomyślano. Rozwiązanie jest bardzo proste. Gdy trzymamy laskę pod niewłaściwym kątem, dostajemy alert.
Rango zdało oba moje testy. Ultradźwiękowe sensory w porę wykryły ścianę (co nie było trudne, szczególnie jeśli ostrzeżenie o obiekcie jest przekazywane dźwiękiem, a nie wibracją), wykryły też drążek na wysokości mojej twarzy. Z laską szło się dobrze.
Pomysł z mocowaniem modułu na lasce nie jest nowy. W 2009 roku w artykule „Elektroniczne pomoce w orientacji przestrzennej” opisywałem m.in. francuski detektor „Tom Pouce”, który też był mocowany na lasce. Wtedy też to rozwiązanie się sprawdzało. Problematyczne są dla mnie słuchawki. Słuchawki to kolejny sprzęt, który trzeba nosić, a ja mam jedną głowę, na której już noszę inteligentne okulary. Noszenie tych konkretnych okularów i specjalnych słuchawek jest dość niewygodne, a ja do tego często jeszcze używam pojedynczych słuchawek do różnych celów. Jestem też przyzwyczajony, i przez to bardziej przekonany, do sygnałów wibracyjnych. Ale znam ludzi, którym świetnie chodzi się np. w słuchawkach kostnych i im Rango z ich dobrymi słuchawkami może się sprawdzić.
Inne laski
Żeby nie było tylko o nowościach, z kronikarskiego obowiązku dodam, że laserowa laska firmy Vistac wciąż jest sprzedawana. Producent mówi, że nic w niej nie zmienia, bo przyjęte rozwiązania dobrze się sprawdzają, a laska ma użytkowników i są nowi klienci. Nic nie można zarzucić takiemu podejściu. Lepsze czasem bywa wrogiem dobrego.
Na koniec jeszcze kilka zdań o zwykłych, tj. nieinteligentnych, choć całkiem zmyślnych laskach. Ambutech pokazał końcówkę do laski, która obraca się we wszystkie strony, czyli możemy iść do przodu trzymając laskę przed sobą. Mieli też laskę z amortyzatorem. Wszechstronna końcówka jest nowością, natomiast co do amortyzatora, nie mogę wykluczyć, że był pokazywany w zeszłym roku. Ja jednak go nie pamiętam.
Uwagę zwracała też laska o nazwie IO firmy Whitecane. Jej Rękojeść jest wyprofilowana tak, by odciążyć nadgarstek. Nie mamy prostej rękojeści, ale wygiętą, tak że dłoń bardziej na niej leży niż w przypadku zwykłej laski.
Na tegorocznym SightCity moją uwagę zwróciła nieobecność Svarovskyego. Na tym stoisku zawsze panowała fajna atmosfera i można było sobie miło porozmawiać z sąsiadami Czechami.
Inne detektory
Ponieważ od lasek blisko do innych detektorów, kilka słów należy się detektorowi Fledermaus firmy Synphon. Detektor jest trochę duży, jak na mój gust. Nosi się go na szyi, ale można też trzymać w ręku, czyli używać jak klasycznego detektora. Fledermausa od innych detektorów wyróżnia to, że ma zarówno sensory ultradźwiękowe, jak i podczerwieniowe, więc powinien dobrze sobie radzić z wykrywaniem cienkich i czarnych przeszkód. Testów nie robiłem, bo pani na stoisku była mało komunikatywna, a mnie z kolei, jak pisałem, nie odpowiadała wielkość urządzenia. Fledermaus jest duży, ale solidny. Nie jest to tegoroczna nowość, bo widziałem go już na SightCity 2023, ale chyba nie wcześniej.
Pisałem o Vistacu, więc warto też wspomnieć, że dobrze ma się również FeelSpace. To niemiecka firma prowadzona przez dwie siostry. Ich produktem jest NaviBelt – pas, w którym zaszyte są moduły wibrujące. Pas współpracuje z aplikacją do nawigacji. Moduły wibrujące mamy dookoła ciała, jeden przy drugim, więc dokładność jest wystarczająca. Wibrowanie konkretnego modułu sygnalizuje nam kierunek. Jeśli czujemy wibrowanie na prawym biodrze, zwracamy się w prawo aż poczujemy, że wibrować zaczyna moduł na środku brzucha i wtedy wiemy, że mamy iść prosto. Gdy pierwszy raz oglądałem NaviBelt wiele lat temu, podobał mi się, ale nie wróżyłem mu przyszłości. A tu proszę, są klienci i co roku pojawiają się jakieś nowe funkcje.
Inteligentne okulary i inne wearables
ChatGPT i podobne narzędzia oparte na dużych modelach językowych okazały się rewolucją, jeśli chodzi o opisywanie obrazów. To taki przełom w technologiach asystujących, jakim wcześniej były screenreadery na komputery, OCR, screenreadery na urządzenia mobilne oraz GPS. Każde z tych rozwiązań zmieniło życie niewidomych i tak samo jest teraz ze sztuczną inteligencją. Opisy generowane przez AI potrafią być bardzo dokładne, lepsze od tych tworzonych przez ludzi, jednocześnie zawierając błędy, czyli tzw. halucynacje. Jeżeli robimy np. zdjęcie kuchni, AI może nam dać dokładny opis, ale jednocześnie dodać np. mikrofalówkę, bo była uczona na zdjęciach amerykańskich kuchni, gdzie mikrofalówka jest częstym wyposażeniem. AI może też wymyślić np. ławkę w parku. Czy dokładność i błędy stoją w sprzeczności? Najczęściej nie. Opisy generowane przez AI potrafią dać świetne wyobrażenie o tym, co jest na zdjęciu lub co widzi kamera naszego smartfona czy okularów. Sam wielokrotnie korzystałem z AI w galeriach sztuki i efekt zwykle był niesamowity, nie wspominając o codziennym korzystaniu z rozpoznawania obrazu w moim screenreaderze. Dlaczego o tym piszę? Otóż niedawno dowiedziałem się ze zdziwieniem, że wciąż są żyjący aktywnie niewidomi, którzy nie mają wyobrażenia, jakie możliwości dają nowe technologie.
Envision
Inteligentnych okularów na SightCity było bez liku, a dokładnie cztery modele. O okularach Envision pisałem już w Tyfloświecie, więc nie będę się rozwodził. Nowością jest to, że opisywanie scen działa teraz w oparciu o ChatGPT. Za pomocą okularów robimy zdjęcie, które wysyłane jest do analizy i po kilku sekundach dostajemy opis. Z oceną opisów mam problem, bo to trochę kwestia gustu.
Od AI każdy uzyska to, co chce uzyskać. Są oczywiście pewne wyjątki, ale te teraz pomińmy. Jedna osoba będzie oczekiwała bogatego w szczegóły opisu ulicy starego miasta, po którym właśnie się przechadza, a dla drugiej będzie ważne, czy przed nią nie ma jakichś przeszkód, np. zaparkowanych samochodów. W okularach Envision wybrano złoty środek, tj. opisy są raczej krótkie i konkretne, a o szczegóły można dopytać AI. Wolę długie opisy, więc aktualny poziom ogólności niezbyt mi odpowiada. Rozwiązaniem problemu byłaby możliwość ustawiania dokładności opisów. Producent idzie jednak w trochę inną, może nawet bardziej interesującą stronę.
Envision pracuje nad asystentem, który będzie rozumiał nasze potrzeby i dopasowywał do nich działanie programów na okularach, smartfonie czy nawet komputerze. Jesteśmy w restauracji i okulary widzą menu, to włącza się nam rozpoznawanie tekstu, a jesteśmy w muzeum, to dostajemy rozpoznawanie sztuki, itd. Zapowiada się ciekawie. Widać, że firma myśli o rozwoju i nie ogranicza się do samych okularów, które przecież zawsze mogą być wyparte przez jakiś ogólnodostępny produkt.
Swoich zwolenników mają np. okulary Meta Ray-Ban, mimo że, ich przydatność dla niewidomych jest ograniczona. Na SightCity zapytałem też ludzi z Envision o ich plany co do przyszłości samych okularów, tj. czy mają już nową platformę sprzętową. Google Glass już od dość dawna nie jest dostępne. Niczego nowego się nie dowiedziałem. Envision na razie sprzedaje okulary od Google’a, które ma w magazynie i szuka nowego sprzętu, który spełni ich oczekiwania. To samo słyszałem rok temu, więc można odnieść wrażenie, że znalezienie zastępstwa dla Google Glass nie jest jak na razie priorytetem dla szefostwa Envision, albo że jest trudne.
Tuż przed oddaniem tego artykułu do redakcji Tyfloświata pojawiły się dwie wiadomości, o których nie można nie wspomnieć. Envision ogłosiło beta testy swojego asystenta, który nazywa się „Ally”. Nie jestem jeszcze w stanie nic o nim powiedzieć, poza tym, że głosy brzmią fajnie. Pojawiły się też plotki, że podczas Meta Connect zostanie ogłoszone, iż okulary Meta staną się platformą, na której będzie mogło działać oprogramowanie innych producentów. Czyli, że zamiast albo obok domyślnego oprogramowania okularów Meta można będzie mieć na nich np. Envision lub BeMyEye. Meta Connect jest zaplanowane na 25 września, więc gdy ukaże się ten artykuł, już będzie wiadomo.
Po miłej pogawędce z zespołem Envision (notabene obaj szefowie Envision mają na imię „Kathik” – był czas, gdy myślałem, że to jedna osoba) odwiedziłem konkurencję, czyli OrCam. No i teraz zaczynam najtrudniejszy fragment mojego artykułu, bo z OrCamem, a dokładnie to z OrCam MyEye (tak bowiem nazywa się flagowe urządzenie OrCama) mam duży problem.
Orcam MyEye
Rok temu na SightCity na stoisku OrCama niemiecki przedstawiciel firmy (lub dystrybutora) wiedział o MyEye niewiele. W tym roku niemiecki przedstawiciel wiedział jeszcze mniej. Innymi słowy nie dowiedziałem się niczego, poza tym, że są plany rozwoju i że OrCam do niektórych funkcji potrzebuje aplikacji na smartfonie. Miałem wrażenie, że pan na stoisku raczej nie chce sprzedać MyEye. I może to o nim dobrze świadczy, ale o tym za chwilę.
Większość informacji o najnowszej wersji MyEye, czyli MyEye 3 Pro mam z Internetu. Domyślam się, że OrCam jest znany większości czytelników „Tyfloświata”, ale kilka rzeczy warto przypomnieć, bo to fajna historia.
OrCam (nazwa „MyEye” pojawiła się później) był pierwszą dostępną na rynku pomocą rozpoznającą obraz i tekst, która była zintegrowana z okularami. Inaczej mówiąc były to pierwsze inteligentne okulary. W materiałach demonstracyjnych było sporo marketingu, ale urządzenie było bardzo pomocne dla słabo widzących i dość pomocne dla niewidomych. Mała kamerka (i elektronika) mocowana na zauszniku dowolnych okularów, która patrzy i podaje nam informacje: rozpozna twarz osoby z naszej bazy, rozpozna kolor, przeczyta tekst, rozpozna obiekt itd. Umiejętności MyEye rosły z wersji na wersję. Aby coś rozpoznać najlepiej było wskazać to palcem, dlatego słabowidzący mieli łatwiej. Ale np. rozpoznawanie twarzy lub gestów (zerknięcie na nadgarstek powoduje podanie godziny) odbywało się automatycznie. Zaletą OrCama było to, że wszystko działo się na urządzeniu. Żadne dane nie szły w chmurę. Dla większości użytkowników pewnie to nie ma znaczenia, ale jeśli pracuje się w firmie, która dba o bezpieczeństwo, na użycie okularów wysyłających obrazy w świat można nie dostać zgody. Zatem OrCam przez pewien czas był przełomowy. Robił więcej niż niektóre aplikacje, a był na okularach. Był też drogi. Teraz na rynku mamy dużo aplikacji, okulary Envision, okulary Ray-Ban Meta, różne tanie okulary z kamerkami, które mogłyby pracować z aplikacjami asystującymi i łatwo przewidzieć, że konkurencja będzie coraz większa.
Jak już pisałem, od pana na stoisku nie dowiedziałem się niemal niczego, ale na stronie OrCam mogę przeczytać, że najnowsza wersja MyEye korzysta z AI. Dokładnie to chodzi o możliwość wydawania poleceń dotyczących czytanego tekstu, np. mamy dokument i prosimy o odczytanie tytułu lub kwoty albo jeszcze czegoś innego. Przypomina to możliwość pytania o szczegóły czytanego tekstu, którą mamy w okularach Envision. To czego nie ma i czego brak zwraca uwagę, to opisywanie scen z użyciem AI opartej na dużych modelach językowych. Być może producent tym się na razie nie chwali. Interesującą rzeczą jest możliwość użycia MyEye jako powiększalnika współpracującego z dowolnym ekranem (niestety nie dokopałem się do informacji, czym jest „dowolny ekran” i jak wygląda połączenie). Tyle mogę napisać o MyEye, ale jest to wiedza teoretyczna. Samo urządzenie jest bardzo zgrabne i robi fajne wrażenie.
Jakiś czas temu, już po SightCity, rozeszła się informacja, że OrCam przestaje rozwijać MyEye, zwalnia ludzi i przerzuca się na pomoce dla głuchych i słabosłyszących. Pisały o tym m.in. izraelskie media. Potem zaczęło krążyć info, że OrCam owszem zwalnia, ale raczej chodzi o umowy z dystrybutorami, a sam MyEye nie będzie zamykany. Czyli nic nie wiadomo, choć ja akurat nie zdziwiłbym się, gdyby więcej prawdy było w pierwszej informacji. W czasach, gdy każdy ma dostęp do rozpoznawania obrazu, trudno jest konkurować.
NIIRA
Po takich klasykach jak MyEye i okulary Envision czas na coś mniej oczywistego. Okulary NIIRA hiszpańskiej firmy EyeSynth konwertują obraz z kamer na dźwięki. Nie mamy tu zatem rozpoznawania scen, obiektów, ludzi i podawania kierunku do obiektu, jak to jest w standardowych inteligentnych okularach, ale słyszymy szumy, które musimy sami zinterpretować. Producent podaje, że NIIRA jest w stanie oddawać dźwiękiem różnice do jednego milimetra, jednak zaznacza, że przy takiej dokładności zmiany dźwięku są bardzo subtelne. NIIRA to dość duże okulary ze słuchawkami kostnymi i sporym kontrolerem na kablu. Mamy dwa tryby pracy: tryb śledzenia i panoramiczny. W pierwszym okulary oddają dźwiękiem tylko tę przestrzeń, która jest przed nami, a w drugim mamy całościowy obraz. Zakres do pięciu metrów, ale można go skracać. Czy to działa? Działa.
Idea nie jest nowa. Nowa jest technologia. W zakamarkach archiwum „Tyflopodcastu” czytelnicy mogą znaleźć moje nagranie o K-Sonarze. Tamto urządzenie badało przestrzeń ultradźwiękami, a obraz przestrzeni przekazywało za pomocą słyszalnych dźwięków. K-Sonar wymagał słuchawek. NIIRA analizuje obraz za pomocą kamer, a słuchawki mamy kostne. O dziwo jakość przekazywanego dźwięku jest, jak na moje uszy, tj. kości, całkiem dobra. W okularach byłem w stanie wykryć otwarte drzwi i oczywiście ścianę. Testu drążka nie robiłem, bo usłyszenie takiej przeszkody wymaga doświadczenia z interfejsem, szczególnie że słyszałbym osobę trzymającą laskę. Urządzenie może być przydatne, ale nie dla mnie. Zanim wyjaśnię dlaczego, trzeba wspomnieć jeszcze o dwóch zaletach okularów NIIRA. Producent podaje, że dzięki użyciu lasera NIIRA działa w kompletnej ciemności. NIIRA ma też dostęp do zaawansowanej AI opisującej obrazy (nazwa tej AI nie jest podana), a więc mamy i obraz przetworzony na dźwięki i dostęp do opisów rzeczywistości, tak jak w innych okularach.
A dlaczego NIIRA mnie nie zachwyciła? Urządzenie jest duże. Bardziej kojarzyło mi się ze sprzętem do VR niż z okularami, a jeszcze dochodzi kontroler. Owszem, dzięki kontrolerowi, w którym jest bateria, mamy zasilanie przez dziesięć godzin, ale chodzenie z kablem i dużym kontrolerem w kieszeni mnie nie przekonuje. Przy innych okularach NIIRA sprawia raczej wrażenie prototypu, a nie końcowego urządzenia. Natomiast samą możliwość usłyszenia przestrzeni uważam za przydatną, choć takim rozwiązaniom nie wróżę przyszłości. Tak jak OCR wyparł Optacona, tak opis przestrzeni wyprze takie międzyzmysłowe konwertery. Uważam, że szkoda, ale nie mam złudzeń.
AngelEye Smart Reader
Inteligentne okulary pokazywała też chińska firma NextVPU. Firma ta od kilku lat ma w swojej ofercie produkt dla słabowidzących o nazwie AngelEye (głównie stacjonarny), a teraz stara się zrobić coś dla niewidomych. Pierwsza wersja AngelEye Smart Readera (tak nazwano urządzenie) to po prostu OCR dla języka angielskiego dostępny na okularach. W planach są dalsze funkcje, ale chyba też dużo zależy od zainteresowania. Same okulary są lekkie i robią trochę plastikowe wrażenie, ale np. Google Glass, którego używa Envision, też w dotyku solidnego wrażenia nie robi. Zresztą moduł AngelEye Smart Reader jest doczepiany do okularów, więc oprawki powinno dać się zmienić. Cena, jeśli znajdą się europejscy dystrybutorzy, ma być wyraźnie niższa od Envision i OrCam MyEye. NextVPU ma jedną dużą zaletę. Oni specjalizują się w chipach przetwarzających obraz (okulary to produkt obok ich głównej działalności), więc jeśli chodzi o przetwarzanie obrazu, mogą uzyskać więcej od innych. Zobaczymy.
BIEL SMARTGAZE
Pisałem, że na SightCity były cztery modele inteligentnych okularów. Dotyczy to okularów dla niewidomych. Chciałbym jednak jeszcze poświęcić kilka słów prototypowi okularów dla widzących. Produkt nazywa się BIEL SMARTGAZE i rozwija go firma Biel Glasses z Barcelony. Syn głównego inżyniera firmy ma widzenie tunelowe i okulary powstały z myślą o nim. W przypadku Biel Glasses można mówić o rozszerzonej rzeczywistości. Przez okulary widzimy normalny obraz, ale można go przetwarzać dopasowując parametry obrazu do wady wzroku użytkownika. Możemy też dostarczać dodatkowe informacje, np. strzałkę zwracającą uwagę użytkownika z widzeniem tunelowym, że po lewej lub prawej stronie znajduje się przeszkoda. Takie są plany. Trzymam kciuki, bo inżynier z Biel Glasses był bardzo zaangażowany i robił bardzo dobre wrażenie.
Jeśli nie okulary, to co?
Podobno co jakiś czas na liście dyskusyjnej „Typhlos” projektanci i producenci pomocy w orientacji krytykowani są za to, że swoje rozwiązania montują lub instalują w okularach. Przeciwnicy okularów argumentują, że wielu niewidomych nie nosi okularów oraz że jeśli ktoś nie widzi od urodzenia lub bardzo dawna, nie ma nawyku kierowania twarzy w kierunku jakiegoś obiektu i po prostu trudno jest takiemu użytkownikowi odpowiednio skierować kamerę. Jedno i drugie jest prawdą, ale na rynku są alternatywy dla okularów. Na SightCity od dwóch lat pokazywane jest urządzenie, które nosi się na ramionach. Biped albo NOA (sam producent używa tych nazw zamiennie) przypomina trochę poduszkę do spania w samolocie lub pociągu, tyle że jest płaski i nie jest miękki. Spoczywa na ramionach i karku. Urządzenie ma trzy kamery, przycisk, głośnik, choć zalecane jest użycie ze słuchawkami kostnymi. NOA działa też w nocy. Mamy tu detekcję przeszkód (sygnał dźwiękowy ostrzega nas o przeszkodzie), nawigację GPS i opisywanie obrazów.
Na SightCity 2023 biped.ai (tak, nazwę tej szwajcarskiej firmy pisze się z małej litery) pokazywał tylko obudowę, a w 2024 roku mieli już działające urządzenie. Sam wolę mniejsze pomoce w orientacji i uważam, że nos to bardzo dobre miejsce na elektronikę, ale potrafię wyobrazić sobie, że jeśli ktoś chce mieć sprzęt na spacer, który po prostu włoży na ramiona, do ręki weźmie laskę, i wyjdzie, to NOA może być dla niego. Producent mówi, że jego klienci chwalą sobie wygodę i prostotę urządzenia.
Ciekawostki
Na każdym SightCity są ciekawostki. Urządzenia, co do których można mieć wątpliwości, czy się sprawdzą, albo tak oryginalne, że zapadają w pamięć. Ich producenci często są bardzo zaangażowani. Niektórym się udaje, innym nie.
Z dawnych czasów świetnie pamiętam pana, który co roku pokazywał urządzenie o nazwie CityCane. Laska, w której rękojeści był detektor zielonego światła. Stawało się pod sygnalizatorem, podnosiło laskę do góry, trzymając za jej dół, tak by rękojeść była jak najbliżej świateł sygnalizatora i czekało aż laska zapiszczy sygnalizując nam, że zapaliło się zielone światło.
Rok temu była pani z prototypem specjalnej kamizelki dla niewidomych biegaczy. Kamizelka za pomocą kamery śledzi, czy nie zbaczamy z toru na bieżni.
Przez kilka lat pewna firma pokazywała buty z detektorami przeszkód. Buty miały bardzo wydłużone noski, w których były detektory.
W tym roku taką ciekawostką była obręcz z kamerą i elementami haptycznymi, które tworząc wzory na czole, oddawały przestrzeń przed użytkownikiem. Wrażenie nie było nieprzyjemne. Coś jak chłodne kulki ruszające się w górę i w dół. Rzecz jasna ruch był iluzją i raczej jakieś elementy chowały się i uwypuklały. Urządzenie nazywa się SuperBrain i robi go firma 7Sense z Tallina. Raczej nie da się w tym iść nie zwracając powszechnej uwagi. Nie da się też włożyć okularów i słuchawek (chyba że dousznych), bo choć SuperBrain jest obręczą, to czułem się jak w czapie. Przedstawiciel producenta mówił, że SuperBrain jest pomyślany dla ośrodków rehabilitacyjnych. Informacje na stronie 7Sense jednak sugerują, że firma liczy na tzw. zwykłych klientów.
Było o głowie, to teraz o stopach. Firma TagFree z Seulu pokazywała bezbarwne farby, które można wykorzystać do znakowania przestrzeni. Każda farba odbija światło trochę inaczej. Mieli takich farb chyba około dwudziestu. Malujemy farbą X podłogę przed wejściem do budynku, a farbą Y podłogę przed recepcją. Użytkownik ma buty z sensorem. Gdy stanie na podłodze pomalowanej farbą, usłyszy np. „wejście” lub „recepcja”. Wszystko oczywiście wymaga wprowadzenia znaczników do systemu, aplikacji na smartfona i specjalnych butów. Buty w zasadzie są zwykłe (typ adidasy), tyle że fragment podeszwy pośrodku buta jest wycięty i mamy tam optyczny sensor.
Pozostając przy barwach, a odchodząc od orientacji: Panie z firmy Another Day (też Korea) pokazywały pachnące barwniki. Można było takim barwnikiem lub kilkoma oblać plastikową figurkę zwierzątka i mieć wielozmysłową radość.
Na koniec
Pozostając przy radości, z radością jadę na SightCity, i z radością je opuszczam, bo targi są dość męczące. Dużo ludzi, dużo sprzętu, często dużo czekania, by z kimś porozmawiać lub coś obejrzeć. W nowej lokalizacji i tak jest lepiej, bo w Sheratonie przy lotnisku, w dużych salach, panował ogłuszający hałas i ja, a jestem wytrzymały, musiałem robić częste przerwy, szczególnie gdy odwiedzałem targi sam. W Kap Europie jest przyjemniej.
Na SightCity brakowało mi dwóch rzeczy. Okularów .lumen (kolejna nietypowa pisownia), które nie są okularami, ale tak je wszyscy nazywają oraz Glide’a. O tym ostatnim będzie w następnym artykule, do którego już zapraszam. Było jeszcze kilka rzeczy, o których chciałoby się napisać, np. Tactonom firmy Inventivio, który wreszcie działał, ale artykuł zrobił się strasznie długi, a ja go jeszcze muszę przeczytać przed wysłaniem do redakcji.
Nowoczesne pomoce w orientacji to świetna sprawa. Nie są dla każdego, ale, wbrew krytycznym opiniom, wielu pomagają. Fajnie, że ten rynek jednak się rozwija.