TYFLOŚWIAT

KWARTALNIK

NR 4 (29) 2015

 

WYDAWCA

Fundacja Instytut Rozwoju Regionalnego

ul. Wybickiego 3a, 31-261 Kraków

http://www.firr.org.pl

tel.: (+48) 12 629 85 14; faks: (+48) 12 629 85 15

e-mail: biuro@firr.org.pl

Organizacja Pożytku Publicznego

Nr konta 77 2130 0004 2001 0255 9953 0005

 

Utilitia sp. z o.o.

ul. Jana Pawła II 64

32-091 Michałowice

http://www.utilitia.pl

tel.: (+48) 663 883 600

e-mail: biuro@utilitia.pl

 

Podmiotem odpowiedzialnym za publikację treści merytorycznych jest Fundacja Instytut Rozwoju Regionalnego

Podmiotem odpowiedzialnym za działalność reklamową jest Utilitia sp. z o.o.

 

REDAKTOR NACZELNY

Joanna Piwowońska

tel. kom. (+48) 663 883 332

e-mail: joanna.piwowonska@firr.org.pl

 

INTERNET

www.tyfloswiat.pl

 

SKŁAD KOMPUTEROWY

Arto Design

Joanna Nowak

 

FOTOGRAFIA NA OKŁADCE

Sergey Nivens

 

DRUK

K&K

 

DZIAŁ REKLAMY

e-mail: reklama@utilitia.pl

 

Redakcja nie odpowiada za treść publikowanych reklam, ogłoszeń, materiałów sponsorowanych i informacyjnych.

 

Nakład dofinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

Redakcja zastrzega sobie prawo skracania, zmian stylistycznych i opatrywania nowymi tytułami materiałów nadesłanych do druku. Materiałów niezamówionych nie zwracamy.

 

Wszystkie teksty zawarte w tym numerze czasopisma Tyfloświat dostępne są na licencji Creative Commons Uznanie autorstwa 3.0 Polska. Ponownie rozpowszechniany utwór, dostępny na tej licencji, musi zawierać następujące informacje: imię i nazwisko autora tekstu, nazwę czasopisma oraz jego numer. Zdjęcia zawarte w czasopiśmie chronione są prawem autorskim i ich przedruk wymaga zgody autora.

Spis treści

BrainPort

Rafał Charłampowicz dzieli się z Czytelnikami wrażeniami z testów i szkolenia dla użytkownika BrainPort-u, innowacyjnego urządzenia, służącego do obrazowania otaczającej nas przestrzeni i przetwarzania pozyskanych informacji na impulsy elektryczne, umożliwiające odbiór wrażeń wzrokowych osobom niewidomym.

Książki mówione

Joanna Witkowska zastanawia się, czy zmiana nomenklatury związanej z książkami w wersji audio to tylko trend lingwistyczny czy raczej objaw zmian w holistycznym podejściu do tematu.

Podsumowanie roku

Michał Kasperczak, tradycyjnie już, dokonuje przeglądu najważniejszych wydarzeń z polskiego i światowego rynku technologii wspierających, dedykowanych osobom z dysfunkcjami wzroku, oraz mainstreamowych narzędzi, tworzonych w duchu uniwersalnego projektowania.

Narzędzia wspomagające tłumaczenie

Natalia Hedlund stara się odpowiedzieć Czytelnikom na pytanie, czy osoba z dysfunkcją wzroku, niewidoma czy słabowidząca, może realizować się zawodowo jako tłumacz języka obcego.

Beacony

Tomasz Koźmiński, w oparciu o osobiste i zawodowe doświadczenie, opowiada o możliwościach, jakie daje zastosowanie beaconów w otaczającej nas przestrzeni.

Rewolucja brajlowska

Damian Przybyła próbuje dochodzić przyczyn wycofywania się osób niewidomych z wykorzystywania brajla w życiu codziennym. Czy można ten stan rzeczy odwrócić? Jak popularyzować alfabet brajla w dobie gadających komputerów i czy to w ogóle ma jeszcze sens?

Windows 10

Paweł Rydygier stara się odpowiedzieć na pytanie, czy niewidomy lub słabowidzący użytkownik systemu operacyjnego spod znaku Okienek może bezpiecznie zainstalować promowany przez firmę z Redmont system Windows 10 i czy wykorzystywane przez niego aplikacje dostępnościowe będą pomocne w pracy z Dziesiątką.

Windows 10 mobile

Mateusz Duc prezentuje nowy, system prosto ze stajni Microsoftu. Czy może być alternatywną dla urządzeń z Androidem czy spod znaku nadgryzionego

jabłuszka?

BrainPort

Rafał Charłampowicz

BrainPort, produkowany przez amerykańską firmę Wicab, należy do tej kategorii urządzeń poprawiających jakość życia osób z dysfunkcją wzroku, które, gdy się o nich usłyszy, wzbudzają żywą reakcję. Urządzenie w swej obecnej postaci jest rozwijane od kilku lat, ale do tej pory, mieszkając w Polsce, można było o nim wyłącznie poczytać lub obejrzeć filmiki na YouTube. Co więcej, doniesienia, które pojawiały się od czasu do czasu w polskich mediach, były często przerysowane i koncentrowały się na sensacyjnych szczegółach i nietypowości interfejsu. Z obcojęzycznymi mediami jest zresztą podobnie, dlatego, szukając informacji o BrainPorcie, trzeba się przekopywać przez materiały o małej przydatności, a czasem wręcz przeczące jedne drugim.

Podczas tegorocznej konferencji "Reha for the Blind in Poland" polscy niewidomi mogli się wreszcie sami zapoznać z BrainPortem. Zapoznawanie się było pośrednie, ponieważ ze względu na specyfikę użycia, BrainPort nie był dostępny do testów. Można jednak było porozmawiać z polskim dystrybutorem (NZOZ Optimed), a widzący przewodnicy mogli opowiedzieć zainteresowanym, co widzi kamera urządzenia, z której obraz był wyświetlany na monitorze. Można też było dotknąć atrapy urządzenia, by poznać jego kształt i rozmiary. BrainPort spodobał się na "Reha" i został wyróżniony "Idolem 2015" w kategorii "Produkt dla niewidomych".

Ja miałem tę dodatkową przyjemność, że tuż przed "Reha" zostałem przeszkolony z posługiwania się BrainPortem. Rozwój urządzenia obserwuję od lat, dlatego, gdy tylko dowiedziałem się, że BrainPort jest w Polsce, skontaktowałem się z dr. Jackiem Molickim, który sprowadził BrainPort do Warszawy, i poprosiłem o możliwość osobistego zapoznania się z urządzeniem. Odbyłem błyskawiczne, trzydniowe szkolenie. Było to właściwie liźnięcie BrainPortu, jednak na tyle intensywne, że co nieco mogę o swoich wrażeniach i o samym urządzeniu napisać. Ci, którzy rozmawiali ze mną na "Reha", gdzie byłem gościem dr. Jacka Molickiego i - jako osoba niezależna, niezwiązana z firmą - odpowiadałem na pytania bardziej dociekliwych odwiedzających, znajdą tutaj więcej szczegółów dotyczących BrainPortu i samego szkolenia.

Jak wygląda BrainPort?

BrainPort to właściwie trzy połączone ze sobą urządzenia. Na głowie nosimy okulary z ciemnymi szkłami. Na mostku okularów, czyli na górze, pośrodku, znajduje się kamera wystająca na 3 cm. Od tyłu okulary zabezpieczone są czymś w rodzaju cienkiej opaski. Jest to dobrze pomyślane, bo nie ma żadnej klamry, tylko magnes w lewym zauszniku, tak więc przykładamy końcówkę opaski do zausznika i okulary są zabezpieczone. Z przodu, na lewym zauszniku znajduje się pokrętło, którym przełączamy BrainPort pomiędzy patrzeniem wprost a patrzeniem w dół. Jest to wygodne, gdy pracujemy np. przy stole. Kamera nie przesuwa się. Zmienia się tylko nachylenie luster wewnątrz kamery.

Okulary są połączone krótkim, płaskim kablem z tzw. matrycą językową, czyli elementem, który kładziemy na języku. Matryca to płaski, gładki prostokąt (właściwie niemal kwadrat) o rozmiarach 30x33 mm. Urządzenie trzyma się na języku całkiem wygodnie. Czasem trzeba poprawić ułożenie, ale generalnie nie odczuwałem żadnego dyskomfortu. Z rzeczy, które mogą towarzyszyć używaniu BrainPortu, zauważyłem u siebie wyłącznie zwiększoną produkcję śliny. Krótki kabel łączący matrycę z okularami pozwala na jej wyjęcie z ust i swobodne prowadzenie rozmowy bez potrzeby zajmowania się matrycą. Kabel przytrzymuje ją w okolicy naszego lewego policzka, na wysokości brody.

Kontroler, czyli trzeci element zestawu, zaprojektowano mniej konsekwentnie. Jego wymiary to 13x5x3 cm, a więc nie jest to drobna rzecz. Wielkość kontrolera częściowo usprawiedliwia to, że zawiera on baterię zasilającą cały zestaw. Bateria starcza na około trzy godziny pracy i jest wymienna. W zestawie dostajemy dwie baterie i specjalną ładowarkę. Osłonę komory baterii przytrzymuje kolejny magnes, a więc wymiana baterii nie wymaga użerania się z klapką, co niestety jest częste w przypadku różnych urządzeń.

Przyciski na kontrolerze są wyjątkowo małe. Ten właśnie element uważam za niekonsekwencję designu, bo miejsca jest dużo. Cztery główne przyciski umieszczone są  na przedniej, frontowej ściance kontrolera, w układzie rombu. Znajdują się na godzinie 12, 3, 6 i 9. Niżej, albo raczej bliżej siebie, mamy dwa dodatkowe przyciski. Na długich, bocznych ściankach kontrolera umieszczono po jednym niewielkim pokrętle. Jedno z nich reguluje zoom, a drugie intensywność sygnału. Wciśnięcie pokrętła zoomu powoduje powrót do ustawień domyślnych, a wciśnięcie pokrętła intensywności odwraca sposób prezentowania czerni i bieli. Kontroler ma ponadto wbudowany głośnik, z którego słychać komunikaty towarzyszące naciskaniu przycisków. Na tylnej ściance kontrolera (tej najbliżej nas) znajduje się przycisk włączający i wyłączający BrainPort. Kontroler jest połączony kablem z lewym zausznikiem okularów.

Jak działa BrainPort?

BrainPort zamienia obraz z kamery na bodźce elektryczne. Matryca językowa zawiera 400 mikroelektrod, a więc naszym ekranem jest kwadrat 20x20 punktów. Czarno-białe obrazy z kamery zamieniane są na ten 400-punktowy obraz. Tam, gdzie punkt jest biały, czujemy elektrostymulację, a tam, gdzie punkt jest czarny, będzie gładko, czyli bez żadnego prądu. Jeżeli za pomocą BrainPortu, z wnętrza pokoju spojrzymy w okno, to na języku zapewne poczujemy kwadrat. To, co kamera rozpozna jako białe, czyli światło słońca wpadające przez szybę, zostanie zamienione na bodźce elektryczne, a wszystko dookoła ramy okiennej będzie rozpoznane jako czarne. Ten przykład jest pewnym uproszczeniem, ale dobrze pokazuje, jak wyglądają obrazy z BrainPortu. Oczywiście tego, że patrzymy na okno, a nie np. na obraz Marka Rothko, musimy sami się domyślić. Możemy też po prostu dokładniej się rozejrzeć. O tych zagadnieniach będę pisał w dalszej części artykułu.

Elektrostymulacja to jedna z tych kwestii, o które najczęściej pytają ludzie zainteresowani BrainPortem. Wrażenie (piszę to wyłącznie w swoim imieniu) nie jest ani przyjemne, ani nieprzyjemne. Nie potrafię go do niczego porównać, bo to odczucie bardzo specyficzne. Intensywność bodźców można bardzo dokładnie regulować, więc jeżeli sygnał jest za słaby lub za silny, wystarczy przekręcić pokrętło w stosowną stronę. Tak więc w moim przypadku nawet dłuższe korzystanie z BrainPortu nie wiązało się z negatywnymi odczuciami. Bodźce elektryczne odbierałem jako neutralne.

Pisząc o działaniu BrainPortu, trzeba wspomnieć jeszcze o jednej rzeczy, która budzi emocje i na której często koncentrują się media. Badanie z użyciem PET (pozytonowa tomografia emisyjna) wykazało, że u niewidomych, którzy odbyli pełne szkolenie, podczas używania BrainPortu aktywność wykazuje kora wzrokowa, czyli ta część mózgu, która odpowiada za odbiór wrażeń wzrokowych. Dodatkowo niektórzy użytkownicy BrainPortu mówią, że doznają zaawansowanej wizualizacji bodźców z matrycy językowej, czyli występuje u nich coś w rodzaju bardzo prymitywnego widzenia. Nie mogę się odnieść do tego aspektu pracy z BrainPortem, ponieważ moje szkolenie trwało zaledwie około ośmiu godzin. Wrażenia, których doznawałem były czysto czuciowe. Obrazy odbierałem jako swoistą grafikę dotykową na powierzchni języka. Swoje wrażenia podobnie opisują bohaterowie filmów na portalu YouTube. Ja przynajmniej nie trafiłem na taki, w którym ktoś mówi, że dotykowi towarzyszą wrażenia wzrokowe lub podobne do wzrokowych. Nie znaczy to oczywiście, że informacje o wizualizacjach są fikcją. Nie mam powodu tak przypuszczać. Warto natomiast mieć świadomość, że zjawisko jest na tyle rzadkie, że nie należy go oczekiwać i na nie liczyć. BrainPort to dotykowy obraz na języku i to samo w sobie daje duże możliwości.

Szkolenie: dzień pierwszy

Moje szkolenie, jak wspominałem, trwało trzy dni i miało charakter przyśpieszony. Pierwszego dnia pracowaliśmy przez około dwie godziny. Prowadzący szkolenie, dr Jacek Molicki i mgr Izabela Wyrwas, po zapoznaniu mnie z pomieszczeniem, w którym się znajdowaliśmy, opisali mi działanie BrainPortu oraz ewentualne doznania, które mogą towarzyszyć jego używaniu. Do najważniejszych wrażeń mogących sprawiać dyskomfort należą zwiększona produkcja śliny, odruchy wymiotne, wrażenie pieczenia, powidoki na języku, ból karku i zmęczenie. Ja musiałem częściej przełykać ślinę. Miałem też wrażenie mrowienia na języku już po zakończeniu pracy z BrainPortem, ale te powidoki szybko mijały i nie sprawiały dyskomfortu, np. nie zaburzały innych wrażeń.

Potem zapoznano mnie z funkcjami urządzenia. Najważniejsze to: zmiana kontrastu (standardowy lub zwiększony kontrast), zoom (pole widzenia od 3 do 69 stopni), zmiana intensywności elektrostymulacji, odwracanie pokazywania barw (bodźce oznaczają czarne, a nie białe) oraz przełączanie pomiędzy patrzeniem wprost i w dół. Dowiedziałem się też oczywiście, jak włączyć i wyłączyć samo urządzenie. Naciskaniu wszystkich przycisków towarzyszy anglojęzyczny komunikat. Tylko włączanie i wyłączanie urządzenia jest anonsowane dźwiękiem. Nieudźwiękowione są zoom i intensywność, czyli pokrętła. Przypuszczam, że zrobiono to celowo, by użytkownik nie koncentrował się na konkretnych wartościach, ale na doznaniach na języku, jednak moim zdaniem informacja o aktualnej wielkości pola widzenia byłaby przydatna.

Podczas szkolenia trenerzy mieli na komputerze dwa podglądy tego, co widzi BrainPort. W jednym oknie widoczny był obraz z kamery, a w drugim 400-punktowy obraz, który trafia na język użytkownika. Komputer komunikował się z BrainPortem poprzez WiFi udostępniane przez BrainPort. Dzięki tej aplikacji instruktorzy mogli łatwo pokierować mną tak, bym uchwycił kamerą dany obiekt i skupił się na jego rozpoznaniu. Program do komunikacji dostajemy wraz z BrainPortem, zatem możemy też potem ćwiczyć z kimś w domu.

Każdorazowo pracę z BrainPortem rozpoczyna się od tzw. testu. Po naciśnięciu stosownego przycisku, urządzenie wysyła swoisty sygnał kontrolny na matrycę językową, jednak my jeszcze nic nie czujemy, ponieważ początkowe ustawienie intensywności wynosi zero. Kręcąc pokrętłem, wzmacniamy intensywność i w pewnym momencie zaczynamy czuć na języku przemieszczającą się pionową linię. Linia przesuwa się skokami z lewej w prawo. Dopóki nie zrobimy testu, urządzenia nie da się przełączyć w tryb prawdziwej pracy. Moje pierwsze ćwiczenie polegało na sygnalizowaniu uderzeniami dłonią w stół, gdy poczuję linię na języku. Musiałem np. stukać, gdy linia pojawi się na pozycji pierwszej lub trzeciej. Generalnie chodziło o nabranie doświadczenia w wyczuwaniu sygnału i przyzwyczajenie się do elektrostymulacji.

Następnie przeszliśmy do oglądania. Na czarnej powierzchni (był to czarny materiał zawieszony na ścianie) trenerka umieściła pierwszy kształt, który miałem rozpoznać. Na języku poczułem pionową kreskę. Patrzyłem na wąski, prostokątny kawałek styropianu, ale tego dowiedziałem się oczywiście, dopiero gdy dotknąłem obiektu. Moje zadanie polegało teraz na takim ruszaniu głową, by oglądany obiekt znalazł się dokładnie w centrum, czyli na środku mojego języka.

Styropianowa kreska została następnie zawieszona skośnie, a ja znów musiałem rozpoznać kształt. W pierwszej chwili nie byłem pewny, czy widzę skośną linię, czy raczej dwa punkty. Brało to się z braku wprawy i z tego, że oczekiwałem zmiany obiektu, nie skupiając się na samych doznaniach. Gdy już rozpoznałem, że to skośna linia, miałem narysować kształt ręką w powietrzu i tu wyszło, że źle widzę. Linia szła od góry z lewej w prawo, a ja pokazywałem od prawej w lewo. Z nieznanych sobie powodów założyłem, że góra obrazu to czubek języka, a dół, to miejsce głębiej na języku. Jest to może zgodne z intuicją, bo tak oglądamy obraz na kartce, ale kompletnie nielogiczne w przypadku języka. Tych, dla których rzecz nie jest jeszcze jasna, zachęcam do wyobrażenia sobie, że na języku kładą sobie karteczkę z brajlowską literą "p". Góra litery znajdzie się na środku języka, a dół na czubku języka. Przełączenie się na poprawne postrzeganie obrazu zajęło mi trochę czasu. Jeszcze następnego dnia musiałem chwilami się zastanawiać, gdzie góra, a gdzie dół. Od dr. Molickiego dowiedziałem się, że osoby niewidome od urodzenia często szybciej radzą sobie z BrainPortem od tych, które straciły wzrok. Być może powodem tego zjawiska jest właśnie brak takich wzrokowych przyzwyczajeń i oczekiwań.

Po kilku ćwiczeniach, polegających na rozpoznaniu ułożenia linii, przeszliśmy do zadań związanych z obiektami na stole. W tym celu musiałem przełączyć okulary na patrzenie w dół. Funkcja przełączania kąta patrzenia jest bardzo wygodna, bo inaczej trzeba by bardzo pochylać głowę, by zobaczyć obiekty znajdujące się tuż przed nami. Na języku poczułem białe koło. Piszę "koło", a nie "okrąg", ponieważ na całej kolistej powierzchni czułem bodźce. Dookoła było gładko, gdyż stół był wyłożony czymś ciemnym. Gdy opisałem kształt mogłem dotknąć obiektu. Była to średniej wielkości piłka. Znów robiliśmy ćwiczenie z nakierowywaniem kamery na obiekt. Zapoznałem się też z zoomem, który przybliżał lub oddalał obraz oraz z funkcją odwrócenia pokazywania kolorów. Przy odwróconym pokazywaniu czerni i bieli na języku czułem okrągłą, gładką dziurę pośrodku kwadratu pełnego elektrycznych bodźców. Następnie instruktorzy dokładali piłki, mniejsze i większe, oraz inne obiekty, np. kółko, kubek i opisywaną już styropianową linię, a ja miałem rozpoznawać, gdzie leżą i jak różnią się od siebie wielkością i kształtem. Ćwiczyliśmy tak na trzech obiektach na stole. Na koniec musiałem, bez dotykania stołu odnaleźć piłki i wrzucić je do kubka, którego też nie wolno było mi dotknąć. To ćwiczenie było bardzo ważne, gdyż chodziło w nim o wyrobienie sobie koordynacji wzrokowo-ruchowej. Było dość trudne, ponieważ gdy w pole widzenia wchodzi nasza ręka to w pewnym momencie zaczyna ona zasłaniać obiekt, który chcemy chwycić. Czujemy zatem plamę naszej ręki zbliżającą się do koła, czyli piłki aż w pewnym momencie dochodzi do zaćmienia piłki przez dłoń. Jeżeli piłka jest znacznie mniejsza od dłoni, trzeba zapamiętać, gdzie leżała piłka nim ją zasłoniliśmy ręką. A potem, w podobny sposób, trzeba trafić nad kubek i wrzucić do niego piłkę. Świetne i wymagające ćwiczenie. Pisałem o "plamie dłoni" i można by odnieść wrażenie, że kształt dłoni nie jest rozpoznawalny. To nie jest tak. Dłoń ze złączonymi palcami będzie widziana jako owal. Oczywiście, o ile nie patrzymy na odciętą dłoń, widzieli będziemy jeszcze przedramię jako jej przedłużenie. Jednak, jeżeli rozłożymy palce, będzie można je zauważyć jako rozszerzenia głównej bryły. Dużo zależy od tego, jak patrzymy. Wrzucanie piłki do kubka było ostatnim ćwiczeniem tego dnia.

Szkolenie: dzień drugi

Drugiego dnia pracowaliśmy przez cztery godziny. Najpierw było krótkie powtórzenie ćwiczeń z poprzedniego dnia. Potem zaczęliśmy rozpoznawanie liter. Litery miały wielkość dwóch dłoni. Były umieszczane albo przede mną (na ścianie), albo na stole. Z siedmiu lub ośmiu pokazywanych mi liter bez problemu rozpoznałem "l". Z innymi miałem mniejsze lub większe trudności, mimo, że pamiętam, jak te litery wyglądają. Dobrym przykładem jest "O", które jest po prostu wydłużonym kółkiem. Niby łatwo je rozpoznać, ale przestrzeń w środku "O" była na tyle wąska, że nie byłem pewien, czy pośród bieli bodźców czuję gładkie. Gdy już zapoznałem się z literami, ponowne rozpoznanie ich szło mi znacznie łatwiej i byłem w stanie odczytać ułożony dla mnie wyraz. Czytanie tekstów w ten sposób jest trudne, ale użytkownicy Optaconów są dowodem na to, że to głównie kwestia wprawy i determinacji. Wyobrażam sobie, że tą techniką da się odczytać napis lub numer na budynku. Tekst, np. tytuł książki też powinien być do odczytania, ale nie sprawdzałem.

Kolejnym ćwiczeniem była gra w "papier, kamień, nożyce". Najpierw dr Molicki wprowadził mnie w zasady tej gry, bo ich nie znałem. Graliśmy dość skutecznie, choć miewałem problemy. "Kamień", czyli zaciśnięta pięść, dawał się łatwo odróżnić, natomiast "papier" (dłoń z rozłożonymi palcami) i "nożyce" (dwa palce rozsunięte) czasem mi się myliły.

Po grze, w ramach przerwy, zajęliśmy się moim tabletem. Ciekawiło mnie, w jakim stopniu będę mógł ocenić to, co dzieje się na ekranie mojego Kindle Fire HD. Położyliśmy włączony tablet na białej kartce, by zwiększyć kontrast. Ciemny tablet czułem jako gładki prostokąt na większym, elektrostymulującym prostokącie. Dostosowałem zoom tak, by tablet zajął całą matrycę. Po włączeniu tabletu cały prostokąt znów się zaświecił. Na ekranie było dużo jasnego, więc przełączyłem sposób pokazywania kolorów. Teraz jako bodźce odbierałem to, co jest ciemne. Było całkiem nieźle. Nie próbowałem odczytywać napisów, ale czułem dokładnie, gdzie leżą poszczególne ikony i jak zmienia się wygląd ekranu, gdy np. otwieram książkę. Poznawczo jest to coś zupełnie innego, lepszego od wodzenia palcem po ekranie dotykowym, gdy screenreader podaje nazwy ikon. Przy oglądaniu BrainPortem po prostu widzi się (w znaczeniu "dotyka"), jak to wygląda. I w przeciwieństwie do grafiki dotykowej wiemy, że czujemy to, na co właśnie patrzymy. W tym teście nie chodziło mi jednak o doznania estetyczno-emocjonalne. Chciałem sprawdzić możliwości praktycznego zastosowania BrainPortu w sytuacjach, gdy nasz komputer, tablet lub smartfon milknie, a my nie wiemy, co się dzieje. Jeżeli urządzenie się aktualizuje, lepiej nie wyłączać, jeżeli się zawiesił, trzeba wyłączyć, a jeśli jest wyłączony lub się restartuje, to lepiej nie naciskać nerwowo włącznika. Każdy niewidomy to zna i każdy ma z tym problem, a gdy pracuje się w IT, to problem bywa duży. Z mojego testu na tablecie wynika, że BrainPort może być pomocny w takich sytuacjach. Daje możliwość spojrzenia na ekran.

Po przerwie ćwiczyliśmy już na stojąco. Na tablicy umocowano piłkę (była chyba na rzep), a ja miałem najpierw rozpoznać kształt, a następnie podejść i chwycić ją ręką. W ćwiczeniu chodziło o nauczenie się oceniania malejącej odległości od obiektu. Ćwiczyliśmy koncentrowanie cyfrowego wzroku na oglądanej rzeczy.

Następnie oglądałem ściany i drzwi. Musiałem iść wzdłuż ściany nie dotykając jej. Kierowałem się różnicą w kolorze ściany i podłogi. Oglądanie drzwi z pewnej odległości było bardzo ciekawe. Drzwi były szklane, więc czułem na języku prostokąt wyznaczony przez framugi. A pośrodku drzwi czułem klamkę, jako cienką kreskę. Było to dość niesamowite wrażenie, głównie dlatego, że czułem to, przed czym stałem. Poczuć obraz to coś zupełnie innego od dotykania obiektu. Oba sposoby poznawania świetnie się uzupełniają.

A potem oglądałem ludzi. Instruktorka stała kilka metrów przede mną i machała do mnie ręką. Widziałem ją jako kształt z przestrzeniami i zwężeniami. Gdy już wiedziałem od dr. Molickiego, że stoi i że macha, potrafiłem powiedzieć, którą ręką macha. To ćwiczenie, na moją prośbę, powtórzyliśmy gdy pojawiła się moja towarzyszka. Fajnie było "zerknąć" na kogoś bliskiego.

Po machaniu wyszliśmy na ulicę. Moim zadaniem było chodzenie po chodniku wzdłuż trawnika. Trawnik stanowił kontrast dla chodnika, a ja miałem iść w miarę prosto. Szło nieźle, ale miałem kłopot, gdy kontrast psuły późnojesienne liście na chodniku. Przypuszczam jednak, że w sporej mierze takie orientowanie się to kwestia praktyki.

Kolejnym, bardzo ciekawym ćwiczeniem było przechodzenie na pasach. Pasy czułem jako jasne kreski na ciemnej powierzchni, czyli tak właśnie, jak wyglądają pasy. Mogłem kontrolować wzrokowo, czy nie schodzę z pasów oraz czy wszedłem już na chodnik. Na tym zakończyliśmy ćwiczenia. Było około zero stopni, a robiło się coraz zimniej.

Szkolenie: dzień trzeci

Ostatniego dnia pojechaliśmy na boisko szkolne. Było zimno, -2 lub -3, ale nie wpływało to na pracę BrainPortu. Chodziłem wzdłuż linii wymalowanych na murawie. Linię przez większość czasu czułem wyraźnie na języku i mogłem iść swobodnie. Gdy linia przebiegała dokładnie przez środek języka, wiedziałem, że idę prosto. Gdy się przesuwała, oznaczało to, że schodzę z trasy. Zawsze też mogłem się rozejrzeć, by odnaleźć szlak. Najbardziej uważać trzeba było na zakrętach. Widziany, tj. odczuwany obiekt był w rzeczywistości jakieś pół metra przede mną. Zatem, gdy widziałem, że linia skręca o dziewięćdziesiąt stopni, musiałem dać jeszcze krok do przodu i dopiero skręcić. Skręcając nie widziałem linii, bo nie było jej już w polu widzenia. Znajdowała się za blisko. Ćwiczenie więc polegało w praktyce na odnajdowaniu obiektu i nie traceniu go z oczu, oraz na właściwym ocenianiu dystansu. Szło mi to całkiem dobrze. Następnym obiektem, który miałem odnaleźć i podążyć za nim, była instruktorka. Pani Iza miała na sobie odblaskową kamizelkę, by ułatwić mi to zadanie. To też wychodziło nieźle. Trenerka szła przede mną często skręcając, a ja za nią krok w krok. Problemem czasem było słońce. BrainPort widział obiekty odbijające się w blasku słońca oraz samo słońce i wrzucał to na język. W takich sytuacjach obraz był zaburzony, bo nie tylko kamizelka pani Izy była jasna.

Po ćwiczeniach na boisku zajęliśmy się oglądaniem. Najciekawsze dla mnie były dwa obiekty. Fajnie w BrainPorcie wyglądała tablica do koszykówki. Czułem duży prostokąt, w nim mniejszy prostokąt w kontrastowej barwie, a na dole tego prostokąta jeszcze kilka punktów, które zapewne były obręczą. Oczywiście wiem, jak wygląda tablica do kosza, ale, znów, niesamowite było to, że mogłem "zobaczyć", jak wygląda ta konkretna tablica.

Drugim fascynującym obiektem był po prostu piętrowy budynek. Na języku czułem rzędy małych prostokątów okien. Daliśmy zoom na jedno z tych okien i na języku poczułem duży prostokąt okna oraz kreski listew dzielących okno na kwatery. Obraz był, jak dla mnie, bardzo dokładny. Na tym zakończyliśmy szkolenie.

Podsumowanie

Moje szkolenie z BrainPortem było bardzo krótkie i miało charakter demonstracyjny, dlatego przedstawiona powyżej opinia jest z pewnością bardzo subiektywna. BrainPort zrobił na mnie dobre wrażenie. Dla siebie widzę następujące zastosowania:

1.     W domu, gdy nie mam nikogo, by pomógł mi rozwiązać problem wymagający wzroku. Najlepszy przykład to opisywana przeze mnie sytuacja, gdy komputer lub smartfon milknie, a ja nie wiem, co się dzieje. Takich sytuacji jest trochę i moim zdaniem BrainPort może być bardzo pomocny.

2.     Zwiedzanie i oglądanie. BrainPort jest moim zdaniem fantastycznym narzędziem do zwiedzania i oglądania. Mając przewodnika, który pomoże nam szybko zwrócić kamerę w odpowiednią stronę i opisze, co widzimy, możemy zwiedzać w sposób dotychczas niemożliwy. Przypuszczam, że za pomocą BrainPortu można poczuć, jak wyglądają i jak są ustawione kolumny i niektóre posągi, jak wyglądają okna, np. czy i jakie mają łuki oraz zapoznawać się z innymi detalami architektonicznymi. Ba, powinno dać się nawet "zobaczyć", jak rozwieszone są obrazy na ścianach. Generalnie, to co ma odpowiedni kontrast powinno być widoczne. Każdy, kto lubi zwiedzać, wie, że sam opis to nie wszystko. Poświęcam tyle miejsca zwiedzaniu, bo moim zdaniem jak na razie nikt nie wymyślił lepszego narzędzia. Ograniczeniem technicznym jest to, że producent nie oferuje aplikacji na urządzenia mobilne, a trudno oczekiwać, by nasz przewodnik chodził z laptopem. Mam jednak nadzieję, że turystyczny potencjał BrainPortu zostanie zauważony i stosowna aplikacja zostanie napisana.

3.     Orientacja przestrzenna. Ten aspekt używania BrainPortu zostawiłem na koniec, bo najtrudniej mi go ocenić. Moje szkolenie było krótkie i nie miałem okazji chodzić w rzeczywistych warunkach. Jestem przekonany, że BrainPort może być użyteczny na trasach, które znamy. Z BrainPortem szybciej rozpoznamy obiekty na drodze. Jeżeli np. spodziewam się gdzieś drzwi, to kamerą zauważę je szybciej niż szukając laską. Jeżeli wiem, że na chodniku często parkują samochody, to czując owalny, nieruchomy kształt na języku, domyślę się, że to samochód i go ominę. Podobnie może być z innymi rzeczami. Wypatrzymy je szybciej. No i, jak pisałem, możemy czuć pasy na przejściu. Z poruszaniem się w obcych miejscach może być trudniej. Jeżeli nie wiemy, czego się spodziewać, raczej się nie domyślimy. To przecież stały problem użytkowników grafiki dotykowej. Z drugiej strony, inaczej niż w przypadku niepodpisanej grafiki, dostajemy kontekst dźwiękowy, zapachowy, dotykowy itd. Na pewno problemem mogą być odblaski, bo obraz wtedy radykalnie się zmienia. Na znanych trasach domyślimy się, że to odbite światło, ale w obcym miejscu to może być trudne.

Według amerykańskich badań 69% użytkowników BrainPortu, po rocznej pracy z urządzeniem potrafi rozpoznawać przedmioty. Moim zdaniem to dużo, szczególnie że samodzielne rozpoznawanie obiektów to nie jest jedyne zastosowanie BrainPortu. Jest wiele sytuacji, gdy musimy tylko zweryfikować to, czego się spodziewamy, np. że nasz komputer się zawiesił. Nie ma tu specjalnego rozpoznawania, albo, jak w przypadku liter, rozpoznajemy spośród znanych rzeczy. No i jest jeszcze fantastyczne zwiedzanie.

O BrainPorcie po polsku można poczytać na stronie polskiego dystrybutora: www.zobaczinaczej.pl. Jest tam dostępna ankieta, którą powinny wypełnić osoby zainteresowane uczestnictwem w szkoleniach.

Książka mówiona

Joanna Witkowska

Książka mówiona, talking book, audiobook…Warto przyjrzeć się choćby i samym nazwom zjawiska książek udostępnianych osobom, które nie mogą czytać zwykłego druku.

W Polsce początkowo była to „książka mówiona”, czyli czytana przez kogoś i nagrywana na jakiś nośnik. Według wiadomości, do jakich udało mi się dotrzeć, książki nagrywano już w latach sześćdziesiątych –oczywiście najpierw na szpule, a później na kasety magnetofonowe. Z początku zajmował się tym sam Polski Związek Niewidomych, a potem wyodrębniona jednostka – Zakład Wydawnictw i Nagrań (ZWiN), który w latach dziewięćdziesiątych zmienił nazwę na Zakład Nagrań i Wydawnictw (ZNiW). Obecnie książki mówione, zwane częściej audiobookami, przygotowywane są przez różne prywatne firmy oraz stowarzyszenia i fundacje. Nie nagrywa się już kaset, tylko pliki dźwiękowe, które można przenieść na płyty CD, pendrive’y lub karty pamięci odtwarzaczy cyfrowych. Lektorami są zwykle aktorzy lub zawodowi lektorzy, np. radiowi lub telewizyjni. Nie sposób nie wspomnieć tu przynajmniej o kilku najważniejszych i najbardziej zasłużonych osobach. Bardzo wiele książek przeczytali dla niewidomych Xawery Jasieński, Henryk Drygalski, Henryk Machalica czy wreszcie Mirosław Utta, Hanna Kinder-Kiss i Elżbieta Kijowska.

Wróćmy jednak do samej nazwy – „książka mówiona” kładzie nacisk na to, że jest ktoś, kto nam książkę czyta na głos, tzn. mówi. To osoba lektora stanowi najważniejszy element. Lektor służy bowiem jako swego rodzaju pośrednik pomiędzy czytelnikiem a książką. To dzięki lektorowi czytelnik może w ogóle stać się czytelnikiem i poznać takie czy inne dzieło.

Angielska „talking book” to „książka mówiąca”. Tym razem to książka jest „sercem” całego zjawiska. Ona mówi do nas poprzez usta lektora. Trzeba też dodać, że w Stanach Zjednoczonych i Wielkiej Brytanii pojęcie „talking book” obejmuje nie tylko książki nagrane w wersji dźwiękowej, lecz także te wydrukowane powiększoną czcionką czy pismem punktowym, czyli wszystkie dostępne dla osób, które nie są w stanie odczytać zwyczajnego druku. RNIB (Royal National Institute for the Blind) – największa brytyjska organizacja dla niewidomych – świętuje osiemdziesięciolecie swojego programu udostępniania książek osobom z niepełnosprawnością wzroku. Biblioteka RNIB może obecnie poszczycić się zbiorem ponad 23 tysięcy tytułów – tak w formie audiobooków, jak i książek w wersji cyfrowej, brajlowskiej czy w druku powiększonym. Książki z biblioteki RNIB można otrzymywać bezpłatnie do domu (na płytach CD pendrive’ach, w brajlu czy druku powiększonym). Można je też ściągać z biblioteki on-line. Co ciekawe, biblioteka oferuje także możliwość skorzystania ze sklepu internetowego, w którym czytelnik od razu ma okazję zaopatrzyć się w urządzenia niezbędne mu do czytania książek w jakiejkolwiek formie. Są tam bowiem zarówno pomoce optyczne (lupy, powiększalniki), jak i elektroniczne odtwarzacze książek audio.

W Stanach Zjednoczonych udostępnianie książek osobom niewidomym liczy sobie jeszcze więcej lat, ponieważ Biblioteka Kongresu oficjalnie utworzyła Talking Book Program (TBP), czyli Program Książek Mówionych, już 3 marca 1931 roku. Jako jeden z pierwszych stanów dołączył do tego programu Texas – tam przeznaczono tysiąc dolarów na zakup książek pisanych wypukłym alfabetem niemal sto lat temu: w 1918 roku. Od czasu oficjalnego utworzenia w 1931 roku TBP rozrósł się znacząco. Teraz znany jest jako National Library Service for the Blind and Physically Handicapped (w wolnym tłumaczeniu: Państwowy Serwis Biblioteczny dla Niewidomych i Osób z Innymi Niepełnosprawnościami). Od początku istnienia aż do 1961 roku serwis przechowywał swoje zbiory w piwnicach siedziby Kongresu. W 1940 roku miał już 1119 pudełek z książkami, które wypożyczał 480 czytelnikom. Wszystkie utwory były nagrywane na płytach gramofonowych. Teksańska Komisja ds. Niewidomych wypożyczała klientom TBP nawet gramofony. Dłuższe dzieła wymagały oczywiście wielu dysków, na przykład „Przeminęło z wiatrem” – bestseller lat trzydziestych – zajmował 20 płyt. W kolejnych dziesięcioleciach program rozwijał się dynamicznie: poszerzał się księgozbiór i rozrastała grupa odbiorców. W 1959 roku zaczęto nagrywać książki na szpulach, a w latach siedemdziesiątych – na kasetach magnetofonowych.

Nie pamiętam wprawdzie czasów książek nagrywanych na szpule, ale doskonale przypominam sobie ogromną torbę podróżną wypchaną po brzegi kasetami, bo – powiedzmy – „Hrabia Monte Christo” liczył ich 48, a Krzyżacy – 32.

Dziś te same książki mogę z łatwością zmieścić na niewielkiej karcie pamięci, a odtwarzacz – w torebce lub nawet w kieszeni. Jeszcze w latach dziewięćdziesiątych zabranie ze sobą na wakacje długiej książki mówionej było luksusem, bo oprócz kaset potrzebny był jeszcze i magnetofon – urządzenie sporych rozmiarów. Mało tego, jeśli ma się dostęp do Internetu, nie trzeba nawet fatygować się do biblioteki osobiście, ani wysyłać kart pamięci w celu nagrania na nie plików. Zamiast tego wystarczy założyć konto w serwisie online, pobrać książki  i już można cieszyć się lekturą.

Oczywiście amerykańska sieć Biblioteki Kongresu również oferuje możliwość ściągania książek z Internetu. Można też otrzymywać za pośrednictwem poczty nagrania oraz książki brajlowskie lub w druku powiększonym.

Jeszcze jedna zmiana, jaka ma miejsce w ostatnim dziesięcioleciu, to zastąpienie książki mówionej audiobookiem. Ktoś powie, że to żadna różnica – przecież i jedno i drugie to książka przeczytana przez człowieka i nagrana na nośniku, jednak książki mówione były przeznaczone przede wszystkim dla osób z problemami wzrokowymi (i takie osoby z nich głównie korzystały). Audiobooki zaś są dostępne ogólnie – nie ograniczają się do bibliotek specjalistycznych. Takie książki można bowiem kupić w wielu księgarniach. Coraz więcej osób widzących słucha audiobooków w podróży czy podczas wykonywania długotrwałych, a mało absorbujących prac. Ponadto, nazwa „audiobook” znów przesuwa środek ciężkości w grupie książka – lektor – czytelnik. „Audiobook” to „książka słyszalna” czy „przeznaczona do słuchania”, zatem tym razem to odbiorca jest najważniejszy, bo on tej książki słucha.  Potwierdza to także dążenie do coraz lepszej jakości nagrań i urozmaicanie ich muzyką.

Zatem, drodzy Odbiorcy książek mówionych czy audiobooków, gorąco zachęcam do poszukiwań i słuchania ciekawych lektur.

Podsumowanie roku 2015 w tyflotechnologiach

Michał Kasperczak

Skończył się 2015 rok. Czas na tradycyjne już przypomnienie i podsumowanie, tego co się wydarzyło na rynku rozwiązań, z których korzystają osoby niewidome i słabowidzące.

Nowości firmy Apple

Technologie asystujące, wbudowane na stałe w urządzenia Apple, to już standard. Nie do końca było jasne, czy VoiceOver będzie wbudowany w zegarek Apple Watch, zaprezentowany wiosną tego roku. Na szczęście okazało się, że zegarka mogą również używać osoby niewidome i słabowidzące. Apple Watch, jakkolwiek początkowo niedostępny po polsku, przemówił po aktualizacji w naszym języku, a zwiększająca się wciąż liczba ciekawych i dostępnych aplikacji sprawia, że korzysta się z niego coraz przyjemniej.

Nieco inaczej jest z Apple TV. Multimedialna przystawka telewizyjna od Apple’a jest oczywiście dostępna, ale z uwagi na to, że wiele usług oferowanych na tej platformie jest wciąż nieosiągalnych w Polsce oraz asystentkę Siri, która nadal nie mówi po polsku, korzystanie z Apple TV, choć oczywiście jak najbardziej możliwe, nie jest, póki co, w pełni satysfakcjonujące.

Debiutowały nowe urządzenia: iPhone’y z większą ilością pamięci RAM, funkcją 3DTouch, cieńsze iPady i wreszcie iPad Pro. 2 GB pamięci RAM w iPhone’ach 6 i 6S chyba aż tak nie wpływa na pracę samego czytnika VoiceOver, za to z pewnością będzie mieć znaczenie podczas pracy z zasobożernymi, dużymi aplikacjami. Funkcja 3DTouch przekłada się na mniej klikania w poszczególne elementy interfejsu użytkownika. Polega to na tym, że iPhone wykrywa siłę nacisku na ekran, dzięki czemu możemy, odpowiednio długo przyciskając (dotykając) określoną ikonę na ekranie, wywołać coś w rodzaju menu kontekstowego danej aplikacji, np. dla Wiadomości będzie można stworzyć nową wiadomość albo szybko otworzyć trzy ostatnie konwersacje. Podobnie z Kontaktami, gdzie zyskujemy szybki dostęp do ulubionych albo ostatnio używanych. Zastanawialiśmy się w redakcji, jak to będzie działało z VoiceOverem. Oczywiście wszystko zostało pomyślane tak, by osoby niewidome mogły skorzystać z 3DTouch. Można nawet, odpowiednio przytrzymując palec na ikonce, a potem go przesuwając, uzyskać podgląd treści np. maila. Oczywiście działanie wspomnianych funkcji zależy przede wszystkim od sposobu implementacji 3DTouch przez twórców danego programu, jednakże obecnie, poza aplikacjami wbudowanymi w system iOS, te najbardziej popularne (Dropbox, Skype, WhatsApp i wiele więcej) pozwalają na nowy sposób interakcji z telefonem. I na koniec, sposób działania tej nowej funkcji, można ustawić w opcjach dostępności, regulując siłę nacisku, a nawet go zupełnie wyłączając, tak by działać po staremu. Szkoda, że funkcja 3DTouch nie została zaimplementowana w nowych iPadach, przede wszystkim w najdroższym z nich tablecie przeznaczonym do zadań profesjonalnych. Być może jednak to jeszcze nie ten czas i jej zastosowanie na powierzchni tak dużego wyświetlacza jest technologicznie zbyt trudniejsze albo zbyt drogie. iPad Pro- bo tak nazywa się ten tablet, posiada ogromny wyświetlacz o przekątnej 12,9 cala i 4 głośniki, a wśród pomocnych akcesoriów można znaleźć sprzętową klawiaturę, zintegrowaną z całym pokrowcem. Szkoda tylko, że urządzenie jest tak drogie.

System iOS 9

Nowe, profesjonalne rozwiązanie, jakim bez wątpienia jest iPad Pro, sprawiło, że aplikacje systemowe, takie jak Mail czy Safari, ale też inne, zyskują z każdą wersją systemu nowe skróty klawiszowe, dzięki którym ich obsługa może, choć częściowo, przypominać sposób pracy znany z komputerów Mac. Korzystają na tym również niewidomi, gdyż najbardziej popularne operacje można teraz wykonać za pomocą klawiatury (odpowiedz na mail, utwórz nowy mail itp.). Co istotne, dotyczy to nie tylko nowego iPada Pro, ale wszystkich urządzeń z systemem iOS. Pozostając jeszcze na chwilę przy klawiaturze, pragnę zwrócić uwagę na dodatkowy sposób używania klawiszy specjalnych – tzw. klawiszy VoiceOver (domyślnie Control-Option).Teraz dodatkowo funkcję tę może pełnić klawisz CapsLock, podobnie zresztą, jak to ma miejsce w przeważającej liczbie czytników ekranu dla systemu Windows.

Sam system iOS w dziewiątej wersji przyniósł ponadto poprawę stabilności. Rzeczywiście, tym razem po instalacji, użytkownicy nie natrafili na jakieś istotne problemy utrudniające pracę. Na uwagę zasługuje zmieniony sposób zaznaczania tekstu, koncepcyjnie przejęty z rozwiązań dostępnościowych zawartych w Samsungu Galaxy S6. Nie jest on niestety domyślnie włączony, a szkoda. Należy w tym celu uaktywnić zaznaczanie w ustawieniach funkcji Pokrętła.

Apple Music

Właściwie to funkcja już teraz wbudowana w system iOS, ale jest to również osobna usługa, działająca poza tym systemem, dlatego wypada kilka słów poświęcić serwisowi streamingowemu firmy Apple. Interfejs aplikacji w systemie iOS jest w pełni dostępny. Wszystko działa bardzo dobrze, do tego stopnia, że z poziomu zablokowanego ekranu możemy nawigować wewnątrz poszczególnych utworów. A to nie jest norma, gdy porównamy Apple Music z innymi rozwiązaniami do strumieniowania muzyki.

Nowości w systemie El Capitan

Najnowszy system operacyjny – Mac OS X El Capitan, działający na komputerach firmy Apple, podobnie, jak jego odpowiednik na urządzenia mobilne, przyniósł szereg wewnętrznych usprawnień wpływających na stabilność pracy. Nowo zaprezentowane możliwości pracy z aplikacjami i oknami są chyba niespecjalnie istotne dla użytkowników korzystających ze screenreadera VoiceOver. Ten jednak działa stabilniej i został zaopatrzony w kilka nowych rozwiązań. Pierwsze z nich to możliwość użycia klawisza CapsLock zamiast klawiszy VO, tak jak to ma miejsce w opisywanym powyżej systemie iOS 9. Kolejna – bardziej przełomowa funkcja to Miejsca Okien. To coś zbliżonego do tzw. regionów, które można znaleźć w iPadach. Są to charakterystyczne miejsca w interfejsie danej aplikacji. Dzięki nim łatwiej przemieszczać się pomiędzy poszczególnymi elementami wyświetlanej zawartości, np.: w programie Mail pomiędzy folderem, listą maili i ich zawartością. Ponadto można teraz zapisywać parametry VoiceOver, nie tylko osobno dla aplikacji, ale nawet dla poszczególnych stron WWW. Zmieniły się też opcje związane z przeglądaniem Internetu, czyli pracą w Safari. Ogólnie napiszę tylko, że zbliża się ona bardziej do tego, co znamy z pracy z windowsowymi czytnikami ekranu. Widać więc, że Apple w dalszym ciągu rozwija VoiceOvera na Maca.

Nowości w systemie Android

Dla niewidomych użytkowników urządzeń z Androidem to był dobry rok. Choć system Google Android nie jest aż tak ujednolicony, jak iOS, a co za tym idzie na różnych urządzeniach może działać nieco inaczej, to z roku na rok wzrasta jego stabilność i spektrum możliwych do zastosowania rozwiązań w zakresie dostępności. Firma Samsung z roku na rok poprawia też dostępność swoich urządzeń, a przede wszystkim nowo promowanych smartfonów.

Samsung Galaxy S6 i nowy TalkBack

W lutym  został zaprezentowany, a potem szybko wprowadzony na rynek najnowszy model telefonu firmy Samsung. Mowa oczywiście o modelu Galaxy S6. Pod kilkoma względami stał się on bardzo podobny do iPhone’a, choćby z uwagi na brak wymiennego akumulatora oraz slotu kart MicroSD. zyskał bardzo pozytywne recenzje, a co dla nas ważne, użytkownicy z niepełnosprawnościami otrzymali wraz z tym modelem nowe, w znaczący sposób poprawiające komfort użytkowania, rozwiązania dotyczące dostępności.

Samsung zaoferował w swoim telefonie Galaxy S6 zmodyfikowaną wersję TalkBacka, nazwaną po prostu Galaxy TalkBack. Zyskał on nowe gesty, bardzo podobne do tych, które można znaleźć w systemie iOS. Tym samym cała obsługa telefonu stała się zbliżona do obsługi iPhone’a i iPada. Bardzo ciekawie rozwiązano możliwość zaznaczania tekstu za pomocą gestów wykonywanych dwoma palcami. Potem, choć koncepcyjnie nieco inaczej, dosyć podobny pomysł zaimplementowany został w nowej wersji konkurencyjnego systemu iOS i czytnika ekranu VoiceOver. W końcu można bez problemu włączać i wyłączać TalkBack, wykorzystując do tego potrójne wciśnięcie przycisku Home, tak jak w urządzeniach z iOS. Dzięki istnieniu konta Samsung, którego utworzenie jest proponowane przy pierwszym uruchomieniu telefonu, można zapamiętać w chmurze ustawienia całego telefonu, w tym opcji związanych z dostępnością. Szkoda, że konfiguracja opcji ułatwień dostępu wciąż nie jest tak oczywista. Choć TalkBack jest już wbudowany na stałe, to, zależnie od modelu, telefon odzywa się po angielsku i do działania po polsku wymaga pobrania polskiego głosu oraz aktywacji odpowiednich opcji. Wszystko, choć bardziej czytelnie rozmieszczone, jest moim zdaniem jeszcze nie do końca oczywiste, zwłaszcza jeśli ktoś nie miał wcześniej do czynienia z systemem Android. Bardzo jednak dobrze, że Samsung już chyba na dobre włączył funkcję dostępności do nowo projektowanych urządzeń.

Nowy TalkBack

Przede wszystkim został wypuszczony na licencji Opensource, co, być może, przyczyni się do przyspieszenia jego rozwoju. Co ważne, w końcu pozwala na chwilowe wstrzymywanie pracy screenreadera, za pomocą klawiszy głośności. Również za ich pomocą można w łatwiejszy, niż do tej pory, sposób, nawigować po tekście i zmieniać wartości pewnych suwaków. Czytnik ekranu daje ponadto użytkownikom większą możliwość dostosowania interfejsu do swoich potrzeb (modyfikacja i zmiana) wszystkich gestów TalkBacka oraz skrótów klawiszowych standardowej klawiatury. W kolejnej wersji pojawiła się tak długo oczekiwana możliwość etykietowania przycisków graficznych.

ShinePlus

Ten, kto używa już od dłuższego czasu telefonu z systemem Android, może pamiętać, że kiedyś istniały, prócz TalkBacka, inne screenreadery, będące swego rodzaju poszerzeniem możliwości, albo pozwalające na wykonanie tej samej czynności w nieco inny sposób. Z czasem jednak wszystkie one przestały się rozwijać. Tak było aż do połowy ubiegłego roku, kiedy to na rynku pojawił się nagle koreański program ShinePlus. Działa on różnie na rozmaitych urządzeniach, ale zasadniczo opinie na jego temat są raczej pozytywne. Program chwilami jest szybszy od TalkBacka i oferuje szereg specjalnych funkcji, których ten pierwszy nie posiada. Zwrócę tylko uwagę na: możliwość łatwiejszego dostępu do informacji w pasku powiadomień i na ekranie blokady, szereg gestów wykonujących rozmaite zadania screenreadera, albo, dających dostęp do pewnych funkcji systemu, dostęp do dotykowej klawiatury numerycznej z możliwością definiowania swoich skrótów i w ogóle pełną obsługę telefonów z klawiaturami. Ciekawym udogodnieniem jest np. możliwość uruchomienia dyktowania za pomocą stałego gestu (trochę podobnie jak w iOS). Powyższa lista nie wyczerpuje wszystkich możliwości tej aplikacji.

 Od pewnego czasu Shineplus, za sprawą Pawła Masarczyka, posiada także polski interfejs.

Telefon z klawiaturą – LG Wine Smart

We wrześniu firma LG wprowadziła na polski rynek telefon z klapką, klawiaturą i najnowszą wersją Androida, nazwany Wine Smart. Przyzwyczailiśmy się już, że telefony z fizyczną klawiaturą, a tym bardziej z klapką, przeszły do historii. Tymczasem, szczególnie na rynku azjatyckim, wciąż jest na nie spore zapotrzebowanie. Pojawienie się LG Wine Smart może się okazać szczególnie interesujące dla tych osób niewidomych i słabowidzących, dla których telefon z ekranem dotykowym jest albo zbyt trudny, albo niepotrzebny, albo pożądany jako drugi – dodatkowy telefon. Nie jest on zbyt szybki, posiada tylko 1 GB pamięci RAM i 4 GB pamięci wbudowanej, ale za to najnowszy system Android 5.1. Kluczową jego cechą jest wspomniana klawiatura., która wygląda jak ta z Nokii, 3 na 4 klawisze numeryczne, czyli kilkanaście klawiszy, których sekwencyjne naciskanie to raz cyfra, raz litera. Pamiętamy to dobrze ze starych telefonów. Małe klawisze QWERTY sprawiały części osób niemałą trudność. Miło więc, że LG powróciło do lubianej klawiatury dawnego typu. Co więcej, posiada ona dodatkowo joystick, klawisz Wstecz, klawisze czerwonej i zielonej słuchawki oraz pięć klawiszy funkcyjnych, służących m.in. do włączenia Wiadomości, Kontaktów, Aparatu itp.

Niestety telefon ma kilka minusów. Są nimi: beznadziejny aparat fotograficzny 3 MPX, mało pamięci RAM i na dane.

Pomimo to okazuje się, że taki telefon może działać całkiem sprawnie, pod warunkiem, że nie używamy zbyt wielu aplikacji. Do dzwonienia, pisania SMS, podstawowej nawigacji wystarczy w zupełności i na pewno działa podobnie, albo nawet lepiej od dawnych Nokii z Talksem czy Mobile Speakiem. Co więcej, używając aplikacji ShinePlus, można prawie całkowicie obsłużyć ten telefon za pomocą klawiatury.

Smart Vision, czyli specjalny smartfon dla niewidomych

Francuska firma Kapsys wymyśliła oraz wprowadziła na rynek smartfon zaprojektowany dla niewidomych lub słabowidzących użytkowników, charakteryzujący się unikatowym, hybrydowym interfejsem, dzięki któremu sterowanie telefonem może się odbywać na trzy sposoby: za pomocą ekranu dotykowego, zintegrowanej klawiatury lub poleceń głosowych. Sposób korzystania z telefonu zależy więc wyłącznie od preferencji użytkownika. W celu ułatwienia sterowania głównymi funkcjami urządzenia w SmartVision wprowadzono zestaw predefiniowanych, prostych gestów. Podczas sterowania urządzeniem za pomocą komend głosowych telefon korzysta z modułu rozpoznawania mowy, ułatwiającego obsługę telefonu. Smart Vision jest drogi (ponad 2000 zł w wersji podstawowej) i działa niestety na starej wersji 4.0 systemu Android. Sam telefon ma zawierać w sobie mniej lub bardziej specjalistyczne aplikacje, takie jak: OCR, czytnik książek DAISY, czytnik znaczników opartych na NFC, nawigację pieszą z ponoć dobrymi mapami i wiele więcej. Trudno powiedzieć, żeby wszystkie te propozycje były jakoś innowacyjne, jednakże ich potencjał może tkwić właśnie w prostocie obsługi i stabilności całego systemu, podobnie jak to ma miejsce w przypadku notatników brajlowskich. Wprowadzanie takiego modelu na rynek, jakkolwiek wydaje się być przedsięwzięciem ryzykownym, nie jest naszym zdaniem pozbawione racjonalnych podstaw. Na te chwilę nikt ze znanych mi ekspertów nie testował jeszcze tego urządzenia.

Telefonem smart Vision zainteresowała się firma Altix, jednak, mimo szumnych zapowiedzi około połowy minionego roku, już w grudniu telefonu nie można było zobaczyć na wystawie Reha, zaś przedstawiciele Altixu wymijająco i niejednoznacznie wypowiadali się, kiedy i czy na pewno telefon zaistnieje na dobre w Polsce. Wiemy jedynie, że interfejs urządzenia został spolszczony.

Smart Vision to kolejny po LG Wine Smart telefon z klawiaturą. O ile LG Wine to telefon powszechnie dostępny, o tyle Smart Vision, za sprawą zainstalowanego specjalistycznego oprogramowania, jest rozwiązaniem drogim i raczej zamkniętym. Trudno więc powiedzieć, czy i na ile aktualizacji oprogramowania, zdecyduje się jego producent. Wątpliwości są tym bardziej uzasadnione, że Android 4.0 to już bardzo stary system.

Aplikacje specjalistyczne

Miniony rok dla niewidomych użytkowników Androida był dobry z jeszcze jednego powodu. Popularne, wyspecjalizowane aplikacje ułatwiające życie i używane wcześniej przez użytkowników iPhone’ów, zagościły w końcu w systemie Android. Mam tu na myśli czytnik książek Voice Dream Reader, program do fotografowania i rozpoznawania tekstu KNFB Reader oraz pakiet Seeing Assistant, służący m.in. do nawigacji satelitarnej. Reakcje użytkowników na ich pojawienie się w sklepie Google Play były oczywiście entuzjastyczne, chociaż oczekiwania wobec tych programów były chyba większe niż zastana potem rzeczywistość.

Voice Dream Reader okazał się pozbawiony niektórych funkcji znanych z odpowiednika dla iPhone’a i iPada, a do tego na niektórych telefonach nie działa stabilnie. KNFB Reader działa zależnie od parametrów aparatu fotograficznego określonego smartfonu, także będzie raczej dobrze działać jedynie z tzw. flagowcami. Niestety wersja Demo umożliwiająca zrobienie tylko 25 zdjęć, to zbyt mało, by niewprawny użytkownik sprawdził i ewentualnie zdecydował się na zakup programu. Cena (około 370 zł) też nie zachęca, choć trzeba przyznać, że stosunkowo często producent okresowo obniża jego cenę.

O programach firmy Transition Technologies, czyli Seeing Assistant Move i Home, niewiele wiadomo, gdyż pojawiły się one bardzo niedawno. Trzeba przyznać, że po początkowym sceptycyzmie testerów tego pierwszego, kiedy okazało się, że Seeing Assistant Move ma nieadekwatny interfejs, twórcy dostosowali program do wymagań Androida i TalkBacka, a do tego zaopatrzyli go w kilka wcześniej nieobecnych funkcji, takich jak choćby obsługa OpenStreetMaps. Seeing Assistant Home również jest chwalony, chociażby za bardzo dobrą lupę. Ponadto rozwinęło się kilka mniejszych aplikacji pomagających w orientacji przestrzennej, powstały też nowe dotykowe klawiatury, recordery i inne narzędzia, których autorzy biorą pod uwagę sugestie użytkowników TalkBacka oraz wytyczne dostępności. To bardzo dobry prognostyk, choć niestety stosunkowo często, gdy program już dojrzeje, nowe wersje i poprawki zauważonych błędów, nie są już tak ochoczo wdrażane, a o dostępności też czasem się zapomina. Oby takich sytuacji było jak najmniej.

Android TV

Kilka lat temu znaczne poruszenie pośród osób z wadami wzroku wywołała informacja o wybranych modelach telewizorów Panasonic z przewodnikiem głosowym. Istotnie, niektóre modele zyskały tę funkcję, ale są one mimo wszystko dosyć drogie. Okazuje się, że to nie jedyna możliwość mniej lub bardziej pełnego udźwiękowienia telewizora. W końcu pojawiły się urządzenia działające w oparciu o tzw. Android TV, czyli wersję systemu Android, zmodyfikowaną specjalnie na potrzeby telewizora. Z pobieżnych testów wynika, że system, jeśli nie pozbawiono go opcji dostępności, może działać całkiem nie najgorzej i oferować dostęp do aplikacji oraz usług wcześniej niedostępnych.

Czytniki ekranu

Nadal coraz większą popularnością cieszy się darmowy screenreader NVDA. Jak zwykle, mniej więcej co kwartał ukazują się jego nowe wersje. Może zmiany w nich zawarte, nie są już aż tak spektakularne, jak to było kiedyś, niemniej z wersji na wersję użytkownicy zawsze dostają coś godnego uwagi. W tym roku były to m.in.:tryb szybkiej nawigacji dla MS Word,  lepsze odczytywanie większej ilości informacji o formatowaniu i innych szczegółach w arkuszu Ms Excel, edytorze MS Word i webowych aplikacjach (Google Docs), znacznie poprawiona obsługa wiadomości w programie MS Outlook, obsługa wyrażeń matematycznych (konieczny MathPlayer), lepsze działanie a także obsługa systemu Windows 10, w tym ekranów dotykowych i wreszcie ulepszone działanie z komunikatorem Skype dla pulpitu.

NVDA Remote Access

Już kilka lat temu liczące się czytniki ekranu oferowały swym użytkownikom rozwiązania służące do pracy zdalnej. Były one nie do końca proste w konfiguracji, często też niestabilne, ale przede wszystkim generowały dosyć znaczne opóźnienia, co zniechęcało użytkowników chcących pracować w ten sposób. Na szczęście sytuacja uległa ostatnio diametralnej poprawie. Dwóch niewidomych programistów: Christopher Toth i Tyler Spivey, m.in. dzięki bardzo szybko i z nadwyżką przeprowadzonej zbiórce w serwisie Indiegogo, napisało wtyczkę do NVDA, nazwaną NVDA Remote Access, dzięki której możliwa jest praca na innym komputerze. Do takiej pracy wymagane jest zainstalowanie na obu komputerach czytnika NVDA wyposażonego w omawianą wtyczkę oraz ustanowienie połączenia Pomiędzy komputerami. NVDA Remote może bardzo ułatwić wykonywanie wszelkiego rodzaju pracy w charakterze wsparcia informatycznego, albo przeprowadzania szkoleń.

JAWS 17

Wciąż popularny JAWS doczekał się nowej wersji, oznaczonej numerem 17. Tym razem skupiono się na obsłudze zaawansowanych aplikacji działających w przeglądarce internetowej. To dla nich można tworzyć skrypty oraz pliki ustawień konfiguracyjnych działające tylko na określonych stronach internetowych. Wprowadzony został ponadto specjalny tryb Inteligentnej Nawigacji, w którym JAWS nie oferuje w przeglądarce swoich standardowych funkcji nawigacyjnych i oddaje pierwszeństwo aplikacji internetowej. Trudno w tej chwili  powiedzieć, z jakimi rozwiązaniami to działa. ZA przykład podawane są rozwiązania SharePoint Microsoftu. Do tego znacznej poprawie uległa praca z ekranami dotykowymi (nowe gesty, tryb zaznaczania, obsługa dotykowej klawiatury).

Leasey

Pisząc o JAWSie, zasygnalizuję tylko dosyć znaczącą ekspansję na rynku brytyjskim, nakładki Leasey. To specjalne skrypty, mające w zamierzeniu autora – niewidomego Twórcy skryptów, Brayana Hardgena, z jednej strony pomóc osobom mało obeznanym w tajnikach pracy z komputerem, a z drugiej ułatwić życie tym bardziej zaawansowanym. I rzeczywiście. Dla każdego coś miłego. Otrzymujemy zestaw kilkunastu modułów, z których jedne działają lepiej, inne gorzej. Jedne wydają się niezbędne i bardzo pomocne, inne wykorzystują mechanizmy bardzo łatwo dostępne w standardowy sposób, stąd ich istnienie wydaje się nieco na wyrost. Leasey posiada bardzo proste hierarchiczne menu podobne do tego, jakie jest zawarte w pakiecie Dolphin Guide, oraz szereg skrótów klawiszowych, poprzedzonych stosownym prefixem. Dzięki nim można: uruchamiać wybrane programy, łatwiej zaznaczać wiele plików i tekst w różnych programach, sterować programem Foobar2000 z każdego miejsca w systemie, łatwiej używać Twittera (Chicken nugget i Tween), programu ITunes, Skype, Spotify i wiele więcej. Wszystko działa niby stabilnie, ale nie do końca. Wynika to, jak sądzę, ze specyfiki działania skryptów programu JAWS, który jest bardzo czuły na szereg ustawień, szczególnie dotyczących modyfikacji klawiatury. W naszych warunkach oprogramowanie to ma jeszcze jedną niezwykle istotną wadę. Jest bardzo mocno zoptymalizowane, co sprawia, że dobrze działa tylko w angielskiej wersji systemu Windows i programu JAWS. Szkoda, bo posiada ono kilka bardzo ciekawych funkcji, które mogłyby w znacznym stopniu przyczynić się do lepszej produktywności pracy, a za razem sprawić, by mniej zaawansowani użytkownicy komputera i czytników ekranu, krok po kroku odkrywali jego możliwości. I jeszcze jedno. Leasey to drogi niestety program.

Window-Eyes 9 i ZoomText Fusion

Ostatni z głównych czytników ekranu dla systemu Windows po czasie stagnacji, zaczął się dalej rozwijać. Wypuszczona jeszcze podkoniec 2014 r. wersja Beta 9.0 programu Window-Eyes, zadebiutowała ostatecznie na samym początku ubiegłego roku. Trzeba przyznać, że Twórcy screenreadera zrobili dużo, by program ten dorównał swoim konkurentom. Przede wszystkim na nowo został opracowany i przepisany Tryb Przeglądania, co wpływa na znacznie bardziej efektywne i stabilne przeglądanie stron internetowych. Na reszcie możliwe stało sięprzeglądanie dynamicznych stron opartych na HTML5 oraz praca z aplikacjami internetowymi np. Google Docs. Pojawił się specjalny tryb obsługi tabel, co do którego zdania są podzielone. Podobnie rzecz się ma z nowym trybem zaznaczania na stronach internetowych. można teraz zaznaczać tekst, w podobny sposób, jak w MS Word, tzn. naciskając klawisz F8 na początku i końcu zaznaczonego fragmentu tekstu. Możliwe jest potem jego skopiowanie, wraz z warstwą HTML (linki, grafika itp.). Wszystkie te zmiany, choć bardzo potrzebne, zdaniem pytanych długoletnich użytkowników Window-Eyes istotnie zbliżają działanie tego screenreadera do NVDA i JAWSa, niemniej wciąż Window-Eyes nie działa w pełni stabilnie i wielu już nie wystarcza do pracy.

Z końcem tego roku na rynku ukazała się kolejna podwersja Window-Eyes oznaczona numerem 9.3. Przede wszystkim pozwala ona bardziej efektywnie wykorzystać potencjał systemu Windows 10. Znacznie też została poprawiona praca z MS Outlookiem i pewnymi elementami Ms Office’a (Excel, sprawdzanie pisowni). Poprawie uległ też tryb ciągłego czytania tekstu, a czas reakcji syntezatora na naciskane klawisze, stał się ponoć szybszy. Być może najciekawszą nowością, jaka się pojawiła, jest na nowo zaprojektowany dodatek Wirtualizacja, z wbudowanym OCR do wyciągania tekstu z grafiki na ekranie, ale też z plików pakietu Office. Musi jednak minąć jeszcze trochę więcej czasu, aby można było ocenić skuteczność wprowadzonych nowości.

Wypada jeszcze wspomnieć o ZoomText Fusion. Tego można było się spodziewać. Firma AI Squared, która teraz rozwija Window-Eyes, a wcześniej była znana z programu powiększającego ZoomText, postanowiła programy te zaoferować we wspólnym pakiecie. ZoomText Fusion, stanowi on połączenie dwóch programów: ZoomText Magnifier/Reader oraz Window-Eyes. Zyskają na tym przede wszystkim osoby bardzo słabowidzące, albo takie, który wzrok stopniowo się pogarsza. W ten sposób mogą one z poziomu powiększenia, stopniowo przejść do pracy z już typowym screenreaderem, jakim jest Window-Eyes. Na razie program nie jest jeszcze dostępny w Polsce, ale niedługo ma się to zmienić. W chwili pisania tego artykułu, nie wiem, która z polskich firm – czy Harpo, czy E.C.E., będzie sprzedawać program i świadczyć pomoc techniczną w jego używaniu..

Monitory brajlowskie

Na rynku terminali brajlowskich nic spektakularnego w tym roku się nie wydarzyło. Jedynie koreańska firma HIMS zaprezentowała na początku roku mały 14-znakowy monitor brajlowski o nazwie Smart Beetle. Cechą wyróżniającą go spośród innych tego typu urządzeń, jest możliwość pracy z aż sześcioma urządzeniami. Po sparowaniu można w prosty sposób przełączać się pomiędzy różnymi rodzajami sprzętu, mogącego korzystać z technologii BlueTooth: tabletem, telefonem, komputerem. Sam Smart Beetle nie oferuje ponadto niczego innego, cenowo zbliżony jest do 14-znakowego Focusa i, co nie trudno zgadnąć, ma stanowić dla niego konkurencję. Czy tak się stanie, trudno stwierdzić. Dobrze, że już teraz oba urządzenia są dostępne w Polsce.

Prócz tego, firma HIMS dalej usprawnia swoje notatniki Braille Sense. W nowym oprogramowaniu wprowadzona została m.in. lepsza obsługa YouTube’a, Facebook Messengera, odczytywania prezentacji programu PowerPoint.

Wciąż mówi się o brajlowskich wyświetlaczach kilkuliniowych, brajlowskich tabletach graficznych, tańszych niż obecnie znane i stosunkowo mało popularne wśród użytkowników ze względu na zaporową cenę rozwiązaniach, ale póki co nikt ich jeszcze nie zaczął produkować.

Odtwarzacze specjalistyczne

Od czasu, gdy coraz więcej ludzi używa smartfonów, wyspecjalizowane odtwarzacze DAISY nie są już tak bardzo popularne. Ma na to również wpływ ich wysoka cena, stosunkowo mała funkcjonalność oraz ich dosyć duża zawodność, co nie znaczy, że na tym rynku nie dzieje się zupełnie nic.

Firma E.C.E. zaczęła sprzedawać nowy odtwarzacz DAISY o nazwie Orion. To niewielkie urządzenie, cenowo zbliżone do tańszego, nieprodukowanego już, modelu BookSense’a i oferujące naprawdę dużo. Odtwarza wszystkie popularne formaty tekstowe z PDF i E-PUB włącznie, wszystkie popularne formaty audio, posiada 5 głosów Ivona, do tego mniej pożyteczne, ale ciekawe akcesoria: radio, kompas czy transmiter FM. Jedyną wadą Oriona jest krótki czas pracy na jednym ładowaniu baterii, który wynosi zaledwie ponad 6 godzin. To bardzo mało, niemniej trudno się temu dziwić, jeśli uzmysłowimy sobie, jak małe to urządzenie. Mimo to jego głośniczek jest całkiem donośny i generuje przyjemny dźwięk, chociaż niestety mowa syntezy Ivona jest jakaś mniej wyraźna, niż w wersji desktopowej. Może to tylko złudzenie, ale w internetowych dyskusjach kilka osób zwróciło uwagę na ten problem. Może więc jest coś na rzeczy.  

Tak się jakoś stało, że omawiane tu odtwarzacze stały się od pewnego czasu bardzo drogie, tak że ich cena dorównuje, a czasem nawet przewyższa cenę smartfonów z najwyższej półki. Jedynie Orion oraz Czytak Plus zostały w segmencie urządzeń, których cena wynosi niecałe 1500 zł. PlexTalk Pocket Linio, który jest już od jakiegoś czasu obecny na rynku kosztuje około 2400 zł i może być dobrym wyborem z uwagi na dostęp do DAISY On-line i dobrze zoptymalizowaną, wyraźną i naprawdę przyjemną syntezę Acapella Ania, która w PlexTalku działa chyba najlepiej i najmniej przeszkadza.

Niestety nowe, wprowadzony jeszcze w roku 2014 odtwarzacze HIMS: Blaze EZ i nowy Blaze ET, który miał być nadzieją dla zaawansowanych czytelników, kosztują bardzo dużo, bo ponad 3000 zł. Ich wyróżniającą się cechą jest aparat fotograficzny i wbudowany moduł OCR. Trudno mi wypowiadać się w sposób autorytatywny na temat jakości rozpoznawania tekstu. Zależy to od wprawy i precyzji, której osiągnięcie przez kogoś całkowicie niewidomego, choć możliwe, bywa trudne, a efekt naszych starań nie jest zagwarantowany. Nowy Blaze ET swoją budową przypomina inne odtwarzacze z klawiaturą numeryczną i klawiszami funkcyjnymi. Ponadto posiada praktycznie wszystko to, co Orion albo kiedyś BookSense. Aby mieć pełny obraz omawianego urządzenia, dołóżmy do listy cech jeszcze Wi-Fi, nagrywanie DAISY, obsługę Skype’a i kilku aplikacji. Niestety oba modele odtwarzaczy Blaze działają mocno ociężale, co będzie denerwowało nawet średnio zaawansowanych użytkowników. Producent nie zamierza tego poprawić, nie widząc takiej potrzeby. Szkoda.

DAISY On-Line również w Polsce

W grudniu 2015 r. zadebiutowała w Polsce usługa DAISY On-line. Strumieniowany dostęp do książek działa na tę chwilę najlepiej z PlexTalkiem Linio, a w ograniczonym zakresie również Victorem Stream Reader oraz notatnikami BrailleSense. Niestety z DAISY On-line, jak na razie, nie skorzystają użytkownicy komputerów i mobilnych urządzeń z iOS i Androidem.

Ponieważ usługa została uruchomiona w grudniu 2015 r., trzeba jeszcze poczekać na jej recepcję wśród użytkowników. Dopiero za jakiś czas, będzie można ocenić realne zainteresowanie odbiorców tą usługą. Warto przy tym pamiętać, że znowu nie tak dużo bibliotek, wprowadziło dostęp do książek za pomocą DAISY On-line, zaś sam serwis internetowy służący do wypożyczania książek z DZDN, nie ma na świecie tak rozwiniętego i podobnie funkcjonującego odpowiednika.

Reha for the Blind in Poland oraz BrainPort

Jak co roku, na początku grudnia, odbyła się w Warszawie kolejna konferencja Reha for the Blind in Poland. M.in. dzięki finansowanym wyjazdom, przyciąga ona z roku na rok bardzo dużo ludzi. Coraz częściej można też na niej spotkać szkoły i inne instytucje, jakoś zainteresowane osobami niepełnosprawnymi wzrokowo. Na samą wystawę sprzętu, nie ma już aż tylu chętnych i pojawia się na niej coraz więcej muzeów i fundacji. Tradycyjnie też rozdane zostały statuetki Idola. Tu pewna nowość – po raz pierwszy przed konferencją można było głosować internetowo, ale nie na poszczególne technologie, a na osoby, firmy i instytucje. Poniżej kilka słów o laureatach i pośrednio też o zaprezentowanych nowościach branżowych.

I tak, w kategorii FIRMA/INSTYTUCJA, pierwsze miejsce otrzymała Biblioteka Raczyńskich w Poznaniu za unowocześnienie Działu dla Niewidomych i Słabowidzących oraz za bardzo dobre dostosowanie nowo otwartego budynku Biblioteki do potrzeb osób niepełnosprawnych. Natomiast na trzecim miejscu znalazła się kolejna biblioteka – Dział Zbiorów dla Niewidomych Głównej Biblioteki Pracy i Zabezpieczenia Społecznego, który przejął 2 lata temu księgozbiór po Bibliotece Centralnej Polskiego Związku Niewidomych i dalej wdraża nowe usługi, takie jak DAISY On-Line w tym roku.

W kategorii MEDIA drugie miejsce przypadło Fundacji Katarynka i portalowi filmowemu Adapter.pl, dzięki któremu można oglądać filmy z audiodeskrypcją i napisami w Polskim Języku Migowym.

Pirs Creative Lab to, zdaniem uczestników konferencji, najciekawsza tegoroczna firma, Na wystawie prezentowała ona kompas elektroniczny Totunor oraz System Znaczników Totupoint.

Produkt roku dla niewidomych to tym razem BrainPort firmy Wicab-iNC, który w naszym kraju próbuje spopularyzować Jacek Molicki z warszawskiego NZOZ-u Inter-Medix. Jest to kamera ze specjalną wkładką umieszczoną na języku, dzięki której można po przebytym szkoleniu, odbierać językiem cząstkowe wrażenia wzrokowe przetworzone na impulsy elektryczne. Nie wróżę temu pomysłowi dużego zainteresowania i nie spodziewam się, by w ostateczności wielu ludzi mogło i chciało w praktyce BrainPortu używać. Mogę się jednak tutaj mylić.

Na drugim miejscu znalazł się Seeing Assistant, firmy Transition Technologies. Doceniono, jak sądzę, konsekwentny rozwój pakietu, ponowną obecność i bardzo miłą pomocną obsługę na stoisku, jak również nowość, którą niewątpliwie była nawigacja Seeing Assistant Move dla systemu Android.

Trzecie miejsce przypadło Mapie Świata – tyflograficznej publikacji, wykonanej przez firmę Altix.

Produktem dla słabowidzących został w tym roku nie żaden powiększalnik, a PlexTalk Pocket Linio firmy Shinano Kenshi. Sam odtwarzacz DAISY, jakim jest PlexTalk, nie zmienił się w ogóle, niemniej DAISY On-Line, o którym tu już wcześniej pisałem, mocno jest z tym urządzeniem powiązane.

Dalsze miejsca przypadły już na szczęście powiększalnikom: Optelec Traveler HD firmy Optelec i Onyx Deskset HD firmy Freedom Scientific. Pierwszy z nich to względnie mobilne rozwiązanie, gabarytami zbliżone do 13.3-calowego laptopa, drugi to rozwiązanie stacjonarne.

Kilka słów o tym, co się nie spełniło

Dwa lata temu, podsumowując rok 2013, czekałem na pojawienie się asystentki Siri w urządzeniach firmy Apple. W zeszłym roku, z radością myślałem, jaki fajny mógłby być nowy odtwarzacz DAISY firmy HIMS, który miałby pełną klawiaturę i zawierał w sobie wszystkie dobrze przemyślane, ale co ważniejsze, porządnie i efektywnie działające funkcje. Łudziłem się też rok temu, że powstający właśnie Windows 10 zaopatrzony zostanie w znacznie bardziej rewolucyjny, albo chociaż dorównujący pozostałym programom, czytnik ekranu. Niestety, prognozy te się nie sprawdziły zupełnie. Siri jak nie było, tak nie ma, choć jakieś prace prawie na pewno są prowadzone. Obiecywany Blaze ET faktycznie został zaprezentowany i to już w styczniu 2015. Cóż z tego? Działa, tak jak działa, czyli, biorąc pod uwagę wyśrubowaną cenę, w sposób nie do końca spełniający oczekiwania użytkowników. Tu wielki minus dla HIMS, za to że nie oferują tańszych odtwarzaczy i za to, że nie posłuchali tych chcących pracować szybciej. I na koniec, Windows 10. Owszem, Narrator, szczególnie na ekranie dotykowym, w aplikacjach uniwersalnych, oferuje więcej, ale to wciąż nie to, na co czekamy.

Na zakończenie

Niby aż tak nic się nie działo, a jednak każda z gałęzi tyflorynku przyniosła w tym roku, mniej lub bardziej, coś nowego. Ogólne tendencje przez cały czas zdają się być takie same i wynikają również szerszych zmian w sposobie pracy i konsumpcji rozmaitych treści. Urządzenia mobilne używane są coraz powszechniej. Na szczęście system iOS nie popsuł się pod względem dostępności, a Android jest już na ostatniej prostej, by go dogonić. Apple TV, Apple Watch i Android TV zostały zaprojektowane również z myślą o osobach niewidomych i słabowidzących. Czytniki ekranu jakoś szczególnie się nie poprawiły, ale tu raczej nikt nie oczekiwał niczego spektakularnego. Inne, bardziej zamknięte urządzenia do skanowania i czytania, nie są jakoś szczególnie rozwijane, choć pojawienie się na rynku prostego w obsłudze, a za razem zaawansowanego odtwarzacza Orion, bardzo mnie ucieszyło. Miło, że w dalszym ciągu HIMS rozwija swój technologicznie dosyć stary notatnik, jakim jest BrailleSense. Miniony rok, ujmując tak zupełnie hasłowo to dla mnie: bardziej wielorako dostępny Android, pojawienie się w Polsce BrainPorta i wreszcie działające DAISY On-Line, czego się nie spodziewałem, a co stawia nas w światowej czołówce dobrze pomyślanego dostępu do e-publikacji. I może więc nie będę w tym roku niczego prognozował, bo niby wszystko już było, niby wszystko znamy. Oby nikt niczego nie popsuł, a kto wie. Może w coraz bardziej otwierającym się systemie iOS i Android, ktoś, niekoniecznie z rynku specjalistycznego, zaoferuje rozwiązania, które jeszcze bardziej nam pomogą. Tu po cichu liczę na możliwości lepszego wykorzystania klawiatury Apple w urządzeniach z iOS.Z ostrożnością i ciekawością czekam też na klasyczny Windows 10 w telefonach i małych tabletach, co otwiera pole do zastąpienia BrailleSense’a tańszym, co prawda mniej zwartym, ale bardziej funkcjonalnym odpowiednikiem. Czas pokaże, co z tego się sprawdzi. Następne podsumowanie najprawdopodobniej mniej więcej za rok.

Narzędzia wspomagające tłumaczenie

Natalia Hedlund

W życiu każdego człowieka przychodzi chwila, gdy zastanawia się on nad wyborem zawodu. Dokonanie tego wyboru nie jest wcale łatwe, a gdy dodatkowym ograniczeniem jest dysfunkcja wzroku, staje się ono jeszcze trudniejsze. Jakkolwiek, z przyczyn obiektywnych liczba zawodów dostępnych dla osób niewidomych i słabowidzących jest mocno ograniczona, do wyboru pozostaje jednak sporo możliwości.

W poniższym tekście zajmiemy się zawodem tłumacza oraz narzędziami, z których korzystają osoby wykonujące tę niełatwą pracę.

W starożytnej grece istnieje, wywodzone od imienia boga Hermesa, słowo „hermeneus” – posłaniec, ten, który ma coś do przekazania, a czasownik „hermeneuo” oznacza tyle, co przekładać z innych języków, objaśniać, wyrażać coś za pomocą słów. Słowa „tłumacz” starożytni używali jako synonimu słowa „pośrednik”. Mamy zatem podstawy, by uważać zawód tłumacza za jeden z najstarszych zawodów świata. Jest rzeczą bardzo prawdopodobną, że ludzie korzystali z usług tłumaczy już przed pojawieniem się pisma. Od dawna istnieją dwie formy tłumaczenia: ustna i pisemna. O ile na przestrzeni wieków reguły dotyczące tłumaczenia ustnego nie uległy praktycznie żadnym zmianom, o tyle technika wykonywania tłumaczeń pisemnych różni się obecnie w sposób istotny od tego, którym posługiwano się jeszcze stosunkowo niedawno.

Bardzo długo nieodzownym elementem miejsca pracy tłumacza była ogromna półka albo wręcz szafa biblioteczna z mnóstwem słowników, biurko zawalone brudnopisami, notatkami, fiszkami i przyborami do pisania. Pojawienie się maszyny do pisania sprawiło, że pracę można było wykonywać szybciej, łatwiej i lepiej, natomiast komputery i nowoczesne środki przekazu informacji, dając tłumaczom dostęp do edytorów tekstu, wszelkiego rodzaju słowników w formie elektronicznej oraz różnych baz danych i narzędzi do wyszukiwania, otworzyły przed tłumaczami całkiem nowe możliwości.

Czym są narzędzia CAT

Powszechnie stosowanymi i niezastąpionymi „pomocnikami” tłumaczy stały się obecnie tzw. Computer Assisted Translation Tools (narzędzia do komputerowego wspomagania tłumaczenia), zwane narzędziami CAT. Są to programy komputerowe, których cechą wyróżniającą jest posiadanie bazy tłumaczonych wyrażeń, tzw. translation memory (pamięci tłumaczenia). Tę ostatnią często myli się z tłumaczeniem maszynowym, choć to dwie zupełnie różne rzeczy. Podczas, gdy proces tłumaczenia maszynowego odbywa się w sposób całkowicie automatyczny, przy pracy z narzędziami wykorzystującymi bazy TM do tłumacza należy decyzja, jak będzie wyglądać przetłumaczony tekst.

Przyjrzyjmy się teraz bliżej, jak w praktyce działają narzędzia CAT.

Tekst oryginału, omawiane tutaj programy narzędziowe odnoszą się do niego zwykle jako do tekstu źródłowego, jest dzielony na niewielkie segmenty. Najczęściej takie segmenty to zdania, ale programy pozwalają na ustawienie odpowiednich parametrów w inny sposób. W procesie tłumaczenia powstają pary tekst źródłowy – tekst przetłumaczony (zwany technicznie tekstem docelowym), które zapisywane są w bazie danych, będącej tzw. pamięcią tłumaczenia, a następnie wykorzystywane są one przy tłumaczeniu innych dokumentów. Podczas przekładu nowego tekstu program porównuje wszystkie segmenty z tymi, które już zapisano w bazie danych. Jeśli w przebiegu tej operacji w dokumencie zostaną znalezione segmenty identyczne lub bardzo podobne do znajdujących się w bazie, program dokona automatycznego podstawienia segmentów w tłumaczonym tekście lub wstawi proponowane tłumaczenie wraz z procentowo wyrażonym wskaźnikiem zgodności między segmentem tekstu, nad którym pracujemy z segmentem zapisanym w bazie. Wartość wskaźnika zgodności, przy którym segmenty będą wstawiane do naszego tłumaczenia można regulować, ale w praktyce nie zaleca się ustawiania jej na wartość niższą od 75%, ponieważ w takim wypadku wynik będzie wymagał bardzo wielu poprawek, co oznacza, że prościej jest dokonać przekładu ręcznie. Tak więc, pracując z bazami TM, tłumaczymy segmenty niepasujące do naszej bazy danych i redagujemy te, które na podstawie naszej bazy program przetłumaczył prawie dobrze.

Baza danych TM zapamiętuje terminy i zdania, z których powstaje pamięć lub baza tłumaczeń. Ta baza lub, jeśli tłumaczenia dotyczą różnych dziedzin, bazy, rozrasta się wraz z wykonywaniem każdego kolejnego tłumaczenia, co sprawia, że z każdym nowym dokumentem czas potrzebny na tłumaczenie staje się coraz krótszy. Technologia ta jest szczególnie efektywna podczas tłumaczenia dokumentacji technicznej, instrukcji obsługi, lokalizowania oprogramowania komputerowego itd. Oprócz skrócenia czasu i zmniejszenia pracochłonności procesu, TM umożliwia zachowanie spójności terminologicznej oraz stylistycznej tłumaczonych dokumentów. Poza tym skróceniu ulega czas potrzebny zazwyczaj na końcowe formatowanie i korektę dokumentu, ponieważ jeżeli format dokumentu źródłowego jest obsługiwany przez nasz program wspomagający tłumaczenie, to z reguły podczas tłumaczenia formatowanie to jest prawie w całości zachowywane.

Formaty najczęściej obsługiwane przez aplikacje CAT to:

       Microsoft Word (.doc, docx, rtf, txt),

       Microsoft Excel (.xls),

       Microsoft PowerPoint (.ppt),

       dokumenty QuarkXPress,

       dokumenty Adobe InDesign,

       dokumenty Adobe Framemaker,

       dokumenty Adobe Pagemaker,

       dokumenty HTML (.html, .htm),

       pliki pomocy MS Windows (.chm),

       pliki (.xml).

Najbardziej popularne narzędzia wspomagające tłumaczenia to: MemoQ, Déjà vu, Wordfast, STAR Transit, Across, SDL Trados, OmegaT i Fluency.

Jak łatwo się domyślić, dla użytkowników omawianych programów nie wszystko wygląda tak ślicznie, jak mogłoby się to z powyższego opisu wydawać. Narzędzia te mają bowiem dość istotne wady. Na pierwszym miejscu niewątpliwie należy wymienić duże koszty wdrożenia, bowiem omawiane narzędzia są po prostu drogie. Gwoli ścisłości, należy powiedzieć, że wiele z nich posiada także swoje wersje bezpłatne, w praktyce zawodowej są one jednak na ogół mało przydatne ze względu na ograniczenia związane z korzystaniem z takich wersji. Ponadto, jeśli zaraz po zakupieniu programu chcemy odczuć w sposób zauważalny efekt wspomagania tłumaczenia podczas pracy z tekstami z jakiejś dziedziny, to musimy się liczyć z dodatkowymi kosztami związanymi z zakupem bazy TM lub z koniecznością ręcznego przygotowania stosownej bazy terminologicznej, ponieważ bez dobrej bazy tego rodzaju efekt korzystania z naszego programu będzie stosunkowo niewielki. Kolejną wadą, obciążającą korzystanie z takich rozwiązań, może się okazać konieczność wykonywania dużej ilości pracy ręcznie, ponieważ nawet wtedy, gdy dysponujemy obszerną bazą TM, będziemy tłumaczyć teksty, w których ilość pasujących segmentów będzie stosunkowo niewielka, wiele segmentów będzie trzeba tłumaczyć samodzielnie, a w wielu wypadkach segmenty będą wymagały gruntownej redakcji. Tak czy inaczej, tłumaczenia z pewnością nie uda się w pełni zautomatyzować.

Co użytkownik wiedzieć powinien

Obok wymienionych powyżej ograniczeń, z którymi muszą się liczyć wszyscy tłumacze, chcący w swej pracy korzystać z narzędzi CAT, są i takie, które wynikają z konieczności posługiwania się technologiami wspierającymi. Narzędzia, o których mówimy niestety zazwyczaj nie są kompatybilne z czytnikami ekranu. Spośród licznych dostępnych na rynku aplikacji tego rodzaju, tylko niektóre będziemy w stanie obsłużyć, ponieważ zazwyczaj twórcy tego oprogramowania w ogóle nie biorą pod uwagę potrzeb osób z niepełnosprawnościami. Najprawdopodobniej nie zdają sobie sprawy z konsekwencji, jakie pociąga za sobą konieczność interakcji z czytnikami ekranu, a w większości wypadków o czytnikach ekranu zwyczajnie nie słyszeli.

Najbardziej popularna wśród tłumaczy oraz biur tłumaczeniowych aplikacja wspomagająca tłumaczenia to Trados. W praktyce oznacza to, że bardzo często warunkiem koniecznym zatrudnienia w biurze tłumaczeniowym lub uzyskania zlecenia na wykonanie tłumaczenia jest posługiwanie się tą aplikacją. Czasami można wręcz odnieść wrażenie, że powyższa umiejętność jest dla zleceniodawców ważniejsza niż sama znajomość języków. Mogłoby się zatem wydawać, że tak twórcy Tradosa, jak i czytników ekranu powinni być zainteresowani dostępnością aplikacji, a tym samym stworzeniem środowiska pracy dostępnego dla niewidomych i słabowidzących tłumaczy, lecz rzecz nie jest tak prosta, jak się to na pozór wydaje.

Najbardziej dostępnymi wersjami Tradosa były: Trados 2007 i Trados 7. Do edycji tłumaczonego tekstu można było używać programu MS Word, a nawigację między segmentami realizowało się za pomocą odpowiedniego panelu aplikacji Trados, który podczas instalacji programu był „integrowany”  z naszym edytorem tekstu. Z powyższego panelu można było ponad to realizować specyficzne funkcje ułatwiające tłumaczenie. Choć trzeba powiedzieć, że część tych funkcji była niedostępna, a niektóre, jakkolwiek dostępne, sprawiały użytkownikowi trudność w korzystaniu. Na przykład okno zgodności – okno, w którym można było zobaczyć ułożone w postaci listy warianty słów, dawało się podczas tłumaczenia wywołać gorącym klawiszem, możliwa była także nawigacja po liście oferowanych podpowiedzi, ale wybór elementu z tej listy, a tym samym proste wklejenie podpowiedzi do tłumaczonego tekstu, dla użytkownika czytnika ekranu było niemożliwe - ani za pomocą kombinacji klawiszy, ani też symulowanego przycisku myszki. Wraz z ukazaniem się Tradosa w wersji 2009 dostępność uległa dalszemu pogorszeniu. Korzystanie z kluczowej dla tłumaczy funkcji „multiterm”, umożliwiającej tworzenie par terminologicznych, czyli czegoś w rodzaju własnego, dostosowanego do potrzeb tłumaczonego tekstu słownika, stało się praktycznie niemożliwe.

Z aplikacji zniknęła ponadto możliwość pisania tłumaczeń w edytorze MS Word. Użytkownik był zmuszony do korzystania wyłącznie z interfejsu aplikacji Trados. Korzystając z dostępnej w czytnikach ekranu funkcji symulacji myszki, można było czytać tekst w języku oryginału, ale okno do wprowadzania tłumaczonego tekstu stało się dla czytników ekranu niewidoczne. Jedyną dostępną częścią interfejsu aplikacji było okno ustawień pamięci tłumaczenia (TM). Wraz z wersją 2011 aplikacji Trados sytuacja uległa pewnej poprawie, lecz dalszy rozwój aplikacji znowu spowodował pogorszenie w dziedzinie dostępności.

Poszukujemy rozwiązania

Tłumacze z dysfunkcją wzroku, co rozumie się samo przez się, nie siedzą z założonymi rękami. Wielokrotnie środowisko to podejmowało próby dotarcia z informacją o opisanych powyżej problemach do twórców oprogramowania wspomagającego tłumaczenia, a w szczególności do rozwijającej pakiet Trados firmy SDL. Początkowo spotkało się to nawet z pewnym zainteresowaniem. SDL obiecała wziąć pod uwagę potrzeby naszego środowiska i uwzględnić podczas tworzenia kolejnej wersji czy też poprawek do wersji istniejących wymagania techniczne związane z dostępnością swojego oprogramowania. SDL Trados współpracowała nawet przez pewien czas z Freedom Scientific. Znaleźli się także entuzjaści, którzy od czasu do czasu z mniejszym lub większym powodzeniem próbują tworzyć skrypty ułatwiające użytkownikom Jaws dla Windows pracę z oprogramowaniem firmy SDL.

Pośród tych prób na szczególną uwagę zasługuje przeprowadzone kilka lat temu we Włoszech, z inicjatywy jednej ze studentek instytutu LUSPIO, badanie możliwości wykonywania tłumaczeń z użyciem pakietu Trados Studio 2009 i Jaws w wersji 10. Kierownikiem projektu był Fiorenza Mileto. Podczas testów opisano zasadnicze trudności, pojawiające się podczas prób uzyskania poprawnej współpracy pakietów Trados i Jaws. Dzięki pomocy niewidomego programisty Giovanniego Cellucci z Istituto Cavazza w Bolonii udało się rozwiązać problemy z dostępnością etykiet, a ponadto znaleziono sposób na przełączanie kursora między oknami dokumentu źródłowego i docelowego. Dzięki temu podstawowe funkcje pakietu Trados stały się dostępne dla tłumaczy z dysfunkcją wzroku. Po wprowadzeniu opracowanych modyfikacji do testowego stanowiska pracy Stefania Caccamo, studentka sekcji przekładów Instytutu LUSPIO, otrzymała zadanie przetestowania w praktyce możliwości pracy z pakietem Trados przy użyciu Jaws dla Windows. Testy wymagały opanowania podstawowych funkcji pakietu Trados, co w praktyce oznaczało nauczenie się na pamięć bardzo wielu skrótów klawiszowych, ponieważ w wielu przypadkach przyciski i okna aplikacji Trados były niedostępne dla Jaws. Następnie testerka otrzymała zadanie wykonania tłumaczenia pliku HMTL z wykorzystaniem dostarczonej dla celów tłumaczenia bazy terminologicznej oraz pamięci tłumaczenia TM. Stefania zdołała utworzyć nową pamięć TM oraz importować do swojego tłumaczenia istniejącą bazę TM, skonwertować słownik zapisany w formacie *.xls, utworzyć własną bazę terminologiczną oraz importować bazę terminologiczną z SDL Multiterm 2009. Wreszcie przetłumaczyła dokument testowy, zachowując jego formatowanie. Bez wątpienia wyniki powyższe należałoby uznać za zadowalające, lecz niestety obecnie projekt nie jest kontynuowany i od tamtej pory nikt nie zajmuje się dostępnością pakietu Trados.

Alternatywne sposoby pracy

W związku z opisywanymi powyżej trudnościami, powstającymi podczas korzystania z oprogramowania specjalistycznego, wielu niewidomych i słabowidzących tłumaczy wybiera obchodzenie się bez owych narzędzi i szuka alternatywnych sposobów uzyskiwania zleceń na tłumaczenia oraz wykonanie pracy. Najbardziej rozpowszechnionym sposobem rozwiązywania problemu jest szukanie zleceń na wszelkich dostępnych portalach dla freelancerów. Z reguły można tam znaleźć tłumaczenia niewymagające korzystania ze specjalistycznego oprogramowania. Wielu tłumaczy, zamiast zajmować się tłumaczeniami, przyjmuje prace innego rodzaju. Wykonują oni korektę i redakcję tekstów, transkrypcję materiałów audio, a niekiedy zajmują się nauczaniem języków za pośrednictwem komunikatorów internetowych. Pewna grupa tłumaczy z dysfunkcją wzroku zajmuje się tłumaczeniami ustnymi. Wykonują oni swą pracę na konferencjach, w sądach lub jako pracownicy dużych firm.

Ostatnio zyskują na popularności tzw. tłumaczenia serwerowe lub chmurowe. W takim wypadku materiał tłumaczony przechowywany jest na serwerze lub w chmurze. Pracę wykonuje się za pomocą interfejsu webowego, choć czasami istnieje możliwość pobrania dokumentu do tłumaczenia w formacie programów MS Word lub Excel, a następnie zwrócenia gotowego tłumaczenia na serwer. Serwisy te są zazwyczaj dość dobrze dostępne dla czytników ekranu. W każdym razie warto przyjrzeć się im uważnie, bo istnieje duża szansa, że wśród tych portali znajdziemy coś, co nam odpowiada.

Dostępne narzędzia CAT

Choć trados wydaje się być w swojej dziedzinie niekwestionowanym, światowym liderem, to istnieją nieustępujące mu w niczym rozwiązania alternatywne. A oto kilka przykładów.

Wordfast – aplikacja instalowana jako wtyczka rozszerzająca funkcje MS Word. Z programem tym pracuje się podobnie jak z Tradosem w wersji 2007. Innym programem tego rodzaju jest Transit NXT. Bardzo wiele czynności podczas pracy z tą aplikacją można wykonać za pomocą skrótów klawiszowych, co samo w sobie czyni go stosunkowo dobrze dostępnym dla użytkowników z dysfunkcją wzroku. Wśród użytkowników dość częsta jest opinia, że obsługa aplikacji przy użyciu Jaws jest wystarczająca do normalnej pracy.

Za dostępne narzędzie uchodzi także program Déjà Vu.Opinia ta jednak dotyczy wersji 2.0, a wersja aktualna to 3.0.

Najbardziej popularnym narzędziem wspomagającym tłumaczenie jest wśród użytkowników z dysfunkcją wzroku produkowany przez amerykańską firmę Western Standard pakiet Fluency. Twórcy tej aplikacji od początku procesu jej tworzenia brali pod uwagę specyficzne potrzeby wynikające z dostępności. Są oni otwarci na wszelkie uwagi i sugestie użytkowników. Po instalacji program wymaga kilku prostych kroków konfiguracyjnych. W ustawieniach należy włączyć tryb dostępności i można przystąpić do pracy. Wiele poleceń aplikacji można wykonać, korzystając z gorących klawiszy, co sprawia, że praca z Fluency jest bardzo wygodna. Ponadto każdy nowy użytkownik programu może uzyskać bezpłatnie godzinną lekcję korzystania z jego funkcji. Pracownicy wsparcia technicznego są przygotowani do współpracy z użytkownikami czytników ekranu i uwzględniają w swoich wskazówkach specyficzne potrzeby wynikające z korzystania z technologii wspierających.

Gdy już przybliżyliśmy Czytelnikom problemy, z którymi musi się zmierzyć niewidomy lub słabowidzący tłumacz i opowiedzieliśmy o nowoczesnych narzędziach wspomagających proces tłumaczenia, Czytelnik, który zastanawia się nad taką drogą rozwoju zawodowego z pewnością będzie umiał postawić dalsze ważne dla niego pytania i wyciągnąć stosowne wnioski. Jak długo rozwój oprogramowania komputerowego nie będzie podlegał zasadom projektowania uniwersalnego, tak długo osoby z niepełnosprawnościami będą musiały zmagać się z trudnościami wynikającymi z natury ich niepełnosprawności, a znalezienie pracy, jak i jej wykonywanie będzie powodować różnego rodzaju trudności. Nie należy oczekiwać cudów i liczyć na radykalną poprawę sytuacji w bliskiej przyszłości, ale siedzenie z założonymi rękami i narzekanie na niesprawiedliwość świata także nie jest dobrym pomysłem. Każdy zawód ma swoje wady i zalety, każdy wymaga właściwych predyspozycji i umiejętności. W tym względzie zawód tłumacza jest podobny do pozostałych. Jeśli zatem ktoś interesuje się kulturami innych krajów, lubi uczyć się języków obcych, a przebywanie wśród ludzi i pomaganie im we wzajemnym zrozumieniu sprawia mu przyjemność, to warto, by przemyślał zdobycie wykształcenia w zawodzie tłumacza. Być może jest to jego powołanie.

Przydatne linki

Strona firmy SDL -  www.trados.com

Wtyczka WordFast dla MS Word - www.wordfast.com

Strona producenta programu Transit NXT - www.star-group.net

Atril – producent programu Déjà Vu - www.atril.com

Western Standard – producent pakietu Fluency - www.westernstandard.com

Na koniec odnośnik do listy mailingowej dla tłumaczy z dysfunkcją wzroku , której tematem są zagadnienia związane z tłumaczeniami, nauką języków obcych i zagadnienia pokrewne:  http://lists.screenreview.org/listinfo.cgi/theroundtable-screenreview.org

Beacony, czyli szczypta optymizmu

Tomasz Koźmiński

O beaconach i możliwościach wiążących się z ich stosowaniem napisano już sporo. To jedna z najbardziej popularnych technologii ostatnich miesięcy. Beacony z powodzeniem sprawdzają się między innymi w centrach handlowych, w muzeach czy na stadionach sportowych, te niepozorne urządzenia potrafią jednak znacznie więcej.

Z punktu widzenia osób z dysfunkcją wzroku, beacony to nadzieja na stworzenie systemu pozwalającego w sposób całościowy zaspokoić ich potrzeby związane z nawigacją, podnosząc tym samym znacząco jakość życia tej grupy społecznej. Zagadnienia związane z nawigacją znacznie wykraczają poza proste zadanie polegające na dotarciu z punktu A do punktu B. Równie istotnym elementem tego procesu jest zdobywanie i przetwarzanie informacji o otoczeniu.

Jak to działa?

Każdego dnia, poruszając się po hipermarketach, galeriach handlowych czy arenach sportowych, mijamy beacony.

Beacony to swego rodzaju nadajniki. Funkcję odbiorników w systemie pełnią smartfony wyposażone w stosowne aplikacje, których zadaniem jest obsługa informacji przekazywanych przez beacony. Co ważne, smartfony mogą wykorzystywać GPS oraz Bluetooth 4.0 do ustalania naszej lokalizacji. Ten pierwszy sprawdza się w szczególności na otwartej przestrzeni, ale niestety nie radzi sobie w zamkniętych pomieszczeniach.

O aplikacjach ułatwiających osobom z dysfunkcją wzroku korzystanie z nawigacji GPS pisaliśmy już wielokrotnie na łamach Tyfloświata. Sprawdzają się one dobrze w przestrzeni miejskiej i nie tylko, ale gdy wchodzimy do budynku korzystanie z sygnału GPS, ze względu na właściwości fizyczne fal używanych do transmisji sygnału GPS przez satelity, jest praktycznie niemożliwe. Co więcej, w dużych aglomeracjach miejskich zakłócenia tego sygnału uniemożliwiają niejednokrotnie nawigację także na zewnątrz budynków.

Ale nawigacja to nie tylko proste znalezienie pozycji na mapie. Osoba niewidoma potrzebuje informacji o swoim położeniu wewnątrz budynku, o tym dokąd prowadzą drzwi, obok których się znajduje, gdzie jest okienko, przy którym można załatwić swoją sprawę lub jak dojść do windy. Z takimi zadaniami odbiornik sygnału GPS z pewnością sobie nie poradzi. Rozwiązaniem problemów tzw. mikrolokalizacji czy mikronawigacjibeacony. Te, wykorzystujące  Bluetooth Low Energy, mikronadajniki doskonale uzupełniają lukę w systemie nawigacyjnym.

Wysyłany przez nie sygnał “odczytywany” jest przez aplikację na smartfonie użytkownika, gdy pojawi się w zasięgu urządzenia. W ten sposób beacony ułatwiają podróżnym poruszanie się po lotniskach, prowadzą osoby niewidome w metrze, urozmaicają wizyty w muzeach albo informują o specjalnych ofertach w centrach handlowych.

Beacony to coraz częściej spotykany element nowoczesnej infrastruktury. Dzięki upowszechnianiu się idei projektowania uniwersalnego twórcy aplikacji, które wykorzystują beacony, coraz częściej zauważają potrzeby osób z niepełnosprawnością, co wyraża się w tworzeniu oferty zaspokajającej potrzeby tej grupy. Już teraz smartfony pomagają nam na lotniskach, w metrze, w muzeach itd.

Aby nawigacja wykorzystująca sygnał transmitowany przez beacony była w ogóle możliwa, nadajniki te muszą być rozlokowane i ustawione w dobrze przemyślany sposób.

Plan sieci beaconów musi uwzględniać czynniki takie jak: konstrukcja budynku, natężenie ruchu wewnątrz budynku czy wreszcie wymaganą w danym miejscu precyzję pomiaru pozycji użytkownika systemu potrzebną do efektywnej nawigacji.

Pomiar położenia użytkownika pełnosprawnego może być dokonywany z mniejszą częstotliwością, a tym samym być mniej precyzyjny niż ten, który służy do prowadzenia osoby niewidomej. Użytkownik z dysfunkcją wzroku, ze względu na specyfikę swoich potrzeb nawigacyjnych, musi czasami korzystać z gęstszej sieci beaconów niż użytkownik pełnosprawny. Częstszy pomiar wraz z większą liczbą punktów pomiarowych zapewnia bowiem dokładniejsze pozycjonowanie, a tym samym umożliwia np. wykonywanie zadań bardzo precyzyjnych jak odnajdowanie drzwi czy okienek w urzędzie.

Praktyczne implementacje

Obecnie na całym świecie prowadzi się wiele testów rozwiązań zaprojektowanych z myślą o użytkownikach z dysfunkcją wzroku.

Jedno z takich rozwiązań jest testowane w Krakowie. Firma, dla której pracuję, testowała aplikację wspomagającą nawigację po budynkach. Zadanie okazało się być bardziej skomplikowane niż wydawało się to na początku. Okazało się, że stworzenie dobrze działającego systemu do mikronawigacji wymaga bardzo dużo pracy i wielu prób. Zadaniem, które sobie postawiliśmy jest prowadzenie niewidomego użytkownika do wyznaczonego celu oraz informowanie go za pośrednictwem smartfona o występującym zagrożeniu. Testowana aplikacja daje możliwość wyboru drogi do miejsca docelowego w taki sposób, że bieżąca pozycja użytkownika traktowana jest jako miejsce startu.

Dołączenie do tego informacji dotyczącej np. interesującej użytkownika instytucji, sklepu czy urzędu, wraz z listą możliwych do załatwienia tam spraw, czy połączenie z usługą polegającą na pobraniu elektronicznego bloczka nie stanowi już problemu.

Więcej niż nawigacja

Oprócz informacji dotyczącej naszego położenia możemy, za pomocą beaconów, uzyskać precyzyjne dane dotyczące np. tego, co da się załatwić w danym miejscu, ale to nie wszystko. W muzeum możemy np. otrzymać informacje o otaczającej nas ekspozycji. W galerii handlowej przechodząc obok sklepu dostaniemy coś w rodzaju jego etykiety wraz z materiałem reklamowym lub informacjami o promocjach. W sklepie dowiemy się o produktach lub nowościach stosownie do działu, w którym się znajdujemy. Na lotniskach beaconów używa się do prowadzenia podróżnych i zarządzania bramkami. Korzystając ze stosownej aplikacji, otrzymamy informację, z której bramki należy skorzystać, by dostać się na pokład interesującego nas samolotu, a w przypadku większej liczby osób przy jakiejś bramce pracownicy zarządzający ruchem na lotnisku będą mieć możliwość automatycznego uruchomienia dodatkowej bramki.

Beacony coraz częściej wykorzystuje się do zarządzania przemieszczaniem się osób w sytuacjach krytycznych, w momentach zagrożenia naszego bezpieczeństwa. Za pośrednictwem beaconów można w takich sytuacjach przekazać informacje np. o tym, gdzie znajduje się najbliższe wyjście ewakuacyjne czy którędy mamy się udać do strefy bezpiecznej.

Systemy wykorzystujące beacony są coraz częściej łączone z urządzeniami i programami do monitorowania budynków. Pozwala to np. na uzyskiwanie informacji o natężeniu ruchu w galerii lub jakże ważnych dla właściciela placówki handlowej danych o tym, które stoisko albo wręcz jaki produkt wzbudził największe zainteresowanie.

Gama zastosowań beaconów jest tak szeroka, że można śmiało powiedzieć, iż ogranicza nas chyba tylko wyobraźnia. Wielu producentów posiada w swojej ofercie różne rodzaje tych urządzeń, sprawdzające się w rozmaitych warunkach: wodoodporne, pyłoodporne, wstrząsoodporne, monitorujące pracę innych beaconów, itd.

Na rynku obecne są nadajniki małe – nadające wyłącznie sygnał, ale także urządzenia bardziej skomplikowane, których zadaniem jest monitorowanie pracy beacona, stanu jego baterii oraz innych parametrów.

Jedno z przykładowych rozwiązań to beacony z akcelerometrem.

Urządzenia takie montowane są do rowerów jako elektroniczna blokada, która w momencie poruszenia naszego roweru prześle nam na telefon stosowną informację. Beacony montuje się także do samochodów, gdzie mają podobne zastosowanie. Jednakże beacon w samochodzie może spełniać jeszcze inne zadania. Dzięki stosownej aplikacji zainstalowanej w smartfonie pomoże nam odnaleźć samochód zaparkowany np. na wielopiętrowym parkingu przy galerii handlowej.

Jak z powyższego widać beacony nie muszą być urządzeniami stacjonarnymi. Używa się ich do nadzorowania różnych obiektów, ale nadzór taki może obejmować także ludzi. Przykładowe zastosowania obejmują obszar od telemedycyny, poprzez nadzór penitencjarny, po monitorowanie aktywności osób znajdujących się w strefach o podwyższonym zagrożeniu. Takie beacony mają formę opasek na rękę. Są więc wygodne, a przy tym praktycznie niezniszczalne. Prowadzono próby zamrożenia, rozbicia czy zalania beaconu wodą.

W szpitalach beacony mogą pełnić funkcję wirtualnej karty pacjenta. Rozwiązanie takie, obok zapewnienia poufności danych osobowych, jest dla lekarza wygodne, ponieważ nie musi on nosić ze sobą całej dokumentacji medycznej, lecz ma do niej dostęp za pośrednictwem telefonu lub szpitalnego systemu komputerowego.

Czytelnicy być może powiedzą, że te wszystkie zaawansowane smartfony mogą stanowić problem zwłaszcza dla osób starszych, ale i w takiej sytuacji możemy znaleźć dobre rozwiązanie. Z pomocą przyjdzie nam nadajnik w formie breloka, który będzie wysyłał unikatowy sygnał. Taki „identyfikator” np. uruchomi sygnalizację dźwiękową na przejściu dla pieszych albo poinformuje, że w budynku znajduje się osoba niepełnosprawna i potrzebuje pomocy. Przykładem takiej implementacji są podjęte niedawno prace nad stworzeniem białej laski wykorzystującej sygnał nadawany przez beacony.

Więcej informacji zainteresowani tym tematem znajdą na stronie projektu Beacons For Good

(www.beaconforgood.org),

Już dziś osoby z dysfunkcją wzroku mogą korzystać z mikronawigacji, używając np. aplikacji Blindsquare (www.blindsquare.com), wdrożonej m.in. w kampusach studenckich i centrach handlowych. W samej aplikacji jakiś czas temu pojawiła się opcja „Radar beaconów”. Jest ona wykorzystywana w miejscach, które zostały przystosowane dla niewidomych i słabowidzących jak np. galeria w Helsinkach. więcej o tym projekcie można przeczytać na stronie producenta, gdzie dostępna jest również multimedialna prezentacja tego rozwiązania.

Inną aplikacją tego rodzaju jest Wayfindr (Wayfindr.net), która informuje niewidomych o linjach metra w londyńskim metrze oraz wspomaga nawigację na stacjach.

Rozwijając projekt Beacons for good, poszukujemy nowych form wsparcia dla osób niepełnosprawnych. Zapraszamy niewidomych i słabowidzących informatyków do przyjrzenia się tej technologii, a może razem stworzymy coś dla całej naszej społeczności.

Gorąco zachęcam do odwiedzenia naszej strony, inspirowania się i zgłaszania projektów, które moglibyśmy wspólnie z partnerami wesprzeć.

Rewolucja brajlowska

Damian Przybyła

Brajlem czyta się wolno. Książki są ciężkie i zajmują dużo miejsca. Syntezator mowy przeczyta wszystko szybciej, a poza tym monitory brajlowskie są tak strasznie drogie, że i tak nikogo na nie nie stać. Zdania powyższe streszczają, jak sądzę dobrze, poglądy powszechnie uznawane przez większość wypowiadających się w tej sprawie osób za słuszne. Dlatego nie będziemy tutaj opinii powyższych obalać.

Nie bez powodu osoby z dysfunkcją wzroku tworzą grupę pionierów nowych technologii. Ale czy nowe technologie stanowią dla brajla alternatywę lub, co gorsza, stoją do niego w opozycji? Nic bardziej błędnego.

Od czasu wynalezienia pisma człowiek cywilizowany posługuje się nim do przetwarzania, przechowywania i rozpowszechniania informacji. Nie ma powodu, by sądzić, że uszkodzenie wzroku pociąga za sobą jakąś tajemniczą zmianę preferencji w tym względzie. Dlaczego zatem w ostatnich latach tak bardzo spadła wśród osób z dysfunkcją wzroku liczba czynnych użytkowników brajla? Przyczyn jest wiele, ale nie są one tematem niniejszego tekstu. Ograniczymy się do prostego pytania. Brajl odchodzi, bo nie jest niewidomym potrzebny, czy też odchodzi, bo osoby z dysfunkcją wzroku nie mają realnej możliwości korzystania z pisma?

Na tak postawione pytanie badacze w wielu krajach udzielili jednoznacznej odpowiedzi. Niewidomi odchodzą od brajla, bo technologia pozwalająca na nowoczesne korzystanie z pisma jest dla nich z przyczyn ekonomicznych po prostu niedostępna. Konsekwencją takiej konkluzji są trwające w wielu miejscach na całym świecie próby stworzenia taniej technologii, dającej dostęp do informacji w postaci tyflograficznej.

Ostatnio naszą uwagę zwróciły dwa potencjalnie obiecujące rozwiązania.

Pierwsze z nich, to opracowywany w Michigan University panel tyflograficzny.

Drugim jest znajdujący się w końcowej fazie wdrożenia do produkcji Braille E-book Reader.

Wspaniała obietnica na przyszłość

Rozwiązanie amerykańskie wygląda na potencjalnie bardzo obiecujące. Jak czytamy na stronie projektu, ze względu na wykorzystywaną technologię panel może służyć do pokazywania pisma brajlowskiego, lecz także, dzięki drobnym bąbelkom rozmieszczonym w panelu nie jak punkty brajlowskie, lecz raczej jak piksele w matrycy optycznej, do pokazywania wypukłych rysunków o gładkich liniach. Opracowywany panel ma wykorzystywać tzw. technologię mikrofluidową. Mówiąc prosto, ma on być czymś w rodzaju porowatej struktury, która w kontrolowany sposób będzie się wypełniać gazem lub cieczą. Takie rozwiązanie ma umożliwiać uzyskiwanie struktur wypukłych o różnej fakturze. Ponad to, co chyba jeszcze ciekawsze, panel ma być przezroczysty. Dzięki temu możliwe byłoby umieszczanie takich paneli na praktycznie dowolnym wyświetlaczu z ekranem dotykowym, a w konsekwencji udostępnianie dowolnego wyświetlacza osobom z dysfunkcją wzroku. Założenia projektu są jak widać wspaniałe, ale czy twórcom uda się pokonać stojące przed nimi, jak twierdzą, niewielkie ograniczenia technologiczne? Czy tworzone z mikrobąbelków wypukłości będą dobrze czytelne dla użytkowników? Czy układy logiczne potrzebne do kontrolowania stanu poszczególnych komórek panelu spełnią zawarte w koncepcji urządzenia oczekiwania? Na obecnym etapie prac inżynierowie z Michigan University mają panel umożliwiający pokazanie jednoznakowego modułu brajlowskiego. Deklarują, że panel, który mógłby mieć praktyczną wartość użytkową dla osoby z dysfunkcją wzroku powinien zawierać około 10000 punktów. Faza laboratoryjna projektu zakończy się we wrześniu. Spróbujemy wtedy dowiedzieć się, jakie ostatecznie wyniki udało się uzyskać.

Brajlowski czytnik

Opracowywany przez Bristol Braille Technologies Braille E-book Reader to rozwiązanie, którego autorzy przyjęli inne założenia projektu. Celem ich nie jest, jak to ma miejsce w pierwszym przypadku, stworzenie uniwersalnego panelu tyflograficznego, lecz wyprodukowanie możliwie najtańszego monitora brajlowskiego. Jak mówią, celem jest doprowadzenie do tego, by nowoczesna technologia brajlowska nie była elitarna. Aby to osiągnąć twórcy przyjęli założenie, że o ile to możliwe, podczas budowy swojego urządzenia, będą korzystać z elementów powszechnie dostępnych, a oprogramowanie, które zastosują, będzie w całości open source. Aby cena urządzenia była możliwie najniższa, twórcy świadomie zdecydowali się na ograniczenia funkcjonalne. Czytnik będzie obsługiwał wyłącznie brajla sześciopunktowego, nie przewiduje się montowania w urządzeniu modułów Wi-Fi czy Bluetooth. Przygotowanie materiałów do czytania będzie się musiało odbyć na komputerze użytkownika. I wreszcie – użyta do realizacji pisma brajlowskiego technologia nie ma rewelacyjnego czasu odświeżania (załadowanie strony tekstu trwa około 8 sekund), a, co za tym idzie, omawiane tutaj urządzenie nie będzie zbyt dobrym terminalem brajlowskim.

Autorzy są oczywiście otwarci na wszelkie sugestie, a tym samym dopuszczają wykorzystanie ich urządzenia w charakterze komputerowego monitora brajlowskiego. Odbyły się już nawet wstępne rozmowy z twórcami czytnika NVDA. Co więcej, ponieważ tak software, jak i hardware tworzone są na licencji open source, można się spodziewać powstania modyfikacji urządzenia. Jak i komu rozwiązanie takie ma się opłacać? Bristol Braille Technologies działa jako instytucja non-profit. Jak twierdzą twórcy czytnika, powodzenie ich projektu zależy od zainteresowania samych użytkowników. W grupie docelowej dla swego produktu widzą instytucje edukacyjne oraz aktywnych zawodowo niewidomych. Zakładają, że cena urządzenia ma dla użytkownika końcowego wynieść około 440 funtów brytyjskich (2500-3000 złotych).

Prace nad stworzeniem omawianego czytnika rozpoczęły się w roku 2012, a obecna wersja jest już siódmą z kolei. Na stronie twórców projektu zainteresowani mogą zobaczyć filmową prezentację wersji wcześniejszej. Ponieważ urządzenie jest wciąż w fazie prototypowej, trudno mówić w tej chwili o danych technicznych w sensie ścisłym. Na obecnym etapie dysponujemy jedynie przybliżeniami. Oczekiwane wymiary czytnika to 33x36x4 cm. Bateria ma wystarczyć na przeczytanie 200 stron tekstu. Każda strona to 16 linii po 32 znaki. Obszar pokazywanego tekstu to powierzchnia porównywalna z kartką w formacie A4. Pytany o przewidywaną wagę urządzenia przedstawiciel Bristol Braille Technologies powiedział: chcemy, żeby nosiło się wygodnie w tornistrze.

Szanse realizacji

Wielu interesujących się powyższą problematyką Czytelników zadaje sobie zapewne pytanie, czy aby nie poruszamy się w sferze pobożnych życzeń. Zdrowy rozsądek podpowiada przecież, że produkt może być tani albo dobry. Naszym zdaniem należy tym razem mieć nadzieję na powodzenie projektu, którego celem jest udostępnienie informacji w formie dotykowej. Optymizmem napawa fakt, że przekazywaniem bodźców dotykowych w formie cyfrowej interesują się nie tylko niewidomi. Co więcej, stanowią oni być może istotny, ale tylko niewielki ułamek grupy zainteresowanych. Interfejs dotykowy przyda się lekarzom, graczom komputerowym czy szeroko rozumianej branży rozrywkowej, by wymienić pierwsze z brzegu przychodzące do głowy hipotetyczne implementacje. Przytoczone powyżej rozwiązania są tylko przykładami tego, co robi się, by znaleźć sposób na digitalizację bodźców dotykowych. Wygląda więc na to, że w niedalekiej przyszłości czeka nas rewolucja brajlowska.

Windows 10 – za i przeciw aktualizacji

Paweł Rydygier

Wielu użytkowników komputerów ma wątpliwości, kiedy nowy system pojawia się na rynku. Czy słusznie? Bez wątpienia system Windows 10 wyróżnia się na tle swoich poprzedników: szczególnie zaś średnio udanych systemów Windows 8 i 8.1.  Przekonajmy się zatem, w jakim stopniu Windows 10 poprawił komfort korzystania z komputerów. Dużym zaskoczeniem jest fakt, że po raz pierwszy firma Microsoft pozwoliła na darmową aktualizację systemu. Od 29 lipca bieżącego roku Windows 10 jest dostępny w 190 krajach. Większość użytkowników Systemów Windows 7, 8 i 8.1, otrzymała już monit z pytaniem o chęć aktualizacji do najnowszych okienek. Aby zweryfikować, czy warto to robić, omówmy najważniejsze zagadnienia.

Aktualizacja systemu

Wiele osób chętnie skorzystałoby z darmowej aktualizacji. Różni się ona w zależności od używanego wcześniej systemu. Kopia Windows 10 Professional jest dostępna dla użytkowników posiadających system Windows 7 Ultimate lub Professional oraz Windows 8 i 8.1. Na rok przed oficjalną premierą Dziesiątki firma Microsoft przygotowała program Windows Insider, w którym uczestniczy obecnie około pięciu milionów osób odpowiedzialnych za testowanie najnowszej wersji Windows na własnych komputerach. Program, mimo upublicznienia oficjalnej wersji Windows 10, jest nadal kontynuowany i wszyscy chętni testerzy mogą w dalszym ciągu sprawdzać działanie nowych funkcji przed ich oficjalnym wdrożeniem.

Jeśli chodzi o aktualizacje nowych funkcji, Windows Update trzyma pieczę nad instalacją. Jako inteligentne narzędzie nie dopuści do uruchomienia komputera bez wcześniejszego ostrzeżenia, ponieważ pamięta, jaka jest częstotliwość korzystania z komputera. Zaplanowanie instalacji ręcznej na wybrany termin nie stanowi żadnego problemu. W przypadku nagłej potrzeby przeinstalowania systemu, firma Microsoft przewidziała odtworzenie kopii po pobraniu pliku ISO systemu i możliwość zainstalowania go, za pomocą tego samego klucza produktu. Numer seryjny zapisywany jest w takim przypadku na naszym koncie Microsoft  - tym samym, którym logujemy się np. do sklepu Windows Store. W przypadku, gdy w naszym komputerze zostanie wymieniony twardy dysk lub doprowadzimy system do stanu, w którym bezskuteczny okaże się proces jego naprawy, możliwe będzie pobranie standardowego pliku ISO i uzyskanie klucza produktu w sklepie. Microsoft zapowiada również, iż dla wygody użytkowników, możliwe już niedługo będzie autoryzowanie czystej instalacji Windows 10 za pomocą kluczy produktów Windows 7 i 8.

Oczywiście aktualizacja do Windows 10 nie jest obowiązkowa. Pamiętać jednak należy, że po 2020 roku firma nie będzie już dostarczać aktualizacji do systemu Windows 7, a więc stanie się z nim to, co z systemem Windows XP -  nie będzie można liczyć na pomoc techniczną, a nowo wykryte błędy nie będą naprawiane. Pośpiechu jednak nie ma, od premiery nowych okienek mamy cały rok na podjęcie decyzji o przeprowadzeniu, bądź nie, darmowej aktualizacji. Interesującym jest również fakt, że z możliwości aktualizacji do Windows 10 mogą skorzystać nawet ci, którzy posiadają nielegalne wersje Windows 7 lub 8. Nie oznacza to jednak, że zainstalowana w ten sposób kopia systemu staje się legalną i nie uchroni to użytkownika od poniesienia konsekwencji prawnych w razie ewentualnej kontroli.

Wymagania sprzętowe

Specyfikacja sprzętowa dla systemu Windows 10 to procesor o zegarze minimum 1 GHz, 20 GB miejsca na dysku, karta graficzna obsługująca przynajmniej sterownik DirectX 10 oraz 2 GB pamięci. „Dziesiątka” może przypominać ulepszoną wersję systemu Windows 8.1. Niewątpliwym atutem jest powrót menu Start, zawierającego kafelki z systemu Windows 8. Tak jak w Windows 7, w nowym systemie będzie możliwość dostępu do elementów interfejsu za pomocą klawiatury. Wszystkie programy są uruchamiane w oknach znajdujących się na pulpicie.

Istotna informacja dla osób słabowidzących, korzystających z ekranów dotykowych i tabletów: gdy Windows 10 wykrywa swoją obecność na urządzeniu typu tablet, automatycznie dostosowuje się do użytkownika, by ułatwić mu zarządzanie nim. Przyciski na pasku zadań są większe, co wpływa na łatwiejsze surfowanie po Internecie. Nowy system jest też przystosowany do pracy na urządzeniach typu dwa w jednym. Po odłączeniu klawiatury od urządzenia, system zapyta o chęć zmiany widoku na odpowiedni dla tabletu. Windows 10 sprawdzi się także w smartfonach i tabletach o małych rozmiarach. Wracając do Menu Start, jest ono połączeniem menu znanych z Windowsa 7 i 8. Po lewej stronie osoby o niskiej ostrości wzroku mogą sprawdzić za pomocą klawiatury listę ostatnio przeglądanych programów. Pojawiły się też nowe aplikacje Microsoftu, które z czasem zostaną zastąpione najczęściej używanymi przez nas programami. Zwykłe aplikacje Microsoftu i Windows Store nie są oddzielone. Lista najczęściej używanych zawiera też „ostatnio dodane”, czyli programy, które ostatnio zainstalowaliśmy. Znajdują się one w różnych kategoriach. W ustawieniach domyślnych widnieją różnego rodzaju kafelki, np. „baw się” i „odkrywaj”.

Co nowego w systemie Windows 10?

Nowy system jest wyposażony w nowe cechy, umożliwiające szybsze użytkowanie. Wszystkie powiadomienia pojawiają się w jednym miejscu, a osobom słabowidzącym może przydać się wirtualny pulpit, który pozwala na grupowanie okienek, co w znacznym stopniu pomaga w organizacji miejsca pracy. Tu uwaga dla użytkowników czytników ekranów. Wirtualne pulpity nie są pulpitami w typowym znaczeniu tego słowa, tak więc nie ma możliwości zgromadzenia na każdym z nich osobnego zestawu ikon. Pulpity mogą grupować zestawy otwartych okien. Możemy stworzyć sobie jeden pulpit do pracy i uruchomić w jego obrębie przeglądarkę internetową, klienta poczty elektronicznej, komunikator, gdy tymczasem na drugim pulpicie uruchamiamy odtwarzacz muzyki, edytor tekstu z naszą ulubioną książką i ostatnio używaną grę.

Cortana, cyfrowa asystentka, rozpoznaje głos użytkownika i odpowiada na pytania, korzystając z zasobów wyszukiwarki Bing. Nowy system jeszcze lepiej integruje się z czytnikami odcisków palców czy kamerami, pozwalając na biometryczną autentykację użytkownika.

Cortana pozwala na wyszukiwanie zarówno głosowe, jak i poprzez wpisywanie tekstu. Jeżeli mikrofon jest podłączony, w menu Start pojawi się przycisk mikrofonu. Aby pierwszy raz skorzystać z tej wirtualnej asystentki, należy zalogować się na swoim koncie Microsoft, a wszystkie ustawienia zostaną zapamiętane i zsynchronizowane z innymi aplikacjami systemu Windows. Tym, którzy czytając niniejszy tekst oglądają jednocześnie komputer z zainstalowanym systemem Windows 10 radzimy w tym miejscu, by uzbroili się w odrobinę cierpliwości. Omawiana tutaj aplikacja ma być dostępna po polsku dopiero pod koniec roku. Cortana jest także wyposażona w notatnik i przypomnienia. Przykładowo, sekcja „Jedzenie i picie” będzie odpowiednio prowadzić do ulubionych przepisów, tymczasem sekcja „O mnie” będzie zawierać informacje odnośnie najczęściej odwiedzanych stron oraz tego, jak powinno być poprawnie wymawiane imię użytkownika. Tryb pełnoekranowy jest oczywiście dostępny. Wystarczy rozwinąć menu, a wówczas pojawią się dokładne informacje na temat pozycji w notatniku. Niestety, Cortana nie zawsze może odpowiedzieć na pytanie. Wtedy uruchamia przeglądarkę z wypowiedzianą przez użytkownika frazą. Wydaje się, że oferowana przez firmę Apple asystentka głosowa Siri radzi sobie lepiej z zadaniami, do których aplikacje te zostały zaprojektowane.

Jeśli zwykle w naszym systemie panuje chaos wynikający z uruchomienia wielu aplikacji jednocześnie, od teraz łatwo nad nim zapanujemy przy pomocy kombinacji Windows + Tab, dzięki której bezproblemowo można przechodzić pomiędzy oknami , uruchomionymi na pasku zadań. Powiadomienia mogą zostać zminimalizowane albo przywrócone do normalnego widoku. Osoby z dużą wadą wzroku w łatwy sposób mogą usunąć powiadomienia z wybranej grupy. W przeciwieństwie do systemów Windows 7 i 8 nie ma problemu z pozbyciem się aplikacji i dodatków. System wyposażony jest w znany ze wcześniejszych wersji Windowsów czytnik ekranu, Narrator. W tym miejscu trzeba stwierdzić, że wszyscy, którzy oczekiwali istotnych ulepszeń tego programu, zawiedli się w swoich oczekiwaniach.

Dla niektórych użytkowników wadą może być brak możliwości wyłączenia automatycznych aktualizacji systemu. Cortana, jakkolwiek na razie niedostępna dla polskich użytkowników komputerów z systemem Windows, ma się wkrótce pojawić w wersji dla smartfonów systemem Android.

Instalacja

Na komputerach posiadających wcześniej system Windows 8, zostaniemy poproszeni o zalogowanie się do wcześniejszego konta. W „Ósemce” ustawienia zostaną zapamiętane przez system i zsynchronizowane z jego nową wersją. Może zdarzyć się tak, że konfiguracja audio zostanie przywrócona do ustawień fabrycznych, na szczęście inne informacje wprowadzone do komputera zostaną zachowane. W Internecie można odnaleźć kilka przykładów instalacji systemu Windows 10 przez niewidomych użytkowników. Jednym z nich jest recenzja autora Tamas Geczy na stronie www.coolblindtech.com. Porównajmy zatem wyniki jego instalacji „dziesiątki” na trzech różnych komputerach.

Apple zazwyczaj zapewnia odpowiednie sterowniki, niemniej jednak według autora pod koniec instalacji na Macu Mini za pomocą Bootcamp, pozwalającym na instalację Windowsa na komputerach Macintosh, wystąpiły problemy. Po instalacji Bootcamp zniknął z ustawień, a niektóre ustawienia sprzętu i dźwięku zostały zresetowane. Miłą niespodzianką była szybkość, z jaką można było obsługiwać komputer.

Wgranie systemu na zwykły laptop z 2010 roku zajmuje około 45 minut. Konfiguracja omawianego urządzenia to procesor Intel Dual-Core, 4 GB pamięci oraz dysk o pojemności 160 GB. W tym scenariuszu podczas surfowania po Internecie i pisania komputer może wolniej działać, ale generalnie nowy system jest szybszy niż Windows 8. Niestety zaszła konieczność pobrania sterownika Bluetooth ze strony dostawcy, ponieważ nie pobrał się on automatycznie.

Kolejnym testowanym przez autora komputerem jest dotykowy laptop Yoga z systemem Windows 8.1. Po instalacji Windowsa 10 działał najlepiej ze wszystkich testowanych komputerów. Taki komputer posiada procesor trzeciej generacji Intel Core i5, z 8 GB pamięci oraz dysk twardy SSD. Warto wspomnieć, że po aktualizacji bateria działa znacznie dłużej niż podczas korzystania z poprzedniego systemu. Po pierwszym uruchomieniu nowego systemu w Centrum akcji pojawiło się pytanie, czy autor chce kontynuować po zmianie trybu na odpowiedni dla tabletu. Obyło się bez problemów ze sprzętem.

Podczas instalacji  systemu Windows 10 zostaniesz zapytany, co chcesz zachować na komputerze. Ukażą się trzy opcje: „nic”, „pliki osobiste”, „pliki osobiste, aplikacje i ustawienia”. Wybór pierwszej opcji nie pozwala jednak na wybranie dysku lub partycji do zainstalowania na nich Windowsa. Aby mieć taką możliwość, potrzebny będzie aktualny plik ISO, z którego należy wypalić płytę, a następnie uruchomić plik setup.exe, znajdujący się w folderze źródłowym.

W przypadku migracji z Windows 8 lub 8.1 istotną informacją jest fakt, że osoba niewidoma, która nie ma dużej wiedzy komputerowej bez najmniejszych problemów poradzi sobie z aktualizacją systemu Windows. Jedyna niedogodność podczas procesu aktualizacji wynika z konieczności oczekiwania na powtórne uruchomienie komputera, a następnie potrzeby ręcznego uruchomienia Narratora na ekranie logowania. Do uruchomienia Narratora używamy działającego także na ekranie logowania skrótu klawiszowego „Windows-Enter”. Ponieważ na pewnym etapie podczas instalacji czytnik ekranu nie informuje nas o postępie procesu, więc wszyscy, którzy chcą samodzielnie tego spróbować powinni uzbroić się w cierpliwość. Zdecydowanie inaczej rzecz ma się w przypadku przesiadki z Windows 10 z Windowsa 7. Za tę operację nie powinien zabierać się nikt, kto nie posiada wiedzy z zakresu radzenia sobie w komputerowych sytuacjach awaryjnych. Po ponownym uruchomieniu komputera zostajemy absolutnie z niczym. Nie jest możliwe uruchomienie Narratora, jedyne, co możemy robić, to czekać na moment, w którym dysk twardy przestanie pracować, a wtedy próbujemy użyć klawisza Enter, Tab, Enter, Tab, Enter i tak do skutku, w końcu powinno się udać.

Technologie asystujące

Podczas pobierania nowej wersji systemu Windows użytkownicy JAWS dowiedzą się, że ich czytnik wymaga odinstalowania na czas procesu aktualizacji. Dobrą wiadomością jest to, że jeśli pojawi się powiadomienie, aby odinstalować program powodujący problemy ze zgodnością, to można to zrobić bez wychodzenia z konfiguracji systemu Windows. Anglojęzyczną wersję JAWS 16 po procesie aktualizacji można zainstalować ponownie, natomiast takich zabiegów nie będzie wymagała najnowsza, obecnie jeszcze testowa, siedemnasta wersja tego czytnika ekranu. W przypadku NVDA oraz Window-Eyes nie zasygnalizowano problemów związanych ze zgodnością, ponieważ czytniki te nie zmieniają znacząco systemu. Osobom chcącym spróbować Windows 10 zalecamy zatem użycie jednego z tych czytników. Uwaga! Dla poprawnego działania mechanizmów dostępnościowych system po instalacji wymaga, by w ustawieniach ułatwień dostępu zaznaczyć czytnik ekranu, z jakiego będziemy korzystać. Inne programy, które mogą powodować problemy, to programy antywirusowe lub narzędzia anty-spyware, mogące również uniemożliwić pomyślną instalację. Wprawdzie, jak już wspominaliśmy, Narrator nie jest dobrym czytnikiem ekranu dla Windows, trzeba jednak przyznać, że Microsoft pokazał, iż zagadnienia dostępności były brane pod uwagę podczas tworzenia nowego systemu. Pierwsze uruchomienie nowej przeglądarki MS Edge spowoduje wyświetlenie informacji, że nie współpracuje ona dobrze z czytnikami ekranu oraz instrukcję dotyczącą dostępnego rozwiązania tego problemu. Informacja zostanie wyświetlona w oknie dobrze obsługiwanym przez wszystkie czytniki ekranu dla systemu Windows. Tu ciekawostka: obecnie jedynym, wspierającym bodaj na poziomie podstawowym obsługę Edge, czytnikiem ekranu jest NVDA.

 Pragniemy w tym miejscu uspokoić użytkowników przywiązanych do swoich narzędzi wspierających. Nawet jeśli w opisie ich aplikacji nie ma informacji o obsłudze systemu Windows 10, to istnieje spora szansa, że nadal będzie ona pomyślnie działać. W skrócie, nowe elementy w systemie w dużej mierze bazują na standardowych kontrolkach, które można było znaleźć i w poprzednich wersjach Windows. Część mechanizmów wykorzystywanych w systemie bazuje na standardach z wcześniejszych wersji systemu, więc czytniki ekranu są w stanie sobie z nimi poradzić. Z pierwszych wrażeń użytkowników można wnioskować, że w porównaniu do wcześniejszych wersji systemu, czytniki ekranu nieco gorzej obsługują niektóre jego obszary. Opisywany problem, obok kontrolek systemowych, dotyczy także niektórych aplikacji. Przykładem może być zbyt długie wczytywanie się plików lub zbyt długo trwające wyszukiwanie plików za pomocą eksploratora Windows czy też zbyt długie ładowanie wiadomości w programie MS Outlook. Obecnie Microsoft pracuje nad aktualizacjami mającymi na celu usunięcie tych problemów.

Podsumowanie

Użytkownicy Window-Eyes od wersji 9.2 mogą bez ryzyka utraty komfortu pracy zaktualizować swój system do najnowszej wersji. Problemy, które mogą napotkać, wynikają stąd, że niektóre obszary systemu obsługiwane są wyłącznie za pomocą przeglądarki MS Edge.

Chociaż większość funkcji NVDA sprawdza się w systemie Windows 10 i przypomina działanie tego programu w środowiskach Windows 7 i 8.1, NV Access zaleca, by większość użytkowników opóźniła aktualizację lub zakup komputera z systemem Windows 10 do odwołania. Zaawansowani użytkownicy, którzy chcą przetestować NVDA z Windows 10 powinni rozważyć zainstalowanie go na komputerze innym niż ten, z którego na co dzień korzystają. Jakkolwiek z naszych testów redakcyjnych wynika, że powyższe zalecenie jest przejawem nadmiernej ostrożności, w przypadku korzystania z NVDA należy, mimo bardzo zaawansowanych prac nad wsparciem dla Windows 10, liczyć się z pewnymi niedogodnościami.

Chcąc zaktualizować Windows do najnowszej wersji, należy starannie rozważyć poniższe informacje: użytkownicy NVDA powinni zawsze używać najnowszej wersji, obecnie NVDA 2015.3 i, o ile to możliwe, korzystać z rozwojowych wersji czytnika.

Użytkownicy Jaws powinni poczekać na siedemnastą wersję swojego czytnika, która ma zapewniać kompletną obsługę Windows 10.

Osoby niedowidzące mogą użyć narzędzia o nazwie Magnifier, które pozwala na powiększenie obrazków i napisów.  Za pomocą przycisku Windows i znaku „+” otworzymy program, a kombinacja Windows + Esc zamyka go. W banalnie prosty sposób możemy zmienić rodzaj powiększenia, wystarczy zastosować przyciski plus i minus, w zależności od potrzeby. Wchodząc w ustawienia, możemy także kontrolować kolor, przybliżenie i ostrość.

22 lipca 2015 roku firma Dolphin wydała program SuperNova 15, zapewniający czytanie ekranu, powiększenie i wsparcie dla użytkowników korzystających z alfabetu Braille’a. W zależności od stopnia utraty wzroku, firma oferuje wersje: Magnifier, Reader Magnifier, Access Suite oraz ScreenReader. Firma Dolphin zapewnia na swojej stronie o kompatybilności tego programu z systemem Windows 10 i deklaruje, że dla chętnych otwarte są testy wersji beta oprogramowania.

Problemy z nową przeglądarką internetową Microsoft Edge

System Windows 10 wprowadza nową przeglądarkę internetową i silnik o nazwie Microsoft Edge. Częściowe eksperymentalne wsparcie jest dostępne w NVDA 2015.3, ale istnieją poważne problemy, na przykład w zakresie wyboru miejsca zapisu pobieranych plików. Ponadto,  nie jest możliwe zapisywanie plików audio na dysku, lecz są one odtwarzane bezpośrednio w przeglądarce. Dlatego też przeglądarka Edge nie jest ostatecznie przygotowana do codziennego przeglądania stron internetowych. Te utrudnienia powinny zostać usunięte w przyszłych aktualizacjach systemu Windows.

    W niektórych przypadkach, Microsoft Edge może być ustawiony jako domyślna przeglądarka internetowa. Ze względu na trudności w trakcie korzystania z niej, użytkownicy powinni wybrać alternatywną domyślną przeglądarkę internetową taką jak Mozilla Firefox lub Microsoft Internet Explorer.

    W niektórych przypadkach, Microsoft Edge  może być ustawiony jako domyślny czytnik PDF. Microsoft zaleca użytkownikom czytników ekranu korzystanie z Adobe Readera lub innych aplikacji zgodnych z czytnikami ekranu.

Oprócz przeglądarki Microsoft Edge, jej silnik używany jest do obsługi innych funkcji systemowych, na przykład aplikacji Windows Store. Z powodu niedopracowania Microsoft Edge, użytkownicy powinni być przygotowani na niemiłe niespodzianki podczas korzystania z tych funkcji i aplikacji.

 Aplikacja Mail instalowana z systemem Windows 10 nie jest obecnie obsługiwana przez czytniki ekranu. Użytkownicy powinni zatem korzystać z innej aplikacji do obsługi poczty.

Centrum akcji

W systemie Windows 7 i 8 Microsoft użył Centrum akcji, gdzie umieszczono niektóre narzędzia do optymalizowania wydajności oraz narzędzi systemowych, które wskazują akcje potrzebne do podjęcia w celu ochrony komputera. Jeśli definicje wirusów są nieaktualne, wiadomość pojawi się w centrum działania, które zawsze będzie widoczne na pasku zadań.

Termin „Centrum akcji” po raz kolejny zmienia się w „Centrum działania systemu Windows 10”. Teraz odnosi się do zbiorowej sieci interaktywnych powiadomień, które aplikacje mogą tam umieszczać, aby ułatwić użytkownikowi podjęcie adekwatnych działań. Zaprezentowane po raz pierwszy w systemie Windows 8 tak zwane „powiadomienia-tosty” będą dostępne w „dziesiątce”. Dla osób słabowidzących dużym udogodnieniem jest możliwość „krążenia” po aktywnych powiadomieniach za pomocą przycisków Windows+V. Problem znikających powiadomień został rozwiązany, ponieważ „odlatują” teraz na dół ekranu i będą się tam znajdować, dopóki ich nie odrzucisz.

Podsumowanie

Warto śledzić dalsze poczynania firmy Microsoft, ponieważ system Windows 10 zapowiada się lepiej niż jego poprzednicy. Dużą zaletą jest możliwość wgrania „dziesiątki” ponownie, za pomocą tego samego klucza i przede wszystkim kompatybilność z technologiami wspierającymi. Nie należy zrażać się aktualizacjami funkcji, ponieważ są one przeprowadzane w sposób nieszkodliwy dla osób niewidomych. Aplikacje są bardziej usystematyzowane, a centrum akcji, z nową ikoną obok zegara na pasku zadań, pozwala na jeszcze szybszy dostęp i większą kontrolę nad powiadomieniami dla osób niedowidzących. Aktualizacja dla użytkowników oryginalnego systemu Windows jest możliwa do wykonania przez osoby niewidome. Doświadczonym użytkownikom Microsoft oferuje możliwość przystąpienia do programu Windows Insider Program. Uczestnictwo w tym programie daje możliwość wzięcia udziału w dalszych testach. Jeżeli jesteśmy w posiadaniu dwóch komputerów, warto zainteresować się tą możliwością.

Przydatne skróty klawiszowe

·       Okno Windows ze strzałką w górę i w dół: przesuwa okna na górę lub dół połowy ekranu

·       Okno Windows ze strzałką w lewo lub w prawo: przesuwa okna w tych kierunkach  

Te komendy mogą być mieszane. Na przykład  naciśnięcie przycisku z oknem Windows w kombinacji ze strzałką w dół, a następnie okno Windows ze strzałką w prawo umieści aplikację w prawym dolnym rogu ekranu.

·       Windows, Control, D: tworzy nowy wirtualny pulpit, jeśli użytkownik nie chce otworzyć widoku zadań

·       Windows +Control+ F4: zamyka aktualny wirtualny pulpit, przenosi wszystkie okna do poprzedniego pulpitu

·       Windows, Control, lewa i prawa strzałka: przejście do kolejnych wirtualnych pulpitów

·       Windows +C: wyszukiwanie głosowe Cortana

·       Windows +S: otwiera interfejs wyszukiwania Cortana

·       Windows +I: otwiera ustawienia

·       Windows +A: otwiera centrum akcji

·       Windows +L: blokuje ekran

·       Windows +H: aktywuje przycisk udostępniania, jeśli użytkownik znajduje się w aplikacji Windows Store

·       Windows +X: otwiera menu dla zaawansowanych użytkowników

Windows 10 Mobile

Mateusz Duc

Niewidomi użytkownicy systemu MS Windows Mobile mogli korzystać ze smartfonów czy palmtopów dzięki czytnikowi ekranu Mobile Speak firmy Code Factory. W momencie jego uśmiercenia i zastąpienia wersją nazwaną Windows Phone osoby z dysfunkcją wzroku de facto utraciły możliwość korzystania z mobilnych produktów Microsoft’u. Jednakże wraz z pojawieniem się wyposażonego w czytnik ekranu systemu Windows 10 Mobile, sytuacja uległa korzystnej zmianie. Mobilny system od Microsoftu wyposażono w znany już z desktopowej wersji Windowsa czytnik Narrator, lecz w wersji mobilnej możliwości tego narzędzia są istotnie większe. Mobilny Narrator już dziś wiele potrafi, choć trzeba jeszcze wiele pracy i czasu, aby ta platforma stała się godziwą alternatywą dla systemu iOS czy Android.

Kilka słów o systemie

Windows 10 Mobile to jeden ekran główny, na którym znajdują się kwadratowe lub prostokątne kafelki. Ponadto użytkownik ma dostęp do listy wszystkich zainstalowanych na urządzeniu programów. Po kliknięciu na liście z programami uruchamiana jest wybrana aplikacja. Uruchomienie aplikacji można także zrealizować poprzez naciśnięcie kafelka przypiętego do ekranu startowego. Każdy kafelek można dowolnie modyfikować, np. przypinać do ekranu startowego, odpinać, zmieniać jego rozmiar itp. Po za tymi dwoma standardowymi elementami systemu, mamy jeszcze na samym dole ekranu trzy przyciski systemowe. Są to niestety przyciski wirtualne, co jest o tyle istotne, że zabierają kawałek ekranu na dole. Przyciski te to:

·   „Wstecz” - pozwala on na cofnięcie się o poszczególny element, na ekranie startowym powraca do ostatnio otwartej aplikacji oraz służy do otwierania zasobnika z ostatnio otwartymi aplikacjami,

·   „Klawisz start” - po jego naciśnięciu powracamy do ekranu startowego; przycisk ten służy także do wywoływania asystenta głosowego Cortana,

·   „Szukaj”.

Blokada ekranowa jest to prosta nakładka ściągana jednym ruchem palca, znajdują się na niej różne informacje zależne od użytkownika, np. zegar, informacje o zaplanowanych zadaniach, wpisach z kalendarza itp. Ekran ten jest w pełni konfigurowalny. Ostatnim ważnym elementem systemu jest górna belka wyciągana w dół. Zawiera ona, podobnie jak znane z innych rozwiązań panele powiadomień, skróty do najważniejszych funkcji, np. Wi-Fi, Bluetooth, ustawienie blokady obrotu ekranu oraz wszelkie powiadomienia.

Narrator

Czytnik ekranowy w tym systemie pozwala na wiele osobą niewidomym i słabowidzącym, lecz jak na razie niestety nie jesteśmy w stanie samodzielnie go włączyć. Narrator obsługuje konfigurację telefonu - możemy się zalogować na konto Microsoft lub je utworzyć, dokonać konfiguracji kont mailowych oraz innych komunikatorów, dokonać synchronizacji kontaktów z PC lub jakiejś chmury itp.

Nawigacja po systemie

Część gestów wykorzystywanych do obsługi Narratora jest już znana użytkownikom Androida czy iOS’a, gdyż od elementu do elementu przemieszczamy się gestami lewo-prawo, górną belkę wyciągamy dwoma palcami, w ten sam sposób dokonuje się przewijania po listach czy pomiędzy ekranem startowym a listą aplikacji.

W systemie tym możemy wyróżnić akcje podstawowe, które, używając Narratora, wywołujemy dwukrotnym stuknięciem w ekran oraz akcje pomocnicze, wywoływane poprzez trzykrotne stuknięcie w ekran. Akcje pomocnicze wykorzystujemy np. gdy chcemy dokonywać modyfikacji na ekranie startowym, przy przewijaniu suwakami czy do zmiany elementów na belce powiadomień.

W Narratorze pojawiły się również tryby nawigacji, np. nawigacja po znakach, słowach, akapitach, nagłówkach hiperłączach, elementach, punktach orientacyjnych i kontenerach itp. W systemie iOS zmiany tych trybów dokonujemy poprzez używanie tzw. pokrętła Voice Over, w Androidzie przy użyciu menu lokalnego kontekstu wywoływanego gestem wykonywanym w dwóch płaszczyznach (moim zdaniem jest to średnio wygodne), natomiast w Windows 10 Mobile poprzez przesunięcie/potarcie palcem po ekranie góra-dół. Jest to dosyć szybkie i wygodne, często zdarza mi się korzystać z tego rozwiązania podczas przeglądania Internetu.

Kolejną rzeczą, o której warto powiedzieć, jest ciekawy sposób obsługi punktu uwagi, gdy korzystamy z podobnego do znanego użytkownikom systemu Android trybu dotykowej eksploracji ekranu. Nie jest to tak niekomfortowe, jak w systemie od Google’a, ponieważ w trybie eksploracji dotykiem punkt uwagi zazwyczaj podąża za gestami użytkownika. W systemie Microsoftu wszystko się opiera na kafelkach, więc znalezienie czegoś metodą eksploracji nie sprawia żadnego problemu. Teraz pochylę się chwile nad obsługą suwaków. Jeśli natrafimy gdziekolwiek na suwak, wchodzimy na niego kursorem Narratora i po dwukrotnym stuknięciu zwiększamy wartość suwaka, a po trzykrotnym stuknięciu zmniejszamy jego wartość.

Konfiguracja parametrów Narratora

Narrator nie daje użytkownikom wielu możliwości konfiguracji. Dostępne ustawienia to: szybkość mowy, głos, ustawienie szybkiego włączania narratora już po wstępnej konfiguracji oraz typ podpowiedzi dla kontrolek.

Syntezator

Narratora w mobilnej wersji systemu MS Windows 10 wyposażono w ten sam żeński głos polski oraz nowy męski głos (również w języku polskim), lecz ich jakość pozostawia bardzo dużo do życzenia. Niewiele lepiej jest w przypadku syntezy w języku angielskim. Mówiąc krótko, zastosowany syntezator wymaga bardzo dużej modyfikacji. W przypadku polskich głosów występuje specyficzny problem – jeżeli próbujemy przeczytać coś po angielsku, polski syntezator czyta to po francusku.

Obsługa aplikacji

Co do obsługi aplikacji systemowych, jest jeszcze sporo do zrobienia, lecz użytkownik podstawowy, który potrzebuje zadzwonić, napisać SMS-a, sprawdzić coś w Internecie, odebrać maila, czy posłuchać sobie muzyki, zadania powyższe jest w stanie wykonać. Zadania te, jakkolwiek wykonalne, nie dają użytkownikowi poczucia komfortu pracy, a ich wykonywanie wiąże się z występowaniem tu i tam różnorakich ograniczeń. Co do aplikacji Skype jest ona jeszcze nie w pełni dostępna. Aplikacje takie jak alarmy i zegar, kalendarz, kalkulator czy eksplorator plików nie budzą zastrzeżeń co do ich dostępności, choć i tu mamy do czynienia z pewnymi utrudniającymi użytkownikowi życie błędami. Aby dostać się do ostatnio otwieranych aplikacji, należy trzykrotnie stuknąć przycisk wstecz. Spowoduje to otwarcie okna dialogowego wizualnie przypominającego to z systemu iOS. Przy każdej aplikacji mamy przycisk zamykania. Sygnał sieci komórkowej, Wi-Fi, stan baterii czy Bluetooth jesteśmy w stanie w łatwy sposób sprawdzić. Można to zrobić poprzez dotknięcie górnej krawędzi ekranu, co spowoduje odczytanie godziny. Aby usłyszeć pozostałe informacje paska statusu, należy użyć gestu przesunięcia w prawo. Można to również osiągnąć poprzez dotknięcie miejsca z przyciskami systemowymi. Tutaj przesunięcie w prawo działa jak na pasku omówionym powyżej. Pozytywnie zaskoczył mnie pakiet biurowy Office, ponieważ MS Word jest bardziej niż dobrze dostępny, a Excel czy PowerPoint działają całkiem poprawnie. Pozytywnie również zaskakuje aplikacja aparatu oraz Mapy. Te ostatnie są dostępne w 100%, w Mapach jesteśmy w stanie sprawdzić swoje położenie i wytyczyć trasę dojazdu/dojścia w trybie pieszym. Natomiast w aparacie do wszystkich funkcji dojdziemy, poruszając się gestami lewo-prawo. Na uwagę zasługuje również aplikacja Microsoft Edge, czyli nowa przeglądarka internetowa. Pozwala ona na obsługę gestami przycisków: „do przodu”, „wstecz”, „odśwież”, paska adresu itp., a gdy zaczniemy korzystać z trybów nawigacji, okaże się, że przeglądanie Internetu jest dosyć wygodne. Po sprawdzeniu wszystkich aplikacji zainstalowanych fabrycznie stwierdzam, że jakkolwiek nie ma problemu z dostępnością, obsługa punktu uwagi w wielu miejscach budzi sporo zastrzeżeń

Stabilność i działanie systemu

System Windows 10 Mobile jest dosyć lekki i bardzo stabilny. Bez problemu płynnie i w miarę szybko działa nawet na słabszych urządzeniach. Ja miałem okazje go testować na Lumii 435 wyposażonej w dwurdzeniowy procesor 1.2 GHz z 1GB RAM-u oraz 8 GB pamięci wbudowanej. Urządzenie pracuje wystarczająco płynnie i szybko (nawet z Narratorem). Występują wprawdzie drobne spowolnienia, lecz trzeba przyznać, że nie są one uciążliwe, a biorąc pod uwagę, że testy dostępności przeprowadzano na urządzeniu o stosunkowo słabych parametrach, trzeba stwierdzić, iż praca z tym systemem jest całkiem przyjemna.

Błędy do poprawy

Poprawy wymaga przede wszystkim obsługa punktu uwagi (chodzi tu o rozwiązanie problemu rozbieżności między widzianym na ekranie obiektem, a tym, co dostępne dla użytkownika Narratora). Ponadto występują czasami problemy z interpretacją stuknięć na przyciski systemowe. Te i wiele innych drobnych błędów zgłosiłem do Microsoftu. Mam nadzieje, że zostaną szybko poprawione.

Podsumowując

Rozwiązanie mobilne od Microsoftu w obecnej, niedojrzałej jeszcze postaci, nadaje się już do codziennego użytku dla osób z dysfunkcją wzroku, o ile nie mają one zbyt wygórowanych oczekiwań. Fakt pojawienia się tego rozwiązania, ze względu na pozycję Microsoftu na rynku IT, należy uważać za istotny przełom, a biorąc pod uwagę deklarację firmy z Redmont, że projektowanie uniwersalne będzie dla niej w roku 2016 priorytetem rozwojowym, należy spodziewać się interesujących i dobrych dla naszego środowiska wiadomości.

Zobacz nas w Internecie

www.tyfloswiat.pl

W portalu:

... i wiele wiele innych informacji!

Projekt współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.