Już rok minął, drodzy czytelnicy, od dnia, gdy wiedziony ciekawością redaktor Tyfloświata zapytał mnie o perspektywy rozwoju systemowego czytnika ekranu dla Microsoft Windows. Czemu tyle czasu zajęło autorowi napisanie tak oczywistego tekstu?
Narratora przecież znają chyba wszyscy użytkownicy Windowsa, którzy z takiego czy innego powodu korzystają z funkcji dostępnościowych systemu. Zwłaszcza w najnowszych wersjach środowiska niezauważenie Narratora jest prawie niemożliwe. Nawet widzącym użytkownikom zdarza się przypadkowe włączenie tej funkcji. Istnieje przy tym dość powszechna, inna rzecz czy słuszna, opinia, że Narrator to czytnik tak marnej jakości, iż próby korzystania z niego poza sytuacjami, w których jest to naprawdę konieczne, są po prostu stratą czasu.
Czy Narrator ma przed sobą jakieś ciekawie rysujące się perspektywy rozwojowe?
Czy deweloperzy aplikacji mają jakiś godzien uwagi „rozkład jazdy”?
Na powyższe pytania mógłbym być może próbować udzielić jakiejś obracającej się bodaj w sferze nacechowanych sporym prawdopodobieństwem spekulacji odpowiedzi, ale niestety muszę was rozczarować. Jeśli nawet coś wiem, to ze względu na zobowiązanie do zachowania tajemnicy firmowej, nie mogę wiele powiedzieć.
Przystępując kilka miesięcy temu do pisania niniejszego tekstu pomyślałem zatem, że spróbuję opowiedzieć o zespole twórców Narratora, pokazać bodaj ogólnie kuchnię deweloperską. Okazało się jednak, że z powodu trudnych dla mnie do zrozumienia różnic kulturowych, a może z braku umiejętności dziennikarskich, nawet tak skromne zadanie jest dla mnie po prostu niewykonalne.
To o czym właściwie będzie ten artykuł?
Spróbujemy spojrzeć na ewolucję koncepcji czytnika ekranu. Zastanowimy się nad zmianami dotyczącymi rozumienia niepełnosprawności, wpływem tego czynnika na nasze czytniki ekranu
i prawdopodobnymi zmianami dotyczącymi funkcjonowania osób z niepełnosprawnościami w środowisku cyfrowym z punktu widzenia osób z dysfunkcją wzroku, a przy okazji opowiemy coś niecoś o Narratorze. Wierzę bowiem, że przed tym czytnikiem otwierają się interesujące perspektywy rozwoju.
Jaki czytnik
Jakieś 20 lat temu w środowisku użytkowników czytników ekranu, jak i twórców tego oprogramowania, postawiono pytanie, czy lepiej będzie jeśli czytniki takie będą rozwijane przez specjalistów od dostępności, przez ludzi, którzy jak to się mówi z niepełnosprawnych i niepełnosprawności żyją, czy też może lepiej będzie, gdy czytniki ekranu staną się integralną częścią cyfrowych środowisk pracy. Mówiąc prościej chodziło o to, czy zależny od czytnika ekranu użytkownik ma w jakiś sposób finansować zaopatrujące niepełnosprawność specjalistyczne oprogramowanie, czy też może lepiej będzie, jeśli koszt takiego narzędzia pokryją wszyscy użytkownicy środowisk cyfrowych.
Zwolennicy pierwszej koncepcji uważali, jak zresztą pokazała historia rozwoju screenreaderów, że rozwiązania tworzone przez firmy zajmujące się dostępnością zapewniają lepszą jakość pracy, większe możliwości, większy komfort, niż czytniki ekranu, które są częścią systemów operacyjnych. Inna rzecz, że nikt w tamtych czasach nie przypuszczał, iż powstanie niekomercyjny, finansowany przez społeczność użytkowników, czytnik NVDA, który swoją obecnością zburzy istniejący porządek.
Kolejnym zagadnieniem, które podzieliło twórców i użytkowników czytników ekranu było pytanie o sposób funkcjonowania tego narzędzia. Spór sprowadzał się do odpowiedzi na pytanie czy czytnik ekranu ma być maksymalnie przezroczystą nakładką na system operacyjny i pracujące w nim aplikacje (takie podejście cechowało deweloperów z GWMicro), czy też, jak uważali deweloperzy pracujący dla Freedom Scientific, ma on tworzyć nałożone na system środowisko pracy, które będzie optymalizowane do potrzeb użytkownika z niepełnosprawnością.
I znów odpowiedź okazała się nieoczywista. Wprawdzie przezroczysty czytnik zapewniał łatwość współpracy użytkownika sprawnego i niepełnosprawnego, ale ceną za to bywała zmniejszona produktywność osoby niepełnosprawnej.
Czytnik tworzący środowisko optymalizowane pod potrzeby niepełnosprawnych dawał wprawdzie większą efektywność, większą wydajność w pracy, ale za cenę bardzo wysokiego progu poznawczego. Ceną za korzystanie z wygodnego, dopasowanego do potrzeb osoby z niepełnosprawnościami środowiska pracy była konieczność przejścia przez długi i żmudny trening, a ponad to w przypadku problemów z komputerem skorzystanie z pomocy widzącego kolegi, zwłaszcza wtedy, gdy osoba niewidoma zwracała się do widzącej o radę jakoś zdalnie, (powiedzmy mailem czy przez telefon), mogło być bardzo utrudnione. Czas pokazał, że wszyscy spotkali się jakoś w połowie drogi, a próby projektowania konkretnych rozwiązań to zazwyczaj próby znalezienia równowagi między maksymalną przezroczystością interfejsu, a jakimś rodzajem optymalizacji, automatyzacji zadań.
Z czasem, wraz ze wzrostem wrażliwości na potrzeby osób z niepełnosprawnościami, wraz z uznaniem projektowania uniwersalnego za drogę do tworzenia inkluzywnej przestrzeni społecznej, narzędzia dostępnościowe na stałe znalazły się we wszystkich właściwie środowiskach cyfrowych. Skoro czytnik ma być częścią systemu operacyjnego, bo tak nakazuje nam wrażliwość społeczna, to trzeba sobie odpowiedzieć na kolejne pytanie, a mianowicie: gdzie jest granica odpowiedzialności społecznej, czyli jak bardzo należy rozwijać czytnik systemowy. W praktyce chodzi o to, czy czytnik systemowy ma być narzędziem umożliwiającym użytkownikowi samodzielną konfigurację środowiska pracy, a następnie pobranie i zainstalowanie pełnowartościowego, umożliwiającego efektywną pracę czytnika ekranu, którego nasz użytkownik będzie w pracy realnie używał, czy też należy od systemowego czytnika ekranu oczekiwać pełnowartościowego wsparcia dla wszelkich zadań, które użytkownik zechce wykonywać.
Nie chodzi o to by złapać króliczka?
Gdy spojrzy się na historię dostępności cyfrowej można odnieść wrażenie, że przypomina ona coś w rodzaju wyścigu zbrojeń, a w każdym razie bardzo długo tak było. Oto pojawiały się środowiska pracy, aplikacje, które miały ułatwiać, umożliwiać, usprawniać i przyspieszać – podstawcie sobie w tym miejscu drodzy czytelnicy dowolne zadanie. Spece od dostępności wymyślali jakieś narzędzia, które osobom z dysfunkcją wzroku umożliwiały „załapanie się” na ten pociąg do nowoczesności i gdy już stawialiśmy nogę na stopniu… pojawiały się nowe, lepsze, ładniejsze, sprawniejsze okna, aplikacje, funkcje, mechanizmy; jednym słowem pociąg przyspieszał, żeby przypadkiem nie wydało się nam, że już teraz będzie wygodnie.
Specjaliści od dostępności mieli nowe zadanie do rozwiązania, a czytniki ekranu obrastały coraz nowymi mechanizmami wydobywającymi, filtrującymi, układającymi w poręczny sposób treści i sprawiającymi, że mimo dysfunkcji wzroku działanie w środowiskach cyfrowych mogło być ergonomiczne i efektywne. O kompromis między przezroczystym czytnikiem, a środowiskiem dla niewidomych było coraz trudniej. Coraz częściej stawiano cichutko pytanie czy przypadkiem nie jest tak, że niewidomy funkcjonuje inaczej niż widzący, że może nie istnieje sposób, by sprawić, że osoba niewidoma z pełną satysfakcją, w sposób wygodny i równie wydajny jak osoba widząca, będzie np. korzystać z zyskujących coraz większą popularność wśród pełnosprawnych użytkowników, wszelkiego rodzaju interfejsów webowych. A jakby tego było mało, z czasem do gry wkroczył kolejny utrudniający wszystkim życie element – okazało się bowiem, że potrzeby użytkowników czytników ekranu mogą stać w sprzeczności z wymogami wynikającymi z konieczności zachowania bezpieczeństwa danych. I tak, ze względów podyktowanych bezpieczeństwem, w systemie Windows pewne mechanizmy, z których korzystały czytniki ekranu, zwyczajnie zniknęły.
Czy lepiej już było?
Po tym przyznaję przydługim wstępie historycznym czas wreszcie przejść do wizji przyszłości.
Projektowanie uniwersalne to z pewnością bardzo dobra, wynikająca z wrażliwości społecznej, odpowiedź na potrzeby osób z niepełnosprawnościami. Jednak, jak uczy stare przysłowie, dobrymi intencjami wybrukowane jest piekło. Można udźwiękowić aplikację, można każdej funkcji przypisać skrót klawiszowy, można sprawić, że każdy element interfejsu będzie po iluś tam naciśnięciach klawiszy osiągalny. Ale czy to oznacza, że użytkownikowi będzie w tym środowisku wygodnie? Pytanie to kilka lat temu postawili sobie inżynierowie w Microsofcie.
Rozbudowane aplikacje mają to do siebie, że nawet dość zaawansowani, a przy tym całkiem pełnosprawni użytkownicy, często o wielu funkcjach tych aplikacji zwyczajnie nie wiedzą. Odkrywają ze zdziwieniem, że to czy tamto można zrobić łatwiej, szybciej, z użyciem skrótu klawiszowego zamiast sekwencji działań na klawiaturze czy rozlicznych kliknięć. Podjęto badania, których celem było ustalenie jakich funkcji najczęściej potrzebujemy, jakie są nasze domyślne zachowania w środowisku cyfrowym. Widzący dostali okna, w których to wszystko, co chcemy mieć szybko pod ręką, czego najczęściej używamy, jest na wierzchu. Ponieważ tych potrzebnych już natychmiast i używanych często elementów jest wiele, ponieważ mamy swoje potrzeby i przyzwyczajenia, wymyślono personalizację interfejsów, ale mimo wszelkich wysiłków pojawił się niezależny od niepełnosprawności problem znajdowalności potrzebnych elementów (discoverability). Osoby z dysfunkcją wzroku dostały w wariancie idealnym „skrót klawiszowy do wszystkiego”. Okazało się, że nie sposób nauczyć się tej masy skrótów, że pojawiają się konflikty klawiaturowe, że tak z pozoru oczywisty postulat jakim jest przypisanie jednakowych skrótów klawiszowych do analogicznych funkcji we wszystkich aplikacjach, w których te funkcje są wykorzystywane, jest bardzo trudny do spełnienia. Badania problemu pokazały, że dostępność środowiska rozumiana jako kompatybilność czytnika ekranu z systemem operacyjnym i działającymi w tym środowisku aplikacjami, to stanowczo z byt mało. Stwierdzono, że w projektowaniu aplikacji należy uwzględnić potrzeby osób z niepełnosprawnościami, że niewidomi mają tak samo jak widzący coś, co możemy nazwać wąskim gardłem, że, ponieważ bardziej niż osoby widzące muszą polegać na pamięci, istotnym dla komfortu korzystania z jakiegoś interfejsu, środowiska, aplikacji elementem, jest (cognitive load), obciążenie informacjami koniecznymi do opanowania pamięciowego. Sprawni czy niepełnosprawni w coraz bardziej złożonych aplikacjach cierpimy na niemożność znalezienia poszukiwanych funkcji, co powoduje, że funkcje są nieużywane, a użytkownicy twierdzą z przekonaniem, że to czy tamto nie da się zrobić. Wraca magiczne słowo „discoverability”. Żeby było trudniej przy projektowaniu środowiska trzeba uwzględnić potrzeby wynikające z różnych niepełnosprawności, należy wziąć pod uwagę pojawiające się przy rozwiązywaniu tych problemów konflikty potrzeb.
Liczący się twórcy aplikacji i systemów operacyjnych coraz częściej myślą o środowisku cyfrowym jako z zasady dostępnym. W Microsofcie nazywa się to holistycznym podejściem do dostępności. A oto przykład.
Osoby z problemami wynikającymi z dysfunkcji narządu ruchu lub dysfunkcjami układu nerwowego mogą mieć poważne trudności z korzystaniem z klawiatury. Z myślą o nich powstała stosunkowo nowa w systemie Windows funkcja Voice Access (dostęp głosowy). Nie należy jej mylić z dyktowaniem, ponieważ funkcja Voice Access służy do sterowania komputerem i aplikacjami. Voice Access może nam np. umożliwić uruchomienie dyktowania. Dobrze, ale co to ma wspólnego z czytnikiem ekranu? Wydawało się, że niewiele.
A co się stanie jeśli niewidomy będzie miał problemy z korzystaniem z klawiatury? A co się stanie, jeśli niewidomy uzna, że chce mieć pod palcami tekst na monitorze brajlowskim a sterowanie swoimi działaniami woli realizować głosem? Tak postawione zadanie wymaga zintegrowania dwóch funkcji dostępnościowych. Zadanie nie jest wcale oczywiste. Trzeba nie tylko dodać do listy komend funkcji Voice Access wszystkie komendy czytnika ekranu, ale wymyślić w jaki sposób czytnik ma komunikować użytkownikowi wykonanie poszczególnych komend, sprawdzić czy konieczne jest integrowanie wszystkich komend czytnika ekranu z funkcją Voice Access itd.
Do tego należy dołożyć scenariusze działania tak pomyślanego interfejsu w różnych aplikacjach i wreszcie zastanowić się, czy Voice Access powinien mieć dwie odrębne wersje – jedną zintegrowaną z czytnikiem ekranu i drugą dla użytkowników widzących czy też nie. W pracach nad dostępnością systemu Windows deweloperzy będą musieli odpowiedzieć na te, oraz na wiele innych pytań.
Jakie to pytania
- Na co spojrzysz najpierw po otwarciu strony
W wersji dla niewidomych pytanie brzmi:
- Co syntezator ma przeczytać po otwarciu strony – lecz także, gdzie chcesz rozpocząć przeglądanie jeśli korzystasz z brajla?
- Jakie reklamy oglądasz, a jakie powodują, że odwracasz uwagę?
Reklama celowana do niewidomych to obszar w ogóle nie zbadany.
- Czy i do czego chcesz używać brajla.
- Czy czytanie głosem syntetycznym potrzebne jest tylko niewidomym, czy też może widzący z tej funkcji zechcą skorzystać. Tu powstaje np. pytanie czy wypracowane podczas wielu lat rozwijania czytników ekranu umiejętności, wiedza, techniki prezentowania tekstu mową syntetyczną, można implementować do zastosowań wspierających osoby pełnosprawne, osoby z innymi niż dysfunkcja wzroku niepełnosprawnościami itd.?
Przedstawiona powyżej lista przykładowych problemów ma na celu unaocznienie czytelnikom czym w istocie jest koncepcja holistycznej dostępności. Nie chodzi więc o to, że aplikacje funkcjonujące w systemie mają być projektowane w sposób zapewniający kompatybilność z czytnikiem ekranu, ale o to, żeby zapewnić przepływ wiedzy między inżynierami, psychologami, specjalistami od zachowań konsumenckich, od edukacji i pewnie jeszcze wielu innych dziedzin, przepływ, który zaowocuje powstaniem środowiska przyjaznego dla wszystkich użytkowników. Czy to w ogóle jest możliwe?
Ewolucja technologiczna
Przez wiele lat walczyliśmy o dostępność elementów klikalnych. Wszystko miało być dostępne z klawiatury, a jeśli nie z klawiatury, to czytniki ekranu miały tak czy inaczej emulować mysz. Robił to Jaws ze swoim wirtualnym kursorem czy Window-Eyes z myszą wirtualną sterowaną klawiszami z klawiatury numerycznej. NVDA zastosował nawigację obiektową, która, jakkolwiek dla zwykłego śmiertelnika trudniejsza do zrozumienia i wykorzystania, okazała się zdecydowanie bardziej odporna na postępujące zmiany technologiczne.
Co nas czeka? Wiadomości są bodaj potencjalnie dobre. Coraz lepsza obsługa ekranów dotykowych w urządzeniach mobilnych pokazuje, że czytnik ekranu może umożliwiać osobie z dysfunkcją wzroku efektywną pracę z takimi interfejsami. Stopniowe upowszechnianie się komputerów z ekranami dotykowymi, coraz lepsza jakość obsługi tych ekranów tak w NVDA jak i w Narratorze, każą przypuszczać, że za jakiś czas poszukiwanie sposobów na klikanie prawym czy lewym przyciskiem myszy stanie się zwyczajnie niepotrzebne.
No dobrze, ale kto to wszystko ogarnie? Przecież nawet widzący nie lubią stron w rodzaju Booking.com, MSN.com, czy Sky4Fly, czy bodaj takich jak Amazon, Allegro.pl, albo AliExpress.
Tu nie wystarczy dostępność list, przycisków, przycisków opcji, kalendarzy, pól edycji, czy pól wyboru. O powierzchnię portali internetowych biją się reklamodawcy, co powoduje, że nawet pełnosprawny użytkownik dostaje niejednokrotnie bólu głowy od migających, pływających i przewijających się po ekranie obiektów, a odnalezienie poszukiwanego elementu bywa niekiedy poważnym wyzwaniem. Nawet jeśli uda się jakoś zmusić twórców tych wszystkich stron i aplikacji do przestrzegania standardów dostępności, to przecież synteza mowy ma swoje tak dobrze nam wszystkim znane ograniczenia. Jaki więc ma być przyszły czytnik ekranu i w jakim kierunku prowadzi się obecnie badania?
Renesans pisma brajlowskiego
Po wiele lat trwającym okresie entuzjastycznego zachłyśnięcia się możliwościami syntezatorów mowy okazało się, że jakkolwiek mowa syntetyczna jest dla osoby niewidomej czymś bezcennym, by nie powiedzieć, jest ona narzędziem, bez którego życie w świecie cyfrowym byłoby bardzo utrudnione. Jednakże nie od dziś wiadomo, że ta metoda korzystania z informacji ma swoje wady i ograniczenia.
Osoby korzystające z pisma tylko w formie dźwiękowej używają np. języka gorszej jakości. Styl wypowiedzi pisemnych tych osób jest zazwyczaj brzydszy, niż styl wypowiedzi osób, które w okresie edukacji posługiwały się pismem (niezależnie od tego czy pisały i czytały brajlem czy pismem tradycyjnym).
Wiele stanowisk pracy wymaga korzystania z pisma. Ktoś może powie, że korekta tekstu jest do zrobienia za pomocą mowy syntetycznej. To prawda, ale nie do końca. Moje kilkuletnie doświadczenie redaktorskie wskazuje na to, że najlepszym wariantem jest korzystanie z tego, co nazywam interfejsem hybrydowym. Część informacji dostaję przez syntezator bo tak jest szybciej, a część za pomocą linijki, bo ta pozwala na dokładne wychwycenie szczegółów.
Brajl to zwiększenie sfery prywatności i jednocześnie zmniejszenie izolacji od osób znajdujących się wokół nas. Dobrym przykładem takiego zastosowania pisma brajlowskiego jest obsługa chatów podczas spotkań na sieciowych platformach konferencyjnych. Powyższe implementacje, ze względu na zaporowe ceny monitorów brajlowskich, bardzo długo nie były brane pod uwagę przez deweloperów. Pismo brajlowskie uważano za środek ostateczny, coś co należy rozwijać dlatego, że osoba niewidoma i niesłysząca bez tego kanału wymiany informacji będzie całkowicie wykluczona.
Wraz z obniżającymi się powoli, ale systematycznie cenami urządzeń brajlowskich sytuacja uległa zmianie. Przygotowując się do napisania niniejszego tekstu dowiedziałem się, że deweloperzy wszystkich praktycznie liczących się w środowisku osób z dysfunkcją wzroku czytników ekranu stopniowo zmieniają swoje podejście do Brajla. Wystarczy pod tym kątem przeanalizować nowości wprowadzone w ostatniej wersji systemu IOS, zmiany i poprawki dotyczące obsługi brajla w NVDA, aktualizacje androidowego Talkbacka, czy wreszcie zmiany, które zaczynają się coraz śmielej pojawiać w Narratorze. Podsumowując można powiedzieć, że obecnie coraz częściej brajl jest traktowany nie jak redundantny kanał wymiany informacji, lecz, podobnie jak głos stanowi on jeden z elementów interfejsu między osobą z dysfunkcją wzroku a komputerem czy urządzeniem mobilnym. Biorąc pod uwagę holistyczne podejście do dostępności wydaje się dość prawdopodobne, że prędzej czy później w pakiecie MS Office pojawi się obsługa drukarek brajlowskich lub możliwość zapisywania dokumentów do formatu *.BRF lub podobnego formatu brajlowskiego. Voice Access od Microsoftu czy zaimplementowane w środowisku JAWS sterowanie głosem wraz z brajlem i mową syntetyczną stworzą jak sądzę w niedalekiej przyszłości bogaty, dobrze kompensujący dysfunkcję wzroku interfejs.
Inteligentny asystent
Przyszedł wreszcie czas by odpowiedzieć na pytanie co autor miał na myśli mówiąc o tytułowym narratorze.
Kilka lat temu wielkie nadzieje wzbudziło w naszym środowisku pojawienie się najpierw Aleksy od firmy Amazon, a potem Asystenta głosowego Google i rozbudowującej się stale SIRI od Apple. W systemie Windows także pojawił się asystent Cortana. Dlaczego te nadzieje się rozwiały? Moim zdaniem przyczyna jest oczywista. Żaden z powyższych asystentów nie był projektowany z myślą o potrzebach użytkowników z niepełnosprawnościami. Wszystkie w jakiś sposób, można powiedzieć mimochodem, jakoś te potrzeby spełniały, ale był to raczej przypadkowy skutek projektowania aplikacji, niż celowe działanie ich twórców. Czy mamy szansę na jakieś korzystne zmiany w tym względzie?
Moim zdaniem odpowiedź brzmi: tak. Z jednej strony wielkie nadzieje wiążę z wykorzystaniem sztucznej inteligencji. Ciekawym i zasługującym na uwagę rozwiązaniem jest w tej dziedzinie chociażby zaprojektowana do rozpoznawania języka tekstu wtyczka dla NVDA. Rozwiąże to po pierwsze problem środowisk wielojęzycznych, a po drugie, co chyba bardziej istotne, pomoże odfiltrować interesujące nas dane i uprości interakcję ze środowiskiem cyfrowym. Przedsięwzięcie ma jednak szanse jedynie wtedy, gdy wykroczy się poza czysto językowy model analizy danych i uwzględni się także specyfikę wynikającą z potrzeb związanych z niepełnosprawnością.
Holistyczne podejście do dostępności wraz z coraz lepszym rozumieniem tego czym jest niepełnosprawność otwierają przed nami nowe perspektywy. Odejście od medycznego modelu niepełnosprawności pociąga za sobą jako konsekwencję uznania równoprawności nie-wzrokowego, nie-słuchowego czy w jakikolwiek inny sposób nie-powszechnego w rozumieniu biologicznym sposobu percepcji i ekspresji osoby ludzkiej w świecie. Takie podejście sprawia, że wartością wspólną staje się dla ludzi nie równe, czyli jednakowe dla wszystkich istnienie w świecie, lecz różnorodne, czyli wzbogacające społeczność doświadczanie rzeczywistości. W przełożeniu na język inżynierski oznacza to tyle, że nie trzeba koniecznie by wszyscy mieli to samo i tak samo, lecz, że należy zbadać jakie są specyficzne ze względu na niepełnosprawność potrzeby ludzkie.
Przykład:
W modelu medycznym zaopatrywania dysfunkcji wzroku czytnik ekranu ma powiedzieć osobie niewidomej jakiego koloru są poszczególne elementy slajdów, jakie jest tło, jakie efekty wizualne zostały zastosowane, gdzie i w jaki sposób. Być może dla kogoś, kto stracił wzrok jako osoba dorosła taki opis będzie dobrym narzędziem, ale dla kogoś, kto urodził się jako niewidomy informacje te mogą być tyleż obciążające, ile niezrozumiałe. Inna rzecz jak sobie poradzić z tymi wszystkimi obiektami graficznymi za pomocą czytnika ekranu.
W modelu społecznym obsługi dysfunkcji wzroku czytnik ekranu ma do spełnienia zupełnie inną funkcję. Ponieważ podejście do dostępności jest tutaj holistyczne narzędzie do tworzenia slajdów informuje niewidomego autora prezentacji w sposób zgodny z jego możliwościami pojmowania świata, że ma on do wyboru projekt dobry dla takiej czy innej sytuacji, projekt biznesowy, edukacyjny, zabawny, smutny, profesjonalny, roboczy itd. Jeśli powstanie taki kreator, to będzie on pełnił funkcję czegoś w rodzaju interfejsu tłumaczącego wzrokowe na nie-wzrokowe rozumienie rzeczywistości.
Żyjemy w kulturze obrazu. Memy, animacje, zdjęcia są coraz bardziej istotne, a obecna postać alternatywnego opisywania grafiki, to zdaje się dopiero początek drogi. Można jak przypuszczam oczekiwać, że sztuczna inteligencja np. dokonując opisu zdjęcia wyjdzie poza „kobieta na ławce i kwiat” i objaśni mi, że oto mam przed sobą zdjęcie, na którym znajduje się „smutno uśmiechnięta, zamyślona i sprawiająca wrażenie zmęczonej kobieta patrząca na kwiat, który trzyma w prawej ręce”.
Podsumowując
Wygląda na to, że z jednej strony czeka nas stopniowa poprawa dostępności tak systemów operacyjnych jak pisanych dla tych środowisk aplikacji. Z drugiej jednak strony powinniśmy uzbroić się w cierpliwość, ponieważ, jakkolwiek technologia daje nam z dnia na dzień coraz większe możliwości, to moje obserwacje prac nad rozwijanym przez firmę Microsoft Narratorem każą mi twierdzić, że czeka nas bardzo długa droga, a na rezultaty prac będzie trzeba poczekać jeszcze ładnych parę lat. Jak długo nie powstaną interdyscyplinarne zespoły specjalistów, w których znajdą miejsce inżynierowie, programiści, psycholodzy, specjaliści od nauk społecznych, tak długo szanse na istotną zmianę jakościową w dziedzinie dostępności środowisk cyfrowych są niewielkie. Doszliśmy bowiem do momentu, w którym wprawdzie z technologicznego punktu widzenia można zrobić prawie wszystko, ale bez ustalenia co komu i dlaczego jest potrzebne czeka nas bezproduktywne, ale za to wymagające coraz większego wysiłku kręcenie się w kółko. Nie bez znaczenia jest przy tym fakt, że gwałtowny rozwój zastosowań sztucznej inteligencji, to czynnik, którego wpływ na sposób funkcjonowania człowieka w środowiskach cyfrowych jest tyleż ogromny, co trudny do przewidzenia. Czy za kilka lat czytnik ekranu jako osobna aplikacja w systemach operacyjnych w ogóle będzie jeszcze istniał, czy może stanie się on czymś w rodzaju trybu pracy systemu i funkcjonujących w nim aplikacji? Oto pytanie, które w obecnej sytuacji można i warto stawiać. Odpowiedź na to pytanie wyznacza perspektywy rozwoju dostępności środowisk cyfrowych. Znajdujemy się w fascynującym momencie historii, w którym jest ona co najmniej nieoczywista.
Damian Przybyła