Logo Tyfloświat
Telefon komórkowy trzymany w dłoni, wyświetlony ekran główny w iPhone

Kolejne wersje mobilnych systemów operacyjnych Apple zaprezentowane zostały wraz z najnowszymi modelami iPhone’ów już 7 września. Przyszła więc pora, aby wymienić i wstępnie ocenić wszystkie nowości w obszarze dostępności jakie trafiły do systemów iOS oraz iPadOS. Zapraszam do czytania i komentowania.

VoiceOver

Generalnie do całego systemu iOS / iPadOS trafiło 20 nowych języków interfejsu. Przynajmniej tak podaje Apple. Ja tego nie liczyłem. W każdym razie na pierwszy rzut oka widać, że jest sporo nowych. Nie tylko Bułgarski czy Ukraiński, ale również wiele bardzo egzotycznych języków. Co za tym idzie, mobilne systemy otrzymały również bardzo wiele nowych głosów.

Również stare języki doczekały się ciekawego uaktualnienia. Wśród angielskich głosów – dla wersji Amerykańskiej i Brytyjskiej – możemy teraz wybrać syntezator Eloquence oferujący 8 różnych brzmień mowy. W tym też te klasyczne, jak Babcia czy Dziadek. 😉 Ja akurat za nimi nie przepadam. Na szczęście dla osób takich jak ja, na otarcie łez, dla innych języków pojawiło się sporo głosów Premium. Czyli takich o zdecydowanie lepszej jakości. Do tego grona trafiła także polska Ewa. Na ile jej głos stał się Pro możecie sami ocenić odsłuchując poniższe próbki nagrań. Słuchając pomyślcie sobie, że amerykańska Ava w wersji Premium zajmuje 323 MB, a polska Ewa jedynie 67,2 MB.

Niestety nowy system przyniósł ze sobą również nowe błędy VoiceOver. Jednym z nich jest niewczytywanie systemowych słowników wymowy. Więc aktualnie VoiceOver większość rzeczy czyta dokładnie tak, jak zostały one napisane. Dotyczy to również tak popularnych nazw jak YouTube czy Facebook. Od czasu do czasu VO przeczyta coś poprawnie, ale stanowi to raczej rzadkość niż regułę.

Kolejna nowość zapowiadana przez Apple i szeroko opisywana w notkach prasowych miała dotyczyć zwiększonych możliwości anonsowania przez VoiceOver obiektów widzianych okiem kamery. Dotychczas otrzymywaliśmy informacje o znajdujących się w kadrze osobach, ich ilości i lokalizacji. Odkąd w modelach Pro pojawił się lidar, zaczęliśmy otrzymywać również informację na temat rozpoznanych obiektów. Nowością miało być głosowe i haptyczne określanie odległości do obiektów, wykrywanie drzwi, ich numerów, symboli, np. oznaczenia toalet, klamek, a nawet kierunku otwierania drzwi.

Niestety nie mogłem sprawdzić tych numerów i symboli na drzwiach, ale cała zapowiadana reszta, działa całkiem nieźle. Sam Tryb Wykrywania, trochę mało logicznie, odnajdziemy w ramach funkcji Lupa. Znajduje się dokładnie tam, gdzie zlokalizowane było wykrywanie osób.

Po zaznaczeniu opcji Tryb Wykrywania i skierowaniu przed siebie obiektywu kamery, VoiceOver zacznie nam anonsować np. takie komunikaty:

  • Wykryto drzwi w odległości 1,5m, obróć klamkę lub gałkę, wahadłowe.
  • Otwarte drzwi w odległości 2m.
  • Drzwi w odległości 4,5m, szybowe.

Co ciekawe, w Trybie Wykrywania VoiceOver odczytuje również napisy na drzwiach. Komunikatom towarzyszą wibracja i dodatkowe dźwięki, częstotliwością występowania określające odległość od drzwi. Im są one szybsze, tym bliżej się znajdujemy. Nasze preferencje dotyczące anonsowania możemy wybrać w ustawieniach samej funkcji.

Z kolei informacja, że drzwi są wahadłowe oznacza, że po prostu otwierają się one w sposób klasyczny, na zawiasach. A w tym ostatnim przypadku mogę się tylko domyślać, że tłumaczowi chodziło o przeszklone drzwi, ale pewnie translator wie lepiej… 😉 O tej funkcji zapewne przygotuję osobne nagranie, które postaram się opublikować już w przyszłym tygodniu.

Niestety, jeśli w naszym urządzeniu ustawiony mamy polski język interfejsu, to VoiceOver nadal bardzo słabo radzi sobie z rozpoznawaniem obiektów w aplikacji Aparat. Przy skierowaniu aparatu na różne obiekty, VoiceOver anonsował będzie jedynie pojedyncze przedmioty typu „okno” czy „laptop”, i to w bardzo przypadkowy sposób. Za to, co wg mnie jest bardzo ciekawe, wystarczy na pokrętle zmienić język VoiceOver na angielski, aby od razu poprawiła się jakość anonsowania. W takiej sytuacji możemy usłyszeć np.:

  • A photo containing a drzwi and a lampa
  • A photo containing a laptop, a wyświetlacz komputera and a wood item
  • A photo of trawa, an okno and a droga (inne)
  • A photo containing an ukulele, a gitara and a tekstylia
  • A photo containing a droga (inne), a glass item, a kurtyna and an okno

Jak więc sami widzicie, nie brzmi to najlepiej. Co więcej, gdy w naszym iPhone mamy ustawiony język polski, to w ogóle nie działa automatyczny odczyt tekstu, taki jaki znamy np. z aplikacji Seeing AI, w opcji Krótki Tekst. A w wersji angielskiej działa to rewelacyjnie. Wystarczy oko kamery skierować na wydrukowany tekst, aby VoiceOver błyskawicznie zaczął odczytywać tekst, nawet taki w języku polskim. Podobnie bardzo dobrze działa rozpoznawanie obiektów, jeśli tylko interfejs naszego iUrządzenia przestawimy na język angielski.

Mapy

System iOS16 wprowadza w aplikacji Mapy bardzo ciekawe wsparcie dla VoiceOver. Apple nazywa to informowaniem o punkcie początkowym kierunku marszu. Dotychczas użytkownicy otrzymywali jedynie informację o kolejnych punktach trasy, odległości do nich, oraz wskazówki, że już należy skręcić. Aktualnie VoiceOver może pilnować, czy cały czas trzymamy się wyznaczonej drogi. Jeśli z niej zboczymy, VO zaczyna generować dźwięki. Im bardziej schodzimy z trasy, tym stają się one częstsze i wyższe. Ustawienie urządzenia we właściwym położeniu, z jego szczytem skierowanym w stronę najbliższego punktu drogi, sygnalizowane jest ciszą i wibracją podobną do tej, która w aplikacji Aparat informuje nas, że złapaliśmy idealnie pionowe ujęcie. W tym wypadku iPhone oczywiście musimy trzymać poziomo. Dodatkowo głosowo anonsowane są kierunki dotarcia do najbliższego punktu / zakrętu na trasie. VoiceOver wypowiada np. następujący komunikat: Ul. Jana Pawła przed tobą, zostało 27 m. Całość sprawia bardzo fajne wrażenie. Coś więcej pewnie będę mógł na ten temat napisać dopiero po dłuższych testach. Na razie mogę powiedzieć tylko tyle, że zapowiada się całkiem nieźle dostępna aplikacja do pieszej nawigacji.

Uwaga! Przynajmniej narazie, automatyczne komunikaty głosowe nakładają się na informacje przekazywane przez VoiceOver. Jeśli Apple tego nie zmieni, to przy korzystaniu z czytnika konieczne będzie wyłączanie automatycznych komunikatów głosowych.

Jeśli chodzi o VoiceOver, to nie zauważyłem żadnych więcej istotnych nowości. A przynajmniej takich, które mógłbym Wam sensownie przybliżyć. Przykładowo w aplikacji Zdjęcia, na niektórych fotografiach lub nagraniach, VoiceOver anonsuje: Wykryto obiekt do uniesienia. Dodatkowo na Czynnościach znajdziemy opcję „Unieś obiekt z tła”, ale co ta funkcja ma robić, to aktualnie nie mam na to żadnego pomysłu.

Polskie teksty system rozpoznaje rzeczywiście lepiej, ale tylko na zdjęciach. A miał to robić w locie, nawet na materiałach video. Ta funkcja działa jedynie w angielskim interfejsie. Jest jeszcze kilka bardzo niszowych poprawek, w rodzaju anonsowania przez VoiceOver zmiany kolejności nawigacji przy zmianie sposobu prezentowania elementów, ale dotyczą tak niewielkiej grupy odbiorców, że szkoda się na ten temat rozpisywać.

Ruch

Kolejne nowości znajdziemy w sekcji Ustawienia / Dostępność / Ruch, a dokładniej, to w ramach funkcji Redukuj ruch. Pojawiła się tam opcja, która zainteresować może osoby słabo widzące. Ograniczaj ona częstotliwość klatek. Oczywiście chodzi tu o klatki filmowe. Jak informuje samo Apple, opcja „Ustawia maksymalną częstotliwość klatek na ekranie: 60 klatek na sekundę”.

Zawartość Mówiona

Następne nowości zostały zlokalizowane w Ustawieniach / Dostępność / Zawartość mówiona. Dotyczą one dodatkowych ustawień językowych dla funkcji Przeczytaj Ekran. Od iOS16 możemy określić Domyślny Język dla systemowego głosu, a także włączyć opcję automatycznego wykrywania języków, jeśli chcemy syntezą mowy odczytywać treści w różnych językach.

Dotyk

W sekcji Ustawienia / Dostępność / Dotyk odnajdziemy kolejną nowość. Nosi ona nazwę: Nie kończ połączeń po zablokowaniu i jak łatwo się domyślić, uniemożliwia kończenie bieżącego połączenia poprzez naciśnięcie przycisku bocznego. Generalnie chodzi o to, aby przez przypadek nie rozłączać trwającej rozmowy.

Uwaga! Jeśli korzystasz z VoiceOver, to po zaznaczeniu tej opcji nie będziesz w stanie rozłączyć połączenia poprzez jednoczesne naciśnięcie przycisków: bocznego i ciszej.

Steruj pobliskimi urządzeniami

W Ustawieniach / Dostępność pojawiła się całkowicie nowa sekcja o nazwie Steruj pobliskimi urządzeniami. Jak informuje samo Apple: „Funkcja Steruj pobliskimi urządzeniami pozwala obsługiwać przy użyciu tego iPhone’a inne urządzenie zalogowane na tym samym koncie iCloud. Możesz na przykład włączać i wyłączać odtwarzanie multimediów, naciskać przyciski lub używać Siri”.

Aktualnie po aktywowaniu funkcji rozpoczyna się proces wyszukiwania urządzeń w pobliżu, który trwa w nieskończoność.

Słuch

Kolejne nowości trafiły do sekcji Ustawienia / Dostępność / Słuch, a dokładnie do funkcji Rozpoznawania Dźwięku. Samą funkcję już kiedyś Wam demonstrowałem. Było to we wpisie Nowości w iOS14 – Rozpoznawanie dźwięku. Po dwóch latach została ona rozbudowana o dwie nowości.

Tak na prawdę to nowość jest jedna, ale w dwóch obszarach. Do predefiniowanych dźwięków, które rozpoznawane są przez funkcję, aktualnie możemy dodać własne dźwięki. Może to być jakiś nowy odgłos lub typ alarmu, albo jakieś charakterystyczne urządzenie, lub nietypowy dzwonek do drzwi. Z punktu widzenia głuchych użytkowników, jest to fantastyczna nowość. Nareszcie można spersonalizować rozpoznawanie konkretnych dźwięków.

Siri

Pamiętajcie o tym, że Siri posiada dwie sekcje Ustawień. Jedna znajduje się w głównych Ustawieniach, a druga w Ustawienia / Dostępność / Siri. Ja odnoszę się do tej drugiej lokalizacji.

Jeśli korzystacie z VoiceOver, to zmianę w Siri zauważycie już przy pierwszej próbie jej wywołania. Otóż zmienił się dźwięk samego wywołania. Przez lata przyzwyczaiłem się do tego dźwięku, więc na początku ten nowy trochę mnie irytował. Ale po kilku dniach przyłapałem się na tym, że aktualnie to stary dźwięk mnie irytuje. 😉 Nowy jest o wiele niższy i cieplejszy. A skoro o dźwiękach, to od razu dodam, że zmieniły się również dźwięki rozpoczynające i kończące nasłuch przy dyktowaniu, oraz pojawił się nowy dźwięk anonsujący działanie funkcji Rozpoznawanie Ekranu. Ten ostatni występuje w momencie, gdy jakiś element zostanie rozpoznany. Przydaje się o tyle, że czasem użytkownicy w ogóle nie zauważają, że włączyli tę funkcję, a ona zamiast pomagać, to tylko przeszkadza zmniejszając poziom dostępności.

Kolejna nowość nosi nazwę OKRES WSTRZYMANIA SIRI. Dzięki niej możemy teraz określić jak długo Siri powinna czekać, aż skończymy do niej mówić. Jest to szczególnie przydatne, gdy mamy problemy z artykułowaniem słów, czy to z uwagi na jakąś niepełnosprawność, czy słabą znajomość języka Siri.

Trzecia nowość dotyczy Ogłaszania Powiadomień Przez Głośnik. Dotychczas działało to jedynie na słuchawkach. Aktualnie po zaznaczeniu tej funkcji, Siri będzie nam wszystko anonsowała przez głośnik naszego iUrządzenia.

Czwartą nowością jest możliwość kończenia połączeń, czy to telefonicznych, czy FaceTime, bez dotykania naszego iUrządzenia. Jak informuje samo Apple: „Możesz używać polecenia „Hey Siri” do kończenia połączeń telefonicznych i FaceTime na iPhonie 11 i nowszych. Polecenie jest także dostępne na starszych urządzeniach, jeśli są z nimi połączone słuchawki AirPods lub obsługujące Siri słuchawki Beats”. I powiem Wam, że działa to rewelacyjnie. Teraz gdy macie czymś zajęte, brudne lub mokre dłonie, nie tylko możecie za pomocą Siri odebrać połączenie, ale także je zakończyć. Na pewno ogromnie docenią to wszystkie osoby, które z różnych względów nie mogą skorzystać z rąk do obsługi swoich urządzeń.

Ostatnią nową funkcją dostępności jaką otrzymała Siri, jest możliwość włączania i wyłączania automatycznego odbierania połączeń przychodzących. Niby mała rzecz, a cieszy. To jest właśnie opcja z rodzaju tych o których mówimy: Jak to możliwe, że Apple jeszcze tego nie wprowadziło? 😉

Książki

W aplikacji Książki, po otwarciu dowolnej publikacji w formie e-booka, w menu znajdującym się w prawym rogu ekranu, znajdziemy nowe opcje ułatwień dostępu.

Pierwsza znajduje się już w głównej sekcji Motywy i ustawienia. Od szesnastej wersji systemów iOS oraz iPadOS możemy tam włączyć pogrubienie czcionek. Kolejne opcje ułatwień dostępu pojawiają się w momencie, gdy włączymy edycję wybranego motywu i tam klikniemy Opcje dostępności i makiety. Wśród nich do dyspozycji będziemy mieli możliwość regulacji odstępów między wierszami, znakami, wyrazami, a także włączania i wyłączanie justowania, oraz układu wielokolumnowego. Przyznam, że tych ustawień trzeba się trochę naszukać, ale jestem pewien, że osoby słabo widzące będą z ich obecności bardziej niż zadowolone.

Inne Opcje Ułatwień Dostępu

W szesnastej wersji systemów iOS oraz iPadOS pojawiło się kilka opcji ułatwień dostępu, który nie trafiły do sekcji Dostępność. Wg mnie świadczy to tylko o tym, że coraz więcej użytkowników, coraz chętniej sięga po różne udogodnienia, więc Apple łatwiej zlokalizować takie opcje w pobliżu funkcji, których one bezpośrednio dotyczą, niż ukrywać je w rzadko odwiedzanej sekcji Dostępność.

Na pierwszą z tych opcji czekałem z wypiekami na twarzy. Przyznam, że osobiście okrutnie irytują mnie otrzymywane wiadomości, lub wpisy w mediach społecznościowych, które albo są dyktowane, albo po prostu pisane bez jakiejkolwiek interpunkcji. Dlatego gdy dowiedziałem się, że funkcja Dyktowania otrzyma możliwość automatycznego wstawiania interpunkcji, to aż zatarłem ręce z radości. Więc wyobraźcie sobie teraz jakież było moje rozczarowanie, gdy przeczytałem, że owo automatyczne wstawianie interpunkcji dotyczy jedynie języka angielskiego. 🙁 Dlatego aktualnie pocieszam się tym, że nawet po angielsku działa to słabo, i że zanim trafi do języka polskiego, to jest szansa, że funkcja zostanie dopracowana.

Kolejną nowością miało być wstawianie emoji w trakcie dyktowania. I tu znowu spotkało mnie srogie rozczarowanie. Albo ja jeszcze nie potrafię tego używać, albo funkcja nadal działa bardzo słabo. Jedynie kilka razy udało mi się wstawić ikonkę emoji, i to tylko te popularniejsze. W tym wypadku język dyktowania nie miał już znaczenia.

Za to trzecia nowość związana z dyktowaniem, czyli dyktowanie znak po znaku działa bardzo dobrze. W tym wypadku język dyktowania także nie ma znaczenia.

Opcje związane z dyktowaniem znajdziecie w Ustawienia / Ogólne / Klawiatura.

Czwarta nowość trafiła do Safari. Jest nią automatyczne tłumaczenie treści stron internetowych. Oczywiście ta funkcja była obecna w systemach iOS oraz iPadOS już wcześniej, ale od wersji 16 odwiedzane strony możemy tłumaczyć również na język polski. Jej użycie jest niezwykle łatwe, co zapewne zademonstruje w kolejnym nagraniu z Mojej Szuflady.

Podsumowanie

Według mnie najnowsze wersje mobilnych systemów iOS i iPadOS zawierają całkiem sporo nowości z obszaru dostępności. Jak zwykle nie ma tu mowy o rewolucji, ale ewolucyjny rozwój opcji ułatwień dostępu jest bezapelacyjny. Wygląda też na to, że większość zapowiedzi i obietnic złożonych przez Apple w trakcie majowego WWDC zostało dotrzymanych. Ciekawy jestem również tego, ile jeszcze smaczków dostępnościowych odkryjemy już po oficjalnej premierze obu systemów.

W tym miejscu muszę koniecznie podkreślić, że czwarta beta iOS16 jest wyjątkowo stabilna. Działa bardzo płynnie, bez jakichkolwiek problemów z VoiceOver. Zniknęły również niektóre błędy czytnika ekranu, w rodzaju losowego wybierania kontaktów w trakcie nawiązywania połączenia. Wygląda więc na to, że finalna wersja systemów zachowywać się będzie bardzo przyzwoicie.

Mnie osobiście zachwyca jeszcze jedna rzecz, tj. kierunek rozwoju Opcji Ułatwień Dostępu jaki przyjęło Apple. Firma przestała skupiać się jedynie na dostępności samego wnętrza urządzenia i jego interfejsu użytkownika. Aktualnie wbudowane opcje ułatwień dostępu sprawiają, że również otaczający użytkownika świat widziany okiem kamery, dźwięki otoczenia słyszane przez mikrofony, zewnętrznie kupowane publikacje elektroniczne, czy multimedia pobierane z różnych źródeł, stają się dzięki nim dostępne. A to już trochę tak, jakby Apple po kawałku zaczęło udostępniać nam cały świat.

  • Wszystkie powyższe uwagi dotyczą czwartej publicznej bety systemu iOS i iPadOS. Testy prowadziłem głównie na iPhone 13 Pro, więc na innych lub starszych iUrządzeniach opisywany system iOS16 może zachowywać się inaczej. Pamiętajcie również o tym, że finalne wersje opisywanych systemów mogą nie posiadać wymienionych funkcji, mogą działać inaczej, a nawet mogą pojawić się w nich inne, nowe opcje ułatwień dostępu. Pomimo odpowiednich starań z mojej strony, mogłem też przegapić jakąś bardziej lub mniej istotną nowość, z

 

Opracowano na podstawie artykułu z serwisu Moja Szuflada.

Źródło: https://mojaszuflada.pl/ios-oraz-ipados-16-wszystkie-nowosci-z-obszaru-dostepnosci/

 

Zachęcam do przeczytania artykułu Piotra Machacza pt. Nowości w systemach Apple na rok 2022” który szczegółowo omawia je w aspekcie pracy z klawiaturą i czytnikiem ekranu VoiceOver oraz znacznie więcej miejsca poświęca nowemu systemowi MacOS 13 Ventura.

 

Partnerzy

 Fundacja Instytut Rozwoju Regionalnego                     Państwowy Fundusz Rehabilitacji Osób Niepełnosprawnych

Back to top