Logo Tyfloświat

Wprowadzenie

Polska firma Transition Technologies S.A. od wielu lat jest zaangażowana w działania w obszarze społecznej odpowiedzialności biznesu. Chętnie dzieli się swoją wiedzą i zasobami.
Jednym z naszych projektów rozwijanych w ramach CSR jest „Seeing Assistant” – pakiet specjalistycznych, użytecznych i wielokrotnie nagradzanych aplikacji dostępnych na całym świecie, działających pod kontrolą systemów operacyjnych IOS i Android.
W proces ich tworzenia znacznym stopniu zostały zaangażowane osoby niewidome i słabowidzące. Dlatego nietrudno się domyślić, że interfejsy wszystkich naszych aplikacji są zoptymalizowane pod kontem pełnej współpracy z programami odczytu ekranu. Na szczególną uwagę zasługują dwie z nich.
Seeing Assistant Home to aplikacja pomagająca w wielu codziennych czynnościach, takich jak: skanowanie kodów kreskowych i QR, rozpoznawanie tekstów i banknotów, lupa i inne.
Z kolei Seeing Assistant Move to aplikacja ułatwiająca nawigację i orientowanie się w terenie. Pozwala na planowanie tras, dostarcza nawigację pieszą zakręt po zakręcie, umożliwia wyszukiwanie adresów, oznajmianie najbliższych punktów (monitorowanie), symulowanie lokalizacji innej niż ta, w której znajduje się użytkownik i wiele, wiele więcej.
Przypominamy, że od ponad roku, wszystkie aplikacje, które wchodzą w skład pakietu Seeing assistant, dostępne są za darmo. I tak! Są dalej rozwijane, mimo niepokoju i obaw użytkowników o ich dalszy los.
Na łamach Tyfloświata, jak dotąd można było znaleźć informacje raczej newsowe poświęcone pakietowi Seeing Assistant. Do tego dawno nie były one aktualizowane. Stąd pomysł zaprezentowania naszej pracy i przybliżenia Czytelnikom wybranych aspektów rozwoju Move i Home, a w szczególności zaimplementowanych nowości.
Nie jesteśmy w stanie w tym artykule dokładnie opisać wszystkich opcji tych aplikacji, dlatego Skupimy się raczej na tym, co pojawiło się w ostatnich aktualizacjach.

Seeing Assistant Home

Aplikacja Seeing Assistant Home odpowiada na liczne potrzeby osób z dysfunkcjami wzroku. Z założenia jej funkcje mają ułatwiać wykonywanie różnych czynności dnia codziennego.

Główne funkcje Seeing Assistant Home

• skanowanie i odczytywanie zawartości kodów kreskowych oraz kodów QR
Pozyskiwanie informacji o produktach, których opakowania zawierają kody kreskowe
• dodawanie kodów kreskowych oraz kodów QR do swojej własnej bazy.
• Możliwość tworzenia własnych kodów kreskowych i QR pozwala użytkownikowi oznaczyć w domu czy w pracy własną nazwą praktycznie każdy przedmiot.
• generowanie kodów QR
• odczytywanie zawartości tagów NFC
• wykrywanie źródła i natężenia światła
• lupa elektroniczna
• Szybkie odczytywanie wykrytych tekstów
Rozpoznawanie polskich banknotów PLN
• sterowanie głosowe aplikacją
• obsługa skrótów Siri (system IOS).

Ostatnio skanowane kody

Wprowadziliśmy na życzenie użytkowników nową funkcję: “ostatnio skanowane kody”. Pozwala ona na przeglądanie historii skanowania kodów kreskowych i kodów QR.
Działa ona podobnie jak „Historia” w przeglądarkach internetowych, czyli lista odwiedzanych adresów stron. Na „Liście ostatnio skanowanych” Znajdziemy listę ostatnich stu kodów jakie udało się zeskanować, ułożoną w kolejności od najnowszego do najstarszego. Możemy je potem dodać do bazy własnych kodów, usuwać, edytować oraz wyszukiwać informacje o produkcie dostępne w sieci.
Ta nowa funkcja będzie szczególnie przydatna, gdy np. stracimy dostęp do Internetu i w danym momencie nie będziemy mogli otrzymać informacji o nowo zeskanowanym kodzie. Kod Znajdziemy wtedy właśnie na liście ostatnio skanowanych. Będzie on zapisany w formie jaką odczytał program – w przypadku kodów kreskowych będzie to ciąg cyfr. Gdy dostęp do internetu powróci, wystarczy skorzystać z opcji “znajdź ponownie w wyszukiwarce” i wtedy Google postara się odnaleźć informacje przypisane do tego kodu w zasobach internetowych. Z funkcji tej można też m.in. skorzystać gdy otrzymamy przesyłkę z dużą liczbą przedmiotów zakupionych przez Internet np. większe zakupy spożywcze. Wtedy można szybko zeskanować kody z produktów i wyniki porównać z listą zakupów. Póki co, do tego potrzebna będzie obecność wszystkich kodów kreskowych z przypisanymi do nich odpowiednimi nazwami w naszej bazie kodów kreskowych.

Kopia bezpieczeństwa

Drugą nowością jest możliwość tworzenia kopii bezpieczeństwa bazy zawierającej zapisane przez nas kody. Bez obaw, pozostawiamy dotychczasowe opcje archiwizacji na koncie usługi Dropbox. Rozszerzamy je tylko. Teraz wystarczy wybrać “utwórz kopię” i program zapisze bazę z naszymi kodami w dowolnie przez nas wskazanym miejscu w pamięci urządzenia. Prosimy jednak pamiętać, że wykonanie kopii bazy nie działa analogicznie do funkcji importu i eksportu danych na konto Dropbox. Wykonanie kopii nie pozwala bowiem na synchronizację danych.
Plik z kopią bazy możemy przenosić między urządzeniami pracującymi pod Androidem i iOS-em. W tym celu skorzystać możemy z systemowej funkcji udostępniania i zdecydować, komu i za pośrednictwem której aplikacji udostępnić nasze zbiory.

Rozpoznawanie tekstu

To kolejna z nowości, która pojawiła się już jakiś czas temu, a nie była jeszcze opisywana. Czas więc nadrobić zaległość.
Seeing Assistant Home pozwala teraz także na rozpoznawanie tekstu (tzw. ang. OCR optical character recognition – optyczne rozpoznawanie znaków), znajdującego się na różnych powierzchniach, takich jak: kartka, wizytówka, ulotki, napisy na ekranie komputera, a nawet elementy obecne w przestrzeni miejskiej (tablice informacyjne, szyldy reklamowe i inne). Jest to funkcja tzw. szybkiego rozpoznawania tekstu. Do jej działania nie jest potrzebne wykonywanie zdjęcia obiektu i jego wysyłania do usług zewnętrznych, które przeprowadzają dokładny proces przetwarzania tekstu z formy graficznej na edytowalną.
Ważne! Do skanowania tekst musi być ułożony poprawnie – tak jak do czytania. Aby go rozpoznać , wystarczy w oknie głównym programu, wybrać opcję „Wykryj tekst” i nakierować kamerę smartfona na miejsce, w którym spodziewamy się jego obecności. Aplikacja zeskanuje, przetworzy tekst i rozpocznie jego wypowiadanie, w zależności od tego, w jaki sposób została ustawiona.
Gest potrząśnięcia może włączać i wyłączać diodę w zależności od opcji wybranej w ustawieniach.

Główne przyciski i przełączniki na ekranie rozpoznawania tekstu

Poniżej opisujemy działa nie większości przycisków na tym ekranie:
• Wykryte teksty
Wyświetla ekran z listą rozpoznanych tekstów. Są one zapisywane automatycznie i sortowane wg czasu dodania – od najnowszego do najstarszego. Na poszczególnych elementach listy można wykonać niektóre akcje opisane w sekcji „Akcje na listach z kodami” (więcej informacji w Tutorialu).
• Czytaj – rozpoczyna proces odczytywania tekstu widzianego przez kamerę.
W systemie IOS, gest Magic Tap (dwukrotne stuknięcie dwoma palcami) wykonuje naprzemiennie dwie akcje: wstrzymuje czytany przez syntezę tekst i inicjuje czytanie na żądanie.
• czytaj automatycznie – pozwala włączyć i wyłączyć automatyczne odczytywanie tekstów, znajdujących się w polu widzenia aparatu.
• tryb ekranu: pełny, wąski i mikro Pozwala określić, jak duży obszar brany jest pod uwagę podczas rozpoznawania tekstu.
• wibracje – pozwala włączyć lub wyłączyć sygnały wibracyjne.
• dźwięk – pozwala włączyć lub wyłączyć dźwiękowe informacje o wykrywaniu tekstu.
• Dioda – umożliwia włączenie albo wyłączenie użycia diody doświetlającej.
• FPS (ang. frames per second – liczba kadrów wyświetlanych w ciągu sekundy) – pozwala określić, ile zdjęć w ciągu 1 sekundy program ma wykonywać. Ta funkcja może być bardzo przydatna przy próbie odczytywania tekstów z różnego rodzaju ekranów, wyświetlaczy, tablic elektronicznych, na których pokazywany obraz migocze z określoną częstotliwością. Dopasowanie tych obu wartości migania wyświetlacza i robienia zdjęć może znacząco poprawić efekty rozpoznawania tekstów.
Uwaga! Funkcja FPS występuje tylko w systemie IOS.

Identyfikacja obecności tekstu na kartce papieru

W funkcji „wykryj tekst” zawarto również opcję pozwalającą jedynie na identyfikację jego obecności, bez rozpoznawania – wykonywania procesu optycznego rozpoznawania znaków. Pozwala się ona zorientować, czy na danym obiekcie znajduje się jakiś tekst, czy nie. Jeżeli zostanie on wykryty, to odtwarzany jest wysoki dźwięk. Gdy aplikacja nie jest w stanie zidentyfikować tekstu, to odtwarzany jest niski dźwięk. Funkcja ta może być przydatna, gdy użytkownik chce wiedzieć, czy na kartkach, które zamierza zeskanować np. na skanerze z podajnikiem kartek, są zadrukowane obie, czy tylko jedna strona. Działa ona w sposób optymalny, gdy wyłączone jest automatyczne czytanie tekstu.
Uwaga! Do jak najlepszego wykorzystania funkcji skanowania i rozpoznawania tekstów przydatna może się okazać pomoc osób widzących, które wyjaśnią użytkownikowi jakie zależności zachodzą między ułożeniem smartfonu a obrazem widzianym przez kamerę.

Lepsze sortowanie ostatnio zeskanowanych informacji

Wprowadziliśmy udogodnienie na liście ostatnio skanowanych tekstów. Obecnie teksty są ułożone według dat skanowania. Oczywiście nie musimy przedzierać się przez wszystkie zeskanowane danego dnia informacje; możemy zwinąć nagłówek daty i szybko przejść dalej.
Jeżeli w naszych zbiorach znajdują się teksty zapisane przed wprowadzeniem nowego sposobu sortowania, to będą one widoczne pod nagłówkiem “brak daty”.

Skróty Siri

Lista zawiera niemal wszystkie funkcje programu, które w łatwy sposób można szybko dodać do Skrótów, a potem uruchamiać za pomocą komend głosowych wydawanych Siri. Każdą z nich można też przypisać np. do opcji dwukrotnego lub trzykrotnego stuknięcia w tył iPhone – dostępna jest ona od wersji 14 iOS.

Rozpoznawanie banknotów

W najnowszej aktualizacji Seeing Asistant Home dla iOS dodaliśmy funkcję pozwalającą na rozpoznawanie sześciu rodzajów banknotów obiegowych (nominały od 10 do 500) waluty polski złoty. Nie rozpoznaje banknotów: kolekcjonerskich, okolicznościowych, innych walut. Aplikacja nie rozróżnia banknotów prawdziwych od fałszywych.
Najwyższą skuteczność odczytania informacji o banknocie, a za razem jak najlepszą gwarancję jego rozpoznania otrzymamy przy skanowaniu całych banknotów rozłożonych na płasko, ale aplikacja dobrze sobie też radzi z identyfikacją fragmentów banknotów np. złożonych na pół. Rozpoznaje zarówno awersy jak i rewersy.
Po uruchomieniu funkcji rozpoznawania banknotów proces rozpocznie się automatycznie, a aplikacja poinformuje nas o tym krótkim, niskim, przerywanym dźwiękiem. Kiedy nominał zostanie zidentyfikowany otrzymamy stosowny komunikat głosowy, a Dźwięk zmieni się na wysoki.
W oknie rozpoznawania banknotów możemy ustawić informowanie dźwiękiem, doświetlanie diodą oraz to, czy rezultaty rozpoznania ma wypowiadać synteza systemowa czy VoiceOver. Możemy także wybrać częstotliwość wypowiadania komunikatów głosowych spośród wartości– nigdy, wartości 2, 3 lub 5 sekund.
Uwaga!
Gdy na wybieraczu powtarzaj komunikaty” ustawimy wartość „nigdy”, to nazwa rozpoznanego nominału zostanie wypowiedziana tylko 1 raz. Aby usłyszeć komunikat ponownie, należy powtórzyć proces rozpoznawania.
Jeśli przełącznik „Synteza” zostanie ustawiony na pozycję „Wyłączone”, to informację głosową o wyniku rozpoznawania otrzymamy jedynie wtedy, gdy fokus VoiceOver ustawimy i będziemy utrzymywali go na kontrolce znajdującej się na górze okna, za przyciskiem „Polecenia głosowe”.
W celu uzyskania najlepszych rezultatów zalecamy wykonać kilka odczytów dla każdego z banknotów.
Niestety zdarza się, że aplikacja rozpozna inny przedmiot lub widok z kamery jako banknot. Jest to pewna wada, której wyeliminowanie mogłoby wpłynąć na pogorszenie skuteczności rozpoznawania.
Gdy w kadrze kamery znajduje się banknot, to poprawność odczytów powinna wynieść blisko 100 procent. Gdy ten sam banknot jest rozpoznawany jako kilka różnych nominałów, to należy włączyć diodę lub zadbać o dużo lepsze oświetlenie banknotu – trzeba go oświetlać w kierunku zgodnym do patrzenia kamery – nie podświetlać go od dołu, świecąc w kierunku obiektywu.
Jak sprawnie rozpoznawać banknoty
Aby sprawnie rozpoznać banknot:
• Należy trzymać smartfon stabilnie w ręku lub zamocować na statywie,
• obiektyw kamery ustawić w kierunku, w którym będzie się znajdował banknot,
• podkładać banknot pod kamerę, tak aby jak największa jego część znalazła się w kadrze,
• zachowywać odległość między kamerą a banknotem od około 20 do 40 centymetrów,
• umieścić banknot na stosunkowo jednolitym tle np. blat stołu/biurka,
Inną techniką może być przyłożenie smartfonu do banknotu, a następnie oddalenie urządzenia na ww. odległości, aż do momentu, w którym aplikacja poinformuje o rozpoznaniu jego nominału.
Przy słabym oświetleniu należy włączyć diodę doświetlającą. W tym celu wystarczy potrząsnąć smartfonem lub wybrać stosowny przełącznik na ekranie rozpoznawania banknotów. Gdy w ustawieniach Seeing Assistant Home przełącznik „włącz diodę przy słabym oświetleniu” jest ustawiony w pozycji „włączone”, to dioda powinna włączyć się automatycznie.
Ważna informacja dla osób niewidomych i bardzo słabowidzących korzystających z funkcji rozpoznawania tekstów, banknotów i skanowania kodów. Prosimy pamiętajcie, że  aparaty montowane w smartfonach pracują w taki sposób, że na ogół patrzą one pod lekkim kontem w górę. Znaczy to tyle, że gdy postawicie smartfon w pozycji pionowej, na jego krótszej krawędzi, w taki sposób, że kamera znajduje się w górnej jego części i patrzy na przedmioty znajdujące się prosto przed wami, to nie przechwytuje ona obrazu znajdującego się po równo np. 45 stopni w dół i 45 stopni w górę. W kadrze znajduje się mniej obrazu z dołu, np. 35 stopni a więcej w górę, np.  55 stopni. Odpowiednio, w ułożeniu smartfonu na płasko, takim w którym kamera patrzy w dół a ekran jest skierowany do góry,  obiektyw wyłapuje więcej przestrzeni, która znajduje się przed aparatem, w kierunku w którym patrzył w górę przy ułożeniu pionowym. To trochę tak jak byście wzięli latarkę, ustawili ją tak żeby świeciła dokładnie na wprost, a faktycznie będzie ona świeciła trochę w górę.
Brzmi to trochę skomplikowanie, ale można łatwo wypracować odpowiednią technikę. Gdy  chcecie rozpoznać np. banknot, to rozłóżcie go na stole w pozycji pionowej. Następnie połóżcie  obiektyw smartfona na jego dolnej części (ale w taki sposób, żeby cały smartfon tylną częścią dotykał stołu). Podnieście smartfon pionowo do góry, na przynajmniej 20 centymetrów. Utrzymujcie go równolegle do płaszczyzny stołu  . Wówczas, banknot będzie się znajdował  niejako przed smartfonem, ale wtedy w kadrze będzie  widziany cały lub prawie cały, a nie tylko ta jego dolna część, na której ułożyliście obiektyw. Gdy będziecie już umieli zachować te relacje, to wtedy wystarczy banknot trzymać  w jednej dłoni, a w drugiej smartfon i sprawnie go rozpoznawać.
Uwaga, gdy ułożycie banknot w taki sposób, że obiektyw aparatu będzie się znajdował na środku lub w górnej części banknotu, to po podniesieniu smartfona do góry, w dolnej części kadru/ekranu będzie  widoczny jedynie fragment banknotu – w pierwszym przypadku około połowy a w drugim około 20 procent.
Utrzymanie tych relacji ułożenia między przedmiotem a smartfonem jest kluczowe w pracy z obiektami, które chcecie rozpoznać/zeskanować. Bowiem im większa ich część i w wyższej rozdzielczości znajdzie się w kadrze obiektywu,  tym szybciej i skuteczniej będzie się Wam udawało je rozpoznawać przede wszystkim banknoty. Nieodpowiednie ułożenie smartfonu spowoduje to, że żeby skanowany obiekt znalazł się w całości w kadrze, to będzie trzeba go  oddalić od przedmiotu. To z kolei sprawi, że  w  kadrze obiekt ten będzie widziany jako mniejszy, z niższą rozdzielczością a co za tym idzie skuteczność rozpoznawania się pogorszy.
Czasami użytkownicy pytają też o to, jak  szybko ustalić odpowiednią odległość od rozpoznawanego przedmiotu. Jak sprawnie odmierzyć te 20 centymetrów. Tu mamy dość prostą metodę.  Rozpostrzyjcie maksymalnie palce dłoni i zmierzcie odległość między czubkiem palca małego a czubkiem kciuka. W  moim przypadku jest to około 23 centymetry. I voila, kieszonkowa orientacyjna miarka gotowa.

Plany na przyszłość.

Zamiana zeskanowanego kodu QR na aktywne elementy

Ta funkcja częściowo już działała w wersjach testowych, alenie byliśmy jak dotąd w pełni z niej zadowoleni. W kolejnych miesiącach będziemy się starali usprawnić proces odczytywania kodów QR tak, aby mogły być lepiej rozpoznawane i dobrze interpretowane. Wstępne efekty wydają się bardzo obiecujące. Zasadniczo dążymy do tego, by można było szybko odczytać informacje z wizytówek, takie jak: imię i nazwisko, numer telefonu, e-mail, adres strony WWW itp. Zasadniczo chodzi o to, żeby aplikacja integrowała się z funkcjami systemowymi i pozwalała wykonywać szereg akcji stosownych dla danego typu danych (zadzwoń, wyślij SMS, wyślij e-mail, dodaj do kontaktów i inne).

Seeing Assistant Move

Główne funkcje Seeing Assistant Move

nawigacja zakręt po zakręcie,
• Rejestrowanie tras,
Monitorowanie punktów z najbliższej okolicy,
Opis skrzyżowań,
Eksploracja najbliższych punktów,
• wyszukiwanie adresów i punktów w bazach oraz zasobach OSM,
• sprawdzanie dokładności sygnału GPS oraz prędkości, kierunku poruszania się i wysokości względem poziomu morza,
• oznajmianie powiadomień przez syntezę niezależną od czytnika ekranu,
• Możliwość tworzenia profili ustawień i ich przełączania,
• możliwość sterowania aplikacją za pomocą komunikatów głosowych,
• możliwość dzielenia się zapisanymi punktami, bazami i trasami,
• integracja z serwisem Dropbox,
• wsparcie dla Apple Watch,
• obsługa skrótów Siri (system IOS).

Ostatnie nowości dla wersji IOS

Wyznaczanie tras „Zakręt po zakręcie” teraz z Valhallą

W oparciu o silnik mapowy dostarczający usługę generowania tras Valhala, Stworzyliśmy unikatowy w skali świata tryb generowania tras ZPZ z uwzględnieniem szczególnie istotnych informacji o punktach na trasie dla osób niewidomych. Aby go aktywować należy ustawić przełącznik “dodatkowe wskazówki” w pozycji “włączone”. W tym trybie, wstawiane będą dodatkowe punkty na trasie, informujące o nazwach przekraczanych ulic, bramach, schodach, tunelach, kładkach oraz o tym czy na skrzyżowaniu znajduje się sygnalizacja świetlna.

Wykluczanie punktów

Teraz można również wykluczać konkretne punkty z trasy. W tym celu, w oknie “wyklucz punkt” wskaż punkt/punkty, przez który nie chcesz iść, a wytyczona zostanie trasa omijająca wskazany punkt lub punkty. Inny sposób to: wyznacz trasę z punktu początkowego do końcowego, przejdź na ekran “śledzone punkty” i zaznacz na liście punktów trasy te, przez które nie chcesz iść – najlepiej wybrać ich kilka, łącznie z punktem poprzedzającym i kolejnym względem tych punktów, które chcemy wykluczyć. Następnie wybierz akcje “Wyklucz punkty i wyznacz ponownie trasę”.

Zapisywanie trasy

Gdy wyznaczoną trasę zakręt po zakręcie będziesz chciał zapisać do własnych tras, to przejdź na ekran śledzonych punktów , ustaw fokus VO na dowolnym jej punkcie (nie zaznaczaj żadnego z nich) i użyj akcji “zapisz trasę”.

Inne zmiany w trybie śledzenia punktów

Usprawniliśmy sposób nawigacji po punktach na trasach. Gdy znajduje się na niej kilka punktów w bliskiej odległości od siebie, to teraz nazwa każdego z nich będzie wypowiedziana w całości, a komunikaty nie będą przerywane.
Zmiany w obszarze śledzonych punktów
Wprowadzono mechanizm automatycznego pomijania punktów w śledzonych trasach, gdy użytkownik nie znalazł się w promieniu przybycia danego punktu a konsekwentnie zbliża się w stronę kolejnego punktu trasy, to następuje automatyczne przełączenie śledzenia na ten kolejny punkt
Nowości w opcji „znajdź adresy i punkty w OSM
Dodano możliwość ustawienia promienia wyszukiwania punktów”
Dodano więcej akcji do wykonania na wyszukanych punktach i naprawiono wyszukiwanie najbliższych punktów OSM podczas symulowania lokalizacji
Eksploracja monitorowanych punktów
Wprowadzono nową funkcję – eksploracja monitorowanych punktów. Pozwala ona na użycie trybu eksploracji punktów z kilku źródeł w tym samym czasie (OSM, baz, zapisanych itp., tych, które zostały wybrane w ustawieniach monitorowania. W celu włączenia trybu eksploracji monitorowanych, użyj przycisku “monitorowanie” na ekranie głównym. Gdy fokus VO jest na nim ustawiony, wykonaj gest pociągnięcia w dół lub stuknij dwukrotnie jednym palcem z przytrzymaniem i wybierz odpowiedni przycisk. Obracając iPhone’m, wypowiadane będą nazwy kierunków geograficznych (np. południe), a następnie nazwa najbliższego punktu. Użyj gestu magic tap (dwukrotne stuknięcie dwoma palcami) aby rozpocząć lub wstrzymać wypowiadanie nazw kolejnych punktów we wskazanym kierunku. Ułożenie iPhone w innym kierunku geograficznym zatrzymuje odczytywanie listy punktów.
Kolejność elementów na listach
Dodaliśmy możliwość ustawiania kolejności elementów na listach z akcjami i profilami użytkownika. Dzięki temu można spersonalizować (ustawić) ich kolejność na listach, stosownie do przyzwyczajeń i potrzeb użytkownika. Zastosowane zmiany są zapisywane do aktywnego profilu ustawień użytkownika. Proces aktywowany jest przyciskiem „edytuj kolejność elementów”.
Blokowanie śledzonych punktów
Dodano akcję umożliwiającą blokowanie śledzonych punktów. Punkt zablokowany to taki, który nie respektuje ustawień promienia przybycia oraz automatycznego pomijania punktów na trasie. Pozwala to na precyzyjniejsze nawigowanie do wybranego punktu i ręczną kontrolę nad poszczególnymi punktami trasy.
Blokowanie i odblokowywanie punktów jest możliwe z użyciem akcji (również z poziomu pokrętła) oraz gestów potrząśnięcia. Te ostatnie działają, gdy otwarte jest okno śledzonych punktów, lub gdy bezpośrednio przed zablokowaniem urządzenia okno to było otwarte.
Pierwsze potrząśnięcie rozpoczyna proces blokowania lub odblokowywania punktu.
Drugie potrząśnięcie wykonane w ciągu 10 sekund od pierwszego gestu, odwołuje proces blokowania lub odblokowania punktu.
W oknie śledzonych punktów, kolorem zielonym są zaznaczane punkty aktywne, a czerwonym zablokowane. Gdy punkt jest jednocześnie zablokowany i aktywny to oznaczony jest obydwoma tymi kolorami.
Usprawniony wybór akcji w IOS 13 i nowszym
W iPhone’ach pracujących pod systemem iOS 13 lub wcześniejszym zastosowano nowy komponent zawierający listę akcji dostępnych w różnych miejscach aplikacji. Dzięki temu, na listach, które zawierają dużą liczbę akcji, nie ma konieczności ich przewijania z użyciem gestu stronicowania wykonywanego trzema palcami – lista przesuwa się automatycznie po osiągnięciu krawędzi okna.
Konwersja punktów DotWalker
Użytkownicy którzy korzystają z innych programów do nawigacji mogą w niektórych przypadkach przekonwertować swoją bazę punktów do formatu Seeing Assistant Move.
W tym celu należy wejść na stronę:
https://sa.tt.com.pl/db2move/
Otworzy się strona w języku angielskim na której zamieszczono informacje o maksymalnym rozmiarze pliku jaki możemy przetworzyć (obecnie to 10 megabajtów), oraz o dostępnych formatach (Pliki programu DotWalker zapisane jako bazy DAT lub XML, oraz tekstowe bazy programu Loadstone.
Aby skonwertować bazę należy najpierw wybrać przycisk „Database to conwert”. Otworzy się okno używanego przez użytkownika menadżera plików; należy wskazać plik który chcemy przetworzyć wybierając miejsce w którym jest on zapisany. Kolejny krok to wciśnięcie przycisku „Convert to seeing assistant move”.
Otworzy się kolejne okno w którym możemy nadać nazwę nowej bazie oraz wybrać miejsce w którym ma zostać zapisany nowy plik po jego pobraniu.
Ostatecznym krokiem jest zaimportowanie naszych punktów do Move. W tym celu najlepiej korzystać z Dropbox, tak jak ma to miejsce zwykle przy imporcie danych tego typu.

Pozostałe zmiany w Move na iOS:
dodano:
• Możliwość aktywowania dowolnego punktu z trasy podczas śledzenia
• Wybór punktów aktywujących wybrany profil ustawień
• Możliwość dopasowania punktów z OSM i baz do punktów trasy
• Wybór kilku nowych parametrów w ustawieniach monitorowania i śledzenia
• Ustawienia alertu przypominającego o tym, że informowanie zostało wyłączone gdy powracamy do aplikacji z tła
• Wybór większej liczby głosów syntezy
• Na ekranie „więcej” dodano sekcję „opis ostatnich zmian”

Dla systemu iOS W opracowaniu znajdują się następujące nowości:

Ulubione punkty – ZPZ

Dodana zostanie nowa kategoria punktów o nazwie „ulubione”. Dzięki nim można przypisać używane punkty do określonej etykiety i błyskawicznie aktywować nawigację zakręt po zakręcie do ulubionego punktu przy użyciu komendy głosowej Siri.
Do jednego punktu ulubionego możemy przypisać kilka poleceń Siri. Polecenia te mogą być edytowane i usuwane
Nazwy etykiet punktów ulubionych mogą być zmieniane.
Do jednej etykiety można przypisać tylko 1 punkt
Do punktu ulubionego możemy przypisać określony profil ustawień użytkownika np. taki, w którym domyślny rodzaj trasy zakręt po zakręcie to trasa piesza
W pierwszej kolejności aktywowany jest profil ustawień użytkownika a następnie wyznaczana trasa ZPZ wg zapisanych w nim parametrów.

Monitorowanie

W ustawieniach monitorowania dodano:
• Dystans komunikatów
• Możliwość użycia odwrotnego geokodowania (ang. reverse geocoding) z punktów z OpenStreetMaps – funkcja dostarczana przez usługę Nominatim
• Gdy pobieranie kafli z punktami z OSM trwa zbyt długo lub wystąpi problem z monitorowaniem punktów z baz, to automatycznie jest aktywowana funkcja odwrotnego geokodowania adresów i punktów z OSM/Nominatim. Wyłącza się ona automatycznie, gdy ww. opcje monitorowania zaczynają działać poprawnie
• Usunięto powtórzenia na liście „ostatnio monitorowane punkty” i zwiększono listę elementów do 100 pozycji
• Naprawiono działanie funkcji „jesteś w punkcie”. Przypominamy sposób jej działania. Wybierz promień punktu np. 35 metrów. Włącz „informuj zawsze gdy w punkcie”. Aplikacja poinformuje cię za każdym razem o tym, że jesteś w danym punkcie, gdy zbliżysz się do niego na odległość mniejszą niż wybrany promień punktu – w naszym przykładzie 35 metrów. Informacja pojawi się niezależnie od komunikatów monitorowania wywoływanych przez dystans i częstotliwość komunikatów. Do działania tej funkcji opcja monitorowania musi być włączona.

Szybkie akcje

Wprowadziliśmy alternatywny sposób wywoływania szybkich akcji Dla większości przycisków na ekranie głównym. Jest to rozwiązanie komplementarne do akcji dostępnych na pokrętle gdy VoiceOver jest wyłączony. Szybkie akcje aktywujemy gestem dotknięcia przycisku jednym palcem i przesunięcia od prawej do lewej strony ekranu. Rozwiązanie to zostało wprowadzone głównie z myślą o instruktorach orientacji przestrzennej i opiekunów osób niewidomych, którzy najczęściej nie korzystają z VO. Z tego powodu nie mieli oni dostępu do akcji dostępnych na pokrętle.

Dziękujemy wszystkim za nadsyłane uwagi i sugestie. To dzięki Waszej aktywności nasze aplikacje zmieniają się w pożądanym przez użytkowników kierunku.
Mamy nadzieję, że nowe funkcje przypadną większości do gustu. Serdecznie pozdrawiamy dziękując za korzystanie z programów i zapraszamy niezdecydowanych do dołączenia do grona “sympatyków” naszych “wirtualnych asystentów”.

Partnerzy

 Fundacja Instytut Rozwoju Regionalnego                     Państwowy Fundusz Rehabilitacji Osób Niepełnosprawnych

Back to top