Tyfloświat 1 (34) 2017 - html

TYFLOŚWIAT

KWARTALNIK

NR 1 (34) 2017

 

WYDAWCA

Fundacja Instytut Rozwoju Regionalnego

ul. Wybickiego 3a, 31-261 Kraków

http://www.firr.org.pl

tel.: (+48) 12 629 85 14; faks: (+48) 12 629 85 15

e-mail: biuro@firr.org.pl

Organizacja Pożytku Publicznego

Nr konta 77 2130 0004 2001 0255 9953 0005

 

Utilitia sp. z o.o.

ul. Jana Pawła II 64

32-091 Michałowice

http://www.utilitia.pl

tel.: (+48) 663 883 600

e-mail: biuro@utilitia.pl

 

Podmiotem odpowiedzialnym za publikację treści merytorycznych jest Fundacja Instytut Rozwoju Regionalnego

Podmiotem odpowiedzialnym za działalność reklamową jest Utilitia sp. z o.o.

 

REDAKTOR NACZELNY

Joanna Piwowońska

tel. kom. (+48) 663 883 332

e-mail: joanna.piwowonska@firr.org.pl

 

INTERNET

www.tyfloswiat.pl

 

SKŁAD KOMPUTEROWY

ITGraf

FOTOGRAFIA NA OKŁADCE

Unsplash

 

DRUK

K&K

 

DZIAŁ REKLAMY

e-mail: reklama@utilitia.pl

 

Redakcja nie odpowiada za treść publikowanych reklam, ogłoszeń, materiałów sponsorowanych i informacyjnych.

 

Nakład dofinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

Redakcja zastrzega sobie prawo skracania, zmian stylistycznych i opatrywania nowymi tytułami materiałów nadesłanych do druku. Materiałów niezamówionych nie zwracamy.

 

Wszystkie teksty zawarte w tym numerze czasopisma Tyfloświat dostępne są na licencji Creative Commons Uznanie autorstwa 3.0 Polska. Ponownie rozpowszechniany utwór, dostępny na tej licencji, musi zawierać następujące informacje: imię i nazwisko autora tekstu, nazwę czasopisma oraz jego numer. Zdjęcia zawarte w czasopiśmie chronione są prawem autorskim i ich przedruk wymaga zgody autora.

Spis treści

Samochody autonomiczne

Rafał Charłampowicz przedstawia historię rozwoju pojazdów autonomicznych.

Blindpad – monitor tyflograficzny

Anna Mazur prezentuje wyniki prac nad stworzeniem unikalnego tabletu dla osób z dysfunkcją wzroku

Moc w słabości się doskonali

Damian Przybyła snuje rozważania, czy wirtualizacja rzeczywistości może się okazać dla osób niewidomych zbawieniem, a nie przekleństwem.

Lire – przewodnik po programie

Michał Kasperczak prezentuje dostępny dla osób z dysfunkcją wzroku czytnik RSS

Uwaga! Komórki macierzyste

Redaktor Tyfloświata, Damian Przybyła opowiada, dlaczego należy ostrożnie podchodzić do terapii komórkami macierzystymi.

Window-Eyes przechodzi do historii

Czy zakończenie prac nad rozwojem Window-Eyes jest początkiem końca rynku komercyjnych screenreaderów?

Dostępność – podnosimy poprzeczkę

Damian Przybyła przedstawia relację z dwóch międzynarodowych konferencji technologicznych – World Mobile Congress i CSUN.

Czego się nauczyłem, udając przez tydzień niewidomego

David Ball, twórca stron WWW opowiada, jak na własnej skórze przekonał się, czym tak naprawdę jest dostępność portali internetowych.

Co począć z ekranami dotykowymi?

Jak zadbać o dostępność urządzeń wyposażonych w ekrany dotykowe? Damian Przybyła prezentuje innowacyjne rozwiązania, które lada dzień wkroczą na rynek.

Sceny z życia małżeńskiego

Czy dostępność dla osób z niepełnosprawnościami pociąga za sobą dostępność dla osób w pełni sprawnych? Ewa Peszek-Przybyła opowiada o życiu w cieniu technologii dostępowych.

Smartphone i co dalej?

Czy rozwój nowoczesnych technologii jest powodem do obaw? Czy nie warto zatrzymać się w pędzie do wirtualizacji życia?

 

Samochody autonomiczne

Rafał Charłampowicz

Potrzeby

Niemożność prowadzenia samochodu to bolączka wielu niewidomych. O problemach z tym związanych, szczególnie, gdy mieszka się za miastem, nie warto pisać, bo każdy, kto marzł na przystanku lub musiał gdzieś szybko dotrzeć, zna ten ból i związaną z nim frustrację. Jak na razie jedynym rozwiązaniem problemu jest duży sukces finansowy. Taki, który pozwala nie tylko na kupno samochodu, ale również na zatrudnienie stałego kierowcy. Teoretycznie taka wizja powinna działać motywująco i aktywizująco, ale jakoś nie działa… Prawda, jest kilku znanych niewidomych muzyków, którzy zapewne mogą sobie pozwolić na stałego kierowcę, ale ich przykład pokazuje, jak rzadkie są takie kariery. Jeżeli nasza partnerka lub partner ma prawo jazdy, możemy czasem jeździć razem, ale w przypadku, gdy pracujemy w różnych miejscach, to rozwiązanie sprawdza się słabo, no i popadamy w totalną zależność od drugiej osoby. Są jeszcze taksówki, ale to dość kosztowne rozwiązanie. Zatem, aby móc swobodnie przemieszczać się samochodem, pozostaje nam albo bogacić się na potęgę, albo czekać na rewolucję technologiczną, która zbliża się coraz większymi krokami. Czekać i odkładać na samochód.

 

Historia

O samochodach autonomicznych mówi się ostatnio bardzo często, ale sama idea nie jest nowa. Jak podaje anglojęzyczna Wikipedia, pierwszy samochód bez kierowcy przejechał przez zatłoczone ulice Nowego Jorku już w 1925 roku. American Wonder, Chandler rocznik 1926 był sterowany przez radio z jadącego za nim samochodu. Autorem wynalazku był Francis Houdina. Wprawdzie w przypadku American Wonder nie ma mowy o żadnej autonomii, a nawet termin "samochód bez kierowcy" budzi wątpliwości, bo kierowca był i kierował, tyle że z drugiego auta, jednak tę właśnie jazdę Brodwayem i w dół Piątą Aleją uważa się za pierwszą realizację idei samochodu, który jedzie, mimo że za jego kierownicą nikt nie siedzi. Samochody zdalnie sterowane nie znalazły oczywiście większego zastosowania i stanowiły raczej ciekawostkę prezentowaną na pokazach w latach 20-tych i 30-tych. Nie znaczy to, rzecz jasna, że pojazdy kontrolowane na odległość nie są używane. Są, i to na coraz większą skalę. Do takich urządzeń należą przecież drony, cywilne i wojskowe, roboty wspomagające saperów oraz zdalnie sterowane samochody, statki i samoloty, tak uwielbiane przez chłopców. Historia tych rozwiązań ma jednak niewiele wspólnego z samochodami i wiąże się raczej z eksperymentami Nicoli Tesli. Houdina jest wspominany jako prekursor samochodów autonomicznych, ponieważ do swego pokazu użył prawdziwego, dostępnego na rynku samochodu jednej z najpopularniejszych wtedy marek.

Nie jest moim celem parafrazowanie artykułów z Wikipedii, ale warto jeszcze wspomnieć o samochodach automatycznych. Pierwszy raz ideę samochodu, który sterowany jest poprzez sygnały płynące z urządzeń wbudowanych w drogę, zaprezentował projektant Norman Bel Geddes podczas Wystawy Światowej w Nowym Jorku w 1939 roku. W instalacji Futurama, sponsorowanej przez General Motors, Bel Geddes przedstawił dwie rewolucyjne koncepcje: drogi ekspresowe oraz automatyczne sterowanie pojazdami. Idea dróg szybkiego ruchu była nowością w Stanach Zjednoczonych, ale nie w Europie, gdzie Niemcy budowali autostrady (o drogach w USA fantastycznie pisze Wojciech Orliński w swojej książce pt. "Ameryka nie istnieje"), natomiast pomysł urządzeń sterujących ruchem, zintegrowanych z samą drogą był rzeczywiście oryginalny i, co ważne, wykonalny. Pierwsze próby podjęto w latach 50-tych, a w latach 60-tych w USA i w Anglii poważnie zastanawiano się nad możliwością budowania dróg, które same prowadzą samochód. Eksperymentowano z przewodami, które, stanowiąc część nawierzchni, działały jak swoiste elektromagnetyczne prowadnice, oraz z rozmaitymi detektorami, komunikującymi się z pojazdem. Próby były na tyle obiecujące, że poszczególne stany w USA konkurowały z sobą o to, gdzie powstanie pierwsza duża doświadczalna droga. Prace planowano zakończyć do 1975 roku, ale idea w końcu upadła. Do pomysłu wrócono na krótko w latach 90-ych, jednak i ten projekt upadł wskutek cięć finansowych.

Pierwszy autonomiczny samochód to lata 80-te. Van Mercedesa, zaprojektowany przez zespół Ernsta Dickmannsa z Uniwersytetu Bundeswehry w Monachium, przejechał pustymi ulicami miasta, kierując się rozpoznawaniem obrazu. W latach 80-ych problemem zaczyna zajmować się również amerykańska DARPA (Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności), która już w XXI wieku zasłynie organizacją DARPA Grand Challenge – zawodów pojazdów autonomicznych.

Zainteresowanych historią samochodów autonomicznych i automatycznych zachęcam do zapoznania się z artykułami w anglojęzycznej Wikipedii. Informacji na ten temat najlepiej szukać pod hasłem "autonomous car". Lektura jest bardzo zajmująca, szczególnie w części przyśpieszenia rozwoju tych pojazdów w XXI wieku.

Samochody automatyczne i autonomiczne

Zanim zajmiemy się obecną sytuacją, warto jeszcze wyjaśnić różnicę między samochodem automatycznym i autonomicznym. Samochody automatyczne to pojazdy, których system sterowania stanowi integralną część infrastruktury drogowej. Samochód nie jeździ sam, ale jest prowadzony za pomocą sygnałów. Takim sygnałem może być przewód pod jezdnią, którego pole elektromagnetyczne prowadzi auto, albo sygnały radiowe, świetlne lub dźwiękowe, zatrzymujące i wprawiające pojazd w ruch.

Samochód autonomiczny nie jest kierowany sygnałami. Taki pojazd sam interpretuje sytuację na drodze i podejmuje decyzję.

Dociekliwy czytelnik spyta, czy sygnałem wyznaczającym tor automatycznego samochodu mogłaby być biała ciągła linia po lewej stronie pasa, a sygnałem zatrzymującym, białe poprzeczne pasy. Oczywiście tak. Różnica między samochodem automatycznym i autonomicznym będzie polegała jednak na tym, że o ile samochód automatyczny, gdy straci kontakt z linią ciągłą, po prostu przestanie jechać, bo zniknie sygnał sterujący, o tyle samochód autonomiczny pojedzie dalej. Analogicznie obecność pasów może być sygnałem zatrzymującym pojazd automatyczny. Taki samochód jednak nie ruszy ponownie, jeżeli nie dostanie sygnału, że może jechać. Samochód autonomiczny ruszy, gdy piesi przejdą przez jezdnię.

Zatem samochód automatyczny jest sterowany, a samochód autonomiczny sam sobą kieruje. Pojazdy automatyczne mają swoje zastosowanie (dobrym przykładem jest zautomatyzowane metro), natomiast prawdziwych samochodów autonomicznych jeszcze nie ma. Każdy samochód autonomiczny, o którym piszą media, jest tak nazywany na wyrost. Aby być precyzyjnym, należałoby mówić o samochodach półautonomicznych lub częściowo autonomicznych. Termin "samochód autonomiczny" jednak się przyjął, dlatego ja również tutaj go używam.

Wspomaganie kierowania

Wśród firm pracujących nad samochodami autonomicznymi, można wyróżnić dwa podejścia do problemu. Do niedawna dominowała tendencja do rozbudowywania funkcji wspomagania kierowcy. Człowiek kieruje samochodem, ale coraz więcej rzeczy dzieje się automatycznie. Starsi czytelnicy pewnie pamiętają jeszcze, jaką rewolucją na rynku był ABS, wspomagający hamowanie. Później ABS stał się częścią systemu kontroli trakcji, który jeszcze bardziej ułatwiał prowadzenie samochodu w trudnych warunkach. Kierowca samochodu wyposażonego w system kontroli trakcji nie musi być mistrzem kierownicy, by gwałtownie zahamować, nie ryzykując natychmiastowego poślizgu. Innym, bardziej spektakularnym systemem wspomagania kierowcy było automatyczne parkowanie mocno ongiś reklamowane w Lexusach. Kierowca wjeżdżał na parking i znajdował wolne miejsce między innymi stojącymi samochodami. Na ekranie zaznaczał obszar, w którym samochód ma zaparkować i zdejmował ręce z kierownicy. Jego auto, wyposażone w kamery i detektory przeszkód, samo wjeżdżało na miejsce parkingowe. Właściciel takiego samochodu nie musiał się niepokoić, że parkując otrze się o drugi wóz lub urwie lusterko. Mógł być słaby w parkowaniu, wystarczyło, że dobrze wskazał obszar do zaparkowania. Dziś funkcja parkowania jest dostępna w wielu modelach samochodów i można powiedzieć, że w bardziej kosztownych pojazdach stała się standardem.

  1. Nieco mniej widowiskowym, jednak bardzo wygodnym ułatwieniem pracy kierowcy jest adaptacyjny tempomat. System nie tylko pozwala kierowcy zdjąć nogę z pedału gazu, ale potrafi też dostosować prędkość do samochodu jadącego  z przodu, zwalniając kierowcę z konieczności ręcznego, albo raczej nożnego zmniejszania prędkości.

Zestaw takich bardzo rozbudowanych systemów wspierania kierowcy jest potocznie nazywany autopilotem. Piszę "potocznie", gdyż nazwy tej oficjalnie używa Tesla Motors. Inni producenci samochodów mają własne nazwy opisujące podobny zestaw funkcji wspomagających prowadzenie, ale określenie "autopilot" przyjęło się powszechnie, trafiając widać do wyobraźni.

Pojazdami chyba najbardziej kojarzonymi z funkcją autopilota są najnowszy Mercedes klasy E i Tesla S oraz X. Nie można powiedzieć, że te samochody prowadzą się same, gdyż stała uwaga kierowcy jest wymagana, jednak jazda nimi, jak można przeczytać w internetowych relacjach, jest mniej męcząca. Mercedes E i Tesla S same trzymają się pasa i dostosowują prędkość jazdy do samochodu jadącego z przodu. W korku same się zatrzymają i same ruszą. Jeżeli kierowca zasygnalizuje chęć wyprzedzenia, np. włączając kierunkowskaz, samochód sam zdecyduje, czy ma wystarczająco dużo miejsca i sam przeprowadzi manewr. Podczas jazdy nie możemy jednak zupełnie zignorować drogi i zająć się czymś innym, np. czytaniem artykułu o samochodach autonomicznych. Samochód sam będzie sprawdzał, czy czuwamy, prosząc nas dość często o dotknięcie kierownicy. Pojazdy z funkcją autopilota nie są autonomiczne, ale mogą mieć możliwość autonomicznego wykonywania pewnych elementów jazdy. Za autonomiczny można np. uznać system antykolizyjny, który postara się zatrzymać samochód, jeżeli przed wozem wykryje przeszkodę. Autonomiczne jest też opisane wyżej samoparkowanie się pojazdu. Samochody Tesli mają bardzo widowiskową funkcję samodzielnego wyjeżdżania z garażu i parkowania. Właściciel samochodu może przywołać swoje auto przed dom oraz wysiąść z niego przed zaparkowaniem. Samochód sam pojedzie na swoje miejsce parkingowe.

W mniej lub bardziej zaawansowane funkcje autopilota wyposażane są samochody różnych producentów. Mają je oczywiście BMW i Porsche, ale też np. Volvo, Toyota, Honda czy Skoda.

W maju 2016 w USA miał miejsce pierwszy śmiertelny wypadek, w którym uczestniczył samochód z autopilotem. Tesla Model S w pędzie wjechał pod wielką, osiemnastokołową przyczepę. Według Tesla Motors ani autopilot, ani kierowca, który powinien był obserwować drogę, nie zauważył białej przyczepy w ostrym słonecznym świetle. Niepewność tego, czy system dobrze rozpozna sytuację na drodze, wydaje się najistotniejszym mankamentem korzystania z autopilota. Zwraca na to uwagę Piotr Barycki, który dla serwisu Spider's Web testował nowego Mercedesa klasy E. W swojej relacji Piotr Barycki pisze, że choć widział na ekranie, że jego auto widzi inny samochód, brakowało mu informacji o tym, jaką decyzję podejmie system, np. czy zwolni. W innym miejscu relacji autor podkreśla jednak, że długa trasa z autopilotem zmęczyła go znacznie mniej niż ma to miejsce, gdy prowadzi sam na podobnym odcinku. Wydźwięk recenzji jest bardzo pozytywny.

Samochody autonomiczne

Rozwijanie systemów wspierających kierowcę wydaje się rozsądne, ale ma jeden bardzo duży mankament. Samochód z najbardziej nawet zaawansowanym autopilotem wciąż potrzebuje kierowcy. Pełna autonomia samochodu to właśnie inne, drugie podejście do problemu samoprowadzących się aut. Można powiedzieć, że symbolicznego odcięcia samochodu od kierowcy dokonał Google, który w 2014 roku przedstawił prototyp samochodu bez kierownicy, pedałów i hamulca. Google pracuje nad samochodem autonomicznym od 2009 roku. Wcześniej używano samochodów dostępnych na rynku (Toyota, Audi, Lexus), które wyposażano w dodatkowe urządzenia. W trakcie testów uznano jednak, że w pełni funkcjonalny autonomiczny samochód trzeba stworzyć od początku, rezygnując przy okazji z elementów przeznaczonych dla kierowcy. Jak już wspominałem, autonomiczności samochodu Google'a, jak i wszystkich innych samochodów, nie należy brać dosłownie. Auta Google'a jeżdżą po określonych trasach, często preprogramowanych. To samo można powiedzieć o innych samochodach autonomicznych. Zdaje się, że prace Google'a ostatnio nieco straciły impet. Pisze się też o ludziach odchodzących z projektu. Google jest jednak o tyle ciekawy, że rozpropagował temat samochodu autonomicznego w masowej wyobraźni oraz, chyba jako pierwszy, wymienił niewidomych jako beneficjentów swojego projektu. W 2012 i 2016 roku Steve Mahan, niewidomy Kalifornijczyk, wziął udział w jeździe próbnej samochodem Google'a. Akcja miała za zadanie pokazać, jak niewidomi w przyszłości będą mogli korzystać z samochodów.

Oprócz Google'a do pracy nad samochodem autonomicznym przyznało się również Apple. Trzeci gigant IT – Amazon – wymieniany coraz częściej jako główny konkurent Google'a, milczy w sprawie samochodów autonomicznych. Milczenie Amazonu nie świadczy jednak o niczym, ponieważ firma ta jest znana z zachowywania swoich projektów w tajemnicy aż do samego końca. Własna autonomiczna flota transportowa idealnie wpasowuje się w potrzeby sprzedaży wysyłkowej na światową skalę. Przez pewien czas wydawało się, że to właśnie branża IT, a nie firmy tradycyjnie związane z motoryzacją, wprowadzi do użytku samochody autonomiczne. Obecnie jednak komentatorzy stawiają na Ubera, którego być albo nie być może zależeć od zmian w technologii. Uber, najbardziej wartościowy start-up świata, poniósł w roku 2016 ponad miliard dolarów strat. Uber poniósł bardzo duże koszty, konkurując w Chinach z firmą Didi Chuxing. Amerykański start-up wycofał się ostatecznie z rynku chińskiego, jednak również w samych Stanach Zjednoczonych bardzo ostro konkuruje z firmą Lyft, starając się doprowadzić ją do bankructwa poprzez coraz większe obniżanie cen. Prowizja, jaką bierze Uber od kierowców w USA, jest coraz mniejsza i ci zachowują nawet 80% stawki za kurs. Przy takich kosztach Uber jest bardzo zdeterminowany, aby wprowadzić na rynek samochody, które obejdą się bez kierowcy. Od 2015 roku, gdy Uber zaczął masowo zatrudniać specjalistów od robotyki, osiągnięto bardzo dużo. W maju 2016 po Pittsburghu zaczęły jeździć samochody Volvo i Forda przerobione przez inżynierów pracujących dla Ubera. Wykorzystanie samochodów Volvo jest efektem współpracy obu firm. Uber, inaczej niż Google, nie jest zainteresowany produkcją własnych samochodów. W połowie września 2016 r. jazdy autonomicznymi taksówkami Ubera stały się dostępne dla wszystkich chętnych w Pittsburghu. Autonomiczne taksówki są przydzielane losowo, więc zamawiający kurs nie wie, kto po niego przyjedzie. Kursy wciąż mają charakter testowy i są bezpłatne. W samochodzie siedzą dwie osoby. Jedna trzyma ręce na kierownicy, a druga obserwuje poczynania samochodu na laptopie. Aby uniknąć rozpraszających pytań ze strony pasażerów, w tylnej części wozu zainstalowano tablet, na którym można śledzić zachowanie się wozu. Co ciekawe, największy problem dla samochodów Ubera stanowią mosty. Program sterujący pojazdem stale porównuje obrazy z kamer z bardzo dokładną bazą wcześniej zebranych danych, w tym obrazów budynków i innych obiektów. Te dane pomagają programowi zorientować się w dokładnym położeniu samochodu. Na moście nie ma tych punktów odniesienia, a GPS jest zbyt mało dokładny.

Uber kupił też firmę Otto, założoną przez Anthonego Levandowskiego i Liora Rona, którzy wcześniej pracowali dla Google'a. Produktem Otto jest system, który przejmie kierowanie samochodem na drogach szybkiego ruchu, pozwalając kierowcy pójść spać. System jest obecnie testowany. Jeżeli oba projekty zakończą się sukcesem, Uber będzie mógł oferować bardzo tani transport ludzi i towarów. Współzałożyciel i CEO Ubera Travis Kalanick oblicza, że na długiej trasie kurs autonomicznym Uberem będzie tańszy od jazdy prywatnym samochodem.

Wbrew pozorom i informacjom, jakie można znaleźć w niektórych mediach, Uber wcale nie jest pierwszą firmą, która wprowadziła na rynek autonomiczne taksówki. Ubera wyprzedził Nutonomy, nieduży start-up oferujący autonomiczne kursy w Singapurze. W taksówkach Nutonomy również siedzi człowiek nadzorujący jazdę.

Nad samochodami autonomicznymi pracują prawie wszystkie znane firmy. Trudno powiedzieć, kiedy dostępne będą pierwsze samochody niepotrzebujące kierowcy. Volvo i Uber deklarują, że będzie to w 2021 roku. Ford mówi o 2025. Inne firmy podają inne lata, jednak nie wychodzi się poza najbliższe piętnaście lat, wskazując najczęściej na połowę lat dwudziestych.

Będzie gorzej

Upowszechnienie się autonomicznych taksówek i autobusów utrudni życie niewidomym. W tej chwili, dzwoniąc po taksówkę, wystarczy powiedzieć dyspozytorowi, że jechać będzie niewidomy, a taksówkarz rozejrzy się za nami i albo zawoła, albo wyjdzie z samochodu. Aplikacja Uber też daje możliwość kontaktu z kierowcą. Po dojechaniu na miejsce, taksówkarz albo powie nam, gdzie jest wejście do budynku, albo – co często się zdarza – podprowadzi do samych drzwi. Tym czasem samochód autonomiczny będziemy musieli odnaleźć sami, co nie będzie łatwe, bo skąd wiedzieć, który ze stojących samochodów to nasza taksówka. W środku będziemy musieli liczyć na to, że system dobrze rozpozna podany przez nas adres. Droga i punkt docelowy będą pewnie pokazywane na wyświetlaczu, ale obawiam się, że wielu producentów nie pomyśli o funkcjach dostępności dla niewidomych, jeżeli nie zmusi ich do tego prawo. Nie mogąc obserwować trasy na wyświetlaczu, będziemy musieli korzystać z niezależnej aplikacji nawigacyjnej, np. na smartfonie. Wreszcie, gdy dojedziemy, nikt nam nie powie, jak daleko i w którą stronę jest nasz punkt docelowy.

Możliwy jest też jednak bardziej optymistyczny scenariusz. Firmy udostępniające samochody mogą dojść do wniosku, że bardziej im się opłaca zatrudnić do samochodu opiekuna, który będzie w nim siedział, pilnował porządku i reagował w przypadku awarii, niż po każdym kursie sprawdzać czystość i ogólny stan wozu. Taki opiekun nie musiałby mieć żadnych kwalifikacji, więc byłby dużo tańszy od kierowcy, a gwarantowałby minimum zadbania o pojazd. Przy tym rozwiązaniu dla niewidomych nic się nie zmieni. O tych problemach warto jednak pamiętać, czytając o zaletach autonomicznych taksówek. Dla nas one mogą okazać się bardzo kłopotliwe.

Sytuacja niewidomych zrobi się lepsza, gdy dostępne będą samochody do użytku prywatnego. Problemy nie znikną, ale z własnym samochodem będzie można się umówić w sprawie dokładnego miejsca parkowania. Jazda do pracy i w inne stałe miejsca oraz wysyłanie samochodu po członków rodziny powinno jak najbardziej być możliwe.

Samochód dla niewidomego

Pełna autonomiczność samochodu to bardzo trudna sprawa. Taki samochód musi nie tylko rozpoznawać wszystkie typowe sytuacje w ruchu ulicznym, ale reagować również na zdarzenia nietypowe, od policjanta ręcznie kierującego ruchem po drogi zalane przez powódź. W mieście część z tych problemów można obejść, wykorzystując systemy informacji o problemach w ruchu. Poza miastem rzecz jest trudniejsza.

Samochód dla niewidomego, oprócz autonomicznej jazdy, musi jeszcze umieć rozpoznać ograniczenia pasażera, odnaleźć go, ponawigować do wnętrza, a potem podwieźć dokładnie pod drzwi lub poinformować, gdzie należy iść. Samochód musi rozpoznawać sytuacje niebezpieczne, np. przeszkody terenowe, które napotka niewidomy pasażer na drodze do i po wyjściu z samochodu. Podczas jazdy pojazd musi informować o tym, co dzieje się na drodze, by pasażer czuł się komfortowo, ale przy wcześniej wymienionych problemach dostępny interfejs wydaje się drobiazgiem.

Samochody autonomiczne zapewne wkrótce wejdą do użytku, zmieniając całkowicie naszą rzeczywistość. Kiedy będą z nich mogli korzystać niewidomi, trudno powiedzieć. Problemów do rozwiązania jest bardzo dużo. Niektóre z nich wymagają naprawdę dobrej sztucznej inteligencji.

A może to jednak możliwe…

W latach 90-tych na obozie językowym PZN oglądałem Optacon. Moja rozmowa z właścicielem Optaconu brzmiała mniej więcej tak:

- Fajny ten Optacon, ale szkoda, że komputer ze skanerem nie potrafi czytać druku.

- Tego długo nie będzie, jeżeli w ogóle kiedyś… Problemy są bardzo duże. Czcionki w książkach mają bardzo różne kroje. Różnią się wielkością i barwą, bo nawet czarnodruk bywa mniej lub bardziej wyblakły. Jakość wydruku może być lepsza lub gorsza. Nie da się stworzyć programu, który będzie brał pod uwagę te wszystkie możliwości.

Pamiętając różnorodność drukowanych liter (od dziecka byłem molem książkowym) przyznałem rację mojemu rozmówcy… A rok później miałem skaner i Recognitę.

 

BlindPad – monitor tyflograficzny

Anna Mazur

„BlindPad- Personal Assistive Device for BLIND and visually impaired people” to międzynarodowy projekt, którego celem było stworzenie innowacyjnego urządzenia o nazwie BlindPad, wspierającego osoby z niepełnosprawnością wzroku w edukacji, mobilności oraz codziennym funkcjonowaniu. BlindPad to tablet z możliwością prezentowania wypukłych grafik i map. Wprawdzie urządzenie zostało pomyślane w pierwszej kolejności jako narzędzie wspomagające osoby z niepełnosprawnością wzroku w korzystaniu z map, jednak twórcy rozwiązania mają nadzieję, że docelowo będzie ono również doskonałym narzędziem do nauki geografii, matematyki, fizyki itd. Ze swej strony, obok zastosowań edukacyjnych, dostrzegamy także wiążącą się z wykorzystaniem omawianego urządzenia możliwość poprawy dostępności środowiska pracy osób z niepełnosprawnością wzroku, np. poprzez udostępnienie tym osobom danych prezentowanych w postaci wykresów.

Mierzący 12 na 15 centymetrów tablet zaopatrzono w 192 piny, które mogą poruszać się w górę i w dół, a zmiana pozycji każdego z nich wymaga zaledwie kilku milisekund, co sprawia, że użytkownik odnosi wrażenie, iż niemal natychmiast tworzą one wzory, np. układ budynku, ulica czy sala konferencyjna. Oprócz możliwości obejrzenia całego obiektu, oprogramowanie tabletu, dzięki funkcji przybliżania wybranej części mapy, pozwala użytkownikom na szczegółowe obejrzenie wybranego fragmentu otoczenia.

Mechanizm działania naszego monitora jest prosty. Każdy pin zawiera mały magnes umieszczony pomiędzy dwiema cewkami i dwiema cienkimi warstwami stali. Dowolny pin może być przemieszczany w górę lub w dół. Ruch uzyskuje się, generując lokalne pole magnetyczne za pomocą podłączenia prądu do jednej z cewek na pięć milisekund. Elementy magnetyczne pozostają w pozycji w górę lub w dół, ponieważ przymocowują się do jednej z dwóch stalowych płyt. System nie wymaga zasilania, aby utrzymać pin na swoim miejscu. Ciekawym, a zarazem trudnym z inżynierskiego punktu widzenia zagadnieniem, było umieszczenie na stosunkowo niewielkiej powierzchni dużej ilości cewek wytwarzających pola magnetyczne. Poprawne działanie urządzenia wymagało bowiem rozwiązania problemu wpływu pól magnetycznych generowanych w cewkach na elementy sąsiadujące. Trzeba było stworzyć takie ekranowanie, które wyeliminowałoby te niepożądane interakcje.

Tyflograficzny monitor brajlowski wyposażono w Bluetooth, dzięki czemu może łączyć się z komputerami i tabletami. Technologia ta została już przetestowana przez osoby z niepełnosprawnością wzroku oraz zaprezentowana 6 maja podczas konferencji ACM Conference on Human Factors in Computing Systems w Denver. W ramach testów, prowadzonych zarówno w Polsce, jak i we Włoszech, uczestnicy  odczytywali informacje przestrzenne oraz geometryczne za pomocą urządzeń dotykowych, w tym prototypu urządzenia Blindpad, a następnie wykorzystywali uzyskane informacje podczas zadań i zabaw ruchowych w przystosowanym i bezpiecznym środowisku. W Polsce była to odpowiednio przygotowana sala w Specjalnym Ośrodku Szkolno-Wychowawczym dla Dzieci Niewidomych i Słabowidzących przy ul. Tynieckiej 6 w Krakowie.

Urządzenie spotkało się z dużym zainteresowaniem, zarówno ze strony uczniów, jak i nauczycieli Ośrodka. Jeżeli prototyp urządzenia Blindpad przejdzie wszystkie testy pozytywnie, istnieje duże prawdopodobieństwo, że już niedługo zostanie ono dopuszczone do masowej produkcji.

Uczestnikami projektu, obok Fundacji Instytut Rozwoju Regionalnego, były: FONDAZIONE ISTITUTO ITALIANO DI TECNOLOGIA – Włochy, ECOLE POLYTECHNIQUE FEDERALE DE LAUSANNE – Szwajcaria, GEOMOBILE GMBH – Niemcy, INSTITUTO DAVID CHIOSSONE ONLUS – Włochy, MFKK FELTALALOI ES KUTATO KOZPONT SZOLGALTATO KFT – Węgry.

Strona www projektu: https://www.blindpad.eu/

Projekt jest finansowany ze środków 7 Programu Ramowego realizowanego przez Unię Europejską.

 

Moc w słabości się doskonali

Damian Przybyła

Adeptom wschodnich sztuk walki mówi się, że kluczem do sukcesu jest wykorzystanie siły przeciwnika przeciw niemu samemu. Osobom z niepełnosprawnościami, a z pewnością osobom z dysfunkcją wzroku, można zaproponować swoiste odwrócenie tej zasady, mówiąc: niech Twoja niepełnosprawność zagra na twoją korzyść. Postulat wydaje się tyleż paradoksalny, co budzący sprzeciw. Przyzwyczailiśmy się do myślenia o technologiach asystujących jako o swego rodzaju narzędziach do protezowania niepełnosprawności. Nikt przy zdrowych zmysłach nie zaprzeczy, że czytniki ekranu, aplikacje do skanowania dokumentów, programy wspierające nawigację czy inne rozwiązania technologiczne dobrze spełniają tę funkcję. Jednakże czytając na www.wszystkoconajwazniesze.pl artykuł o kompetencjach, które z punktu widzenia pracodawców będą w niedalekiej przyszłości kluczowe, pomyślałem, że właściwie nie ma powodu, by powstrzymywać się od pójścia o krok dalej i praktycznie zastosować proponowaną nam od dwóch tysięcy lat wskazówkę mędrca, który powiedział „Moc w słabości się doskonali.” W praktyce realizacja tej maksymy oznacza dla nas wykorzystanie wynikających z niepełnosprawności ograniczeń. Wreszcie nadchodzi bowiem czas, gdy to, do czego życie nas zmusza od wczesnego dzieciństwa, rodzaj treningu, któremu jesteśmy, chcąc nie chcąc, poddawani, by przetrwać, staje się rzeczą poszukiwaną.

Oto jak rzeczy mają się moim zdaniem z perspektywy osoby niewidomej. Starzenie się społeczeństw oznacza, z natury rzeczy, zwiększający się odsetek osób z niepełnosprawnością. Rynek, także rynek pracy, będzie musiał na to odpowiedzieć, bo potrzeby tej grupy będą coraz silniej wyrażone, a siłą rzeczy coraz liczniejsza będzie rzesza pracowników z niepełnosprawnościami.

Wzrost znaczenia szeroko rozumianej przestrzeni cyfrowej/wirtualnej, poprawiająca się dostępność tak treści, jak i narzędzi swoistych dla tego wirtualnego świata, stopniowo sprawią, że brak wzroku będzie coraz lepiej kompensowany, że więc skutki niepełnosprawności będą dla nas coraz mniej odczuwalne.

Lista poszukiwanych w przyszłości przez pracodawców kompetencji, to także powód do optymizmu. Dlaczego? Ślepota pociąga za sobą ograniczenie tak w pozyskiwaniu informacji, jak i w ich ekspresji. W tekście, który sprowokował mnie do napisania niniejszego artykułu, czytamy, że kluczowe znaczenie będą mieć umiejętności, które dla nas są, nie boję się tego powiedzieć, warunkiem przetrwania w świecie. Social intelligence – inteligencja społeczna, czyli zdolność do komunikowania się w prosty i bezpośredni sposób, a także wchodzenia w relacje międzyludzkie, albo novel & adaptive thinking – myślenie adaptacyjne, biegłość w rozwiązywaniu problemów, wymyślaniu rozwiązań i odpowiedzi wykraczających poza schemat, są tym, do czego jesteśmy trenowani od zawsze.

Kolejna mocna strona osób z dysfunkcją wzroku kształtuje się w procesie rehabilitacyjnym jako mechanizm kompensujący konieczność życia w warunkach permanentnego głodu informacyjnego. Nasze umysły są ciągle zmuszane do analizowania i wyciągania mnóstwa wniosków na podstawie szczątkowych informacji. Niech widzący spróbuje obejrzeć sobie film, a właściwie posłuchać tylko ścieżki dźwiękowej. Ktoś powie, że teraz jest audiodeskrypcja, że zatem problem rozwiązano. Jednakże korzystanie z opisów alternatywnych rozwiązuje problem tylko częściowo, ponieważ tak czy inaczej liczba dostępnych kanałów informacyjnych pozostaje niezmieniona. Gardło informacyjne jest wąskie, a przyzwyczajenie do domyślania niedostępnych obszarów rzeczywistości, wyszukiwania konsekwencji, wnioskowania, syntezy i analizy danych, jest z konieczności naszą drugą naturą, bo to, co inni mają podane na tacy, my musimy dopiero wymyślić. Wreszcie tak poszukiwana zdolność do wirtualnej współpracy, pracy w środowisku wirtualnym. My już tak pracujemy. Wiele osób z dysfunkcją wzroku ma problemy z samodzielnym podróżowaniem. One kompensują to właśnie aktywnością w świecie wirtualnym.

Może więc, zdając sobie sprawę ze znaczenia nadchodzących przemian, warto spojrzeć z nowej perspektywy na swoją niepełnosprawność, może trzeba silnie zaznaczać w świecie cyfrowym swoją obecność i nie chować się w wirtualnej skorupie, ale wręcz przeciwnie, mówić o tym, że jesteśmy, żeby nowy, rodzący się na naszych oczach świat wirtualny, powstawał, jako miejsce optymalnego rozwoju dla wszystkich, także dla tych z niepełnosprawnością.

Że działania takie przynoszą dobre efekty, przekonałem się, obserwując aktywność mediów społecznościowych związaną ze Światowym dniem wiedzy o dostępności. To, organizowane od roku 2012, wydarzenie początkowo zwracało uwagę głównie wśród osób z niepełnosprawnościami. Obecnie wywołuje coraz większy oddźwięk także wśród osób pełnosprawnych. Twórcy treści cyfrowych coraz lepiej zdają sobie sprawę z naszej obecności w sieci. Coraz więcej jest wśród nich takich, dla których fakt, że tworzone przez nich treści prezentowane są w sposób przyjazny dla osób z niepełnosprawnościami, jest istotnym wyznacznikiem jakości publikowanych treści.

Można zatem chyba powiedzieć, że przyjmowany przez część naszego środowiska z tak wielkim lękiem stopniowy wzrost znaczenia rzeczywistości wirtualnej w naszym życiu, ma szansę zadziałać na naszą korzyść, że umiejętności, które z powodu niepełnosprawności musieliśmy w sobie wykształcić, staną się naszą mocną stroną, że jednym słowem moc w słabości się doskonali.

 

Lire – przewodnik po programie

Michał Kasperczak

Często można usłyszeć, że kanały RSS odchodzą w przeszłość, ustępując miejsca serwisom społecznościowym Twitter i Facebook, ale to nie do końca prawda. Nieco bardziej świadomi użytkownicy wciąż chętnie korzystają z dobrodziejstwa, jakim są kanały RSS. Nie trzeba wchodzić na nieskończoną ilość podstron i szukać nowych wiadomości na stronie interesującego nas serwisu. Wystarczy raz zasubskrybować dostępne tam źródło RSS, np. z nowymi wpisami lub komentarzami, a w stosownym czytniku tylko sprawdzać nowości. Jeszcze ponad 3 lata temu wybór odpowiedniego czytnika kanałów RSS, który dobrze działa z VoiceOverem w systemie iOS, przysparzał niewidomym użytkownikom sporo kłopotów. Konkurencja była bardzo mała, gdyż większość dostępnych, również tych popularnych, aplikacji nie działała dobrze z technologiami asystującymi. Niektóre elementy programów wydawały się czytelne, ale zawsze znajdowało się coś, co sprawiało, że używanie takich aplikacji stawało się trudne, albo wręcz niemożliwe.

Sytuacja zmieniła się diametralnie, kiedy to w 2013 r. ktoś odkrył program Lire. Jest to w pełni dostępny czytnik kanałów RSS, z wieloma dodatkowymi możliwościami, a równocześnie bardzo uproszczona przeglądarka ułatwiająca czytanie tekstu z niektórych stron internetowych. O ile ta druga funkcja nie jest niezbędna, a też nie zawsze dobrze działa, to sam czytnik spisuje się wciąż bez zarzutu. Nie oferuje nic ponadto, co zawierają najlepsze aplikacje dostępne na rynku, niemniej fakt, że spośród nich tylko Lire jest całkowicie dostępny, sprawił, że znaczna część niewidomych i słabowidzących użytkowników, którzy korzystają z VoiceOvera, właśnie za pomocą tej aplikacji czyta kanały RSS. Program jest płatny To, co wyróżnia go pośród innych tego typu, to

  • pełna dostępność ze specjalnymi opcjami dla użytkowników VoiceOver,
  • powiadomienia dźwiękowe,
  • prezentacja artykułów w formie tekstowej, za razem jednak z uwzględnieniem nawigacji zaproponowanej na oryginalnej stronie (nagłówki, listy itp.),
  • możliwość zmiany wyglądu wyświetlanego artykułu (czcionka, wielkość tekstu),
  • możliwość wyświetlenia tekstu na pełnym ekranie (Uwaga! Ta funkcja nie jest kompatybilna z VoiceOver – bardzo utrudniona nawigacja),
  • możliwość tworzenia folderów, do których dodajemy wybrane przez nas kanały RSS, dzięki czemu artykuły z różnych serwisów można czytać w sposób bardziej spójny tematycznie,
  • funkcja wyszukiwania, czyli swoiste wirtualne foldery, powstałe na bazie znalezionych informacji,
  • wiele opcji udostępniania treści artykuł (Twitter, Facebook, Messenger, iMessage, e-mail z treścią artykułu i linkiem źródłowym),
  • synchronizacja poprzez iCloud,
  • opcjonalna synchronizacja adresów kanałów RSS z Feedly oraz możliwość importu/eksportu źródeł RSS z i do pliku OPML,
  • współpraca z usługami typu „Przeczytaj to później”: eksport do Pocket i Instapaper oraz możliwość dodania linku do Listy Czytelnia,
  • możliwość zapisania artykułu w formacie E-PUB i MOBI, aby później udostępnić go jako załącznik, albo wysłać do kompatybilnej aplikacji,
  • możliwość wysyłki artykułu na Kindle, poprzez konfigurację adresu czytnika w ustawieniach Lire.

Program niestety nie jest dostępny w polskiej wersji językowej. Do wyboru mamy wersję angielską, niemiecką, francuską, czeską, włoską i grecką. Aplikacja od dawna nie proponuje jakiś istotnych nowości, ale wciąż świetnie działa. Ponieważ od czasu do czasu w korespondencji prywatnej i na specjalistycznych listach dyskusyjnych padają pytania o ten program, postanowiłem, jako jego użytkownik, przyjrzeć się mu bliżej i opisać jego możliwości, przy czym skupię się tylko na najistotniejszych z nich.

Instalacja Lire

Program, jak w przypadku większości aplikacji w systemie iOS, pobierzemy ze sklepu App Store. Po jego instalacji i uruchomieniu, domyślnie wyświetlane są jakieś wstępnie zasubskrybowane kanały, lecz nie ma ich wiele. Można je zostawić, albo skasować później. Tymczasem przejdźmy do opisu elementów aplikacji.

Wygląd programu Lire

Po uruchomieniu na ekranie widzimy następujące opcje:

  • pasek statusu,
  • Settings (ustawienia),
  • Sync Mode (synchronizacja źródeł RSS),
  • Subscriptions (lista subskrybowanych kanałów z możliwością dodania nowego),
  • All Articles (wszystkie artykuły),
  • Starred (artykuły oznaczone gwiazdką),
  • Folders (foldery) - pozwala na pogrupowanie artykułów w tematyczne katalogi, które się odświeżają, prezentując zawartość wybranych kanałów RSS w jednym miejscu,
  • Search (szukaj) umożliwia selekcję informacji, poprzez pokazanie artykułów, według zadanego kryterium wyszukiwania,
  • Ebooks (daje dostęp do artykułów pobranych, jako e-booki),
  • Web (miniprzeglądarka WWW, wyświetlająca tekst w widoku Lire).

Pasek statusu wyświetla informacje o statusie odświeżania i pobierania źródeł RSS i ma charakter informacyjny. Nie możemy go uaktywnić. Dalej mamy przycisk „Settings”, który otwiera okno ustawień, a następnie nagłówek opisany jako „Lire” i pozostałe opcje, które możemy uaktywnić w standardowy sposób, tj. podwójnym stuknięciem jednym palcem.

Subskrypcja kanałów RSS

Chcąc dodać do naszego zbioru nowy kanał RSS, wchodzimy w „Subscriptions”, a następnie szukamy przycisku opisanego jako „Add Subscription”. Pojawi się okienko z polem edycyjnym „Search or Enter address”. Tu możemy wpisać bezpośredni link do źródła RSS (tzw. Feed), ale też możemy użyć nomenklatury nieco bardziej ogólnej i pokusić się o wpisanie strony WWW, albo nawet tytułu strony. Nie mamy, co prawda, gwarancji, że kanał zostanie znaleziony, ale jak wynika z moich doświadczeń, w co najmniej 50% przypadków, możemy osiągnąć sukces. Potem wystarczy kliknąć w znaleziony kanał RSS, a następnie, korzystając z opcji programu, go zasubskrybować.

Zamiast wpisywania adresu, można też skorzystać z podpowiedzi, jakie daje nam program. Są to kategorie tematyczne, lista tych kategorii powstała w oparciu o anglojęzyczne kanały RSS. Ponadto aplikacja może nam zaproponować skorzystanie z sugestii Twittera i Facebooka, pod warunkiem że konta te mamy skonfigurowane w naszym urządzeniu, a Lire ma do nich dostęp. Podczas konfiguracji subskrypcji kanału, możemy m.in. dodać go do któregoś z folderów oraz zdecydować, czy program ma wyświetlać i pobierać treść w pełnym widoku tekstowym. Odpowiadają za to opcje: „Open in full-text view” oraz „Automatic full-text caching”. Obie mogą być włączone osobno dla każdego kanału, a do tego w opcjach programu można zdecydować o ich domyślnym ustawieniu. Opcję „Open in full-text view” warto mieć zawsze włączoną, bo to ona sprawia, że czytanie artykułów w Lire staje się tak przyjemne i właśnie dzięki niej w większości kanałów wyświetlany jest od razu cały tekst artykułu. Druga z opcji, tj. :Automatic full-text caching”, odpowiada za przetrzymywanie pobranych artykułów w pamięci urządzenia. Jeśli więc nie zależy nam zbytnio na czytaniu off-line, albo nie mamy zbyt dużo pamięci w naszym urządzeniu, warto opcję tę wyłączyć globalnie, albo pozostawić włączoną jedynie dla najbardziej przez nas lubianych źródeł informacji.

Synchronizacja kanałów RSS

Chcąc zsynchronizować i zapamiętać nasze kanały RSS, możemy skorzystać z usługi Feedly. To webowy agregator RSS, którego w ogóle nie musimy używać. Wystarczy, że posłuży nam właśnie do synchronizacji. W tym celu należy wejść w „Sync Mode” i wybrać Feedly. Jeżeli nie mamy jeszcze konta w tym serwisie, to zostaniemy poproszeni o jego utworzenie (możliwość logowania poprzez Facebook też istnieje). Odtąd wszystkie nasze kanały będą synchronizowane z Feedly i tym sposobem odczytywane przez wszystkie inne aplikacje używające tego sposobu synchronizacji. Konfiguracja tej opcji nie jest konieczna, ale zaoszczędzić nam może w przyszłości wielu kłopotów, szczególnie w przypadku utraty danych.

Gdybyśmy jednak z jakiś powodów nie chcieli synchronizować naszych źródeł, możemy skorzystać ze standardowego importu kanałów z pliku OPML. Stosowne opcje importu i eksportu znajdują się w dziale „Settings”.

Znacznie trudniej jest zasubskrybować kanał RSS, niż potem przestać go aktualizować. Aby dokonać usunięcia kanału ze źródeł, które obserwujemy, należy wejść w „Subscriptions”, a następnie na żądanym kanale RSS, za pomocą pokrętła VoiceOver, wybrać „Unsubscribe”. Prawda, że proste, choć nieoczywiste.

Lista wiadomości RSS

Aby rozpocząć przeglądanie uprzednio zasubskrybowanych kanałów, wystarczy uaktywnić przycisk „All Articles”, albo po otwarciu „Subscriptions”, wybrać pożądany przez nas kanał RSS. W otwartym okienku możemy zdecydować, wybierając stosowny przełącznik, czy chcemy wyświetlić wszystkie artykuły (All Articles), tylko nieprzeczytane (Unread Articles), czy oznaczone gwiazdką (Starred Articles). Następnie, przemieszczając się za pomocą VoiceOvera w prawo, znajdziemy przycisk „Options”, o którym za chwilę, nagłówek z tytułem kanału i wreszcie listę wiadomości RSS. Domyślnie program poza tytułem, przeczyta nam streszczenie i datę. Chcąc czytać całość, otwieramy artykuł w standardowy sposób. Powinien się pojawić tekst do czytania. Tyle ogólnie.

Widok tekstu wyświetlanego w programie Lire jest taki sam dla wszystkich wyświetlanych treści. Po otwarciu wiadomości, idąc od góry i lewej strony, słyszymy następujące opcje:

  • pasek statusu,
  • przycisk „Wróć”
  • przełącznik „All Articles” (wszystkie artykuły),
  • przełącznik „Unread Articles” (nieprzeczytane artykuły),
  • przełącznik „starred Articles” (artykuły oznaczone gwiazdką),
  • przycisk „Options” (opcje subskrypcji kanału RSS),
  • nagłówek z tytułem wyświetlanego kanału RSS,
  • właściwe wpisy z informacjami.

Czytanie wiadomości RSS

Po otwarciu wiadomości, widzimy przycisk powrotu do listy „Back”, nagłówek z tytułem kanału RSS, przycisk udostępniania „Share” i właściwą treść w formie tekstu, z ewentualnymi elementami nawigacyjnymi, które znane są ze stron internetowych (nagłówki, łącza, listy, obrazki itp.). Chcąc czytać artykuł, możemy przewijać jego treść za pomocą gestu przesunięcia jednego palca w prawo lub skorzystać z czytania ciągłego, wywołując je gestem przesunięcia dwóch palców w dół – „Czytaj wszystko”.

Po bloku z tekstem artykułu, znajdziemy jeszcze kilka przycisków:

  • „Mark as unread” – oznacz jako nieprzeczytany,
  • „Previous Article” – poprzedni artykuł,
  • „Change Appearance” – zmień wygląd tekstu( z pomocą tego przycisku uda nam się m.in. dostosować rozmiar czcionki, zmienić jej rodzaj (co może być przydatne dla osób słabowidzących),
  • „Next Article” – następny artykuł.

Udostępnianie artykułu

Menu udostępniania artykułu (Share) zasadniczo nie różni się bardzo od innych tego typu opcji. Jego wygląd zależy w znacznej mierze od zainstalowanych w systemie aplikacji i powiązań ustanowionych między nimi. I tak mamy do dyspozycji następujące opcje:

  • „Copy” – daje możliwość skopiowania treści artykułu do schowka,
  • „E-mail” – umożliwia wysłanie artykułu mailem (cały tekst z formatowaniem i link do artykułu na końcu),
  • „Open in Safari” – otwiera artykuł w przeglądarce Safari,
  • „Add to Safari Reading List” – dodaje łącze z artykułem do Listy Czytelnia,
  • „SMS” – pozwala wysłać artykuł za pomocą Wiadomości,
  • „Download in EPUB (IBooks) Format” –pobiera artykuł w formacie EPUB,
  • Download in MOBI (Kindle) Format – pobiera artykuł w formacie MOBI,
  • pozostałe opcje eksportu: Messenger, Facebook, Twitter, WhatsApp i inne.

Wirtualne foldery

Jedną z ciekawszych funkcji zaawansowanych czytników RSS, jest możliwość grupowania wybranych kanałów w odświeżalne foldery. W przypadku Lire wystarczy tylko wybrać z głównego ekranu opcję „Folders”. Gdy już mamy utworzone foldery, pojawi się ich lista, tak jak kanałów RSS. Tym samym np. w folderze Apple możemy zgromadzić wszystkie interesujące nas kanały RSS, traktujące o technologiach oferowanych przez firmę z Cupertino.

Sam sposób dodawania kanału RSS do folderu jest bardzo dziwny i cechuje go spora niekonsekwencja. Z poziomu „Folders” nie da się utworzyć nowego folderu, za to można do już istniejącego dodać kanał RSS, z tych, które już subskrybujemy. Służą do tego funkcje zawarte w menu „Options” określonego folderu.

Co w sytuacji, gdy chcemy utworzyć kolejny folder wirtualny? Wówczas korzystamy z opcji „Folders”, która znajduje się na ekranie dodawania nowego kanału RSS. Jest ona nietypowo oznaczona, bo VoiceOver przeczyta nam tylko „Folders” i nawet nie wiadomo, że można ten element uaktywnić. Dalej, możemy utworzyć nowy folder, albo, również z poziomu ekranu subskrypcji, przydzielić kanał do któregoś z widocznych, a uprzednio utworzonych folderów.

Foldery wyszukiwania

Foldery Wyszukiwania działają bardzo podobnie do opisanych wcześniej Folderów Wirtualnych, z tym że organizuje się je biorąc pod uwagę nie tyle kanały RSS, co raczej tekst/frazy przeznaczone do znalezienia. Aby zapamiętać jakieś wyszukiwanie, wchodzimy w Opcje folderu wyszukiwania, gdzie znajdziemy stosowną funkcję.

E-Booki

To kolejna ciekawa opcja Lire. Wspominałem o możliwości zapisania każdego artykułu w formatach, których zwykle używa się do zapisywania książek elektronicznych: E-Pub i Mobi. Po otwarciu opcji „E-booki”, widzimy listę plików z zapisanymi artykułami. Każdy taki plik można potem wyeksportować do innej aplikacji, zgodnie z zachowaniem systemowego Menu Udostępniania. W naszym wypadku najczęściej skorzystamy zapewne z eksportu do Voice Dream Readera, względnie iBooks, ale też nic nie stoi na przeszkodzie, aby wcześniej utworzony plik E-Pub albo Mobi, zapisać na koncie Dropbox, by komuś udostępnić artykuł w formie pliku, a nie linku.

Web

To moim zdaniem najmniej udana funkcja programu. Po otwarciu „Web” ukazuje się pole edycyjne, w które możemy wpisać adres strony internetowej. Można oczywiście wkleić link do jakiegoś znalezionego artykułu. Otworzy się on w nieco uproszczonej przeglądarce, która stanowi średnio udane połączenie Safari z Lire. Na uwagę zasługuje tu znów funkcja „Share”, a w niej opcja „Open in Article Reader”. Po jej wybraniu, tekst pojawi się w wyglądzie znanym z Lire i rzeczywiście możemy go wtedy nieco prościej przeczytać. Szkoda, że nie dzieje się tak od razu. Opisana możliwość z pewnością jest warta uwagi, tylko czy na tyle, żeby bawić się w przeklejanie adresu, potem jeszcze włączanie widoku charakterystycznego dla Lire? Moim zdaniem nie.

Ustawienia

Po prezentacji możliwości aplikacji Lire, czas na przedstawienie jej wybranych ustawień, przy czym skupię się na opcjach najistotniejszych dla użytkowników.

Po otwarciu programu wybieramy „Settings” – ustawienia. Ich lista przedstawia się następująco:

  • Sync Mode – tu decydujemy o sposobie synchronizacji naszych źródeł: Feedly albo No Syncing,
  • User Interface Sounds – on/off (włączone/wyłączone) – pozwala włączyć alerty dźwiękowe o aktualizacji źródeł,
  • Font i Theme – opcje związane z wyglądem interfejsu oraz tekstu,
  • WiFi Only Automatic Downloads włączone/wyłączone – pozwala na pobieranie źródeł RSS, tylko pod kontrolą sieci bezprzewodowej, albo, gdy wyłączone, również w zasięgu sieci komórkowej,
  • Accessibility VoiceOver Options- opcje dostępności, związane z VoiceOverem. Możemy tu wyłączyć/włączyć odczytywanie różnego rodzaju informacji (nazwa kanału, streszczenie, data itp.),
  • Caching Options- opcje związane z pobieraniem tekstowej zawartości kanałów RSS. Gdyby, zabrakło miejsca w iPhonie czy iPadzie, można skorzystać z opcji „Delete All Images”, by usunąć obrazki i tym samym pozyskać nieco wolnej przestrzeni dyskowej,
  • Subscription Options – opcje związane z subskrypcją RSS,
  • Folder Options- opcje folderów,
  • Sync Options – opcje synchronizacji (możliwe, że wyłączenie opcji „Sync on Foreground” (synchronizuj w tle), co pozwoli na zaoszczędzenie baterii i pakietu danych),
  • Article Options – opcje związane z wyświetlaniem artykułów (opcja „Automatic Fullscreen Mode”, powinna być koniecznie wyłączona, gdy pracujemy z VoiceOverem),
  • Export/Import- pozwala wyeksportować i zaimportować do pliku OPML, adresy kanałów RSS,
  • Add/Edit Kindle E-mail – pozwala na dodanie i edycję adresu czytnika Kindle, na który może zostać wysłany artykuł,
  • Sharing Accounts – zawiera dostęp do wszystkich serwisów, obsługiwanych przez Lire podczas eksportu informacji, np. Twitter, Evernote, Pocket, Instapaper i inne.

Na koniec

Mam nadzieję, że dzięki opisowi aplikacji Lire, więcej osób skusi się na jej zakup. Program pozwala wielu osobom lepiej, szybciej i prościej zarządzać, czytać i segregować informacje pochodzące z Internetu. Bo choć w obliczu wzrastającej popularności Twittera i Facebooka, kanały RSS rzeczywiście nie są już tak popularne, to jednak wciąż wiele stron je posiada i wielu użytkowników z nich korzysta. Dobrze, że ostał się jeden program, który rzeczywiście pozwala efektywnie je czytać, a co więcej, robi to dobrze z VoiceOverem. Poza brakiem polskiej lokalizacji, jedyną jego wadą jest dosyć inwazyjne działanie, co przekłada się na znaczne zużycie baterii, podczas synchronizacji, pobierania i parsowania kanałów RSS. Czasami nawet VoiceOver może zostać na chwilę zamrożony, albo działać mniej stabilne. Poza tym, niepokoić może fakt, że od dwóch lat program nie jest uaktualniany. Mam nadzieję, że to nie koniec jego rozwoju. Brakuje mi choćby rozszerzenia pozwalającego na wyeksportowanie linku poprzez Menu Udostępniania od razu do Lire, większej ilości opcji dostępnych na liście artykułów, dzięki Pokrętłu VoiceOver i wykorzystania 3D Touch. Mimo to bardzo tę aplikację cenię.

 

Uwaga! Komórki macierzyste

Damian Przybyła

Magiczne, cudownie leczące wszystkie dolegliwości metody terapeutyczne, zawsze budziły nadzieje ludzi cierpiących na wszelkiego rodzaju dolegliwości. W sytuacjach, które rozpoznajemy jako beznadziejne, szukamy pomocy u wszelkiej maści szamanów, homeopatów, bioterapeutów. Nie oburzajcie się. My, mający się za światłych i bardzo obeznanych z wszelkimi nowinkami techniki ludzie, także ulegamy czasem podszeptom irracjonalizmu. Chcecie przykładów?

Niedawno Internet obiegła opowieść o trzech starszych paniach z Florydy, które na skutek zastosowania terapii komórkami macierzystymi poniosły poważny uszczerbek na zdrowiu. Media donosiły o tym w tonie tyleż sensacyjnym, co powierzchownym. Oburzano się na lekarzy, krytykowano metodę terapeutyczną. W Polsce nie znalazłem tekstu, który w sposób popularny, a zarazem obiektywny opisywałby rzecz całą tak, by osoby zainteresowane mogły w ogóle wyrobić sobie pogląd na ten temat.

Zacznijmy od podstaw

O badaniach nad komórkami macierzystymi słyszy się już od wielu lat. Z komórkami tymi wiąże się wielkie nadzieje, ponieważ są to tzw. komórki pluripotencjalne czyli takie, które w zależności od miejsca, w jakim się znajdą, w zależności od „kontekstu”, w którym je umieścimy, zdolne są do przyjęcia stosownej roli. Można by o nich powiedzieć, że zachowują się one jak kawałki kodu, który zdolny jest do automodyfikacji w zależności od informacji towarzyszących. Opis powyższy z konieczności jest bardzo uproszczony i zaledwie przybliża nam to, czym komórki macierzyste są w swej istocie.

Skąd bierze się komórki macierzyste? Każdy z nas ma w swoim organizmie takie komórki. Można je znaleźć we wszystkich rosnących czy regenerujących się strukturach naszego ciała. Pierwsze i najważniejsze źródło komórek macierzystych to embrion. W tym stadium rozwoju wszystkie komórki mają ogromne i stosunkowo słabo ograniczone możliwości rozwoju. Proces specjalizacji, czyli określania funkcji poszczególnych komórek dopiero się rozpoczyna. Jednakże pozyskiwanie komórek macierzystych z embrionów budzi sprzeciwy natury etycznej. Aby uniknąć sporów natury światopoglądowej, naukowcy zaczęli zatem szukać innych źródeł, z których można by pozyskiwać takie komórki. Okazało się, że dobrym źródłem komórek macierzystych jest szpik kostny, krew, skóra czy wreszcie tkanka tłuszczowa. Pozyskanie komórek macierzystych to jedno, a „nakłonienie ich” do wykonania zadania, które dla nich zaplanowaliśmy, to zupełnie co innego. O ile w przypadku komórek embrionalnych możemy mówić o wielkim, prawie nieograniczonym spektrum możliwości przystosowawczych, o tyle komórki pozyskiwane z innych źródeł mają już możliwości mniejsze. Na pierwszy rzut oka wydawać by się mogło, że im większe możliwości komórek tym lepiej. Jednakże na obecnym etapie wiedza o prawach, które rządzą zachowaniem tych komórek, jest na tyle mała, że naukowcy, którzy zagadnieniem się zajmują, są jak przysłowiowy uczeń czarnoksiężnika. Wiedzą, że w pewnych sytuacjach zachodzą pewne zjawiska, ale albo nie potrafią wytłumaczyć, dlaczego zjawiska te w ogóle zachodzą, albo mają problem z powtarzalnością swoich wyników, czemu zresztą trudno się dziwić, ponieważ już samo stworzenie powtarzalnej sytuacji w warunkach, w których mamy do czynienia z ogromną liczbą zmiennych jest trudne. Znane są przypadki udanych zabiegów przywracających funkcje rdzenia kręgowego, w których wykorzystano komórki macierzyste. Prowadzono badania nad wykorzystaniem tych komórek do poprawy funkcjonowania mięśnia sercowego. Prowadzi się także wiele innych badań, w tym próby regeneracji nerwu wzrokowego. Jednakże wszystkie te prace dalekie są nie tyle od wdrożenia ich rezultatów do standardów terapeutycznych, lecz nawet od uznania ich za metody, których zastosowanie należałoby wziąć pod uwagę w sytuacjach nadzwyczajnych.

A co właściwie stało się paniom z Florydy?

Trzy pacjentki cierpiące na starcze zwyrodnienie plamki żółtej poddały się zabiegowi wstrzyknięcia komórek macierzystych do oczu, a mówiąc ściślej do tzw. ciała szklistego. Na skutek przeprowadzonej procedury doznały istotnego, nieodwracalnego pogorszenia wzroku. Pacjentki poddały się procedurze, która nie została zatwierdzona jako sprawdzona, dająca dobre, powtarzalne wyniki i bezpieczna. Pierwsza z nich (lat 72), na skutek powikłań, stała się zupełnie niewidoma. Dwie pozostałe (lat 78 i 88) doznały bardzo istotnego pogorszenia wzroku. Przed zabiegiem pacjentki miały pewne problemy z widzeniem, ale były one na tyle małe, że wszystkie trzy były w stanie prowadzić samochód.

Do zabiegu użyto komórek autologicznych, czyli takich, które uzyskuje się z tkanek własnych pacjenta. W tym konkretnie przypadku komórki zostały pozyskane z tkanki tłuszczowej. Jak czytamy w British Journal of Medicine, wątpliwości specjalistów wywołała metoda pozyskania komórek, źródło z którego zostały one pozyskane, oraz sposób obróbki pozyskanego materiału.

Jak uniknąć podobnych problemów?

W omawianym przypadku pacjentki znalazły klinikę przeprowadzającą zabiegi z użyciem komórek macierzystych na amerykańskiej stronie rządowego rejestru badań klinicznych www.clinicaltrials.gov. Jednakże, aby jakieś badanie znalazło się w tym rejestrze, nie musi ono zostać zatwierdzone. Może być jedynie propozycją badania, które nie zostało jeszcze rozpoczęte.

Sygnałem ostrzegawczym dla osób poszukujących możliwości wzięcia udziału w eksperymentalnej fazie badań nad jakąś terapią powinno być także to, że powszechnie przyjętą praktyką jest, iż ośrodki przeprowadzające badania nie pobierają w takich przypadkach od uczestników programów naukowych żadnych opłat. Zdarza się wręcz, że ośrodek badawczy ponosi pewne koszty związane z udziałem uczestnika w badaniu, np. zwracając mu pieniądze za podróż do miejsca, gdzie badania są przeprowadzane. Pacjentki, o których mowa, zapłaciły za możliwość poddania się niesprawdzonej procedurze terapeutycznej po 5 tysięcy dolarów.

Nie jest naszym zadaniem osądzać etyczne czy prawne aspekty omawianej sytuacji. Każdy człowiek ma przecież prawo do dokonywania wyborów zgodnie z własną hierarchią wartości i potrzeb. Ważne jednak jest, by podejmując decyzje, wiedzieć, na co się narażamy, co możemy zyskać, a co stracić.

Badania nad komórkami macierzystymi mają przed sobą wielką przyszłość i nikt nie zaprzeczy, że powstający w wyniku prowadzenia tych badań wachlarz możliwości terapeutycznych jest wielki. Tyle tylko, że na praktyczną ich implementację przyjdzie nam jeszcze dość długo poczekać.

Źródło: www.visionware.org

 

Window-Eyes przechodzi do historii

Damian Przybyła

Przez ostatnie dwadzieścia lat byłem użytkownikiem czytnika ekranu stworzonego przez firmę GWMicro. Obserwowałem jego ewolucję, testowałem lepsze i gorsze wersje. Jako aktywny betatester przez osiem lat miałem możność bliższego poznawania społeczności twórców tego czytnika. Zapowiadane zniknięcie Window-Eyes z rynku jest więc dla mnie trudnym emocjonalnie wydarzeniem. Kończy się bowiem jakaś epoka w moim życiu, to zawsze jest przykre. Sentymenty, pożegnania, żal czy uczucie straty, to chyba naturalne w takiej sytuacji reakcje.

Ale właściwie co się stało?

Odpowiedź na tak proste pytanie jest bardziej skomplikowana niż mogłoby się wydawać na pierwszy rzut oka. Nie wystarczy bowiem powiedzieć, że ktoś był lepszy, ktoś miał więcej pieniędzy, lepszych fachowców od marketingu czy sprawniejszych prawników. Z jednej strony rynek technologii asystujących nie rządzi się powszechnie obowiązującymi prawami, rozwiązania, o których mowa tworzy się dla bardzo małych grup odbiorców, ale z drugiej strony ta mniejszościowa grupa chce wyrażać swoje potrzeby tak, jak czyni to większość i tak, jak ma to miejsce w przypadku mainstreamowych zachowań konsumenckich, osoby z niepełnosprawnościami chcą mieć wpływ na to, z jakich produktów korzystają. Nie ma zatem prostej odpowiedzi na pytanie, dlaczego Window-Eyes musiał zniknąć z rynku.

Zarówno twierdzenia, że czytnik, o którym mowa, był gorszy technologicznie, nie miał dobrego marketingu, a zasoby deweloperskie, którymi dysponowali jego twórcy były mniejsze niż u konkurencji, jak i opinie o bezwzględnej supremacji technologicznej i materialnej konkurenta, są uproszczeniami. O walce obu rozwiązań wspierających osoby z dysfunkcją wzroku w środowisku Windows opowiedzą pewnie kiedyś historycy, o ile uznają, że zjawisko to miało istotny wpływ na sposób korzystania z treści cyfrowych przez użytkowników zależnych od czytników ekranu.

My ograniczymy się tutaj do pokazania kilku moim zdaniem istotnych dla naszego środowiska czynników, które miały wpływ na rozwój technologii asystujących, a ponad to nie pozostały bez wpływu na społeczną wrażliwość na potrzeby osób z dysfunkcją wzroku, czynników, które spowodowały, że dla czytnika od GWMicro brakło miejsca na rynku.

Filozofia Window-Eyes

  1. Projektowanie włączające

Twórcy omawianego tutaj czytnika ekranu zawsze twierdzili, że rozwiązanie asystujące jest tym lepsze, im mniej ingeruje w uniwersalną infrastrukturę. Czytnik ekranu miał być tak lekki, jak to tylko możliwe, miał być dla pełnosprawnego użytkownika tak przezroczysty, jak to tylko możliwe i wreszcie miał modyfikować system tylko w ostateczności.

Dwadzieścia lat temu powyższe postulaty wydawały się tyleż słuszne, co trudne do realizacji. W środowisku niewidomych i słabowidzących użytkowników komputerów użytkownicy systemu Windows stanowili mniejszość, a pogląd, że okienka nigdy nie przyjmą się w środowisku osób z dysfunkcją wzroku był dość powszechny.

Twórcy Jaws dla Windows (młodzi czytelnicy pewnie nawet nie wiedzą, że czytnik ten miał początkowo także wersję dla systemu DOS), twierdzili, że jeśli niewidomy użytkownik w ogóle ma korzystać ze środowiska okienkowego, to trzeba mu zbudować coś w rodzaju przyjaznej, skonstruowanej z uwzględnieniem potrzeb specyficznych dla niepełnosprawności, nakładki na system.

Oba podejścia do tworzenia czytnika ekranu miały swoje wady i zalety. Jaws był uznawany za bardziej skuteczny. Window-Eyes uważano za bardziej elastyczny. Gdy już wydawało się, że użytkownicy wybiorą Jaws, z pomocą konkurentowi przyszedł Microsoft. Mam tu na myśli pomoc niezamierzoną, ale tak czy inaczej skuteczną. Microsoft wprowadził do systemu Windows mechanizm MSAA, a GWMicro jako pierwsze, zgodnie ze swoją filozofią podążania za systemem, stworzyło implementację tego standardu dla czytnika ekranu. O wadach i zaletach MSAA nie będziemy tu mówić. Dość na tym, że Freedom Scientific musiało nagiąć podstawowe założenia deweloperskie i zaimplementować MSAA w swoim czytniku.

Podobne zjawisko miało miejsce nieco później, gdy zaczęto wprowadzać technologię Flash. Wszyscy, wbrew zapewnieniom firmy Adobe, która twierdziła, że w standardzie Flash zaimplementowano dostępność, uznali, że rozwiązanie to jest wyjątkowo nieprzyjazne dla użytkowników z dysfunkcją wzroku. Wszyscy z wyjątkiem GWMicro. I tym razem stojąca u podstaw procesu deweloperskiego przesłanka filozoficzna kazała postępować za rozwojem technologii i tworzyć jej implementację do czytnika ekranu. Wyniki tej implementacji były niezbyt dobre, bo też i standardu zaproponowanego przez Adobe mało kto przestrzegał, a sam standard daleki był od doskonałości. Tę rundę Freedom Scientific wygrał. W Window-Eyes zaimplementowano możliwość wyłączania wydarzeń Flash, a na osłodę GWMicro pozostała świadomość, że to ta firma jako pierwsza wprowadziła obsługę plików w formacie PDF.

  1. Wrażliwość na potrzeby użytkowników.

Istotnym narzędziem deweloperskim były dla twórców Window-Eyes wszelkiego rodzaju fora czy listy dyskusyjne użytkowników. Wszystkie one były nie tylko aktywnie monitorowane, lecz służyły za źródło inspiracji.

Takie podejście do tworzenia aplikacji, jakkolwiek na pierwszy rzut oka wydaje się wręcz idealne, obciążone jest poważnymi wadami. Budowanie skomplikowanego wytworu sztuki inżynierskiej w oparciu o mechanizmy społeczeństwa demokratycznego bywa bowiem przeciw skuteczne. Z drugiej jednak strony tworzenie produktu, który ma zaspokajać potrzeby użytkowników w taki sposób, że to deweloperzy wedle własnego uznania potrzeby te definiują, bez oglądania się na zainteresowanych, może dawać równie żałosne rezultaty.

Window-Eyes rozwijał się zatem powoli. Wsłuchiwanie się w potrzeby i oczekiwania użytkowników zaowocowało wprawdzie bardzo dobrym dopracowaniem wszystkich ustawień domyślnych czytnika ekranu oraz niezwykle przejrzystym i intuicyjnym interfejsem, ale gwałtownie rozszerzające się pole potrzeb użytkowników było coraz trudniejsze do opanowania. Twórcy Jawsa skupiali się nie tyle na słuchaniu głosów klientów, ile na zagospodarowaniu jak największego obszaru zastosowań czytnika ekranu. Tworzyli zgodnie ze swoją filozofią środowisko niewidomego użytkownika systemu. Byli gotowi raczej zmienić system, by uczynić go zgodnym ze swoim rozumieniem potrzeb niewidomego użytkownika, niż naginać się do kolejnych mainstreamowych pomysłów na dostępność. Problem, o którym tu mowa, był zresztą raczej akademicki, mieścił się raczej w sferze pryncypiów procesu twórczego, niż w sferze realnej inżynierskiej aktywności, ponieważ przez całe lata dostępność treści cyfrowych czy cyfrowo zależnych produktów była przez wytwórców tych dóbr traktowana marginalnie.

  1. Filozofia mechanizmów otwartych.
  2. Window-Eyes miał być tak przyjazny dla użytkownika, miał pozostawiać mu tak wielką samodzielność, jak to tylko możliwe. To podejście spowodowało, że mimo silnego nacisku na wprowadzenie skryptów do czytnika ekranu (zjawisko zauważyłem od razu po zasubskrybowaniu list dyskusyjnych dla użytkowników, czyli gdzieś w roku 2003), choć inżynierowie z GWMicro dobrze wiedzieli jak wielkie możliwości wiążą się z zastosowaniem skryptów, swego rodzaju aplikacji ułatwiających użytkownikowi wykonywanie zadań, które bez zastosowania tychże skryptów były trudne lub niekiedy wręcz niemożliwe, firma  odkładała decyzję o stworzeniu platformy skryptowej tak długo, jak to tylko było możliwe.

Skutek? Skrypty, jakkolwiek wymyślone śmiało i zgodnie z nieco idealistyczną filozofią inżynierów z GWMicro (jeden z nich był aktywnym użytkownikiem i propagatorem Linuxa), wprowadzono zbyt późno. Otwarta platforma skryptowa została pomyślana jako mechanizm projektowania włączającego. Idealna sytuacja miała wyglądać w ten sposób, że twórcy aplikacji mainstreamowych o wszelkich zastosowaniach, twórcy serwisów internetowych wszelkiego rodzaju, mieli mieć możliwość tworzenia skryptów udostępniających osobom z dysfunkcją wzroku swoje treści i usługi w oparciu o mechanizmy będące częścią systemu Windows. Bez dobrej kampanii marketingowej omówiona koncepcja nie przyniosła jednak oczekiwanych rezultatów. Nie udało się stworzyć drugiej nogi wspierającej rozwój czytnika czyli aktywnej, wykraczającej poza środowisko osób z dysfunkcją wzroku, społeczności twórców skryptów. Pomysł na skrypty jako element projektowania uniwersalnego po prostu wyprzedził swe czasy o dziesięć lat. Na dodatek platforma skryptowa nie była produktem skończonym i stabilnym, lecz przechodziła intensywny proces usuwania błędów i dodawania nowych elementów. Można więc powiedzieć, że w jakimś sensie skrypty wprowadzono zbyt wcześnie.

Gdzie dwóch się bije tam trzeci korzysta

Astronomiczne ceny oprogramowania wspomagającego osoby z dysfunkcją wzroku prowadziły z jednej strony do intensywnej aktywności pirackiej, z drugiej zaś, do poszukiwań legalnego sposobu na finansowo dostępne rozwiązania. W pewnym momencie zaczęto wiązać spore nadzieje z możliwością korzystania z systemów opartych na Linuxie. Sam przez jakieś dwa lata testowałem takie rozwiązania około 10 lat temu.

Okazało się jednak, że rozwój Linuxa prowadzi użytkowników w kierunku trudnych dla przysłowiowego Kowalskiego systemów obsługiwanych przez konsolę terminala albo w kierunku słabo dostępnych środowisk graficznych. Ale to właśnie stamtąd poszedł impuls w kierunku stworzenia trzeciego czynnika kształtującego rynek czytników ekranu. Gdy w roku 2009 zostałem betatesterem Window-Eyes’a, poznałem NVDA. Wtedy korzystałem z tego czytnika jako opcji awaryjnej. Korzystanie z oprogramowania w wersji beta wymaga bowiem od testera posiadania narzędzi, które w razie problemów pomogą jakoś odzyskać kontrolę nad systemem. NVDA dobrze spełniał tę funkcję, Ale nikt wtedy nie traktował NVDA jako realnej alternatywy dla któregokolwiek z ważnych graczy.

Mijał czas, a twórcy NVDA, ucząc się od konkurencji, systematycznie ulepszali swój czytnik ekranu. Filozofia oprogramowania otwartego miała zawsze jakąś grupę zwolenników, a biorąc pod uwagę wspomniane już ceny rozwiązań asystujących, motywacja, by wspierać darmowe rozwiązanie, którego twórcy zgodnie z założeniami filozofii open source, budowali swój produkt na społeczności użytkowników, była silna.

W ten sposób GWMicro zaczęła tracić kolejny element stanowiący o wyjątkowości procesu rozwojowego jej czytnika ekranu, czyli wyróżniający ten proces społecznościowy charakter.

Małżeństwo z rozsądku

Kolejnym czynnikiem, który w istotny sposób zmienił układ sił na rynku technologii wspierających było pojawienie się rozwiązań mobilnych, oraz włączenie w pełni funkcjonalnego czytnika ekranu do komercyjnego systemu operacyjnego.

Smartphone’y i komputery od Apple, jakkolwiek drogie, były opcją z ekonomicznego punktu widzenia w istotny sposób bardziej dostępną dla osób z dysfunkcją wzroku niż wcześniej proponowane rozwiązania asystujące. Coraz głośniej zaczęło się mówić, że niepełnosprawność nie powinna stanowić wielkiego ciężaru ekonomicznego dla osoby, która musi z nią żyć, że wbudowanie mechanizmów udostępniających różne aspekty życia przyczyni się do włączenia osób z niepełnosprawnościami w główny nurt aktywności społecznej. Tworzenie i rozwijanie technologii asystujących stało się zatem nie zagadnieniem inżynierskim, lecz kwestią społeczną.

Coraz głośniej zaczęto stawiać pytanie, czy komercyjne czytniki ekranu są jeszcze w ogóle potrzebne. Takie stanowisko wywołało silną reakcję obronną. Twórcy czytników komercyjnych twierdzili wręcz, że rozwijanie czytników ekranu jako integralnych części systemu operacyjnego, jakkolwiek na krótką metę korzystne, w dłuższej perspektywie spowoduje pogorszenie się dostępności środowisk cyfrowych, a tym samym wpłynie na pogorszenie się jakości pracy z aplikacjami i treściami cyfrowymi dla osób zależnych od technologii asystujących. Nawiasem mówiąc, okazało się, że myślenie o technologiach asystujących w kategoriach projektowania uniwersalnego wprowadza do tych rozwiązań zupełnie nową jakość, że zatem twórcy drogich niszowych rozwiązań chyba nie mieli racji. Kilka lat temu nikt nie przewidywał, że np. tworząc czytnik ekranu, warto zastanawiać się nad zastosowaniami tego rozwiązania także dla osób w pełni sprawnych, że np. kierowcy będą może chcieli, żeby podczas jazdy do pracy czytnik ekranu przeczytał im pocztę, albo umożliwił przejrzenie prasy.

Wzrastająca popularność rozwiązań mobilnych od Apple wraz z udanym i dobrze spełniającym oczekiwania użytkowników systemem Mac OS spowodowała, że wiele osób niewidomych i słabowidzących zaczęło wybierać produkty firmy Apple. Grupa niepełnosprawnych użytkowników systemu Windows zaczęła maleć, a Microsoft początkowo nic z tym nie robił. Z każdą kolejną wersją systemu Windows wiązaliśmy nadzieje na poprawę jakości systemowych narzędzi wspierających, lecz każda kolejna wersja przynosiła rozczarowanie. Window-Eyes stopniowo coraz gorzej nadążał za rozwojem technologii, ale wciąż można było wiązać z jego rozwojem poważne nadzieje. Gdy firma GWMicro ogłosiła, że podpisano kontrakt, który dawał możliwość darmowego korzystania z czytnika ekranu użytkownikom, którzy kupili odpowiednią wersję pakietu MS Office, społeczność użytkowników czytnika obiegła fala spekulacji, że oto nadchodzi wykupienie Window-Eyes’a przez Microsoft, co da w efekcie wersję systemu Windows z dopracowanym i zintegrowanym w systemie czytnikiem. Tak się jednak nie stało. Małżeństwo z rozsądku, którego się spodziewaliśmy, wprawdzie miało miejsce, ale partnerem był ktoś inny.

Niedługo po ogłoszeniu decyzji o bliskiej współpracy GWMicro z Microsoftem dowiedzieliśmy się, że firma została przejęta przez Ai Squared. Mówiło się o połączeniu firm, o równości podmiotów fuzji, ale praktyka kolejnych miesięcy pokazała, że GWMicro przegrała na rynku. Pozostawało tylko mieć nadzieję, że efekt synergii produktów uratuje czytnik ekranu. Jednak i te nadzieje zawiodły. Gdy bowiem proces deweloperski czytnika zaczął się stabilizować, gdy pojawiła się koncepcja przebudowy obsługi pisma brajlowskiego, a ZoomText Fusion zapowiadał się jako narzędzie, które będzie mogło pełnić funkcję produktu elastycznie dopasowującego się do wynikających ze stopniowego tracenia wzroku potrzeb użytkownika, Ai Squared przegrała z bezlitosnymi prawami walki ekonomicznej.

Czy mogło być inaczej?

Na tak postawione pytanie trudno dziś odpowiedzieć. Próby takich spekulacji uważam zresztą za bezprzedmiotowe, a ich wartość merytoryczna wydaje mi się co najmniej wątpliwa. Prawdopodobnie, gdyby Microsoft był zainteresowany optymalizacją swoich produktów pod kątem dostępności kilka lat wcześniej, gdyby połączenie Ai Squared i GWMicro odbyło się na bardziej równorzędnych zasadach wtedy, gdy GWMicro była silniejsza, historia mogłaby potoczyć się inaczej. Nie będziemy jednak snuć rozważań o kolejnych wariantach możliwych scenariuszy rozwoju sytuacji. Ciekawsze bowiem wydaje się pytanie o to, co nas czeka w przyszłości. Czy pustka po Window-Eyes zostanie zagospodarowana przez Jaws? Czy NVDA stanie się może bardziej atrakcyjną propozycją? Gdzie pójdą twórcy skryptów dla Window-Eyes? Dla jakiego czytnika będą tworzyć swoje rozwiązania?

Gdy obserwuję w mediach społecznościowych walkę o zagospodarowanie masy spadkowej po Window-Eyes ,jedno wiem na pewno: wynik tej walki wcale nie wydaje mi się oczywisty, a scenariusz, w którym ze wszystkimi konkurentami wygrywa microsoftowski Narrator należy uznać za prawdopodobny.

 

Dostępność. Podnosimy poprzeczkę

Damian Przybyła

 

Na przełomie lutego i marca miały miejsce dwa ważne wydarzenia – Mobile World Congress w Barcelonie oraz, odbywająca się od z górą trzydziestu lat o tej porze roku, konferencja CSUN w kalifornijskim San Diego.

Co je łączy? CSUN to największa na świecie konferencja dotycząca technologii asystujących, zaś Mobile World Congress jest równie wielkiej rangi spotkaniem dotyczącym technologii mobilnych. O ile wystawcy na CSUN starali się przy okazji prezentować najnowsze osiągnięcia w dziedzinie technologii mobilnych, o tyle jednym z ważniejszych tematów tegorocznego kongresu w Barcelonie była dostępność i technologie asystujące.

Synergia

Dwa zjawiska, z którymi w związku z omawianymi wydarzeniami mieliśmy do czynienia, wypada ocenić jako szczególnie korzystne z punktu widzenia osób z niepełnosprawnościami.

Po pierwsze, podczas wystąpień przedstawicieli Google, IBM i Microsoftu w Barcelonie można było usłyszeć, że instalowanie w urządzeniach mobilnych mechanizmów takich jak czytniki ekranu, aplikacje powiększające czy ułatwienia dla osób z dysfunkcją narządu ruchu to warunek konieczny, ale nie wystarczający do zaspokojenia potrzeb tej grupy konsumentów. Przyszedł czas, by twórcy aplikacji na platformy mobilne zaczęli się liczyć ze standardami dostępności i np. uwzględniali w swoich aplikacjach etykietowanie obiektów w sposób kompatybilny z czytnikami ekranu. Wobec starzenia się populacji, a co za tym idzie zwiększania się liczby osób z niepełnosprawnościami, implementacja szeroko rozumianej dostępności przestała być wyrazem wrażliwości społecznej, a stała się po prostu biznesową koniecznością.

Po drugie, wystawcy prezentujący swoje urządzenia w San Diego w stopniu większym niż miało to miejsce w latach ubiegłych wzięli pod uwagę mainstreamowe oczekiwania konsumentów.

Wojna na brajla

Pisząc o ubiegłorocznej konferencji CSUN, mówiliśmy o renesansie brajlowskim. Twierdziłem wtedy, że możliwość wprowadzania tekstu brajlem na ekranach dotykowych stała się inspiracją dla twórców notatnika BrailleNote Touch. Uznałem, że rozwiązanie to jest wyrazem nowego trendu w technologiach asystujących. Jakkolwiek już wtedy twórcom notatnika zarzucano, że opierając swoje rozwiązanie na przestarzałej wersji systemu Android zniechęcają do tak przecież drogiego produktu potencjalnych użytkowników, notatnik od Humanware wydawał się być rozwiązaniem najnowocześniejszym. Podczas tegorocznej konferencji mogliśmy zapoznać się z odpowiedzią konkurentów.

Godne uwagi rozwiązania to z jednej strony połączenie technologii znanych z ekranów dotykowych z monitorami brajlowskimi, czyli monitory brajlowskie czułe na dotyk, z drugiej zaś łączenie urządzeń brajlowskich z rozwiązaniami mainstreamowymi, takimi jak Alexa firmy Amazon czy Google Assistant.

BrailleSense Polaris

  1. Już od dłuższego czasu głównym zarzutem stawianym twórcom skądinąd doskonałych notatników brajlowskich linii BrailleSense było to, że z uporem godnym lepszej sprawy trzymają się oni przestarzałej wersji systemu Windows. Jakkolwiek przestarzała platforma ograniczała możliwości wdrażania nowoczesnych rozwiązań, urządzenia firmy Hims były dopracowane, działały stabilnie i pozwalały na bardzo efektywną pracę. Pojawienie się w ubiegłym roku notatników brajlowskich z systemem Android, a zwłaszcza posiadającego certyfikat od Google notatnika firmy Humanware,  zdawało się zapowiadać koniec BrailleSense’a. Wydaje się jednak, że tegoroczna odpowiedź Koreańczyków zapowiada bardzo ciekawe współzawodnictwo technologiczne z pożytkiem dla nas wszystkich.

Zaprezentowany podczas CSUN BrailleSense Polaris to urządzenie nowoczesne, ciekawe i posiadające jak się wydaje spory potencjał rozwojowy.

Podczas premiery rynkowej dostaniemy najprawdopodobniej notatnik z 32- znakową linijką brajlowską, znanym z wcześniejszych modeli BrailleSense’a małym wyświetlaczem LCD, klawiaturą brajlowską wzbogaconą o nieobecne we wcześniejszych wersjach klawisze „alt” i „control”, oraz elementami czułymi na dotyk, czyli powierzchnią dotykową pod linią przycisków sprowadzania kursora oraz czułymi na dotyk przyciskami na obudowie urządzenia.

Dobre parametry techniczne (ośmiordzeniowy procesor taktowany zegarem 1,8 GHZ 2 GB RAM i 64 GB pamięci z możliwością rozszerzenia jej za pomocą kart SD, 2 porty USB, prawdopodobnie także moduł kart SIM), otwartość na aktualizacje systemu do nowszych wersji (obecnie urządzenie będzie mieć zainstalowany Android w wersji 5.1) ora zapowiadana integracja aplikacji Google Assistant, to dostateczny powód, by uważać to rozwiązanie za interesujące.

Jaka będzie odpowiedź konkurenta? Humanware nie zaprezentował podczas CSUN niczego przełomowego. Zwiększenie pojemności urządzenia oraz mgliste zapowiedzi dotyczące trzeciej wersji oprogramowania notatnika z pewnością nie są czymś, co mogłoby zwrócić naszą uwagę.

NeoBraille

Pokazany podczas zeszłorocznej konferencji CSUN notatnik Neobraille zniechęcał swoich użytkowników przeciętnymi parametrami technicznymi oraz zamkniętą wersją Androida. W tym roku zaprezentowano urządzenie o lepszych, czytaj bardziej zbliżonych do oczekiwań użytkowników rozwiązań mainstreamowych, parametrach technicznych. Wyświetlacz brajlowski urządzenia został wyposażony w technologię Touch Sensitive Braille, lecz szczególną uwagę zwraca integracja z asystentem głosowym firmy Amazon. W sceptycznych komentarzach po premierze urządzenia mogliśmy wprawdzie przeczytać, że oto w cenie około 5 tysięcy dolarów użytkownicy otrzymają urządzenie o parametrach zbliżonych do Amazon Kindle Fire, ale wydaje się, że ze względu na, będącą wyrazem nowego trendu w technologiach asystujących, integrację rozwiązania mainstreamowego z urządzeniem z natury swej niszowym, warto śledzić uważnie jego dalszy rozwój.

ElBraille

Jesienią wydawało się, że wspólne przedsięwzięcie rosyjskiej Elite Group i Freedom Scientific zakończy się porażką. Dostępne w ubiegłym roku u dystrybutorów urządzenie, delikatnie mówiąc, nie zachwycało swoimi parametrami technicznymi, a cena w zestawieniu z oczekiwaniami potencjalnych użytkowników także nie wydawała się być zachęcająca nawet, gdy wzięło się pod uwagę wszelkiego rodzaju programy wspierające zakup urządzeń brajlowskich. Sytuacja jednak uległa zmianie. Tegoroczna wersja ElBraille’a to urządzenie o znacząco poprawionej specyfikacji technicznej. Szybszy procesor, zastosowanie lepszej pamięci RAM i większa ilość miejsca na pliki, poprawione oprogramowanie specyficzne dla potrzeb użytkowników niewidomych, dodanie funkcji telefonu, co sprawia, że omawiane urządzenie można zaklasyfikować jako fablet i wreszcie wersja 40-znakowa wyświetlacza brajlowskiego skłaniają mnie, do tego, by rozważając zakup notatnika brajlowskiego, poważnie zastanowić się, czy aby ElBraille nie jest tym najlepszym wyborem.

A gdyby tak taniej?

Z problemem zaporowych cen na urządzenia brajlowskie zmagamy się od lat. Co jakiś czas pojawiają się projekty, których twórcy obiecują nam dokonanie przełomu w tej dziedzinie. W ubiegłym roku pisaliśmy na naszych łamach o pracach nad Canute Braille Readerem. Projekt ten, jakkolwiek bardzo interesujący, robiony jest przez działającą w Wielkiej Brytanii organizację non profit i wygląda na to, że rozwija się znacznie wolniej niż można by oczekiwać. Do grona wielkich nieobecnych, obok British Braille Technologies, należy zaliczyć rozwijany w Austrii projekt Blitab. Prototyp urządzenia pokazano w czerwcu ubiegłego roku podczas targów w Szanghaju. Materiały prasowe towarzyszące temu wydarzeniu oraz badania rynkowe prowadzone przez deweloperów w grupie potencjalnych użytkowników, kazały przypuszczać, że podczas CSUN będziemy świadkami wielkiej premiery przełomowego tabletu dla niewidomych, ale wielkiej premiery niestety nie było.

Poszukiwacze tanich rozwiązań brajlowskich mogli jednak znaleźć coś ciekawego dla siebie. Prezentowany podczas konferencji 20-znakowy Orbit Reader trafi wkrótce do sprzedaży. Za około 400 dolarów użytkownicy otrzymają czytnik tekstów w podstawowych formatach oraz spełniający dobrze rolę czytnika dokumentów z innych urządzeń terminal brajlowski. Gdyby urządzenie mogło samodzielnie obsługiwać formaty E-Pub, PDF i MOBI, moglibyśmy mówić o pojawieniu się pierwszego pełnowartościowego brajlowskiego czytnika ebooków. Biorąc pod uwagę stosunkowo niewielki koszt implementacji, dziwi mnie, że urządzenie nie zostało wyposażone w te funkcje.

Innym wyrazem tendencji do obniżania brajlowskiej zapory cenowej jest wyposażanie monitorów brajlowskich w dodatkowe funkcje. W tej klasie godnymi uwagi urządzeniami są BrailleEdge oraz monitory Vario Ultra. Systematycznie poprawiane i wzbogacane oprogramowanie tych urządzeń, oraz dodawanie do wewnętrznych aplikacji możliwości czytania coraz większej liczby formatów dokumentów pozwala przypuszczać, że i tu doczekamy się swego rodzaju skopiowania struktury rozwiązań mainstreamowych, że urządzenia te stopniowo wyewoluują w pełnowartościowe brajlowskie czytniki treści cyfrowych.

Wielcy gracze z mainstreamu

Do obecności Googla i Microsoftu na CSUN zdążyliśmy się już przyzwyczaić. Jednakże w tym roku obie firmy miały do pokazania więcej niż w latach ubiegłych. Microsoft podczas szeregu prezentacji starał się udowodnić użytkownikom z niepełnosprawnościami, że jednym z priorytetowych projektów firmy jest optymalizacja zarówno samego systemu operacyjnego, jak i tworzonych przez Microsoft aplikacji w kierunku poprawy dostępności.

Uwagę moją zwróciły zrobione doskonale z punktu widzenia niewidomych użytkowników Internetu prezentacje. Jakkolwiek slajdy są dla mnie trudne w odbiorze nawet wtedy, gdy wszystko zostało poetykietowane bez zarzutu (nie widząc od zawsze, chyba nie potrafię myśleć w ten sposób), przyznać muszę, że wysiłek włożony w przybliżenie osobom z dysfunkcją wzroku treści prezentowanych materiałów zasługuje na wielką pochwałę.

Google w tym roku poświęcił zagadnieniom dostępności równie dużo uwagi. Obok prezentacji dotyczących perspektyw rozwojowych czytnika ekranu, zainteresowani mogli dowiedzieć się, co nowego stanie się wkrótce z zaniedbanym od jakiegoś czasu mobilnym programem do obsługi brajla. Prace nad integracją systemu Chrome OS z Androidem także należy uznać za interesujące, ponieważ i w tym wypadku wykorzystano dobrze okazję do poprawienia dostępności.

Co od Microsoftu?

W najbliższej przyszłości czeka nas dodanie do systemowego czytnika ekranu dla Windows obsługi pisma brajla. Ponadto dobiegają końca prace nad wersją systemu, która umożliwi użytkownikowi z dysfunkcją wzroku instalację Windowsów na czystym komputerze. Jeśli dodamy do tego gruntowne przemodelowanie pakietu Office i zmiany w kierunku lepszej dostępności przeglądarki Edge, to chyba będzie trzeba zacząć mówić o pojawieniu się nowej jakości w technologiach asystujących.

Google nie pozostaje w tyle

Aktualizacja TalkBacka, wraz z zapowiadaną dużą aktualizacją BrailleBacka będą w najbliższej przyszłości wydarzeniami istotnymi dla użytkowników systemu Android. Jeśli ponadto weźmiemy pod uwagę, że zespół pracujący nad udoskonalaniem Google Assistant zdaje się mieć pełną świadomość potrzeb osób z niepełnosprawnościami, to trzeba powiedzieć, że najbliższa przyszłość zapowiada się dla nas ciekawie i obiecująco.

Gadżety

Wreszcie doczekaliśmy się oficjalnej premiery wyposażonego w mikrowyświetlacz brajlowski koreańskiego zegarka dla niewidomych. Sądząc po dostępnych prezentacjach, trudno powiedzieć, czy urządzenie przyjmie się wśród niewidomych, ale jedno Koreańskiej firmie Dot trzeba z pewnością przyznać: zastosowana przez nich technologia brajlowska jest tania.

Drugi, ekstremalnie drogi, koniec pokazywanego w tym roku na CSUN gadżetowego spektrum, to urządzenia wspomagające widzenie lub, choć może to słowo nieco na wyrost, dające użytkownikowi coś w rodzaju widzenia wirtualnego. Prezentowane przez firmę Esight okulary, to urządzenie wykorzystujące techniki komputerowej obróbki obrazu, który następnie jest kierowany na względnie sprawne obszary siatkówki, co daje nawet osobom o bardzo szczątkowej zdolności widzenia możliwość powrotu, przynajmniej w jakimś stopniu, do korzystania ze wzroku.

Inne urządzenie, którego twórcy stawiają sobie za cel pozyskiwanie informacji wizualnych z otoczenia i udostępnianie ich osobom z dysfunkcją wzroku, to proponowane przez firmę Neweyes okulary z mechanizmem cyfrowego wzbogacania rzeczywistości. Urządzenie jest skonstruowanym w formie okularów powiększalnikiem wyposażonym w niektóre funkcje tabletów z systemem Android. Jeden z ciekawszych pomysłów to zainstalowanie w tych okularach aplikacji rozpoznającej pismo.

O okularach od Google’a mówi się już od dość dawna. Dziwi więc, że zamiast już kilka lat temu wykorzystać platformę, która wydawała się być wprost stworzona do tego rodzaju zastosowań, stworzono od podstaw nowe urządzenie.

Jeszcze niedawno sądziliśmy, że możliwość zainstalowania na smartphonie aplikacji umożliwiających czytanie książek, słuchanie podcastów czy skanowanie dokumentów, możliwość doinstalowania aplikacji rozpoznających kolory, wspomagających nawigację i wielu innych, spowoduje naturalne zniknięcie z rynku tzw. urządzeń specjalistycznych, takich jak czytniki książek, zestawy do skanowania itp. Wydaje się jednak, że tak jak błędna była przepowiednia sprzed kilku lat o zniknięciu notatników brajlowskich, tak i oczekiwanie, że znikną urządzenia specjalistyczne jest nietrafione. Coraz głośniej słyszy się pogląd, że wprawdzie smartphone wszystko potrafi, ale książek słucha się lepiej na czytniku. Firma Dolphin zaprezentowała podczas konferencji czytnik książek, który spełni oczekiwania użytkowników niewidomych i słabowidzących. Guide Reader to urządzenie podobne z wyglądu do Apple TV. Można je podłączyć za pomocą kabla HDMI do monitora lub telewizora. Dla osób niedowidzących duży, płaski telewizor w prosty sposób staje się jakby ekranem powiększalnika. Urządzenie wyposażono także w możliwość odsłuchiwania audiobooków oraz słuchania tekstów książek mową syntetyczną.

Czyżby więc miało już miejsce przełamywanie granic?

Na koniec wypada zadać sobie pytanie, czy długo jeszcze będziemy śledzić wystawy sprzętu i oprogramowania przeznaczonego wyłącznie dla osób z niepełnosprawnościami. Obserwacja trendów obecnych tak w tzw. Mainstreamie, jak i w tzw. środowisku każe przypuszczać, że granice między światem osób pełnosprawnych i osób z niepełnosprawnościami, przynajmniej w aspekcie technologicznym, będą się zacierać szybciej niż przypuszczaliśmy. Ciekawym przykładem ilustrującym tę tendencję jest, pojawiające się coraz częściej w obiegu, pojęcie niepełnosprawności sytuacyjnej. Jest to niepełnosprawność, której doświadcza np. matka trzymająca na rękach dziecko i niemogąca z tego powodu odebrać telefonu. Okazuje się, że rozwiązania projektowane początkowo dla osób z niepełnosprawnościami w pewnych sytuacjach mogą poprawiać jakość życia osób pełnosprawnych. Przykłady?

Oto kilka przychodzących do głowy pytań: Dla kogo projektuje się asystę głosową? Kto odniesie korzyści ze wprowadzenia do użytku pojazdów autonomicznych? Czy mówiące windy, dźwiękowe komunikaty o przystankach komunikacji miejskiej itp. są dla niewidomych, dla osób starszych, czy też może wszyscy, bez względu na niepełnosprawność, możemy odnosić z nich korzyści? Czy warto aplikację zamieniającą tekst pisany na język migowy zrobić tak, by osoba niewidoma mogła ją obsłużyć? Na te i podobne pytania musimy odpowiedzieć sobie wszyscy, a fakt, że twórcy rozwiązań technologicznych zaczęli zadawać je w sposób coraz bardziej świadomy, pozwala mieć nadzieję na intensywny rozwój technologii asystujących w niedalekiej przyszłości.

 

Czego nauczyłem się udając przez tydzień niewidomego

David Ball*

 

[Od redakcji

Publikowany materiał ukazał się pierwotnie w wersji angielskiej na stronie www.silktide.com. Za zgodą portalu udostępniamy go czytelnikom Tyfloświata.

Uznaliśmy, że jest on interesujący, ponieważ pokazuje jak osoba pełnosprawna postrzega nasz sposób korzystania z treści cyfrowych. Z drugiej strony mamy nadzieję, że tekst ten, przybliżając wiedzę o naszych problemach pełnosprawnym czytelnikom, przyczyni się do uwrażliwienia ich na potrzeby osób z dysfunkcją wzroku.]

 

Jestem dobrze widzącym użytkownikiem komputera i bardzo lubię oglądać strony internetowe. Jednakże wiem, iż nie każdemu dane jest zapoznawanie się z nimi w sposób, w jaki czynię to ja.

Przeglądanie stron internetowych na wyświetlaczach różnych rozmiarów to obecnie gorący temat, ale nie zapominajmy, że chodzi nie tylko o różny wygląd stron na urządzeniach mobilnych. Niewidomi korzystają z Internetu w sposób tak odmienny, że wprost trudno sobie to uświadomić.

Zacząłem więc używać czytnika ekranu, żeby doświadczyć, w jaki sposób niewidomi użytkownicy poruszają się po stronach internetowych.

W tym miejscu muszę powiedzieć, że problematyka dostępności nie jest dla mnie czymś nieznanym. Od lat tworzę strony zgodne ze standardami dostępności, dbam, by umieszczone na nich elementy graficzne miały opisy dla czytników ekranu, a zawartość tworzona z użyciem Flasha miała stosowną alternatywę tekstową. Jednakże sporo się nauczyłem, gdy sam zacząłem używać czytnika ekranu.

Czytnik ekranu obsługuje cały pulpit, nie tylko przeglądarkę

W swej ignorancji z jakiegoś powodu założyłem sobie, że czytnik ekranu ogranicza się do przeglądarki internetowej. Tymczasem korzystanie z czytnika ekranu oznacza całkowicie odmienny sposób posługiwania się całym systemem operacyjnym. Od momentu włączenia komputera do otwarcia przeglądarki wszystkie kroki trzeba wykonać, posługując się poleceniami wydawanymi za pomocą klawiatury.

Jeśli ktoś powie Wam, że dobrym sposobem na korzystanie z Internetu po niewidomemu jest używanie przestarzałych przeglądarek np. Lynx lub w3m (taką radę ktoś zamieścił na naszym profilu na Facebooku), to musicie zdać sobie sprawę z tego, że większość niewidomych ogląda strony internetowe zupełnie inaczej.

To jest trudne

Bardzo dużo trzeba się nauczyć! Poznanie tych wszystkich skrótów klawiszowych po to tylko, żeby móc poruszać się po stronie internetowej jest nieomal karkołomne. Równie trudne, gdy ma się zasłonięte oczy, jest zapamiętanie, gdzie na klawiaturze naszego komputera są te wszystkie klawisze! No tak, zasłoniłem sobie oczy po to, by w pełni doświadczyć, jak to jest.

Nie zasłaniałem oczu od razu, lecz stopniowo, w miarę jak wiedziałem coraz lepiej, co robię. Jednak mimo to często dochodziłem do takiego miejsca lub opcji, które były mi nie znane i musiałem spojrzeć, że by zorientować się, co poszło nie tak.

A oto próbka tego, co dzieje się, gdy nawigujesz po stronie internetowej, korzystając z czytnika ekranu. Czytnik zaczyna czytać wszystko, co znajduje się na stronie, mam na myśli naprawdę wszystko, co tam jest i nie przestanie, aż zagotuje Ci się mózg, a słowa zleją się w jednolity szum elektronicznego głosu. Jeśli chcesz, możesz wysłuchać całej strony, ale nauczyłem się z filmu udostępnionego przez Roberta Wiliama, że znacznie lepiej jest zmusić czytnik ekranu do zamilknięcia, a potem spróbować nawigacji po stronie w kontrolowany sposób na własną rękę. Uwaga! Przygotujcie się na to, że, zanim w ogóle uda Wam się dotrzeć na stronie do tego, co chcieliście tam przeczytać, przytłoczy Was bezmiar odnośników i nagłówków.

To zależy od przeglądarki

Według badań preferencji niewidomych użytkowników Internetu, przeprowadzonych w roku 2012, najpopularniejszymi przeglądarkami były wówczas Internet Explorer 8, Internet Explorer 9 i Firefox. Moja ulubiona przeglądarka to Chrome. Zacząłem więc próby z Internetem od niej, ale wkrótce uświadomiłem sobie, że w ten sposób daleko nie zajdę. Przeszedłem więc na Firefoxa, który jak się przekonałem, sprawdza się bardzo dobrze, jeśli chodzi o dostępną nawigację.

Gdy oglądałem stronę, którą stworzył Sina Bahram, jeden z badaczy zagadnień dostępności, by pokazać, jak wygląda dobrze dostępna strona internetowa, odkryłem, że Firefox automatycznie dodaje znacznik HTML5 <nav> elements I nie wymaga przy tym definiowania roli ARIA. Zapytałem go, dlaczego nie dodał do kodu źródłowego strony role="navigation". Myślałem, że takie postępowanie jest standardową praktyką. Odpowiedział, że jeśli już istnieje element HTML5, który spełnia to samo zadanie, to on woli używać tego elementu. Takie rozwiązanie jest lepsze semantycznie. Oczywiście miał rację, ale tak napisana strona spowodowała stworzenie punktu orientacyjnego tylko w Firefoxie.

Musisz nauczyć się słuchać szybko

Pewnego razu, oglądając film na mojej PlayStation 3, uświadomiłem sobie, że bez szkody dla rozumienia oglądanego filmu można ustawić prędkość odtwarzania na 1.5x, co w praktyce oznacza, że obejrzenie dwugodzinnego filmu zajmie tylko godzinę i trzydzieści minut. To było bardzo ekscytujące odkrycie. Pomyślałem sobie, że taki sposób oglądania filmu pozwala mi zaoszczędzić pół godziny i zacząłem katować mój mózg, słuchając nagrań tak szybko, że głosy brzmiały jak wiewiórki z filmów Disneya. Oczywiście nie umiałem nadążyć za tak nienaturalnie szybkimi głosami i wkrótce wróciłem do słuchania z normalną szybkością, ale taka szybkość jest niczym w porównaniu z tym, co robi ze swoim czytnikiem ekranu Sina Bahram. Nawet słuchając stosunkowo wolno stwierdzałem, że ilość informacji, które trzeba było jednorazowo przyswoić jest tak duża, że często muszę wracać i słuchać od nowa opcji przeglądanej strony internetowej.

Z niektórych popularnych stron internetowych bardzo trudno skorzystać

Próbowałem, używając czytnika ekranu, korzystać ze stron internetowych, których używam na co dzień. Facebook, bez szans. Wbrew teoretycznym rozważaniom o dostępności serwisu, które można znaleźć w różnych artykułach, skrypty Java i trwające bez końca przewijanie strony powodowały, że mój komputer zwalniał tak bardzo, iż nie dało się z niego korzystać. Dowiedziałem się, że doświadczeni niewidomi użytkownicy komputerów mają także problemy z Facebookiem i dlatego korzystają ze znacznie lepiej dostępnej strony mobilnej. Próbowałem też skorzystać ze strony Amazon.co.uk, ale strona główna, na której jest – nawet o tym pewnie nie pomyśleliście – jakieś 1000 linków, nie mogła mi się załadować. Poszukanie czegokolwiek w serwisie było bardzo trudne, bo bardzo trudno było dotrzeć do głównego okna wyszukiwania (prawdę mówiąc, po pierwszych kilku próbach pomyślałem, że jest to niemożliwe, aż wreszcie, słuchając uważnie strony, znalazłem pole wyszukiwania schowane między dwoma innymi opcjami), nawiasem mówiąc, nie było tam żadnego znacznika ARIA. Cóż za nieprzyjemne zdziwienie. Rozmawiałem o tym z jednym z moich niewidomych znajomych, który doradził mi, żebym spróbował skorzystać ze znacznie lepiej dostępnej strony mobilnej. Tak czy inaczej, to bardzo denerwujące, że nie można normalnie skorzystać z serwisu i trzeba używać strony mobilnej. Na takie rozwiązanie problemu nigdy bym nie wpadł, gdyby nie wiedza innych doświadczonych użytkowników.

Tytuły nie pomagają

To chyba najbardziej zaskakujące odkrycie. Prawdę mówiąc, zawsze zakładałem, że jeśli do odnośnika dodamy tekst, wykorzystując do tego atrybut „title”, to czytnik ekranu przeczyta ten tekst zamiast normalnej etykiety odnośnika, co dawałoby możliwość poinformowania czytelnika o tym, dokąd odnośnik prowadzi. Tym czasem okazało się, że tekst przypisany do odnośnika z użyciem „title” prawie nigdy nie jest odczytywany przez czytniki ekranu, a wyjątek stanowi sytuacja, gdy pole etykiety odnośnika jest puste. Okazuje się więc, że ten jakby mogło się wydawać pożyteczny z punktu widzenia dostępności tekst, wprowadzony z użyciem atrybutu „title”, jest dla czytników ekranu niedostępny. Nie należy zatem zakładać, że odnośniki zaetykietowane „kliknij tutaj” lub „czytaj więcej”, a następnie opatrzone dodatkową informacją z wykorzystaniem atrybutu „title” będą pomocne dla użytkowników czytników ekranu, ponieważ dla nich tego tekstu po prostu na stronie nie ma. Zapytałem nawet o to Jeffrey’a Zeldmana, pracującego dla Twittera specjalistę od języka HTML. Odpowiedział mi, żebym tego atrybutu w ogóle nie używał.

Automatyczne przenoszenie punktu uwagi jest denerwujące

Każda strona, na której punkt uwagi jest automatycznie przenoszony do jakiegoś pola przeznaczonego do wprowadzania informacji może u użytkownika z dysfunkcją wzroku wywołać dezorientację. Wyobraźcie sobie, że przeglądacie jakąś stronę i nagle skrypt JAVA powoduje, że czytnik ekranu przeskakuje w jakieś inne miejsce i tam zaczyna coś czytać. Człowiek nagle nie wie, czy jest u góry, czy na dole strony. Taka sytuacja sprawia, że możemy przegapić naprawdę istotne dla nas treści.

Zgodność z W3C oznacza, że ten punkt odhaczyłeś

Zawsze dbałem o to, żeby tworzone przeze mnie strony internetowe przechodziły pomyślnie test zgodności z W3C. Jednakże, nawet jeśli strona przejdzie pomyślnie ten test, to oznacza to tyle, że widać, iż zrobiono z tą stroną cokolwiek, by poprawić jej dostępność. Zdaję sobie oczywiście sprawę, że przepuszczenie strony przez automatyczny walidator dostępności umożliwia jedynie poprawienie pewnych niedociągnięć w tym aspekcie. Można jednak zrobić bardzo wiele w kierunku zwiększenia komfortu korzystania ze strony dla osób z dysfunkcją wzroku, jeśli zaprosi się do współpracy osoby, które na co dzień korzystają z czytników ekranu.

Najłatwiej jest nawigować po nagłówkach

Tyle się ostatnio mówi o znacznikach ARIA, a elementy semantyczne HTML5 wywołują wręcz entuzjazm, iż spodziewałem się, że za pomocą tych wszystkich udogodnień będzie się tworzyć strony, na których użytkownik szybko i łatwo przeskoczy w potrzebne mu miejsce. Największe nadzieje wiązałem przede wszystkim z elementami takimi jak: <header>, <nav>, <aside> oraz <footer>. Myślałem o tych elementach jako o czymś, co pozwala na szybkie przeskoczenie do odnośnych miejsc na stronie. I owszem, to tak działa, ale pod warunkiem, że powyższe elementy zastosowano na stronie internetowej, ale ku mojemu zaskoczeniu okazało się, że na bardzo wielu stronach nie stosuje się ani elementów HTML5, ani ról znaczników ARIA, np. takich, jak role=”main” dla głównej treści lub role=”navigation” dla grupy linków służących do nawigacji po serwisie.

Stwierdziłem, że najczęściej czytam uważnie cały tekst strony, albo, zamiast szukać niezaimplementowanych ról, punktów orientacyjnych, przeskakuję po nagłówkach, co okazuje się być stosunkowo najskuteczniejszym sposobem korzystania ze stron internetowych, ponieważ nagłówki, to bodaj jedyny mechanizm, który twórcy stron nauczyli się stosować poprawnie.

Niewidomi bardzo dobrze panują nad wściekłością

Co chcę przez to powiedzieć? To jest frustrujące. Słuchanie, jak mnóstwo odnośników przelatuje Ci koło uszu, wymaga wielkiej koncentracji, a przy tym jest nieprawdopodobnie wkurzające, zwłaszcza jeśli wiele z nich jest do niczego niepotrzebnych. To oczywiste, że w większości przypadków serwisy internetowe nie biorą pod uwagę potrzeb użytkowników z dysfunkcją wzroku. Najprawdopodobniej jest tak dlatego, że strony nie są testowane pod tym kątem lub po prostu dlatego, że ich twórcy zwyczajnie nie mają czasu, żeby zajmować się potrzebami tak niewielkiej grupy odbiorców. Ja ze swej strony uważam, że pomoc osobom z dysfunkcją wzroku w dostępie do stron internetowych jest naszym moralnym obowiązkiem. A skoro już wypróbowałem na sobie jak to jest, sądzę, że trzeba się postarać, by korzystanie z sieci w ten sposób nie było tak parszywym doświadczeniem.

 

Co począć z ekranami dotykowymi?

Damian Przybyła

Tablety i telefony komórkowe mają już swoje narzędzia, dające osobom z dysfunkcją wzroku lepsze lub gorsze możliwości obsługi. Ekrany dotykowe są jednak wszędzie. Pralki, kuchenki mikrofalowe, ekspresy do kawy, automaty biletowe na dworcach czy maszyny sprzedające napoje, słodycze i inne drobiazgi, wszystko to coraz częściej wyposaża się w takie ekrany. Można oczywiście protestować przeciw brakowi dostępności takich rozwiązań, można domagać się ich udźwiękowienia, ale wydaje się, że protesty takie nie będą skutecznym działaniem i z pewnością nie doprowadzą do rozwiązania naszych problemów. Można stosować aplikacje, które dodadzą do naszego telefonu funkcję pilota do sterowania interesującym nas urządzeniem. Rozwiązanie to lepsze, ale nie pozbawione wad. Po pierwsze urządzeń w naszym otoczeniu może być bardzo wiele, a jak dotąd uniwersalny „pilot” do sterowania wszelkimi funkcjami wszystkiego, co ma ekran dotykowy nie istnieje i najprawdopodobniej stworzenie takiej aplikacji jest zwyczajnie niewykonalne, zaś instalowanie mnóstwa aplikacji do mnóstwa otaczających nas interfejsów dotykowych jest po prostu technicznie niemożliwe i praktycznie byłoby bardzo niewygodne. Po drugie, nie wszystkie urządzenia z ekranem dotykowym mają interfejs pozwalający na sterowanie nimi za pomocą Internetu, podczerwieni czy poprzez Bluetooth. Zdając sobie sprawę z tych wszystkich ograniczeń, podjęto próbę znalezienia rozwiązań, które mimo wszystko umożliwiłyby osobom niewidomym korzystanie z nieudźwiękowionych ekranów dotykowych.

VizLens

Użytkownicy iPhone’ów zetknęli się być może z aplikacją VizWiz. Umożliwiała ona zrobienie zdjęcia i wysłanie pytania o fotografowany obiekt. Za pośrednictwem aplikacji można było otrzymać odpowiedź pozwalającą np. na wykonanie jakiejś interakcji z urządzeniem, którego ekranu nie widzimy. Jednakże od jakiegoś czasu aplikacja nie działa. VizWiz był projektem badawczym. Ponieważ pojawiły się darmowe usługi spełniające te same zadania, a twórcy projektu uzyskali już potrzebne im informacje, aplikacja i związany z nią serwis naturalną koleją rzeczy przestały działać.

Prace nad VizWiz dały początek nowemu projektowi pod nazwą VizLens. VizLens to aplikacja, która wykorzystuje komputerowe rozpoznawanie obrazu. Użytkownik wykonuje zdjęcie ekranu dotykowego swojej kuchenki mikrofalowej czy biurowego automatu z kawą, a następnie zapisuje obrazek w swoim urządzeniu, nadając mu odpowiednią rozpoznawalną nazwę (np. „moja mikrofalówka”), wysyła zdjęcie na serwer, gdzie jest ono przetwarzane tak, że widoczne na ekranie kontrolki są rozpoznawane i etykietowane. Zapisywana jest także pozycja poszczególnych elementów na ekranie. Tak przetworzony obraz rejestrowany jest na serwerze. Gdy chcemy obsłużyć nasze urządzenie, wystarczy w aplikacji kliknąć nazwę interesującego nas przedmiotu. Mapa tekstowa zostaje pobrana, a my, za pomocą VoiceOver, możemy obejrzeć w telefonie ekran urządzenia tak, jak oglądalibyśmy ekran dowolnej aplikacji. Ale co z tego? Tu zaczyna się najtrudniejsza, ale zarazem najbardziej dla nas interesująca część omawianego rozwiązania. VizLens daje nam możliwość obsługi naszego urządzenia. Jak? Mając obraz ekranu dotykowego, ładujemy go do aplikacji, a następnie kierujemy kamerę telefonu w stronę ekranu dotykowego. Palec drugiej ręki przesuwamy nad ekranem dotykowym do momentu, gdy usłyszymy nazwę interesującej nas kontrolki. W tym momencie aplikacja pokieruje nas, udzielając wskazówek w rodzaju „lekko w prawo”, „trochę w górę” i tak aż do momentu, gdy będziemy mogli dotknąć ekranu i aktywować interesującą nas funkcję. W przypadku prostych, jednopoziomowych interfejsów prawdopodobnie można nauczyć się aktywowania poszczególnych kontrolek pod kierunkiem omawianej aplikacji. Problem jednak powstaje wtedy, gdy naciśnięcie kontrolki otwiera kolejny ekran dotykowy. Uruchomienie kolejnego ekranu naszego interfejsu wymaga bowiem załadowania kolejnego zdjęcia. Dobra wiadomość jest taka, że zdjęcia wystarczy zrobić raz, a potem można je tylko przywoływać, gdy są potrzebne. Twórcy aplikacji planują w przyszłości połączenie jej z mechanizmem OCR, w taki sposób, żeby było możliwe także korzystanie z urządzeń, z którymi stykamy się pierwszy raz czy takich, z którymi nie będziemy się często spotykać, (np. automat sprzedający bilety na stacji kolejowej czy lotnisku).

Halos

Kolejnym rozwiązaniem, które być może ułatwi życie niewidomym użytkownikom urządzeń z ekranami dotykowymi jest Halos („Home Appliance Label and Overlay System” – system do etykietowania i tworzenia nakładek na urządzenia gospodarstwa domowego).

Najlepszy znany sposób radzenia sobie z obsługą urządzeń AGD z ekranami dotykowymi to stosowanie przyklejalnych punktów brajlowskich lub brajlowskich nakładek wykonywanych samodzielnie lub przez zajmujące się tym firmy. Niektórzy producenci tych urządzeń oferują osobom z dysfunkcją wzroku swoje nakładki. Anne DeWitte, właścicielka Tangible Surface Research, pracuje nad bardzo obiecującą alternatywą. Halos, bo o nim mowa, jest innowacyjnym przedsięwzięciem, które ma na celu stworzenie uniwersalnego interfejsu dotykowego. Brajl, jakkolwiek dobry dla tych, którzy pismem się posługują, ma pewne istotne wady. Po pierwsze nauczenie się go przez osoby ociemniałe, zwłaszcza w starszym wieku, może być trudne. Po drugie stosowanie ikon sprawia, że urządzenia wyposażone w interfejsy z ikonami mogą być sprzedawane na całym świecie, ponieważ obrazkowa reprezentacja informacji pozwala na przełamanie, przynajmniej na poziomie podstawowym, barier językowych.

Prace Anne DeWitte rozwijają się w dwóch kierunkach. Pierwszy to stworzenie ikon, które będą łatwo rozpoznawalne dotykowo. Nie wystarczy stworzenie wypukłych, przezroczystych nakładek do przyklejania na ekranach dotykowych. Trzeba jeszcze znaleźć takie kształty, które w sposób łatwy i jednoznaczny będą rozpoznawalne dotykiem. Ale co zrobić z ekranami wyposażonymi w menu rozwijane, z ekranami, na których aktywowanie kontrolki powoduje otwarcie nowego okna? To właśnie drugi kierunek badań Anne DeWitte. Zajmuje się ona badaniem tzw. powierzchni programowalnych. Chodzi o takie tworzywa, które pod wpływem interakcji będą mogły zmieniać kształt, wyświetlać w sposób dotykowy potrzebne informacje. Zapotrzebowanie na takie rozwiązania jest wielkie. Wyobraźmy sobie np. że moglibyśmy poczuć kształt ikon na ekranie naszego telefonu albo przeczytać coś brajlem wprost na wyświetlaczu dotykowym. Jednak bez wiedzy o specyfice percepcji dotykowej stworzenie ikon, które będą miały wartość użytkową dla osób niewidomych jest praktycznie niemożliwe. Wiemy już, że postrzeganie dotykowe jest zależne od stopnia dostęponości bodźców wzrokowych. Jest ono więc inne u osób widzących, niewidomych, słabowidzących i ociemniałych. Badania nad stworzeniem interfejsu wykorzystującego informacje dźwiękowe w połączeniu z dotykowymi i wibracyjnymi trwają. Czy omówione powyżej rozwiązania będą używane powszechnie przez konsumentów z dysfunkcją wzroku? Trudno powiedzieć.

Na razie zainteresowani mogą na stronie http://tangiblesurfaceresearch.com/ kupić nakładki lub zestawy naklejek dla swoich urządzeń gospodarstwa domowego. Na aplikację skanującą ekrany obrazkowe i dającą nam kontrolę nad nimi przyjdzie nam jeszcze trochę poczekać. A może producenci urządzeń z ekranami dotykowymi zaczną powszechnie stosować w nich coś w rodzaju czytników ekranu? Czas pokaże.

Strona projektu: http://www.afb.org/afbpress/pub.asp?DocID=aw180104&utm_source=AFB&utm_medium=email#content

 

Sceny z życia małżeńskiego

Ewa Peszek-Przybyła, Damian Przybyła

Od redakcji

Wszystko zaczęło się od „Opowieści mojej żony”. Zaśmiewaliśmy się z dzieciakami nad tą doskonale napisaną, a przy tym jakże zabawną lekturą i wtedy, zaczynając właśnie moją przygodę z Tyfloświatem, pomyślałem sobie, że dobrze byłoby, gdyby to właśnie moja żona, osoba patrząca na ten nasz tyfloświat nieco z boku, napisała coś o tym, jak technologie asystujące wyglądają od tej drugiej, widzącej strony. Broniła się długo, że niby epikryzę to ona mi może napisać, ale żeby zaraz historyjkę i żeby jeszcze ktoś chciał to przeczytać… Tekst wreszcie powstał. Oddaję go w ręce czytelników w postaci niezmienionej, choć tu i tam chciałoby się autorce zarzucić podstawową wprost nieznajomość zagadnień, o których pisze. Może jednak głos ten uświadomi osobom walczącym o lepszą jakość rozwiązań technologicznych, przeznaczonych dla osób z niepełnosprawnościami, że technologie wspierające czy rozwiązania poprawiające dostępność będą rzeczywiście dobre dopiero wtedy, gdy my, użytkownicy tych rozwiązań, oraz ci wszyscy, którzy te rozwiązania tworzą, uświadomimy sobie, że należy je tworzyć i projektować w sposób nie dyskryminujący osób pełnosprawnych, że powinno się je tworzyć z myślą o poprawie jakości życia każdego, kto z jakiegokolwiek powodu zechce z rozwiązań tych skorzystać.

To wszystko przecież nie działa

Marzę sobie o takim GPS, żeby wreszcie móc trafić, gdzie chcę. Także w obcym mieście, gdzie nigdy wcześniej nie byłam, a ponieważ jestem w podróży służbowej, to zbierałam się w ostatnim momencie i nie miałam czasu się przygotować. Nie chcę pytać ludzi, bo zwykle udzielają sprzecznych informacji. A może jestem za granicą i nie znam hiszpańskiego? Albo dwuletnia nauka francuskiego w szkole podstawowej okazuje się niewystarczająca i człowiek naraża się na lekceważące „Oh-la-la” Francuzów? A skoro się już rozmarzyłam, to chciałabym też trafić np. do wydziału geodezji w urzędzie miasta albo do jakiegoś biura w urzędzie wojewódzkim (na przykład wydziału zajmującego się kształceniem podyplomowym), gdzie gubię się już za pierwszym zakrętem. Przydałby mi się taki gadżecik, taki jak mają niewidomi. Taki, który doprowadza ich tam, gdzie chcą. Z którego skorzysta każdy, także słabowidzący, czy ktoś starszy, który trochę się zgubił w mieście, gdzie się urodził. Albo nastolatek, który prędzej obejdzie rynek 10 razy, niż zapyta kogoś o drogę.

Ale nic z tego. Ponieważ sprzęty przeznaczone dla niewidomych NIE działają. A nawet jeśli działają, to nie działają. Powiecie, że nie mam racji?

  1. Jedziemy sobie z Panem Mężem do teatru w Gliwicach. Elegancko wystrojeni i pachnący. Dzieci odziane wytwornie. I spóźnieni z tego powodu bardzo. Ledwo ruszyliśmy, okazało się że nie mamy GPS-a. Jako, że dbanie o elektronikę należy do Pana Męża – jego wina. Na szczęście niewidomi mają GPS-y w komórkach, więc sytuacja uratowana. I wygodna, bo ja prowadzę, a Pan Mąż uruchamia urządzenie, wyznacza trasę. GPS nawet wie, w którą stronę zmierzamy. Jedziemy szybko i radośnie autostradą A4, zbliżając się do Węzła Sośnica (dla tych którzy nie byli – podobno  największego węzła drogowego w Europie). Ciemno, latarnie świecą we wszystkie strony i na różnych poziomach. Ale gdzieś trzeba zjechać, a zjazdów do Gliwic jest więcej niż jeden. I wtedy „niewidomy GPS” udziela informacji w rodzaju „za 200 m ulica taka i siaka” i milknie. Nie daje się uruchomić w żaden sposób, nie wzrusza go nawet propozycja, żeby właściciel tego „super GPS” wysiadł sobie i spróbował trafić gdziekolwiek. (przyp. red. A żona wcale nie musi wiedzieć, że nawigacja piesza to coś całkiem innego niż nawigacja samochodowa, a te aplikacje dla niewidomych nie są robione z myślą o kierowcach. Argument zadziałał na krótką chwilkę.).

Kolejny restart nie poprawia sytuacji. GPS może powiedzieć, gdzie jesteśmy, ale nie mówi gdzie iść, żeby dotrzeć do celu. A co mi po informacji, że za 200 m ulica Lenartowicza, skoro nie znam żadnej ulicy w tym mieście i nie wiem, jakie ulice otaczają teatr. Na nic, tak nigdzie nie trafimy. Dzieci nerwowe, my także, robi się coraz później. Do niczego taka nawigacja, dotrzemy „na czuja”. Uff, zdążyliśmy. Mogę marzyć dalej, że kiedyś GPS poprowadzi mnie i/lub mojego męża tam, gdzie chcemy.

Uniwersalnie frustrujące

Za radą męża włączyłam sobie odbieranie i kończenie rozmów przyciskami telefonu. Opcja przydatna przecież wszystkim została w telefonach firmy Samsung ukryta w ustawieniach dostępności. Niby dobrze, bo przecież niepełnosprawni jej potrzebują, bo im z pewnością łatwiej nacisnąć przycisk niż na wyczucie głaskać ekran w nadziei, że zareaguje jak należy, ale z drugiej strony dziwi, że nikt nie pomyślał, iż ustawienie takie powinno być łatwo dostępne dla wszystkich, bo ułatwi życie każdemu, kto, jak powiedzmy lekarz izby przyjęć, potrzebuje w trybie natychmiastowym odebrać telefon.

Chcecie innych przykładów?

Często spotykam się w swej pracy z osobami starszymi. Chciałyby korzystać z czytnika ekranu, ale w ograniczony sposób. Nie potrzebują pomocy w wybieraniu numeru czy pisaniu sms’a, ale oznajmianie głosem syntetycznym, kto dzwoni byłoby dla nich bardzo wygodne. Jest aplikacja dla Androida, która dokładnie to robi, ale albo robi nie zawsze, albo nie w każdym modelu telefonu, albo wreszcie zainstalowanie jej dla osoby po siedemdziesiątce jest zwyczajnie przeszkodą nie do przejścia. Inni znów chcieliby korzystać w pewnych sytuacjach z powiększenia, ale nie chcą na stałe ustawiać opcji dla słabowidzących. Niestety. Wszystkie te rozwiązania, jeśli nawet istnieją, to ich uruchomienie jest skomplikowane, a niezawodność bardzo dyskusyjna.

Apple lekiem na całe zło

Niewidomi mówią, że to czy tamto nie działa jak należy, bo to przecież Android, a jak ktoś chce, żeby było dostępne i łatwo i uniwersalnie, to powinien w ogóle mieć urządzenie z jabłkiem. Mąż też mi tak powiedział. Dałam się więc namówić kilka lat temu na kupno iPada. Potrzebowałam czegoś poręcznego, szybkiego i takiego, żeby mi się góra materiałów do bardzo trudnego egzaminu zmieściła. Za iPadem przemawiało ponadto to, że miał być dobrze obsługiwany po niewidomemu. (przyp. red. Czasami coś nawet na tym tablecie robiłem, przeczytałem kilka książek, ale jak się okazało platforma mobilna od Apple ani taka łatwa w użyciu, ani taka uniwersalna nie jest). Mąż iPada używać zwyczajnie nie lubi. Twierdzi, że urządzenie jest tak osobiste, iż musiałby mieć tam wszystko poukładane wedle swoich preferencji i upodobań. To jeszcze można zrozumieć, ale czemu i tutaj z tych niby uniwersalnych rozwiązań wspierających wygodnie skorzystać się nie da?

Chcecie przykładu?

Niedziela. Czytam sobie artykuł w Polityce. Chciałam, żeby mąż posłuchał, bo tekst ciekawy. Lubimy czytać różne rzeczy, a potem o nich rozmawiać. Aplikacja jest wygodna, wzrokowe korzystanie z niej jest dość przyjemne. Gorzej, jeśli chcesz się podzielić artykułem z niewidomym małżonkiem, albo zwyczajnie bolą cię oczy i nie chce ci się wpatrywać w nieprzyjemnie drażniące światło ekranu. Włączyłam VoiceOver, machnęłam po ekranie palcami, jak należy. Pierwsza strona tekstu przeczytała się bez zarzutu, ale już przejście na kolejną przy włączonym screenreaderze okazało się zwyczajnie niemożliwe. I co? Wyszło na moje. Jak jest dla niewidomych, to po prostu nie działa.

Na koniec wypada chyba tylko powiedzieć, że rozwiązania poprawiające dostępność treści dla osób z niepełnosprawnościami powinny być tworzone w taki sposób, który umożliwi korzystanie z nich także osobom bez niepełnosprawności. Udostępnianie treści cyfrowych, jak i całego otoczenia umożliwiającego bezkolizyjne funkcjonowanie w cyberprzestrzeni w sposób dostępny dla osób z niepełnosprawnościami powinno oznaczać poprawę jakości korzystania z tych treści przez wszystkich.

Smartphone i co dalej

Damian Przybyła

Każdy wynalazek najpierw budzi lęk, potem jest oswajany, a wreszcie odchodzi w przeszłość, gdy uda się go zastąpić czymś nowym. Pamiętam czasy, gdy mówiono, że wprowadzenie systemu Windows będzie z konieczności oznaczać eliminację niewidomych użytkowników ze świata cyfrowego. Eliminacja nie tylko nie nastąpiła, ale jak wiemy jakość naszej obecności w tym świecie z roku na rok ulegała poprawie. Czy jednak tak będzie nadal?

Dziś, gdy coraz większą część naszej aktywności sieciowej możemy obsłużyć bez komputera, Mark Zuckerberg ogłasza mającą nastąpić w niedalekiej przyszłości śmierć smartphone’a. W zamieszczonym w Business Insider Polska artykule można przeczytać, że wirtualizacja sprawi, iż smartphone zwyczajnie nie będzie nam potrzebny. Czy Zuckerberg ma słuszność, trudno powiedzieć. Nadal posługujemy się numerami telefonów, choć z praktycznego punktu widzenia wcale nie są nam one potrzebne. Użytkownik telefonu w większości wypadków wybiera jakąś nazwę z listy kontaktów i dzwoni lub wysyła wiadomość, ale przyzwyczajenie jest drugą naturą człowieka. Coraz większa integracja komunikatorów internetowych ze smartphone’ami sprawia, że właściwie zaczyna nam być wszystko jedno, w jaki sposób łączymy się z naszymi rozmówcami. Z perspektywy wykonywanego zadania nie ma przecież znaczenia, czy korzystamy z usług operatora sieci komórkowej czy też z dowolnego komunikatora sieciowego. Tymczasem śmierć telefonowania jakoś nie następuje.

Podjęte kilka lat temu przez Google próby wprowadzenia na rynek okularów rozszerzających czy wirtualizujących rzeczywistość nie zakończyły się spodziewanym sukcesem. Z drugiej strony jednak inteligentne zegarki coraz częściej wyposażane są w funkcje telefonu, a Internet oferuje nam coraz nowe i jeszcze niedawno zupełnie nieznane możliwości. Musimy więc zadać sobie pytanie, czy wieszczona przez Zuckerberga śmierć smartphone’a, to zagrożenie, powód do niepokoju, szansa, czy też może zjawisko z punktu widzenia osób z niepełnosprawnościami zupełnie neutralne.

Powody do niepokoju z pewnością istnieją. Jakkolwiek wszyscy wielcy uczestnicy rynku cyfrowego zdają się deklarować wrażliwość na potrzeby osób z niepełnosprawnościami, wizje produktów przyszłości przedstawia się w sposób, który każe przypuszczać, że deweloperzy w ogóle nie biorą pod uwagę istnienia takiej kategorii użytkowników.

Przykład? Prace nad stworzeniem pojazdu autonomicznego trwają od wielu lat, a dopiero niedawno powstało konsorcjum, jednym z członków tej grupy jest IBM, które pracuje nad stworzeniem pojazdu wyposażonego w interfejs uwzględniający potrzeby osób starszych i niepełnosprawnych. We wspomnianym przeze mnie powyżej artykule można przeczytać o różnego rodzaju wizualnych rozszerzeniach rzeczywistości oraz o tym, jak interakcje z tymi obrazami wpłyną na nasz sposób funkcjonowania w świecie. Próby znalezienia jakichś informacji, o tym jak osoby z dysfunkcją wzroku miałyby odnaleźć się w tym wirtualnym świecie, skłaniają do przypuszczeń, że interesujący nas problem w najlepszym razie nie został przemyślany, o ile w ogóle ktokolwiek spoza grona specjalistów od technologii asystujących próbował się nim zająć.

Trzeba jednak sobie powiedzieć, że wirtualizacja może okazać się dla nas wielką szansą. Zwiększenie aktywności w świecie wirtualnym to przecież ogromne ułatwienie życia tym wszystkim, dla których podróżowanie, fizyczna obecność w różnych przestrzeniach i działanie w nich, wiąże się z dużym stresem czy jest po prostu technicznie skomplikowana. Większa liczba miejsc pracy w sektorze prac wykonywanych zdalnie, a jednocześnie możliwość zniwelowania negatywnych skutków pracy zdalnej przez mechanizmy rozszerzające kontakty międzyludzkie do świata wirtualnego, to z pewnością coś, z czego osoby z niepełnosprawnościami mogą odnieść korzyści.

Czy uzasadnione jest powstające niekiedy, a wywołane informacjami o rozwijaniu nowych interfejsów, poczucie zagrożenia? Trudno powiedzieć. Jeśli zrobimy wszystko, by nasz głos był słyszalny, by twórcy tych wszystkich rozwiązań wiedzieli, że ważnym zagadnieniem jest uwzględnienie potrzeb osób z niepełnosprawnościami, to kto wie, może okaże się, iż niepełnosprawność i pokonywanie wynikających z niej problemów natury technologicznej, stanie się źródłem inspiracji do tworzenia rozwiązań, które będą dobre dla wszystkich.

Zobacz nas w Internecie

www.tyfloswiat.pl

W portalu:

  • informacje o producentach i dystrybutorach,
  • testy i opinie o produktach,
  • informacje prawne,
  • baza szkoleń dostosowanych do potrzeb osób z dysfunkcją wzroku,
  • wydarzenia, konferencje, imprezy

... i wiele wiele innych informacji!

Projekt współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

 

 

Projekt współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych oraz Gminy Miejskiej Kraków