Aktywny Samorząd 2019 - nowe zasady i formularze

Na stronie internetowej Państwowego Fuduszu Rehabilitacji Osób Niepełnosprawnych pojawiła się niedawno informacja o aktualizacji zasad i formularzy programu Aktywny Samorząd 2019. O programie pisaliśmy nie tak dawno w przeglądzie form wsparcia, jakie oferuje Fudusz (Tyfloświat 4/2018). W kolejnym numerze czasopisma zamieścimy szczegółowe informacje dotyczącze wprowadzanych zmian.

Przypominamy, że Aktywny Samorząd jest programem celowym PFRON, w ramach którego można skorzystać m.in. z dofinansowania zakupu sprzętu i oprogramowania komputerowego i specjalistycznego oraz dofinansowania nauki na poziomie wyższym .

 

PIT-y nareszcie dostępne dla niewidomych i niedowidzących podatników

 

Każdego roku do końca kwietnia, jako podatnicy mamy obowiązek rozliczenia się z Urzędem Skarbowym składając roczne zeznanie podatkowe w postaci formularza PIT. Od swoich „narodzin“ w 1991 roku formularz PIT można składać w postaci papierowej. W 2008 roku w ramach procesu cyfryzacji administracji publicznej Ministerstwo Finansów wprowadziło możliwość rozliczania się przez internet za pomocą aplikacji e-Deklaracje. Niestety nie została ona przygotowana w sposób przyjazny dla programów odczytu ekranu. Dlatego żaden z powyższych sposobów nie umożliwiał osobom niewidomym i niedowidzącym samodzielnego rozliczenia się z fiskusem. Aż do teraz.

Historia dostępnego e-PIT-a

Sam jako niedowidzący podatnik nigdy samodzielnie nie rozliczałem się „na papierze“ - musiałem zawsze korzystać z pomocy osób widzących. Nie było to jednak komfortowe rozwiązanie, ponieważ prywatnymi, wrażliwymi danymi finansowymi musiałem dzielić się z innymi. Jako gorący zwolennik i użytkownik nowoczesnych rozwiązań, od 2010 roku do rozliczeń zacząłem korzystać z aplikacji e-Deklaracje. Ułatwienie polegało na tym, że kalkulacje były wykonywane automatycznie, a deklaracje wysyłało się przez internet bez wychodzenia z domu. Niestety aplikacja była oparta na niedostępnej technologii Adobe Air i korzystanie z niej za pomocą programów powiększająco-udźwiękawiających nie było ani przyjemne ani wygodne.

Od lat zawodowo zajmuje się badaniem stron internetowych oraz szkoleniami w obszarze dostępności treści cyfrowych dla osób z niepełnosprawnościami. Zawsze marzyło mi się korzystanie z prostego, przyjaznego, i co najważniejsze, dostępnego sposobu corocznego samodzielnego rozliczania się z Urzędem Skarbowym. We wrześniu 2018 roku za sprawą dobrych wieloletnich kontaktów z pracownikami Ministerstwa Finansów odpowiedzialnych za dostępność ich serwisów internetowych dowiedziałem się o nowo powstającym portalu podatkowym podatki.gov.pl. Pomyślałem, że to być może jedyna okazja aby zadbać o jego dostępność - więc tym razem nie można odpuścić. Zaoferowałem swoją pomoc Ministerstwu Finansów przy pracach nad nowopowstającym informacyjno-usługowym portalem podatkowym. Od października 2018 do lutego 2019 konsultowałem i przeprowadzałem audyty dostępności proponowanych rozwiązań. Podczas pierwszych testów części usługowej okazało się, że zaproponowany przez wykonawcę systemu podgląd zeznania podatkowego PIT został przygotowany w sposób niedostępny dla programów odczytu ekranu. Jako, że do startu systemu było niespełna 3 tygodnie, sam postanowiłem zaproponować rozwiązanie tego problemu. W jeden dzień wymyśliłem, zaprogramowałem i zaprezentowałem koncepcję dostępnego podglądu PIT-a. Rozwiązanie spodobało się pracownikom Ministerstwa Finansów i wykonawcy systemu. Natychmiast przystąpiono do jego wdrożenia. Dopiero wtedy uświadomiłem sobie ciężar odpowiedzialności przed milionami podatników. Tuż przed uruchomieniem cały system przeszedł pomyślnie testy i audyt dostępności - zgodności ze standardem WCAG 2.0. Udało się. System Twój e-PIT wystartował planowo 15 lutego.

Jak skorzystać z systemu Twój e-PIT?

Od 15 lutego 2019 roku każdy podatnik może skorzystać z nowego systemu Twój e-PIT logując się na stronie http://podatki.gov.pl. Zalogować można się na dwa sposoby:

  • tzw. „danymi podatkowymi“ - podając PESEL lub NIP, datę urodzenia, sumy przychodów za 2017 rok oraz przechodu za rok 2018 z jednej z informacji podatkowych z formularza PIT-11 otrzymanego od naszego pracodawcy. UWAGA: Kilka dni po starcie systemu Twój e-PIT, Ministerstwo Finansów ze względów bezpieczeństwa wprowadziło jeszcze jedną informację wymaganą do wpisania przy logowaniu - jest to kwota nadpłaty lub niedopłaty za 2017 rok.
  • Profilem Zaufanym. Jeśli go nie posiadamy, można go prosto i bezpłatnie założyć odwiedzając stronę http://epuap.gov.pl

Osobiście polecam logowanie się za pomocą Profilu Zaufanego.

Po zalogowaniu się do systemu Twój e-PIT mamy możliwość zapoznania się z przygotowanym przez Ministerstwo Finansów, tzw. wstępnie wypełnionym zeznaniem podatkowym. W przypadku zeznania PIT-37 sporządzone zostało ono w oparciu o informacje podatkowe PIT-11 (od pracodawców) i/lub PIT-40 (z ZUS-u) przekazanych przez te podmioty do Urzędu Skarbowego. Możemy też zdecydować czy rozliczamy się: indywidualnie, wspólnie z małżonkiem lub jako osoba samotnie wychowująca dzieci.

Przygotowane przez Ministerstwo Finansów zeznanie podatkowe możemy przeglądać w formie zgodnej z formularzem papierowym lub w postaci uproszczonej zoptymalizowanej dla programów odczytu ekranu. Oczywiście możemy również wprowadzać zmiany w zeznaniu. Jeśli chcemy ująć w nim ulgi i odliczenia np. ulgę rehabilitacyjną możemy w odpowiedniej sekcji systemu Twój e-PIT przejść do dodawania i edycji tych informacji.

Za pomocą systemu możemy również wskazać Organizację Pożytku Publicznego, której chcemy przekazać 1% podatku. Należy zwrócić uwagę, że w tegorocznym zeznaniu przygotowanym przez Ministerstwo Finansów będzie wpisany nr KRS Organizacji Pożytku Publicznego, której przekazaliśmy 1% podatku w ubiegłym roku. Oczywiście w bieżącym zeznaniu, jeśli chcemy, możemy to zmienić. Wpisując nr KRS system automatycznie podpowie nazwę, jak również umożliwi wskazanie tylko tej Organizacji Pożytku Publicznego, spośród tych, które w tym roku są uprawnione do otrzymania 1% podatku.

Nowością w tegorocznych rozliczeniach podatkowych jest to, że jeśli podatnik w ogóle nie zaloguje się do systemu lub sam nie wprowadzi żadnych zmian i nie zatwierdzi wysłania swojego PIT-a, to  z dniem 30 kwietnia zeznanie w zapisanej w systemie postaci wyśle się automatycznie i będzie uznane za złożone przez nas. Pamiętajmy, że przygotowane przez Ministerstwo Finansów wstępnie wypełnione zeznanie jest jedynie udogodnieniem dla podatnika. Natomiast za jego poprawność i kompletność, nawet jeśli się nie zalogujemy i nic nie zmienimy, pełną odpowiedzialność ponosimy zawsze my - podatnicy. Dlatego każdemu polecam zalogować się do systemu Twój e-PIT i przejrzeć swoje zeznanie podatkowe.

Gdy po przejrzeniu i wprowadzeniu ewentualnych zmian będziemy pewni, że nasze zeznanie jest kompletne, możemy je zatwierdzić i wysłać. Po przesłaniu zeznania będziemy mieli możliwość pobrania Urzędowego Poświadczenia Odbioru (UPO) - elektronicznego dokumentu potwierdzającego złożenie naszego zeznania w odpowiednim Urzędzie Skarbowym.

Podsumowanie

System Twój e-PIT to swego rodzaju rewolucja w usługach administracji publicznej. Jest możliwie prosty w obsłudze dla podatników chcących bezboleśnie przejść przez obowiązek rozliczenia się z fiskusem. Oczywiście ze względu na swój „wiek niemowlęcy“ - występujące drobne problemy z wydajnością i bezpieczeństwem - jest to również wielki test dla Ministerstwa Finansów. Dziś jednak z perspektywy osoby z niepełnosprawnością wzroku mogę powiedzieć, że jest on rewolucyjny również dla nas. Po raz pierwszy w historii osoby niewidome i niedowidzące mają możliwość samodzielnego wypełnienia PIT-a i za razem swojego obowiązku obywatelskiego wobec Urzędu Skarbowego. Do czego gorąco zachęcam również Was!

Mikołaj Rotnicki

Redakcja: W kolejnym numerze czasopisma Tyfloświat będzie można przeczytać, jak w praktyce wygląda składanie e-PIT-ów przez użytkowników z dysfunkcją wzroku.

Ankieta dla użytkowników

Redakcja będzie wdzięczna za wypełnienie ankiety na temat materiałów zawartych na portalu www.tyfloswiat.pl.

Ankieta dostępna jest tutaj.

Niewidome dzieci nauczą się programowania dzięki Code Jumper

Programować mogą wszyscy, nawet najmłodsi. Powstają różnego rodzaju technologie, zadaniem których jest uatrakcyjnić proces budowania pierwszych algorytmów tak, aby zaciekawić tym działaniem dzieci w wieku przedszkolnym, czy z pierwszych klas szkoły podstawowej. Myślę, że część czytelników słyszała kiedyś o języku Logo. Ten zaprojektowany w latach 60 język programowania do dziś jest stosowany do uczenia podstaw programowania w szkołach podstawowych czy średnich.

A czy niewidomy może programować?

Oczywiście! Programowanie jest sztuką dostępną dla niewidomego, niestety w najmniej przyjaznej formie. Kiedy rozmawiam ze znajomymi programistami z dysfunkcją wzroku bardzo często słyszę, że najwygodniejszym dla nich środowiskiem do pisania kodu jest windowsowy notatnik, czy Notepad++. Widzący mają do swojej dyspozycji różnorakie środowiska programistyczne tzw. IDE, mogą korzystać z podpowiedzi, uzupełniania składni i innych dobrodziejstw współczesnych technologii. Niewidomy programista ma w tej kwestii znacznie więcej do przyswojenia, ale wszystko jest możliwe. Problem przede wszystkim tkwi w sposobie zachęcenia niewidomego do programowania. Obsługa komputera z czytnikiem ekranu nie jest rzeczą trywialną, a pojęcie działania algorytmów, poznanie składni dowolnego języka programowania, czy wykształcenie swego rodzaju wyobraźni to coś, co warto by rozwijać od najmłodszych lat.

Na ratunek Code Jumper

Firma Microsoft ostatnimi czasy bardzo pozytywnie zaskakuje, działając na rzecz dostępności technologii dla osób niewidomych. Narrator, czyli wbudowany czytnik ekranu w system Windows w najnowszych, dziesiątych okienkach to rozwiązanie, o którym można myśleć coraz poważniej szczególnie dla mniej wymagających użytkowników. Mobilne aplikacje MS są wygodne w obsłudze i współpracują z programami odczytu ekranu. Prawdziwym hitem jest również Seeing AI czyli aplikacja, dostępna dla systemu iOS, która, przy użyciu sztucznej inteligencji, rozpoznaje zarówno tekst, jak i obrazy. Kolejnym interesującym efektem prac działu rozwojowego Microsoftu jest Code Jumper. To zestawy składające się z niewielkich, plastikowych kapsułek oraz przewodów. Dzieci, bo do nich przede wszystkim adresowane jest to rozwiązanie, będą mogły programować łącząc odpowiednie kapsułki ze sobą i obserwując wynik działania skonstruowanego przez siebie programu. Jak mówi Cecily Morrison, pomysłodawczyni rozwiązania, a prywatnie matka niewidomego syna, pojedynczą kapsułkę można wyobrazić sobie jako jedną linię kodu. To właśnie z takich linii powstają programy, zupełnie jak w bardziej zaawansowanych językach programowania. Code Jumper można traktować jako fizyczne odwzorowanie języka Scratch, bardzo w dzisiejszych czasach popularnego narzędzia edukacyjnego. W przypadku Scratch’a, programy budujemy z gotowych bloków, przeciągając je w odpowiedni sposób względem siebie. Bloki te są kolorowe, a więc bardzo atrakcyjne dla młodego użytkownika. Niestety, Scratch nie jest w żaden sposób dostępny dla programów odczytu ekranu, choć podejmowano swego czasu próby z tym związane.

Code Jumper w chwili obecnej przeszedł już fazy testów laboratoryjnych, a w tym roku dzięki współpracy Microsoftu z American Printing House for the Blind, ma być udostępniony dzieciom w USA, Wielkiej Brytanii, Kanadzie i Australii. W chwili obecnej niestety nic nie wiadomo na temat naszego kraju, a szkoda.

Źródło, BlindCoolTech

Michał Dziwisz

Czytamy obrazki

 

W Internecie od lat występuje jedna rzecz, której szczerze mówiąc nigdy nie rozumiałem i chyba już nie zrozumiem. Tekst, tę najprostszą i najbardziej czytelną formę przekazu wiele osób udostępnia w graficznej formie. Oczywiście wiadomo, tzw. Memy czyli zabawne obrazki oprócz warstwy tekstowej posiadają także często jakąś zabawną, ilustrowaną historyjkę. Problemem jednak jest nie tylko ta śmieszna część Internetu. Prawdziwy kłopot zaczyna się w momencie, w którym jedyną dostępną formą informacji jest jej skan lub coraz częściej zdjęcie wykonane aparatem smartphone’a. Niejednokrotnie spotkałem się z sytuacją, kiedy właśnie w taki sposób restauracje udostępniały swoje menu, różnego rodzaju firmy czy instytucje ważne ogłoszenia, prawdziwym kuriozum było kiedyś zaproszenie dla niewidomych opublikowane przez pewną fundację w formie grafiki. Oczywiście warto edukować, napominać, opowiadać o dostępności, bo to w dłuższej perspektywie z pewnością przyniesie wymierne korzyści. Co jednak w sytuacji, kiedy dostęp do graficznej informacji potrzebny nam jest teraz?

Wiadomość do „przyjaciela”

Jeśli mamy chwilkę, możemy skorzystać z Facebookowej grupy Opisujemy Niewidomym. Z pewnością po krótszej lub dłuższej chwili znajdzie się ktoś, kto zechce poświęcić swój czas , by opisać udostępnione przez nas zdjęcie. Wszystkich zainteresowanych historią grupy zapraszamy do wysłuchania audycji, która jakiś już czas temu ukazała się w serwisie Tyflopodcast.

Sztuczna inteligencja od Microsoftu

Alternatywą, z której osobiście bardzo chętnie korzystam jest program Seeing AI. Ta rozwijana przez firmę Microsoft aplikacja to moim skromnym zdaniem jedno z bardziej rewolucyjnych narzędzi ostatnich czasów. Niby nic nowego, bo technologię rozpoznawania tekstu mamy już od dawna, jednak żadna aplikacja wcześniej, przynajmniej moim zdaniem nie robiła tego tak skutecznie. Oczywiście możemy zapomnieć o czytaniu tą metodą drukowanych książek choćby ze względu na, przynajmniej na razie, brak polskich liter. Nie należy również spodziewać się 100-procentowej dokładności i bezbłędnego odczytu tekstu. To, co uzyskamy, pozwoli jednak w większości przypadków na zorientowanie się, z jakim produktem mamy do czynienia i co znajduje się na jego opakowaniu.

Prawdziwa ciekawostka czeka nas jednak, gdy wejdziemy do menu aplikacji Seeing AI i wybierzemy pozycję „BROWSE PHOTOS”. Uzyskamy w ów czas dostęp do zdjęć, a każde z nich możemy poddać wnikliwej analizie sztucznej inteligencji. Po kilku, lub kilkunastu sekundach możemy otrzymać dwie informacje o zdjęciu. Po pierwsze, dowiemy się jakie obiekty na nim się znajdują. Jeśli na zdjęciu pojawi się np. siedzący na łóżku kot, usłyszymy: „A cat sitting on top of a bed”.

Jeśli do grafiki dołączona będzie informacja tekstowa, usłyszymy „Contains text” i tekst w większości przypadków zostanie nam odczytany. Czasem, jeśli tekstu jest więcej, należy dwukrotnie stuknąć w zdjęcie i użyć przycisku „Expand”, który się pojawi.

Czytamy zdjęcia na Facebooku

Sztuczna inteligencja opisująca zdjęcia na FB działa również coraz lepiej, podobno za granicą potrafi już wyłuskiwać tekst z niektórych grafik. Niestety, w Polsce tak dobrze nie jest i na razie poznać możemy jedynie ogólny opis przypisany do danego obrazka. Skoro jednak mamy do dyspozycji Seeing AI, spróbujmy zrobić z niego użytek. Po pierwsze, odnajdźmy jakieś zdjęcie w mobilnej aplikacji Facebooka i stuknijmy w nie dwukrotnie jednym palcem.

Jeśli zdjęcie opisane będzie jako tekst, wówczas szansa na to, że coś więcej z niego wydobędziemy diametralnie wzrasta, jednak z własnego doświadczenia mogę polecić podejmowanie prób także z innymi obrazkami. Kiedy wejdziemy już w interesującą nas fotkę, stukamy kolejno w przyciski więcej i zapisz. Teraz, wystarczy już tylko przełączyć się do aplikacji Seeing AI i wybrać Menu, a następnie ‘BROWSE PHOTOS”. Interesujące nas zdjęcie znajdować się będzie na samej górze listy. Możemy się z nim zapoznać, a następnie, by nie zajmowało pamięci naszego telefonu, usunąć je przy użyciu przycisku „Delete”.

Do trzech razy sztuka

Jeśli za pierwszym razem rozpoznane wyniki nie będą satysfakcjonujące, proponuję się nie zrażać i dać aplikacji jeszcze jedną, dwie szanse, korzystając z przycisku „REANALYZE”. Z bliżej niewyjaśnionych powodów pierwsze rozpoznanie daje czasem niedokładne wyniki. Przede wszystkim cierpi na tym warstwa tekstowa, grafiki zwykle rozpoznawane są za pierwszym razem.

Na koniec dodam, że Seeing AI ma znacznie więcej możliwości, a wszystkim zainteresowanym ich zgłębieniem polecam prezentację tej aplikacji w serwisie Tyflopodcast.

Michał Dziwisz

Zrób to z NVDA: Virtual Review

 

Wiele razy można było usłyszeć o specyficznym, przynajmniej zdaniem niektórych, podejściu autorów NVDA do udostępniania różnych informacji użytkownikowi. Mick i Jamie zawsze chcieli, by niewidomy otrzymywał taki sam zestaw informacji jak osoba widząca. Niestety, takie podejście nie zawsze się sprawdza, bo po prostu bywa, że jako pracujący z komputerem w nieco inny, niż standardowy sposób po prostu potrzebujemy pewnych informacji dostarczonych w bardziej syntetycznej formie, lub wręcz życzymy sobie, aby były dla nas odpowiednio filtrowane. Nie dziwi więc, podnoszony od dawna koronny argument użytkowników komercyjnego JAWSa przeciw NVDA, czyli mała ilość opcji i parametrów, jakie możemy dostroić do swoich potrzeb. Oczywiście dużo i mało to pojęcia względne i nie czas i miejsce na kolejną dyskusję o wyższości pisanek nad czekoladowymi Mikołajami. Ten wstęp wynika raczej z faktu, że dodatek, który chciałbym opisać jest na tyle specyficzny, że osoba widząca raczej nigdy nie będzie miała potrzeby, by z niego skorzystać, niewidomy wręcz odwrotnie.

Widzący mają zrzuty

Mowa oczywiście o zrzutach ekranu, czyli funkcji naszego komputera pozwalającej na zapis do pliku graficznego tego, co aktualnie jest wyświetlane na naszym monitorze. Takie obrazki, często nazywane z angielska screenami, możemy w bardzo prosty sposób utworzyć wciskając klawisz Print Screen. W standardowym układzie klawiatury komputera klawisz ten odnajdziemy nad insertem, jednak coraz częściej obecne w naszych domach komputery przenośne to zupełnie inna bajka, dlatego najlepiej poszukać tej informacji w podręczniku użytkownika do takiej maszyny. Skoro już o zrzutach mowa, to warto poznać odrobinę klawiszologii, która ich dotyczy:

W systemie Windows zrzut całego ekranu wykonuje się po naciśnięciu klawisza Print Screen, natomiast gdy ma być wykonany zrzut tylko aktywnego okna, a nie całego ekranu – Alt+Print Screen. W systemie Windows zrzut ekranu zapisywany jest do schowka, skąd można wkleić go do dowolnego programu graficznego i następnie zapisać do pliku, a ponadto w systemie Windows 8.1 i Windows 10 kombinacja Win+Print Screen powoduje bezpośredni zapis zrzutu do pliku PNG.

A co mają niewidomi?

Tytułowy dodatek Virtual Review, który w programie NVDA robi rzecz podobną, mianowicie dokonuje tzw. wirtualizacji aktualnie otwartego okna. Oczywiście wymienione wyżej sztuczki z graficznymi zrzutami ekranu warto znać, bo czasem możemy zostać poproszeni o wykonanie kopii naszego ekranu właśnie w ten sposób, ale dla niewidomego taki obrazek jest całkowicie bezużyteczny. Załóżmy, że aktualnie używany przez nas program wyświetlił błąd, a my chcemy dowiedzieć się czegoś więcej na jego temat. Najprościej zatem będzie skopiować komunikat, wkleić go do wyszukiwarki i odnaleźć stosowne informacje np. na jakimś forum. Niestety, system operacyjny nie pozwoli nam na zaznaczenie tekstu, który nie jest umieszczony w polu edycyjnym, a następnie jego skopiowanie. Gdyby nie wirtualizacja okna, czekałoby nas żmudne przepisywanie znak po znaku czasem dość enigmatycznych symboli komputerowych problemów. To oczywiście jeden z wielu przykładów, jak zawsze wszystko zależy od potrzeb i pomysłowości użytkownika.

Instalacja dodatku

Virtual Review dostępny jest w oficjalnym repozytorium dodatków NVDA, instalacja wygląda identycznie, jak większości dodatków do tego czytnika ekranu.

Użycie dodatku

Wystarczy, że będziemy znali zaledwie 1 skrót, mianowicie CTRL+NVDA+w. Kiedy znajdziemy się w oknie, które będziemy chcieli zwirtualizować wystarczy, że naciśniemy tę kombinację klawiszy. Wówczas pojawi się pole tekstowe, zawierające wszystko to, co program NVDA był w stanie odczytać z danego okna. Każdą treść możemy zaznaczyć, a następnie skopiować i postąpić z nią później wedle uznania.

Przykład

Oto wynik wirtualizacji okna notatnika, w którym wpisałem frazę „to jest test wirtualizacji.”:

„Bez tytułu — Notatnik

Plik Edycja Format Widok Pomoc

To jest test wirtualizacji.”

Jak widać, skopiowany został nie tylko tekst, ale i pasek menu, który był również odczytywany przez program NVDA.

Na zakończenie

Zauważyłem, że z bliżej nieokreślonych przyczyn dodatek czasami po prostu nie działa. Z aplikacji, których okna nie chciały się wirtualizować mogę wymienić przeglądarki Google Chrome i Firefox. Co ciekawe, Internet Explorer nie protestował i jego okno bez kłopotu wskoczyło do tekstowego pola wirtualizacji. Oczywiście, tego typu funkcja nie jest tylko i wyłącznie domeną dodatku dla NVDA. Już dawno korzystać mogli z niej choćby użytkownicy JAWS’a, na którym najprawdopodobniej właśnie wzorowali się autorzy dodatku dla czytnika fundacji NVAccess.

Michał Dziwisz

Miliard na Dostępność Plus

O programie Dostępność Plus pisaliśmy już na łamach czasopisma (nr 2/2018), tymczasem program nabiera rozpędu. Będziemy bacznie przyglądać się wdrożeniu, a tymczasem przekazujemy informację Ministerstwa Infrastruktury i Rozwoju - podmiotu odpowiedzialnego za jego realizację.

Za chwilę pierwsze nabory!

W ciągu 6 miesięcy ruszą konkursy dla 50 szkół, 50 uczelni i 100 placówek służby zdrowia, które chcą uzyskać dofinansowanie na poprawę dostępności. Wystartuje też konkurs na innowacje społeczne na rzecz osób o specjalnych potrzebach. Zmiany, którymi we wtorek i środę zajmie się Komitet Monitorujący Program Wiedza, Edukacja, Rozwój, pozwolą uruchomić 1 miliard złotych wsparcia pod szyldem #DostępnośćPlus.

Program Wiedza, Edukacja, Rozwój (PO WER) to jeden z polskich programów współfinansowanych z funduszy unijnych. Można z niego finansować między innymi działania na rzecz dostępności. Aby tak się stało, część jego zapisów trzeba doprecyzować, a część zmienić. Takimi zmianami zajmie się 2 i 3 października Komitet Monitorujący PO WER, w którego skład wchodzą przedstawiciele rządu, samorządów, przedsiębiorców i organizacji pozarządowych.

"Bolid Dostępność Plus dostaje właśnie najlepsze paliwo i przyspiesza. Decyzja komitetu uruchomi 1 miliard złotych na rzecz dostępności" - powiedział minister inwestycji i rozwoju Jerzy Kwieciński.

Zmiany, które mogą ruszyć szybciej, bo wymagają jedynie doprecyzowania i określenia warunków realizacji, obejmują następujące konkursy i obszary:

  • konkurs dla 100 placówek służby zdrowia na likwidację barier dostępności (300 milionów złotych),
  • konkurs dla 50 uczelni i 50 szkół, które chcą być bardziej dostępne (300 milionów złotych),
  • projekt Ministerstwa Nauki i Szkolnictwa Wyższego, które stworzy elementy zajęć dotyczące projektowania uniwersalnego przeznaczone na przykład dla przyszłych architektów czy urbanistów (30,4 miliona złotych),
  • konkurs „Inkubator Dostępności”, który wesprze innowacje społeczne zwiększające dostępność produktów i usług (10 milionów złotych),
  • projekt Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych, który stworzy system szkolenia i udostępniania osobom niewidomym psów przewodników (14,5 miliona złotych),
  • projekt „Krajowy Ośrodek Mobilności Osób Niepełnosprawnych” (KOMON) czyli projekt wspierający mobilność osób z niepełnosprawnościami (24,3 miliona złotych).

Wsparcie z PO WER na te obszary to około 700 milionów złotych. W najbliższych 6 miesiącach ruszą konkursy dla 50 szkół, 50 uczelni i 100 placówek służby zdrowia oraz „Inkubator Dostępności”. Pozostałe działania będą uruchamiane sukcesywnie.

 

Komitet przyjął też zmiany w PO WER, które wymagają akceptacji Komisji Europejskiej. Wartość dofinansowania, które zostanie dzięki nim uruchomione to około 300 milionów złotych. Na co trafią te pieniądze? Dzięki nim będzie można na przykład:

  • zapewnić usługi indywidualnego transportu „door-to-door” dla osób niesamodzielnych i osób z niepełnosprawnościami, które nie mogą korzystać z transportu publicznego,
  • zwiększyć dostępność budynków wielorodzinnych dla osób o ograniczonej mobilności poprzez usprawnienia instalacyjno-budowlane,
  • przeszkolić między innymi kierowców, motorniczych, maszynistów, konduktorów i innych pracowników transportu zbiorowego w zakresie profesjonalnej obsługi osób o szczególnych potrzebach,
  • wdrożyć usługi asystenckie na rzecz uczniów i przygotować kadry systemu oświaty do pracy z uczniami o specjalnych potrzebach edukacyjnych,
  • utworzyć 15 Specjalistycznych Centrów Wspierających Edukację Włączającą.

"Zmiany te mamy już na roboczo uzgodnione z Komisją Europejską. Spodziewamy się, że Komisja Europejska zaakceptuje je do końca roku" – wyjaśnił minister Kwieciński.

Źródło: Ministerstwo Inwestycji i Rozwoju

Zrób to z NVDA: Speech History

 

Nie wiem, jak szanowni czytelnicy, ale ja z komputera korzystam bardzo szybko. Czasem nawet, zbyt szybko. Ileż to razy miała miejsce sytuacja, w której przeoczyłem jakiś ważny komunikat, bo tak bardzo byłem zajęty wciskaniem kolejnych klawiszy. Pół biedy, jeśli ten komunikat był z tych, które nie dadzą o sobie zapomnieć i prędzej, czy później zostaną powtórzone. Czasem jednak zdarzało się i tak, że bardzo chętnie wróciłbym do jakiejś wiadomości, która została wypowiedziana przez czytnik ekranu, a szans na to brak, czy faktycznie?

Speech History pamięta wszystko

No dobrze, nie wszystko, ale 100 ostatnich komunikatów wypowiedzianych przez NVDA, co jest moim zdaniem wystarczającą ilością nawet dla kogoś, kto z komputera korzysta dość intensywnie. Co więcej, dodatek zapamiętuje całe komunikaty, tak więc jeśli nawet omyłkowo wyciszyliśmy NVDA w trakcie wypowiadania danej wiadomości istnieje spora szansa, że z historii odzyskamy jej całość.

Jak to działa?

Zabawę jak zawsze należy zacząć od instalacji dodatku, który dostępny jest w oficjalnym repozytorium wtyczek dla NVDA. W chwili pisania tego tekstu obecna jest jedynie stabilna wersja dodatku, bo też i prawdopodobnie nie będzie konieczne jego udoskonalanie.

Skróty, jakie należy zapamiętać to:

 

  • Shift+F11 – przemieszcza do tyłu po historii tekstu,
  • Shift+F12 – przemieszcza do przodu po historii tekstu,
  • F12 – kopiuje aktualnie odczytany element historii do schowka.

 

Jeśli z jakiegoś powodu zaproponowane przez autora dodatku skróty nam nie odpowiadają, możemy to łatwo zmienić korzystając z pozycji Mowa w zdarzeniach wejścia:

 

  • „Copy the currently selected speech history item to the clipboard, which by default will be the most recently spoken text by NVDA.” - Kopiowanie elementu do schowka,
  • „Review the next item in NVDA's speech history.” - odczytywanie następnego elementu w historii,
  • „Review the previous item in NVDA's speech history.” - odczytywanie poprzedniego elementu w historii.

 

Warto jeszcze dodać, że skopiowanie elementu historii do schowka potwierdzane jest sygnałem dźwiękowym.

I to wszystko, pozostaje mi życzyć miłego korzystania oraz więcej rozwagi w korzystaniu z komputera, niż piszący te słowa :)

Michał Dziwisz

Tyfloświat_04_41_2018

Zapraszamy do lektury!

Okładka czasopisma

 

Czasopismo w formacie PDF i HTML do pobrania poniżej.

UWAGA!!! Osoby zainteresowane czasopismem w formacie DAISY proszone są o kontakt mailowy z redakcją.

ZałącznikRozmiar
Tyfloświat_4_2018.mht470.42 KB
Tyfloświat_4_41_2018.pdf1.7 MB
 

Projekt współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych oraz Gminy Miejskiej Kraków