Firma Apple zapowiedziała dziś wprowadzenie jeszcze w tym roku nowych ułatwień dostępu, w tym funkcji Eye Tracking pozwalającej osobom z niepełnosprawnościami fizycznymi na sterowanie iPadem lub iPhonem przy użyciu oczu.
Dodatkowo pojawi się udogodnienie Music Haptics zapewniające głuchym i niedosłyszącym użytkownikom nowe sposoby doświadczania muzyki za pomocą znajdującego się w iPhonie sygnalizatora taktylnego.
Z kolei funkcja Vocal Shortcuts umożliwi wykonywanie zadań poprzez wygenerowanie specjalnego dźwięku, a Vehicle Motion Cues pomoże złagodzić objawy choroby lokomocyjnej podczas korzystania z iPhone’a lub iPada w jadącym pojeździe. Więcej ułatwień dostępu trafi również do systemu visionOS.
Zapowiedziane funkcje opierają się na połączeniu potężnych możliwości sprzętu i oprogramowania Apple, w tym układu scalonego Apple, a także sztucznej inteligencji i działających na urządzeniu algorytmów uczenia maszynowego.
Jednocześnie wpisują się one w realizowane od dekady zobowiązanie firmy Apple do tworzenia produktów dla wszystkich użytkowników.
Dodatkowe uaktualnienia
- Użytkownicy niewidzący lub niedowidzący znajdą w VoiceOver nowe głosy, elastyczne pokrętło Voice Rotor, programowalne elementy sterowania głośnością oraz możliwość dostosowania skrótów klawiszowych VoiceOver na komputerze Mac.
- Aplikacja Lupa oferuje nowy tryb Reader oraz możliwość łatwego uruchamiania trybu wykrywania za pomocą przycisku czynności.
- Dla osób posługujących się alfabetem Braille’a wprowadzony został nowy, usprawniający sterowanie oraz edycję tekstu sposób uruchamiania i użytkowania trybu Wejście ekranu Braille’a. Ponadto tryb Wejście ekranu Braille’a jest teraz dostępny dla języka japońskiego, obsługiwany jest wielowierszowy tekst pismem Braille’a z wyświetlacza Dot Pad oraz istnieje możliwość wyboru różnych tablic źródłowych i docelowych.
- Użytkownicy niedowidzący zyskają funkcję Hover Typing powiększającą tekst wpisywany w polu tekstowym w czcionce i kolorze wybranych przez użytkownika.
- Funkcja Głos indywidualny przeznaczona dla osób zagrożonych utratą mowy będzie dostępna w języku chińskim mandaryńskim. Użytkownicy mający trudności w wymawianiu lub czytaniu pełnych zdań będą mogli za pomocą krótkich fraz utworzyć własny głos indywidualny.
- Funkcja Mowa na żywo wspierająca osoby niemówiące zostanie poszerzona o kategorie oraz możliwość jednoczesnego korzystania z ułatwienia Podpisy na żywo.
- Użytkownicy z niepełnosprawnościami fizycznymi będą mogli za pomocą Virtual Trackpad w funkcji AssistiveTouch sterować swoim urządzeniem na niewielkim obszarze ekranu pełniącym funkcję skalowalnego gładzika.
- Funkcja Sterowanie przełącznikami zyska możliwość użycia kamer iPhone’a i iPada do odczytywania gestów stuknięcia palcem jako gestów oznaczających przełączenie.
- Sterowanie głosowe będzie obsługiwać własne słowniki i złożone słowa.
Więcej na temat nowych ułatwień dostępu zapowiedziane przez Apple na ten rok przeczytacie w artykule: Apple zapowiada nowe ułatwienia dostępu, w tym funkcje Eye Tracking, Music Haptics i Vocal Shortcuts
Obserwuj nas na Google News
Zobacz również:
- Apple i Google wspólnie walczą z niechcianym śledzeniem lokalizacji w iOS i Android!
- Apple naprawy iPhone: z wykorzystaniem używanych części
- Kupiłem Apple iPhone 15 Plus dla multimediów w testach, czy warto było?
Źródło: Informacja prasowa Apple
Źródło zdjęć: Apple
Tagi: Eye Tracking, Music Haptics, Vocal Shortcuts, Apple, ułatwień dostępu


