INFORMACJA PRASOWA
15 maja 2024
Apple zapowiada nowe ułatwienia dostępu, w tym funkcje Eye Tracking, Music Haptics i Vocal Shortcuts
CUPERTINO, KALIFORNIA Firma Apple zapowiedziała dziś wprowadzenie jeszcze w tym roku nowych ułatwień dostępu, w tym funkcji Eye Tracking pozwalającej osobom z niepełnosprawnościami fizycznymi na sterowanie iPadem lub iPhonem przy użyciu oczu. Dodatkowo pojawi się udogodnienie Music Haptics zapewniające głuchym i niedosłyszącym użytkownikom nowe sposoby doświadczania muzyki za pomocą znajdującego się w iPhonie sygnalizatora taktylnego. Z kolei funkcja Vocal Shortcuts umożliwi wykonywanie zadań poprzez wygenerowanie specjalnego dźwięku, a Vehicle Motion Cues pomoże złagodzić objawy choroby lokomocyjnej podczas korzystania z iPhone’a lub iPada w jadącym pojeździe. Więcej ułatwień dostępu trafi również do systemu visionOS. Zapowiedziane funkcje opierają się na połączeniu potężnych możliwości sprzętu i oprogramowania Apple, w tym układu scalonego Apple, a także sztucznej inteligencji i działających na urządzeniu algorytmów uczenia maszynowego. Jednocześnie wpisują się one w realizowane od dekady zobowiązanie firmy Apple do tworzenia produktów dla wszystkich użytkowników.
„Jesteśmy głęboko przekonani, że innowacje mogą wpływać na życie ludzi i je wzbogacać”, oświadczył Tim Cook, dyrektor generalny Apple. „Właśnie dlatego firma Apple już od blisko 40 lat kładzie duży nacisk na inkluzywność swoich produktów, której wyrazem są ułatwiania dostępu wbudowane w DNA naszego sprzętu i oprogramowania. Nieustannie przesuwamy granice technologii, a zapowiadane funkcje odzwierciedlają nasze długoletnie zobowiązanie, żeby zapewniać wszystkim naszym użytkownikom jak najlepsze doświadczenia”.
„Co roku dokonujemy przełomu w dziedzinie ułatwień dostępu”, podsumowuje Sarah Herrlinger, starsza dyrektorka Apple w pionie Accessibility Policy and Initiatives. „Dzięki udostępnieniu nowych sposobów komunikacji, sterowania urządzeniami czy poruszania się w świecie wprowadzane funkcje wpłyną na życie wielu różnych użytkowników”.
Eye Tracking debiutuje na iPadzie i iPhonie
Funkcja Eye Tracking wspierana sztuczną inteligencją oferuje użytkownikom wbudowane rozwiązanie do sterowania iPadem i iPhonem przy użyciu samych oczu. Funkcja Eye Tracking, która została opracowana z myślą o użytkownikach z niepełnosprawnościami fizycznymi, korzysta z przedniego aparatu, by w zaledwie paru sekund wprowadzić ustawienia i wykonać kalibrację. Ponadto działające na urządzeniu algorytmy uczenia maszynowego sprawiają, że wszystkie dane użyte do konfiguracji funkcji i jej sterowania są bezpiecznie przechowywane na urządzeniu bez wysyłania ich do Apple.
Funkcja Eye Tracking działa w aplikacjach z systemem iPadOS i iOS i nie wymaga dodatkowych urządzeń ani akcesoriów. Dzięki Eye Tracking użytkownicy mogą przechodzić pomiędzy elementami aplikacji oraz korzystać z narzędzia Sterowanie zatrzymaniem do aktywacji poszczególnych elementów i uzyskiwania dostępu do dodatkowych funkcji, takich jak fizyczne przyciski czy machnięcia, oraz innych gestów, wyłącznie za pomocą oczu.
Funkcja Music Haptics ułatwia dostęp do piosenek
Funkcja Music Haptics otwiera przed niesłyszącymi lub niedosłyszącymi użytkownikami nowe sposoby doświadczania muzyki odtwarzanej z iPhone’a. Po włączeniu tego ułatwienia dostępu sygnalizator taktylny wbudowany w iPhone’a będzie odtwarzać stuknięcia, teksturę oraz bardziej wyczuwalne wibracje odwzorowujące brzmienie muzyki. Funkcja Music Haptics obsługuje miliony utworów w katalogu Apple Music i zostanie udostępniona deweloperom jako API, tak aby zwiększyć dostępność muzyki w tworzonych przez nich aplikacjach.
Nowe funkcje obsługują więcej sposobów mówienia
Udogodnienie Vocal Shortcuts daje użytkownikom iPhone’a i iPada możliwość przypisania własnych zrozumiałych dla Siri wypowiedzi aktywujących skróty i realizujących złożone zadania. Kolejne nowe ułatwienie, Listen for Atypical Speech, pozwala użytkownikom na rozbudowanie funkcji rozpoznawania mowy o większą liczbę różnych sposobów mówienia. Funkcja Listen for Atypical Speech rozpoznaje wzorce mowy użytkownika za pomocą działających na urządzeniu algorytmów uczenia maszynowego. Oba ułatwienia powstały z myślą o użytkownikach z trwałymi lub postępującymi schorzeniami upośledzającymi mowę, takimi jak porażenie mózgowe, stwardnienie zanikowe boczne (ALS) lub stany poudarowe, a udostępniany w tych ułatwieniach wyższy poziom personalizacji i sterowania bazuje na rozwiązaniach wprowadzonych w systemie iOS 17 dla osób niemówiących lub zagrożonych utratą mowy.
„Sztuczna inteligencja jest w stanie udoskonalić rozpoznawanie mowy milionów ludzi z nietypowym sposobem mówienia i z przyjemnością patrzymy, jak Apple przynosi konsumentom wspierające ten proces nowe ułatwienia dostępu”, powiedział Mark Hasegawa-Johnson, główny badacz w projekcie Speech Accessibility Project prowadzonym przez Beckman Institute for Advanced Science and Technology na uczelni University of Illinois Urbana-Champaign. „W swoich założeniach projekt Speech Accessibility Project miał być szerokozakrojonym, wspieranym lokalnie działaniem pomagającym przedsiębiorstwom i uczelniom w usprawnianiu i zwiększaniu skuteczności rozpoznawania mowy, a firma Apple, będąc jednym z orędowników ułatwień dostępu, umożliwiła realizację tych założeń inicjatywy Speech Accessibility Project”.
Funkcja Vehicle Motion Cues pomaga złagodzić chorobę lokomocyjną
Vehicle Motion Cues to nowa funkcja wprowadzana na iPhone’a i iPada, która ułatwia łagodzenie objawów choroby lokomocyjnej u osób w jadących pojazdach. Badania pokazują, że choroba lokomocyjna jest zwykle powodowana przez konflikt sensoryczny pomiędzy tym, co osoba widzi, a tym, co czuje. W rezultacie część użytkowników podróżujących pojazdami nie może komfortowo korzystać z iPhone’a lub iPada. Animowane kropki funkcji Vehicle Motion Cues wyświetlane na krawędzi ekranu pomagają złagodzić konflikt sensoryczny, nie przeszkadzając przy tym użytkownikowi w skupieniu się na głównej treści. Korzystając z czujników wbudowanych w iPhone’a i iPada, Vehicle Motion Cues wykrywa, kiedy użytkownik znajduje się w jadącym pojeździe, i adekwatnie reaguje. Funkcję można skonfigurować tak, by automatycznie wyświetlała się na iPhonie. Można ją też włączać i wyłączać w Centrum sterowania.
CarPlay zyskuje Sterowanie głosowe oraz więcej zaktualizowanych ułatwień dostępu
Ułatwienia dostępu wprowadzane w CarPlay obejmują Sterowanie głosowe, Filtry barwne i Rozpoznawanie dźwięków. Sterowanie głosowe pozwala użytkownikom na poruszanie się w usłudze CarPlay oraz sterowanie aplikacjami tylko za pomocą głosu. Rozpoznawanie dźwięków daje niesłyszącym i niedosłyszącym kierowcom oraz pasażerom możliwość włączenia alertów informujących ich o dźwięku klaksonu i syren. Użytkownikom mającym trudności w rozpoznawaniu kolorów Filtry barwne uproszczą wizualnie interfejs usługi CarPlay przy użyciu dodatkowych ułatwień dostępu takich jak Pogrubiony tekst i Duża czcionka.
Więcej ułatwień dostępu w visionOS
Udogodnienia pojawiające się w visionOS w tym roku będą obejmować działające w całym systemie Podpisy na żywo ułatwiające każdemu użytkownikowi – w tym osobom niesłyszącym i niedosłyszącym – śledzenie dialogu w rozmowach na żywo oraz w treściach dźwiękowych z aplikacji. Podpisy na żywo w aplikacji FaceTime systemu visionOS, pozwalają większej liczbie użytkowników na przeżycie wyjątkowych wrażeń związanych z kontaktem i współpracą z ich postacią cyfrową. Apple Vision Pro umożliwi przenoszenie napisów za pomocą paska okna podczas odtwarzania treści w formacie Apple Immersive Video oraz obsługę dodatkowych aparatów słuchowych i procesorów słuchu Cochlear wykonanych w standardzie MFi (Made for iPhone). Ułatwienia dostępu przewidziane dla dysfunkcji wzroku zostaną poszerzone o funkcje Zmniejsz przezroczystość, Odwrócenie inteligentne i Przygaszaj rozbłyski z myślą o osobach niedowidzących lub chcących uniknąć jasnych świateł bądź częstych błysków.
Nowe funkcje poszerzają pulę kilkudziesięciu ułatwień dostępu już dostępnych w Apple Vision Pro, które oferują użytkownikom elastyczne sposoby wprowadzania danych oraz intuicyjny interfejs opracowany z myślą o wielu różnych grupach użytkowników. Funkcje takie jak VoiceOver, Zoom i Filtry barwne dają osobom niewidzącym lub niedowidzącym możliwość korzystania z technologii spatial computing, a funkcje takie jak Dostęp nadzorowany wspierają użytkowników z ograniczeniami kognitywnymi. Użytkownicy mogą sterować Vision Pro poprzez dowolne połączenie ruchu oczu, rąk oraz głosu, a ułatwienia dostępu takie jak Sterowanie przełącznikami, Czynności dźwiękowe i Sterowanie zatrzymaniem stanowią również pomoc dla osób z niepełnosprawnościami fizycznymi.
„Apple Vision Pro jest bez wątpienia najłatwiej dostępną technologią, z jakiej kiedykolwiek miałem okazję korzystać”, podkreśla Ryan Hudson-Peralta, inżynier produktu z Detroit, konsultant ds. ułatwień dostępu oraz współzałożyciel Equal Accessibility LLC. „Sam będąc osobą urodzoną bez rąk oraz niepotrafiącą chodzić, zdaję sobie sprawę, że świat nie został zaprojektowany dla osób takich jak ja. Niesamowite jest więc zobaczyć, co może zrobić system visionOS. Stanowi on potwierdzenie potężnych możliwości oraz istotności projektowania opartego na inkluzywności i łatwości dostępu”.
Dodatkowe uaktualnienia
- Użytkownicy niewidzący lub niedowidzący znajdą w VoiceOver nowe głosy, elastyczne pokrętło Voice Rotor, programowalne elementy sterowania głośnością oraz możliwość dostosowania skrótów klawiszowych VoiceOver na komputerze Mac.
- Aplikacja Lupa oferuje nowy tryb Reader oraz możliwość łatwego uruchamiania trybu wykrywania za pomocą przycisku czynności.
- Dla osób posługujących się alfabetem Braille’a wprowadzony został nowy, usprawniający sterowanie oraz edycję tekstu sposób uruchamiania i użytkowania trybu Wejście ekranu Braille’a. Ponadto tryb Wejście ekranu Braille’a jest teraz dostępny dla języka japońskiego, obsługiwany jest wielowierszowy tekst pismem Braille’a z wyświetlacza Dot Pad oraz istnieje możliwość wyboru różnych tablic źródłowych i docelowych.
- Użytkownicy niedowidzący zyskają funkcję Hover Typing powiększającą tekst wpisywany w polu tekstowym w czcionce i kolorze wybranych przez użytkownika.
- Funkcja Głos indywidualny przeznaczona dla osób zagrożonych utratą mowy będzie dostępna w języku chińskim mandaryńskim. Użytkownicy mający trudności w wymawianiu lub czytaniu pełnych zdań będą mogli za pomocą krótkich fraz utworzyć własny głos indywidualny.
- Funkcja Mowa na żywo wspierająca osoby niemówiące zostanie poszerzona o kategorie oraz możliwość jednoczesnego korzystania z ułatwienia Podpisy na żywo.
- Użytkownicy z niepełnosprawnościami fizycznymi będą mogli za pomocą Virtual Trackpad w funkcji AssistiveTouch sterować swoim urządzeniem na niewielkim obszarze ekranu pełniącym funkcję skalowalnego gładzika.
- Funkcja Sterowanie przełącznikami zyska możliwość użycia kamer iPhone’a i iPada do odczytywania gestów stuknięcia palcem jako gestów oznaczających przełączenie.
- Sterowanie głosowe będzie obsługiwać własne słowniki i złożone słowa.
Obchody Światowego Dnia Świadomości Dostępności w Apple
Z okazji Światowego Dnia Świadomości Dostępności firma Apple przygotowała na ten tydzień nowe narzędzia, specjalne kolekcje i wiele innych niespodzianek:
- Przez cały maj w wybranych sklepach Apple Store prowadzone będą bezpłatne sesje przybliżające klientom ułatwienia dostępu wbudowane w ich ulubione produkty. Salon Apple Piazza Liberty w Mediolanie zorganizuje wydarzenie prezentujące pomysłodawców głośnej kampanii „Assume that I can” przygotowanej z okazji Światowego Dnia Zespołu Downa. Ponadto przez cały rok salony Apple Store na całym świecie prowadzą rezerwacje na sesje grupowe Today at Apple, podczas których rodziny, znajomi, grupy szkolne czy różne wspólnoty mogą poszerzać swoją wiedzę o ułatwieniach dostępu.
- Funkcja Skróty wzbogaci się o skrót Calming Sounds odtwarzający pejzaże dźwiękowe otoczenia, tak żeby ograniczyć czynniki rozpraszające i ułatwić użytkownikom skupienie się lub odpoczynek.
- W aplikacji App Store można odkryć niesamowite aplikacje i gry promujące inkluzywność i dostęp dla wszystkich, w tym nagrodzoną nagrodą App Store Award i łatwo dostępną aplikację Unpacking, aplikacje do komunikacji wspomagającej i alternatywnej oraz wiele innych atrakcji.
- Aplikacja Apple TV uhonoruje innowacyjnych twórców, wykonawców i artystów, którzy z pasją przekazują historie osób z niepełnosprawnościami. Tegoroczne motto Remaking the World nawiązuje do przebudowy świata, a każda historia kreuje rzeczywistość, w której głosy pojedynczych osób łączą się w jedną wielką opowieść o losach człowieka.
- W aplikacji Apple Books dostępne będą specjalne kolekcje e‑booków i audiobooków, które prezentują prawdziwe historie o niepełnosprawności opowiedziane w pierwszej osobie przez niepełnosprawnych pisarzy.
- Treningi, medytacje i wskazówki trenerów w aplikacji Apple Fitness+ zostaną dostosowane do potrzeb osób niesłyszących i niedosłyszących przy użyciu amerykańskiego języka migowego, a seria Czas na spacer zostanie poszerzona o transkrypcje odcinków z aplikacji Podcasty Apple. Treningi Fitness+ od zawsze oferują Podpowiedzi audio, które wspierają osoby niewidome lub niedowidzące, oraz modyfikatory umożliwiające użytkownikom korzystanie z aplikacji na każdym poziomie.
- Użytkownicy mogą również korzystać z zasobów Wsparcia Apple, żeby dowiedzieć się, jak spersonalizować swoje urządzenia Apple za pomocą wbudowanych ułatwień dostępu. Na playliście Apple Accessibility użytkownicy znajdą wskazówki pomocne przy dostosowywaniu do swoich potrzeb urządzeń Apple Vision Pro, iPhone, iPad, Apple Watch i Mac, w tym m.in. rady dotyczące personalizacji gestów czy sposobu wyświetlania informacji na ekranie urządzenia.
Udostępnij artykuł
Media
-
Tekst tego artykułu
-
Zdjęcia z tego artykułu