Apple lansează o serie de noi funcții de accesibilitate pe iPhone, Watch și multe altele

Miercuri, Apple anunț o grămadă de noi caracteristici de accesibilitate care vin pe iPhone, iPad și Apple Watch. Noile funcții și servicii vor fi lansate în zilele, săptămânile și lunile următoare.

Prima caracteristică care va ajunge va fi un nou serviciu numit SignTime, despre care Apple spune că va fi lansat mâine, 20 mai. SignTime va permite utilizatorilor să comunice cu reprezentanții serviciului clienți Apple (AppleCare sau Retail Customer Care) folosind limbajul semnelor. Serviciul va fi lansat mai întâi în SUA, Marea Britanie și Franța, cu limbajul semnelor americane, limbajul semnelor britanic și, respectiv, limba franceză. În plus, clienții Apple Store vor putea utiliza SignTime pentru a se conecta cu un interpret în timp ce fac cumpărături sau pentru a obține asistență pentru clienți fără a fi nevoie să facă o programare în avans.

Întrucât sosirea SignTime este iminentă, actualizările de software încărcate cu noi funcții care vizează îmbunătățirea accesibilității software-ului și a hardware-ului Apple pentru persoanele cu deficiențe cognitive, mobile, auditive și vizuale vor veni pe platformele Apple. Apple la sfârșitul acestui an.

De exemplu, utilizatorii vor putea naviga pe Apple Watch folosind AssistiveTouch, care era deja disponibil pe iPad și iPhone pentru a ajuta utilizatorii care au dificultăți în atingerea ecranului. Funcția va utiliza senzorii de mișcare și senzorul de ritm cardiac al ceasului pentru a „detecta diferențe subtile în mișcarea musculară și activitatea tendonului” ca intrare pentru utilizatori pentru a deplasa un cursor în jurul ecranului.

READ  Vedeți decupajul iPhone 14 pe orice iPhone

Apple intenționează, de asemenea, să lanseze mari îmbunătățiri ale cititorului de ecran VoiceOver pentru utilizatorii nevăzători sau cu deficiențe de vedere. Apple spune că VoiceOver va putea citi conținutul unei chitanțe într-un mod mai util. VoiceOver poate descrie, de asemenea, poziția oamenilor și a obiectelor din fotografii. În articolul său editorial pe această temă, Apple oferă următorul exemplu despre ceea ce VoiceOver ar putea spune pentru a descrie o parte dintr-o fotografie: „Profil ușor drept al feței unei persoane cu părul castaniu și creț zâmbind”.

iPadOS va suporta în curând și dispozitive de urmărire a ochilor MFi de la terți. Utilizatorii cu dizabilități utilizează aceste dispozitive pentru a controla dispozitivele de calcul cu ochii lor. Un pointer urmărește privirea unui utilizator, iar acțiunile pot fi efectuate atunci când utilizatorul menține contactul vizual pe un element UI pentru o perioadă scurtă de timp.

Și în timp ce ne referim la dispozitivele MFi, Apple adaugă suport pentru noi aparate auditive bidirecționale pentru a facilita conversațiile telefonice hands-free și FaceTime.

Deoarece unii utilizatori pot fi distrași sau copleșiți de sunetele de fundal, Apple introduce o nouă caracteristică pentru utilizatorii de neurodiverse: calmarea sunetelor de fundal care se joacă în tot sistemul de operare (cum ar fi sunetele oceanului sau ploaia) pentru a bloca zgomotele externe care pot provoca disconfort. „Sunetele se amestecă sau se prăbușesc cu alte sunete audio și de sistem”, spune Apple.

Apple nu a specificat când se vor materializa aceste noi funcții, ci doar că vor ajunge cu noi actualizări de software mai târziu în acest an.

Imagine publicitară de Samuel Axon

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *