Meny Meny

Apple avduker nye tilgjengelighetsfunksjoner, inkludert eye-tracking

Som et positivt skritt fremover for funksjonshemmingsbevissthet, vil Apples siste oppdateringer gjøre navigeringen enklere via øyesporing. Programvaren vil også være tilgjengelig for et bredere spekter av brukere.

Samtidig med Global Accessibility Awareness Day har Apple annonsert flere nye oppdateringer spesielt utviklet for personer med fysiske funksjonshemninger.

Disse vil inkludere øyesporing, musikkhaptikk og vokalsnarveier.

"Vi tror dypt på den transformative kraften til innovasjon for å berike liv," sa Administrerende direktør Tim Cook.

"Det er derfor Apple i nesten 40 år har forkjempet inkluderende design ved å bygge inn tilgjengelighet i kjernen av maskinvaren og programvaren vår."

"Vi flytter kontinuerlig grensene for teknologi, og disse nye funksjonene reflekterer vår langvarige forpliktelse til å levere best mulig opplevelse til alle våre brukere."

Drevet av kunstig intelligens, vil eye-tracking tilby brukerne et innebygd alternativ for å kontrollere sine iPhones og iPads med bare øynene.

Ingen ekstra maskinvare eller tilbehør er nødvendig for at dette skal fungere, noe som eliminerer behovet for å kjøpe kostbare tilleggsdingser.

Det frontvendte kameraet og maskinlæring på enheten vil tyde øyebevegelser, utføre kommandoer og aktivere ekstra funksjoner som knapper, sveiper og andre bevegelser.

Med dette aktivert kan folk se på skjermen for å bevege seg gjennom elementer som apper og menyer, og deretter dvele ved et element for å velge det.

For brukere som er døve eller tunghørte, vil musikkhaptikere bruke iPhones Taptic Engine-vibrasjonssystem (som muliggjør haptisk tilbakemelding for handlinger som klikking og skriving) for å "spille trykk, teksturer og raffinerte vibrasjoner til lyden til musikken" for støttet Apple sporer.

Og til slutt vil vokalsnarveier bruke innebygd talegjenkjenning slik at brukere kan angi en "egendefinert ytring" – det trenger ikke å være en forståelig talekommando eller uttalelse – for å starte ulike handlinger gjennom Siri, for eksempel å stille inn en tidtaker, ringe noen, få veibeskrivelse, ta et skjermbilde og bla.

Siri vil også ha en ny funksjon kalt "lytt etter atypisk tale", som vil bruke maskinlæring på enheten for å dechiffrere et bredere spekter av tale og gjenkjenne disse mønstrene.

"Hvert år bryter vi ny mark når det kommer til tilgjengelighet," sa Sarah Herrlinger, Apples seniordirektør for Global Accessibility Policy and Initiatives, sa i en uttalelse.

"Disse nye funksjonene vil gjøre inntrykk i livene til et bredt spekter av brukere, og gi nye måter å kommunisere på, kontrollere enhetene deres og bevege seg gjennom verden."

tilgjengelighet