Kategorien Kategorien

Apple stellt neue Barrierefreiheitsfunktionen vor, darunter Eye-Tracking

Die neuesten Updates von Apple stellen einen positiven Fortschritt für das Bewusstsein für Behinderung dar und erleichtern die Navigation durch Eye-Tracking. Die Software wird auch einem breiteren Nutzerkreis zur Verfügung stehen.

Passend zum Global Accessibility Awareness Day hat Apple mehrere neue Updates angekündigt, die speziell für Menschen mit körperlichen Behinderungen entwickelt wurden.

Dazu gehören Eye-Tracking, Musikhaptik und Stimmverknüpfungen.

„Wir glauben fest an die transformative Kraft von Innovationen, um das Leben zu bereichern.“ sagte Geschäftsführer Tim Cook.

„Deshalb setzt sich Apple seit fast 40 Jahren für integratives Design ein, indem es Barrierefreiheit in den Kern unserer Hardware und Software integriert.“

„Wir erweitern kontinuierlich die Grenzen der Technologie und diese neuen Funktionen spiegeln unser langjähriges Engagement wider, allen unseren Benutzern das bestmögliche Erlebnis zu bieten.“

Mithilfe künstlicher Intelligenz bietet Eye-Tracking Benutzern eine integrierte Option, ihre iPhones und iPads nur mit ihren Augen zu steuern.

Damit dies funktioniert, ist keine zusätzliche Hardware oder Zubehör erforderlich, sodass keine teuren Zusatzgeräte gekauft werden müssen.

Die nach vorne gerichtete Kamera und das maschinelle Lernen auf dem Gerät entschlüsseln Augenbewegungen, führen Befehle aus und aktivieren zusätzliche Funktionen wie Tasten, Wischen und andere Gesten.

Wenn diese Option aktiviert ist, können Benutzer auf ihren Bildschirm schauen, um sich durch Elemente wie Apps und Menüs zu bewegen, und dann auf einem Element verweilen, um es auszuwählen.

Für Benutzer, die gehörlos oder schwerhörig sind, wird Musikhaptik das Taptic Engine-Vibrationssystem des iPhones (das haptisches Feedback für Aktionen wie Klicken und Tippen ermöglicht) nutzen, um „Tips, Texturen und verfeinerte Vibrationen zum Audio der Musik abzuspielen“ zur Unterstützung Apple verfolgt.

Und schließlich nutzen Stimmverknüpfungen eine integrierte Spracherkennung, sodass Benutzer eine „benutzerdefinierte Äußerung“ festlegen können – es muss kein verständlicher Sprachbefehl oder eine verständliche Aussage sein –, um verschiedene Aktionen über Siri zu starten, z. B. das Einstellen eines Timers, Jemanden anrufen, Wegbeschreibungen abrufen, einen Screenshot machen und scrollen.

Siri wird außerdem über eine neue Funktion namens „Auf atypische Sprache achten“ verfügen, die maschinelles Lernen auf dem Gerät nutzt, um eine größere Bandbreite an Sprache zu entschlüsseln und diese Muster zu erkennen.

„Jedes Jahr gehen wir neue Wege, wenn es um Barrierefreiheit geht“, sagte Sarah Herrlinger, Senior Director of Global Accessibility Policy and Initiatives bei Apple, sagte in einer Erklärung.

„Diese neuen Funktionen werden das Leben einer Vielzahl von Benutzern beeinflussen und neue Möglichkeiten zur Kommunikation, Steuerung ihrer Geräte und Fortbewegung in der Welt bieten.“

Zugänglichkeit