iOS 18 und iPadOS 18: Neue Barrierefreiheitsfunktionen angekündigt
Apple hat neue Barrierefreiheitsfunktionen angekündigt, die später in diesem Jahr, vermutlich mit iOS 18 und iPadOS 18, Einzug halten werden. Folgende Punkte nennt das Unternehmen dabei:
• Eye-Tracking: Diese Technologie ermöglicht es Nutzern, ihre Apple-Geräte mit Augenbewegungen zu steuern. Dies ist besonders nützlich für Personen mit motorischen Einschränkungen.
Mit künstlicher Intelligenz betrieben, bietet Eye Tracking Benutzern eine integrierte Option zum Navigieren von iPad und iPhone nur mit den Augen. Entwickelt für Benutzer mit körperlichen Behinderungen, verwendet Eye Tracking die Frontkamera, um sich in Sekunden einzurichten und zu kalibrieren, und mit maschinellem Lernen auf dem Gerät werden alle Daten, die zur Einrichtung und Steuerung dieser Funktion verwendet werden, sicher auf dem Gerät aufbewahrt und nicht mit Apple geteilt, so das Unternehmen.
• Verbesserungen für Sehen, Hören, Kognition und Mobilität: Apple erweitert die Unterstützung für verschiedene Behinderungen, um eine inklusivere Nutzung der Produkte zu ermöglichen.
Music Haptics ist eine neue Möglichkeit für Benutzer, die taub oder schwerhörig sind, Musik auf dem iPhone zu „erleben“. Mit diesem aktivierten Zugänglichkeitsmerkmal spielt ddie Taptic Engine im iPhone Taps, Texturen und fein abgestimmte Vibrationen zur Audiodatei der Musik ab. Music Haptics funktioniert mit Millionen von Songs im Apple-Music-Katalog und wird als API für Entwickler verfügbar sein, um Musik in ihren Apps zugänglicher zu machen.
Neue Barrierefreiheitsfunktionen für CarPlay umfassen Sprachsteuerung, Farbfilter und Geräuscherkennung. Durch die Sprachsteuerung können Nutzer CarPlay und dessen Apps allein mit ihrer Stimme bedienen. Die Geräuscherkennung ermöglicht es Fahrern oder Beifahrern, die taub oder schwerhörig sind, sich durch Alarme auf Autohupen und Sirenen aufmerksam machen zu lassen. Farbfilter erleichtern farbenblinden Nutzern die Verwendung der CarPlay-Oberfläche. Zusätzliche visuelle Hilfsmittel umfassen fettgedruckten und großformatigen Text.
Mit Vocal Shortcuts können iPhone- und iPad-Benutzer benutzerdefinierte Äußerungen zuweisen, die Siri verstehen kann, um Shortcuts zu starten und komplexe Aufgaben zu erledigen. „Listen for Atypical Speech“ ist ein weiteres neues Feature, das die Spracherkennung verbessert, um ein breiteres Spektrum von Sprache zu erkennen. Diese Funktion verwendet maschinelles Lernen auf dem Gerät, um die Sprachmuster des Benutzers zu erkennen.
Zusätzlich nennt das Unternehmen einen ganzen Schwung kleinerer Änderungen, die die Systeme einfacher bedienbar machen:
Für Benutzer, die blind oder sehbehindert sind, wird VoiceOver neue Stimmen, einen flexiblen Voice Rotor, benutzerdefinierte Lautstärkeregelung und die Möglichkeit bieten, VoiceOver-Tastenkombinationen auf dem Mac anzupassen.
Der Vergrößerer, also der Magnifier, wird einen neuen Lesemodus und die Möglichkeit bieten, den Erkennungsmodus mit der Aktivierungstaste einfach zu starten.
Braille-Benutzer erhalten eine neue Möglichkeit, die Braille-Bildschirmeingabe zu starten und zu verwenden, um eine schnellere Steuerung und Textbearbeitung zu ermöglichen; Verfügbarkeit der japanischen Sprache für die Braille-Bildschirmeingabe; Unterstützung für mehrzeiliges Braille mit Dot Pad; und die Möglichkeit, verschiedene Eingabe- und Ausgabetabellen auszuwählen.
Für Benutzer mit Sehbehinderungen zeigt Hover Typing größeren Text an, wenn sie in einem Textfeld tippen, und zwar in der bevorzugten Schriftart und Farbe des Benutzers.
Für Benutzer, die Gefahr laufen, ihre Sprechfähigkeit zu verlieren, wird Personal Voice auf Mandarin-Chinesisch verfügbar sein.
Benutzer, die Schwierigkeiten haben, ganze Sätze auszusprechen oder zu lesen, können eine persönliche Stimme erstellen, indem sie verkürzte Phrasen verwenden.
Für Benutzer, die nicht sprechen können, wird Live Speech Kategorien und gleichzeitige Kompatibilität mit Live Captions bieten.
Für Benutzer mit körperlichen Behinderungen ermöglicht das Virtuelle Trackpad für AssistiveTouch die Steuerung ihres Geräts über einen kleinen Bereich des Bildschirms als vergrößerbares Trackpad.
Switch Control wird die Option enthalten, die Kameras in iPhone und iPad zu verwenden, um Fingertipp-Gesten als Schalter zu erkennen.
Voice Control wird Unterstützung für benutzerdefinierte Vokabulare und komplexe Wörter bieten.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Finde ich ja klasse, dass es immer mehr Barrierefreiheits-Funktionen in der Technik-Welt gibt. Auch Unternehmen sind sensibiliserter als je zuvor, was ich so im Bekanntenkreis mitbekomme… aber ja, irgendwie muss man ja die Arbeit besetzen und die Unternehmen verstehen auch, dass sinneseingeschränkte Menschen eine tolle Arbeit leisten! Ich merke, dass ich immer schlechter höre (bin Mitte 50) und nutze immer öfters die live Untertitelfunktion meines Smartphones. Bei Veranstaltungen bin ich froh, wenn es Schriftdolmetschung wie von Sprachpilot.at gibt. Da lese ich dann die Vorträge live mit und ich verpasse nichts mehr. Ich bin froh, dass es so einen Service gibt… ich frag mich oft, wie das bitte vor 30, 40 Jahren war…ob die Inklusion da auch schon so ein wichtiges Thema war?