iPhone e iPad saranno in grado di rilevare e controllare il movimento oculare e non solo. Ecco le nuove funzioni introdotte da Apple.
Novità in casa Apple. L’azienda dell’iconica mela ha deciso di stupire i suoi clienti annunciando le nuove funzionalità per iOS in occasione del Global Accessibility Awareness Day (GAAD), il 16 maggio 2024.
La giornata dedicata all’accessibilità di persone con disabilità, ha fatto sì che l’azienda di Steve Jobs riflettesse e presentasse funzionalità più inclusive, in modo da garantire prestazioni ed esperienze performanti con i propri prodotti.
Tra le più importanti applicazioni aggiunte da Apple sui propri iPhone e iPad c’è l’Eye Tracking che consente agli utenti con disabilità fisiche di controllare il proprio dispositivo personale solo tramite il proprio movimento oculare. In realtà una novità di cui si parlava da tempo ma che ha sempre richiesto un ulteriore hardware aggiuntivo e di cui ora si potrà fare a meno.
Come spiegato da Tim Cook, CEO di Apple, l’azienda crede fermamente “nel potere trasformativo che le innovazioni hanno nel migliorare la vita delle persone ed è questo il motivo per cui Apple, da circa 40 anni, promuove il design inclusivo integrando l’accessibilità fin nelle fondamenta”.
Una novità ben accolta dalla comunità che ha apprezzato lo sforzo della multinazionale di rendere le esperienze Apple realmente accessibili. Ma non solo. L’azienda hi-tech ha presentato le altre nuove funzioni, quali Music Haptics; Vocal Shortcuts e il Vehicle Motion Cues. Ecco tutto quello che c’è da sapere sulle nuove applicazioni.
Apple, ecco cos’è l’Eye Tracking e come funziona
La nuova funzione Eye Tracking, basata sull’intelligenza artificiale, consentirà di controllare il proprio device solo tramite movimento oculare, senza dove toccare il touchscreen. Questa funzione è stata sviluppata con lo scopo di aiutare chi ha una disabilità fisica. Ma come funziona esattamente?
Stando a quanto spiegato dagli esperti Apple, usando la fotocamera frontale per completare in pochi secondi la configurazione e la calibrazione, i movimenti oculari sono registrati e analizzati dall’iPhone (o iPad) esclusivamente tramite la fotocamera frontale integrata. Grazie al machine learning on-device, tutti i dati utilizzati per configurare e controllare questa funzione restano al sicuro sul dispositivo e non vengono condivisi con Apple.
La funzionalità è stata integrata nel sistema operativo e funziona sia con le app Apple che con app di terze parti e sarà supportato anche l’hardware più vecchio, in particolare tutti i dispositivi con chip A12 e superiori. In questo modo gli utenti potranno navigare tra i menu sullo schermo utilizzando i movimenti degli occhi e se guarderanno una voce del menu abbastanza a lungo, questa sarà aperta.
Apple, le nuove funzioni: il Vocal Shortcuts
Tra le altre nuove funzioni presentate vi è il Vocal Shortcuts, la quale consente a chi usa iPhone e iPad di assegnare ai comandi frasi personalizzate, che Siri sarà in grado di comprendere, per attivare scorciatoie e completare task complessi.
Questa applicazione nasce per le persone con condizioni acquisite o progressive che compromettono la capacità di parlare, come paralisi cerebrale, sclerosi laterale amiotrofica (SLA) o ictus, offrendo un nuovo livello di personalizzazione e controllo del dispositivo.
La funzione lavorerà in sinergia con Listen for Atypical Speech che offre all’utente la possibilità di migliorare il riconoscimento vocale. È possibile memorizzare singole parole o frasi e quindi attivare azioni quando vengono pronunciate.
Vehicle Motion Cues e Music Haptics: le nuove funzioni Apple
Tra le nuove esperienze di Apple troviamo Vehicle Motion Cues e CarPlay che contribuiscono a migliorare l’utilizzo dell’iPhone in macchina.
Vehicle Motion Cues aiuta a ridurre la sensazione di malessere causata dal movimento del veicolo con cui si viaggia, un disturbo noto anche come chinetosi, frutto del conflitto sensoriale fra ciò che si vede e la sensazione che si prova di movimento. D’ora in poi invece con questa nuova funzione compariranno dei punti animati ai bordi dello schermo per riprodurre le variazioni di movimento del veicolo, e aiutare a ridurre il contrasto sensoriale.
CarPlay invece include ora il controllo vocale Filtri colore e Riconoscimento suoni, con quest’ultimo le persone sorde o ipoudenti che guidano potranno sapere se nelle vicinanze sono state azionate delle sirene o clacson.
Infine, Apple desidera garantire un’esperienza musicale immersiva anche per le persone con problemi di udito. D’ora in poi anche loro potranno ascoltare la musica su Apple Music grazie alla funzione Music Haptics che attiverà delle vibrazioni abbinate alle tracce.
leggi anche
iPhone ricondizionati: perché convengono
© RIPRODUZIONE RISERVATA