Accueil Technologie Smartphone Android 12 essaie l’apprentissage automatique pour rendre la navigation gestuelle un peu...

Android 12 essaie l’apprentissage automatique pour rendre la navigation gestuelle un peu moins pénible

Android 12 essaie l'apprentissage automatique pour rendre la navigation gestuelle un peu moins pénible

Utiliser des gestes au lieu de boutons durs ou souples pour naviguer dans un système d’exploitation mobile n’est pas exactement parfait et c’est certainement le cas sur Android en ce moment. Mais que se passerait-il si le téléphone tentait d’apprendre quand ce glissement du bord de l’écran signifiait que vous vouliez vous déplacer dans l’application ou revenir en arrière ou à l’écran d’accueil? Google essaie peut-être de le savoir.

Quinny899 sur les forums XDA-Developers a pu récupérer un nouveau modèle TensorFlow Lite dans Android 12 en utilisant le script EdgeBackGestureHandler de l’application SystemUI avec un fichier de vocabulaire associé appelé “backgesture” avec les noms de package de 43 000 applications (dont deux de Quinny899).

Vraisemblablement, ce modèle peut utiliser des données de balayage enregistrées – en particulier, les pixels de début et de fin – de ces applications pour déterminer si un balayage appelle à naviguer dans l’application ou vers le système.

Paramètres actuels de sensibilité gestuelle

La navigation gestuelle basée sur un modèle peut être activée en déclenchant un indicateur dans Android 12 Developer Preview 1. À partir de maintenant, il faudra un certain temps pour déterminer si les tolérances de balayage variables fonctionnent mieux pour les utilisateurs que les préréglages durs actuels.

Pour en savoir plus sur le lancement d’Android 12, consultez notre article d’annonce détaillant les nouveautés ici. Si vous souhaitez installer l’aperçu développeur sur votre propre appareil, découvrez comment procéder dans notre guide de téléchargement Android 12.

Essayez Scroll