Android 12 potrebbe imparare dai suoi errori!

Secondo quanto si apprende dal forum di XDA Developers, sembra che Android 12 adotterà il machine learning per migliorare l'esperienza d'utilizzo.
Android 12 potrebbe imparare dai suoi errori!

Di recente, Google ha rilasciato ufficialmente la prima Developer Preview di Android 12 per gli sviluppatori di Android 12. Attualmente, alcuni utenti possono sperimentare in anteprima le funzionalità offerte da questo nuovo sistema operativo.

Android 12: il machine learning risolverà un fastidioso problema

Stando a quanto si evince, Android 12 viene fornito con il supporto per le immagini in formato AVIF. Inoltre, è compatibile con la codifica video AVC e pare che BigG abbia ottimizzato l’intera l’interfaccia di notifica. Con il rilascio di Android 10, abbiamo sperimentato il sistema di navigazione a gestures a schermo intero dell’azienda. Tuttavia, il software del robottino deve ancora superare molti problemi; è normale, stiamo parlando di una prima versione beta del software, state tranquilli.

Poiché la maggior parte degli attuali telefoni cellulari hanno schermi completi senza alcun pulsante fisico, il sistema di navigazione gestuale oggi è estremamente molto importante. Gli utenti devono fare affidamento sullo scorrimento a destra o a sinistra dal bordo del pannello. Tuttavia, questo può portare a false attivazioni di pulsanti e funzioni in alcune app. Da sempre Google ha riconosciuto questo problema e sembra che – FINALMENTE – stia facendo qualcosa al riguardo. Secondo recenti rapporti, l’anteprima degli sviluppatori di Android 12 include una funzionalità che sembra risolvere questo problema.

 

Google sta cercando di utilizzare il machine learning per cercare di prevedere le intenzioni dell’utente ed evitare i cosiddetti “falsi tocchi involontari“. Uno sviluppatore di nome Quinny899 ha trovato un file nel modulo TensorFlow Light, che elenca i nomi di 43.000 applicazioni. Il programmatore sospetta che questo sia un elenco di applicazioni che Google utilizza con i modelli di machine learning per la formazione.

Al momento, l’interfaccia utente del sistema Android 12 ha confermato che questa funzione di “previsione intelligente dei gesti” è inclusa nel software. Una volta attivato, il software giudicherà le operazioni gestuali in base a più indicatori. Al momento, questa funzione non è attiva di default sulla nuova versione ed essendo in fase di sviluppo, al momento è alquanto limitata. Quando Android 12 sarà abbastanza stabile per i test pubblici, ci aspettiamo che questa funzione sia attiva come impostazione predefinita.

Fonte: XDA Developers

Ti consigliamo anche

Link copiato negli appunti