Echo Show, l'écran d'Amazon piloté par intelligence artificielle, a désormais la capacité de reconnaître des objets usuels dans la cuisine pour aider les personnes malvoyantes à être plus autonomes.
Aux Etats-Unis, Alexa --le petit nom de l'intelligence artificielle qui pilote les écrans et les assistants vocaux d'Amazon-- saura désormais répondre à la question: "Alexa, qu'est ce que je tiens dans la main ?"
Cette nouvelle compétence a été mise au point avec l'aide d'un Centre pour les aveugles et malvoyants de Santa Cruz, dans le nord de la Californie.
"Cela m'aide énormément et me fait gagner beaucoup de temps, je n'ai plus besoin de trouver un autre moyen ou l'aide de quelqu'un pour me permettre d'identifier quelque chose", a souligné Stacie Grijalva, une ingénieure qui a perdu la vue quand elle était déjà adulte et qui a participé au projet.
"Que ce soit un client qui fait le tri dans son sac de courses ou quelqu'un qui essaye d'identifier ce qui est sur son comptoir de cuisine, nous voulons les aider", a souligné Sarah Caplener, une des responsables Alexa chez Amazon.
Les progrès en matière d'intelligence artificielle peuvent apporter une aide précieuse aux personnes qui ont un handicap, comme par exemple la transcription ou lecture automatique pour les personnes qui ont une défaillance auditive et visuelle.
gc/vog/la
AMAZON.COM