Recevez chaque jour toute l'actualité du numérique

x

Airbnb conçoit un logiciel capable de détecter et d'évincer les "mauvais" locataires

Vu ailleurs Airbnb a déposé un brevet pour mettre en place un outil d'IA capable de détecter les traits de caractère des personnes en scannant un maximum d'informations en ligne. Bien que le but de cette technologie soit louable, elle risque d'empêcher certaines catégories de personnes de louer un bien immobilier et ainsi créer des discriminations.  
Twitter Facebook Linkedin Flipboard Email
×

Airbnb conçoit un logiciel capable de détecter et d'évincer les mauvais locataires
Airbnb conçoit un logiciel capable de détecter et d'évincer les "mauvais" locataires © Pixabay/TeroVesalainen

Appartements saccagés, soirées clandestines… Airbnb souhaite mettre fin à ces situations qui ternissent sa réputation. La plate-forme de location veut pouvoir vérifier l'intégralité des profits qui sont inscrits grâce à un outil d'intelligence artificielle (IA) qui sera capable de scanner un grand nombre de données sur un utilisateur. Première étape : Airbnb a déposé un brevet auprès de l'Office européen des brevets (OEB), a révélé le média anglais Evening Standard le 3 janvier 2020. 

 

Un score de compatibilité

Concrètement, Airbnb souhaite détecter les traits de caractère qui pourraient s'avérer problématique comme la psychopathie, la violence, le névrosisme ou le narcissisme grâce à l'IA. L'outil scannera et compilera toutes les informations en ligne sur une personne : casier judiciaire, réseaux sociaux, vidéos, images... La technologie pourra également fouiller dans les actualités de l'utilisateur pour, par exemple, déceler d'éventuelles condamnations pénales.

 

Ensuite, le logiciel calculera un score de compatibilité entre l'hôte et l'invité. A la charge pour le loueur d'accepter ou de refuser ensuite la demande de location. "Nous utilisons l'analyse prédictive et l'apprentissage automatique pour évaluer instantanément des centaines de signaux qui nous aident à signaler et à enquêter sur les activités suspectes avant qu'elles ne se produisent", se justifie l'entreprise californienne sur son site.

 

Un outil discriminatoire ? 

Ce projet va être géré par la start-up Trooly, spécialisée dans l'analyse de données et acquise par Airbnb en 2017. Les journalistes d'Evening Standard ont tenté d'en savoir plus mais l'entreprise californienne a refusé de répondre. Il est donc encore difficile de savoir quand Airbnb compte réellement mettre sur pied et utiliser ce logiciel qui pourrait s'avérer problématique. 

 

L'objectif affiché par Airbnb est louable. Rappelons que début novembre 2019, une fusillade avait éclatée à San Francisco dans une maison louée sur Airbnb. Mais le logiciel risque de catégoriser les utilisateurs selon des critères non objectifs ni même scientifiques.

 

En effet, tout d'abord, la base scientifique sur laquelle se repose le logiciel pose question. Peut-on réellement diagnostiquer une maladie psychologique ou psychiatrique en ne scannant que des informations virtuelles ? Deuxièmement, cette pratique pourrait rapidement devenir discriminatoire envers certaines catégories de personnes comme les anciens détenus. Un séjour en prison serait-il un critère suffisant pour empêcher quelqu'un de louer un bien ? La plate-forme reste pour le moment silencieuses sur ces points.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media