
Appartements saccagés, soirées clandestines… Airbnb souhaite mettre fin à ces situations qui ternissent sa réputation. La plate-forme de location veut pouvoir vérifier l'intégralité des profits qui sont inscrits grâce à un outil d'intelligence artificielle (IA) qui sera capable de scanner un grand nombre de données sur un utilisateur. Première étape : Airbnb a déposé un brevet auprès de l'Office européen des brevets (OEB), a révélé le média anglais Evening Standard le 3 janvier 2020.
Un score de compatibilité
Concrètement, Airbnb souhaite détecter les traits de caractère qui pourraient s'avérer problématique comme la psychopathie, la violence, le névrosisme ou le narcissisme grâce à l'IA. L'outil scannera et compilera toutes les informations en ligne sur une personne : casier judiciaire, réseaux sociaux, vidéos, images... La technologie pourra également fouiller dans les actualités de l'utilisateur pour, par exemple, déceler d'éventuelles condamnations pénales.
Ensuite, le logiciel calculera un score de compatibilité entre l'hôte et l'invité. A la charge pour le loueur d'accepter ou de refuser ensuite la demande de location. "Nous utilisons l'analyse prédictive et l'apprentissage automatique pour évaluer instantanément des centaines de signaux qui nous aident à signaler et à enquêter sur les activités suspectes avant qu'elles ne se produisent", se justifie l'entreprise californienne sur son site.
Un outil discriminatoire ?
Ce projet va être géré par la start-up Trooly, spécialisée dans l'analyse de données et acquise par Airbnb en 2017. Les journalistes d'Evening Standard ont tenté d'en savoir plus mais l'entreprise californienne a refusé de répondre. Il est donc encore difficile de savoir quand Airbnb compte réellement mettre sur pied et utiliser ce logiciel qui pourrait s'avérer problématique.
L'objectif affiché par Airbnb est louable. Rappelons que début novembre 2019, une fusillade avait éclatée à San Francisco dans une maison louée sur Airbnb. Mais le logiciel risque de catégoriser les utilisateurs selon des critères non objectifs ni même scientifiques.
En effet, tout d'abord, la base scientifique sur laquelle se repose le logiciel pose question. Peut-on réellement diagnostiquer une maladie psychologique ou psychiatrique en ne scannant que des informations virtuelles ? Deuxièmement, cette pratique pourrait rapidement devenir discriminatoire envers certaines catégories de personnes comme les anciens détenus. Un séjour en prison serait-il un critère suffisant pour empêcher quelqu'un de louer un bien ? La plate-forme reste pour le moment silencieuses sur ces points.
Réagir