Le 20 septembre dernier, nous avons eu la chance de présenter, lors de la “Nantes Digital Week”, les résultats de notre expérimentation IA sur l’immobilier. Ce projet s’inscrit dans la démarche nantaise et citoyenne “NaonedIA”, créée en juin 2018, qui vise à rassembler les acteurs travaillant sur des sujets IA de la métropole nantaise.
Durant 6 mois, en utilisant notre temps libre à bon escient, nous avons collaboré avec quatre autres entreprises du collectif afin de présenter un produit permettant de démystifier l’intelligence artificielle au grand public, tout en proposant un service citoyen. Nous avons décidé de travailler sur un domaine qui parle à tous, et sur lequel les citoyens peuvent avoir de l’intérêt : l’immobilier. Nous sommes donc partis de la problématique suivante : comment estimer, au plus juste, le prix d’un bien immobilier ?
Le premier challenge a été de trouver les bonnes sources de données, et de construire le jeu de données qui alimente le modèle de machine learning. Nous avons choisis d’utiliser des données publics, et récemment misent en ligne : les données DVF (Demandes de Valeurs Foncières géolocalisées). Ces données centralisent les transactions immobilières intervenues au cours des cinq dernières années en France, et sont issues des actes notariés et des informations cadastrales. Elles sont donc intéressantes à exploiter car elles représentent les prix réels des ventes de biens immobiliers qui ont été réalisées.
Nous avons complété ces données avec des données de géolocalisation (OpenStreetMap) afin de situer les biens en fonctions de lieux d’intérêts, puis de données liées à l’évolution du revenu brut et du pouvoir d’achat (Insee) afin de pouvoir comparer des ventes sur des années différentes.
Le deuxième challenge a été de modéliser le problème, et d’analyser les résultats obtenus. Nous avons tout d’abord explorés les données, pour mieux les comprendre, afin de les nettoyer et de les croiser correctement entre-elles. Après avoir travailler sur différents modèles, nous avons retenue un réseau de neurones pour estimer la valeur des biens. Le modèle prend donc en entrée : type de bien, surface, nombre de pièce, et localisation. Grâce à ces critères, il peut calculer une estimation du prix du bien grâce à son apprentissage effectué sur le jeu de données.
Le dernier challenge a été de concevoir l’interface. Celle-ci se devait être simple d’accès et compréhensible par l’utilisateur. Nous l’avons donc construite en trois partie :
- Estimer un bien : permet de de tester directement le modèle en rentrant ses critères
- Participer : permet à l’utilisateur de contribuer à améliorer le jeu de données, et donc les estimations, en entrant ses informations sur son bien actuel
- Comment ça marche : partie explicative de comment nous avons construit le modèle, et comment l’intelligence artificielle fonctionne dans notre cas
Au final, ce travail collaboratif, grâce à l’association des compétences de chacun, a pu aboutir à un réel produit. Tout le code est bien sur open source et hébergé sur GitHub afin de garder de la transparence et permettre une reprise future du projet pour l’améliorer ou le challenger.
Nous sommes donc fier de pouvoir présenter aujourd’hui au grand public un produit fonctionnel, didactique, et utilisable par tous, directement via un site internet :
Baptiste ARIAUX
Customer Success Engineer @Verteego
https://www.data.gouv.fr/fr/datasets/demandes-de-valeurs-foncieres-geolocalisees/