8h30-9h30 | Accueil des participants (Grand Amphithéâtre) | |||||
9h30-10h00 | Discours d'ouverture (Grand Amphithéâtre) | |||||
10h00-10h50 | Jean-François BEAUMONT Les enquêtes probabilistes sont-elles vouées à disparaître pour la production de statistiques officielles? Depuis plusieurs décennies, les agences nationales de statistique dans le monde utilisent des enquêtes probabilistes comme outil privilégié pour répondre à des besoins d’informations au sujet d’une population d’intérêt. Au cours des dernières années, on a observé un vent de changement et on considère de plus en plus d’autres sources de données. Cette tendance peut être expliquée par trois facteurs principaux : le déclin des taux de réponse dans les enquêtes probabilistes, les coûts de collecte élevés et la prolifération des sources de données non probabilistes. Certaines personnes en sont même venues à croire que les enquêtes probabilistes pourraient graduellement disparaître. Dans cet article, nous passons en revue quelques approches qui permettent de réduire, voire éliminer, l’utilisation d’enquêtes probabilistes tout en conservant un cadre d’inférence statistique valide. Toutes les approches que nous considérons utilisent des données d’une source non probabiliste accompagnées, dans la plupart des cas, de données d’une enquête probabiliste. Certaines d’entre elles reposent sur la validité d’hypothèses de modèle ce qui contraste avec les approches fondées sur le plan de sondage probabiliste. Ces dernières sont généralement moins efficaces mais, en contrepartie, elles ne sont pas affectées par le risque de biais découlant d’une mauvaise spécification d’un modèle. Conférence d’ouverture Modérateur: Camelia GOGA, Grand Amphi | |||||
10h50-11h20 | Pause | |||||
11h20-13h00 |
Session Statistique officielle I
Session Statistique officielle I Jean-Pierre RENFER
On aborde ici dans un contexte de forte demande de réduction de la charge des unités enquêtées les défis méthodologiques pour y faire face. Une première partie est consacrée à un système de coordination des échantillons qui a été mis en place aussi bien pour les enquêtes auprès des entreprises que des enquêtes auprès des personnes et des ménages. Ce système de répartition de la charge a permis de développer un dispositif de mesure de la charge des enquêtes. Les difficultés inhérentes à ce dispositif sont également décrites. Les mesures de réduction de la charge sont évidemment au centre de toutes les attentions avec les défis méthodologiques y relatifs allant de l’optimisation des plans d’échantillonnage à l’utilisation directe ou indirecte des données administratives. Pour terminer, quelques pistes sur les défis futurs dans ce domaine sont proposées et des projets pilotes en lien avec la stratégie d’innovation des données ont été lancés. Défis méthodologiques dans les mesures de (dé)charge des enquêtes de l'OFS
Dominique BUREAU
Les données massives (Big Data) offrent de nouvelles opportunités pour la statistique publique, sous réserve de développer les méthodes d’assurance qualité, les cadres de gestion et de contrôle, d’harmonisation et de comparabilité appropriés.
Après avoir montré la variété des applications possibles et la manière dont les instituts statistiques s’en saisissent, on examine les questions qu’elles soulèvent au regard du Code de bonnes pratiques de la statistique et discute leur articulation avec les enquêtes.
La statistique publique entre code de bonnes pratiques et promesses des nouvelles données massives
Sébastien HALLEPEE, Julien TALBOT
Le dernier recensement de la population (RP) date de 1999. Depuis 2004, la France a rénové son opération de recensement qui repose désormais sur un cycle de cinq ans : chaque année, tout ou partie d'un groupe est recensé au cours des enquêtes annuelles de recensement (EAR). Un RP repose ainsi sur l’agrégation des données de 5 EAR qui produit chaque année des populations et des résultats statistiques relatifs à l’année médiane du cycle quinquennal mis à contribution dans le cumul du RP.
Les acteurs locaux, les utilisateurs nationaux et les institutions européennes souhaiteraient disposer de résultats plus précoces pour le recensement. Il semble donc important d’utiliser toute l’information dont on dispose pour examiner la faisabilité technique d’avancer la production d’un jeu d’indicateurs à des niveaux fins et agrégés. La méthode mise en place met à contribution une combinaison de sources coordonnées autour du RP actuel et ses tendances passées, des données fiscales et de la base de sondage d’adresse disponibles de manière précoce à un niveau communal.
La méthode présente un aspect prometteur à des niveaux agrégés (départements, régions, national) pour fournir des résultats avancés de deux années par rapport au calendrier de publication actuel. Au niveau communal, la méthode est robuste pour une majorité de commune si on cherche à avancer les résultats d’un an mais devient fragile pour de nombreuses communes pour des indicateurs avancés d’une deuxième année.
Estimations provisoires de population à partir des recensements
|
Session Echantillonnage / Enq. ménages
Session Echantillonnage / Enq. ménages Yves TILLE, Matthieu WILHELM
L'objectif de cette communication est double. Tout d'abord, trois principes théoriques sont formalisés: randomisation, surreprésentation et restriction. Nous élaborons ces principes et donnons une justification de leur utilisation dans le choix systématique du plan d'échantillonnage.
Dans le cadre assisté par modèle, la connaissance de la population est formalisée par la modélisation de la population et le plan d'échantillonnage est choisi en conséquence. Nous montrons comment les principes de surreprésentation et de restriction découlent naturellement de la modélisation de la population. L'échantillonnage équilibré apparaît alors comme une conséquence de la modélisation. Deuxièmement, un examen de l'échantillonnage équilibré probabiliste est présenté dans le cadre du modèle. Pour certains modèles de base, l'échantillonnage équilibré peut s'avérer être un plan d'échantillonnage optimal. L'accent est mis sur les nouvelles méthodes d'échantillonnage spatial et les modèles connexes. Un exemple illustratif montre les avantages des différentes méthodes. Tout au long du document, divers exemples illustrent comment les trois principes peuvent être appliqués afin d'améliorer l'inférence. Echantillonnage probabiliste: Principes pour le choix du plan de sondage et équilibrage
Angélina EL GHAZIRI, Lise BELLANGER, Nicolas ROLLO, Brice TROUILLET
Dans un contexte de partage croissant d’espace maritime, la spatialisation de l’activité de pêche est un enjeu scientifique et d’aménagement important, surtout pour l’activité des petits navires qui ne sont pas équipés d’un système de suivi par satellite. Le GIS VALPENA (éVALuation des Pratiques de PÊches au regard des Nouvelles Activités) a été créé en 2014 pour encadrer le développement d’une méthode générique (basée sur des enquêtes) permettant la production en routine de données de spatialisation homogènes, à une échelle spatiale et temporelle adaptée aux besoins. Il rassemble des scientifiques de plusieurs laboratoires de l’université de Nantes et des représentants des marins-pêcheurs (6 comités des pêches sur les 9 en métropole). De cette collaboration interdisciplinaire, pluridisciplinaire (géographie, géomatique, statistique) et opérationnelle émergent plusieurs problématiques de recherche, parmi lesquelles l’élaboration d’un plan d’échantillonnage stratifié adapté permettant de surmonter entre autres les risques liés à la sur-enquête des pêcheurs. Différentes stratégies d’échantillonnage ont été testées basées sur la théorie des sondages et le savoir-faire des comités des pêches. Les résultats des simulations réalisées à partir de données exhaustives ont permis d’identifier la meilleure stratification pour l’estimation des indicateurs spatio-temporels utilisés par les comités. Le plan d’échantillonnage actuellement retenu est un plan stratifié aléatoire simple à allocation proportionnelle. COMPARAISON DE PLANS D’ÉCHANTILLONNAGE STRATIFIES ADAPTÉS AUX DONNÉES D’ACTIVITÉ DE PÊCHE PROFESSIONNELLE
Ludovic VINCENT
Actuellement, les enquêtes ménages de l’INSEE sont tirées, pour la majorité, dans le recensement de la population (RP). Pour réaliser ces enquêtes, la plupart en face-à-face, l’Insee a mis en place une méthodologie consistant à sélectionner un échantillon de zones (appelé Échantillon-Maître (EM)), puis, au sein de chaque zone sélectionnée à échantillonner les logements interrogés. En 2019, le renouvellement de l'EM, mis en place en 2009 pour 10 ans, s’impose à l’Insee.
Pour cela, l’Insee a mené des études montrant un déséquilibre croissant des groupes de rotations du RP au cours du temps, dégradant la qualité de tout EM issu de la méthode actuelle. Par ailleurs, une nouvelle source, Fidéli (Fichier démographique des logements et des individus), a ouvert de nouvelles opportunités. Ce fichier, mis à jour chaque année à partir des fichiers fiscaux, présente les propriétés d’une bonne base de sondage : exhaustivité, unicité, fraîcheur des données. L’utilisation de Fidéli à la place du RP permet de diminuer l’étendue des zones d’enquêtes et d’améliorer leur plan de sondage. Elle rend également possible le tirage d’individus. Cependant, ce changement entraîne la disparition d’informations, la modification de concepts et l’apparition de nouvelle variables, engendrant des conséquences sur l’échantillonnage et le redressement des enquêtes qui seront à étudier. De même, passer à Fidéli modifie considérablement le repérage des enquêtes qui pourra se baser sur une géolocalisation plus précise.
Cette communication présente les raisons et conséquences du passage du RP à Fidéli comme base de sondage pour les enquêtes ménages de l’Insee. Passer du recensement aux sources fiscales pour le nouvel échantillon-maître de l'Insee : le projet Nautile (Nouvelle Application Utilisée pour le Tirage des Individus et des Logements des Enquêtes)
Thomas MERLY-ALPA, Ludovic VINCENT, Laurent COSTA, Clément GUILLO, Nicolas PALIOD, Martin CHEVALIER, Thomas DEROYON
L'Institut National de la Statistique et des Études Économiques (Insee) renouvelle son Échantillon-Maître ainsi que l'échantillon de l'enquête Emploi en Continu (EEC) dans les prochaines années. Dans ce cadre, une coordination de ces deux tirages a été étudiée afin de limiter les déplacements des enquêteurs. Cette communication présente les grands principes des deux tirages puis expose la méthode mise en œuvre pour la coordination géographique des deux enquêtes. Les unités primaires de l'Échantillon-Maître sont des regroupements de communes et sont tirées par échantillonnage spatialement équilibré à un niveau régional, en mobilisant des variables socio-démographiques diverses, directement ou résumées par une analyse factorielle. L'échantillon de l'EEC est un ensemble de grappes compactes d'une vingtaine de logements également sélectionnées par sondage spatialement équilibré à l'aide de variables proxy de la situation vis-à-vis du marché du travail. Enfin, la coordination de ces échantillons se fait par l'introduction d'unités de coordination (UC), englobant les unités primaires, et permettant un équilibrage des deux échantillons de façon parallèle. Les UC sont des zones agrégeant plusieurs unités primaires avec une étendue minimale. Elles sont sélectionnées par sondage indirect via les unités primaires, et les grappes de l'EEC sont ensuite sélectionnées dans les UC, dans une dernière phase. Le tirage des unités primaires est équilibré sur un jeu de variables dites indirectes permettant d'assurer que les UC sont représentatives pour les variables d'équilibrage de l'EEC, et ainsi de garantir une bonne précision à l'enquête. Tirage coordonné d'échantillons : une application à l'Échantillon-Maître Nautile et à l'enquête Emploi
|
Session Enq. santé et Enq. longitudinales
Session Enq. santé et Enq. longitudinales Antoine PHILIPPON, Stanislas SPILKA, Stéphane LEGLEYE
Depuis 2000, l’enquête ESCAPAD interroge régulièrement, lors des « journées défense et citoyenneté », un échantillon représentatif des jeunes français de 17 ans. Elle vise à mesurer, au sein de cette population, les niveaux d’usages de substances psychoactives (tabac, alcool, cannabis ainsi qu’une dizaine d’autres drogues illicites), tout en permettant de croiser ces informations avec un ensemble de données sociologiques, économiques, géographiques, psychologiques et sanitaires.
Neuvième exercice du dispositif, l’enquête 2017 a atteint 39 115 répondants. Elle permet pour la première fois une géolocalisation à l’échelle communale de la quasi-totalité des enquêtés, ce qui ouvre la voie à de nombreuses possibilités d’analyse spatiale des usages de substances.
La production de prévalences à des échelles infra-régionales constitue cependant un défi, entre la nécessité de garantir une représentativité statistique des sous-échantillons et celle d’appréhender des espaces homogènes sur le plan géographique ou sociologique.
Cette communication présentera tout d’abord la méthodologie d’attribution d’un code commune INSEE aux répondants à partir notamment du code postal et du nom de la commune déclarés dans le questionnaire. Par la suite seront présentées différentes cartographies des usages, offertes par cette nouvelle information. Elle propose ainsi une observation en continu des usages, du territoire national jusqu’à la commune. Nous reviendrons sur les principaux résultats de l’analyse géographique qui en ont été tirés et soumettrons quelques éléments de réflexion (atouts et limites) sur ce procédé de localisation géographique des répondants dans une enquête anonyme et confidentielle.
Analyses spatiales des usages de drogues : géolocalisation à l'échelle communale dans l'enquête nationale ESCAPAD 2017
Cécile SOMMEN, Leïla SABONI, Claire SAUVAGE, Antonio ALEXANDRE, Florence LOT, Francis BARIN, Annie VELTER
Les rapports sexuels entre hommes représentent le mode de transmission du VIH le plus fréquent dans les pays industrialisés. Le suivi des comportements sexuels à risque chez les hommes ayant des rapports sexuels avec des hommes (HSH) est crucial, en particulier pour comprendre la dynamique de l'épidémie à VIH. Une enquête transversale (PREVAGAY), basée sur l'échantillonnage lieux-moments (TLS), a été réalisée en 2015 auprès des HSH fréquentant des lieux de convivialité gays dans 5 métropoles françaises. La méthode généralisée de partage de poids (MGPP) a été appliquée pour estimer la séroprévalence du VIH, pour la première fois dans cette population en France, en tenant compte de la fréquentation des établissements (FVA). Nos objectifs sont de décrire la mise en œuvre du plan d'échantillonnage, de démontrer l'importance de prendre en compte les poids d'échantillonnage et la FVA en comparant es résultats obtenus avec ou sans l'utilisation des poids d'échantillonnage et FVA. Une prévalence globale de 14,3% (IC 95% [12,0 - 16,9]) a été estimée en utilisant la MGPP et une prévalence brute de 16,4% (IC 95% [14,9 - 17,8]). La variance des estimations de la prévalence du VIH dans chaque ville était plus faible lorsque les poids d'échantillonnage et de la FVA n’étaient pas pris en compte Une association de FVA et des statuts sérologiques dans la plupart des villes étudiées a été également mis en évidence. Echantillonnage lieux-moments chez les hommes ayant des rapports sexuels avec des hommes dans le contexte du VIH : L'importance de prendre en compte les poids de sondage et la fréquentation des lieux.
Noémie SOULLIER, Guilhem DESCHAMPS, Béatrice GEOFFROY-PEREZ, Jean-Luc MARCHAND
Les relances sont classiquement utilisées dans les enquêtes pour augmenter le taux de réponse. Nous exposerons l’efficacité des relances lors du recrutement des cohortes Coset, à la fois en termes de nombre de répondants et taux de participation mais également en termes de profils des répondants. Ainsi nous présenterons une vision dynamique de la réponse à nos enquêtes au cours de la collecte.
Les cohortes Coset-Indépendants et Coset-MSA ont pour objectif de connaître et de surveiller la morbidité et la mortalité de la population selon l'activité professionnelle en France, chez les indépendants d’une part et chez les travailleurs du monde agricole d’autre part. Les populations cibles sont les actifs âgés de 18 à 65 ans qui étaient affiliés au Régime Social des Indépendants et à la Mutualité Sociale Agricole en 2016. Respectivement 450 000 et 270 000 personnes ont été invitées par courrier postal à répondre à l’enquête en ligne ; deux relances ont été effectuées.
Les relances ont permis d’augmenter le taux de participation pour les deux cohortes, amenant au final plus de répondants que l’envoi initial. La répartition des répondants par sexe et par âge est peu modifiée par les relances, les hommes et les plus jeunes demeurant sous-représentés parmi les répondants. En revanche, la répartition des répondants par groupe professionnel est plus proche après relances de la distribution dans la population, et ce dans les deux enquêtes.
En conclusion, les relances se sont révélées un outil efficace pour le recrutement des cohortes Coset.
Efficacité des relances dans une enquête en ligne sur la santé : l'exemple des cohortes Coset
Valentin BRUNEL, Anne CORNILLEAU
Le phénomène du conditionnement de panel (panel conditioning) est de plus en plus remarqué dans la recherche méthodologique. Si ses effets, débattus, font l’objet d’une large littérature, peu s’intéressent à leur force relative en fonction du type de questions. Cette communication vise à contribuer à la recherche sur les effets du conditionnement de panel en comparant ses effets sur des questions dites “d’opinion” et sur des questions dites “de pratiques”. Pour cela, nous utilisons les données produites par le panel ELIPSS, en profitant des différents types d’enquête mis à disposition. La comparaison entre des données d’opinion et des données de pratiques montre que le conditionnement de panel pourrait avoir un effet plus important sur les secondes, à rebours de la recherche existante. La nature du conditionnement de panel, instable et volatile, invite cependant à la plus grande prudence concernant l’interprétation de tout modèle explicatif. Attrition et conditionnement de panel : le cas du panel ELIPSS
| |||
13h00-14h30 | Repas | |||||
14h30-15h20 | Jean-Claude DEVILLE Session Prix Waksberg de l’année 2018 De la pratique à la théorie: l'exemple du calage à poids bornés Session Prix Waksberg de l’année 2018 Modérateur: Wesley YUNG, Grand Amphi | |||||
15h20-15h50 | Pause | |||||
15h50-17h10 |
Session Non-réponse
Session Non-réponse Noémie SOULLIER, Béatrice GEOFFROY-PEREZ, Alice GUEGUEN, Laetitia BENEZET, Juliette CHATELOT, Marie ZINS, Gaëlle SANTIN
Nous présentons la méthode utilisée dans trois cohortes françaises pour corriger de la non-réponse totale à l’inclusion, ainsi que l’impact de la correction de la non-réponse sur l’estimation des prévalences de variables d’intérêt issues des questionnaires.
Ce travail s’appuie sur des données des cohortes Constances, Coset-MSA et Coset-RSI, soit des échantillons d’environ 440 000, 10 000 et 20 000 personnes tirées au sort et invitées en 2012-2013, 2010 et 2012 respectivement. Des données administratives ont été collectées pour les trois cohortes par appariement avec les systèmes d’information des différents régimes de Sécurité Sociale et de retraite. Ces données ont été utilisées pour corriger de la non-réponse.
Nos résultats montrent qu’une position sociale élevée et un emploi stable favorisent la réponse aux enquêtes. Les personnes qui prennent soin de leur santé sont également plus enclines à répondre à nos enquêtes, dont un des sujets est la santé. A l’inverse, les personnes qui ont des problèmes de santé plus graves sont moins enclines à répondre, probablement en lien avec leur état de santé. Un résultat marquant est que l’association entre le sexe et la réponse est captée, dans les modèles multivariables, par des covariables reflétant des consommations de soins liées au sexe. Enfin, en étudiant l’impact de la correction de la non-réponse sur les prévalences estimées, il ressort que les fumeurs et les personnes avec des symptômes dépressifs avaient moins répondu aux enquêtes. Ces résultats seront très utiles pour d’autres enquêtes qui nécessitent de corriger de la non-réponse totale. Correction de la non-réponse et estimation de prévalences : résultats issus de trois cohortes épidémiologiques ciblant les risques professionnels
Stéphane LEGLEYE, Stanislas SPILKA, François BECK
La recherche sociologique montre qu’absentéisme scolaire (« sèche ») et usages de drogues sont fortement liés. Or, dans les enquêtes scolaires, les usages des absents (sécheurs compris) sont inconnus et l’absentéisme impossible à modéliser. C’est donc une non-réponse non-ignorable, conduisant à la sous-estimation des usages. Nous proposons une correction utilisant les nombres d’absents par classe (sécheurs ou excusés) et les nombre de jours d’absences au cours des 30 derniers jours par motif (sèche, maladie, autre) déclarés par les répondants. Les absents sont représentés par les répondants, proportionnellement à leur nombre d’absences passées déclarées sur le total. Les données sont issues du volet français d’Espad 2015 (European survey project on alcohol and other drugs). Sur les 7169 élèves des 284 classes sélectionnées, 6007 ont répondu : 1162 étaient absents, (16%), dont 359 sécheurs (31% des absents). La correction est opérée par sexe, à la classe, à la strate ou globalement, en distinguant ou non la sèche. Après calage, la distinction des types d’absence apparaît négligeable ; les corrections augmentent surtout les estimations nationales de tabagisme quotidien (de 22.6% à 24.1%) et d’usage régulier de cannabis (de 7.8% à 8.6%). En raison du sondage en grappe, aucune ne sort des intervalles de confiance des estimations classiques, mais la proportion de sécheurs semble être un indicateur de qualité des estimations. La méthode est applicable dans d’autres enquêtes où les comportements étudiés sont liés aux absences, pourvu que les motifs d’absence des personnes sélectionnées et les absences passées des répondants soient recueillis. ABSENCE ET ABSENTEISME LORS DES ENQUETES SCOLAIRES : UN EXEMPLE DE CORRECTION DE LA NON-REPONSE NON-IGNORABLE DANS ESPAD 2015
Jean-Marie LE GOFF , Alexandre POLLIEN
Cette présentation met l’accent sur l’existence de différents profils d’enquêteurs dans le travail visant à obtenir la coopération des personnes-cibles. Ces profils se révèlent à travers des agencements probables différents de non-contacts, refus ou réponses au cours du processus de prise de contact. Ces profils d’enquêteurs sont mis en relation avec les stratégies explicites exprimées dans le cadre d’une étude destinée aux enquêteurs. L’analyse se concentre sur les mécanismes de la participation : au-delà de l’efficacité en termes de taux de réponse, dans quelle mesure les stratégies d’enquêteurs modifie la couverture d’enquête ? Profils et stratégies d’enquêteurs dans les enquêtes en face-à-face
|
Session PVD
Session PVD Mireille RAZAFINDRAKOTO, François ROUBAUD, Jean-Michel WACHSBERGER
La communication porte sur une enquête auprès des élites à Madagascar (ELIMAD) qui a été réalisée entre 2012 et 2014. Elle a été menée pour comprendre le rôle joué par les élites dans le mode de régulation de la société malgache, et en particulier dans le blocage du développement du pays. L’enquête vise notamment à décrypter le mode de reproduction des élites, dans sa double dimension : objective (stratégies d’acteurs) et subjective (systèmes de valeur). Elle a posé un triple défi méthodologique : de définition du champ abordé (qu’est-ce que l’élite ou les élites ?), de représentativité (où trouver une liste exhaustive de l’univers en question ?) et de fiabilité des informations recueillies (comment garantir des réponses à la fois sincères et détaillées ?). Au total, 1 000 personnes considérées comme faisant partie des élites dans au moins une des neuf sphères embrassées (politique –gouvernementale, élective et partisane-, économique, religieuse, militaire, société civile, organisations internationales, institutions publiques) ont été interviewées. En complément et en articulation directe avec ELIMAD, une enquête spécifique auprès d’un échantillon de 1 200 personnes, représentatif de la population adulte vivant à Madagascar (enquête CITMAD) a été conduite. Cette enquête « miroir » vise à mettre en regard les opinions et les valeurs des élites et des citoyens ordinaires grâce à un jeu de questions communes. La communication détaille aussi bien le dispositif d’enquête que les résultats, notamment une sociographie des élites à Madagascar rendant compte de leur trajectoire, de leurs réseaux sociaux et de leurs valeurs. Une enquête auprès des « élites » à Madagascar (ELIMAD) pour analyser leur mode de reproduction et leur rôle dans la trajectoire du pays
Dramane BAKO
Ce document présente une orientation méthodologique aux pays sur l'échantillonnage pour l'estimation de l'indicateur 2.4.1 des Objectifs de Développement Durable (ODD) qui est la proportion des superficies agricoles exploitées de manière productive et durable. La recommandation principale consiste à utiliser les enquêtes existantes dans le pays pour estimer l'indicateur. Cependant, au cas échéant une enquête ad hoc peut être réalisée spécifiquement pour estimer l'indicateur. Le document explore et discute les options d’échantillonnage et d'estimation pour la mesure de l'indicateur ODD 2.4.1. Guide méthodologique d'échantillonnage pour l’estimation de l’indicateur2.4.1 des ODD
Hugues KOUADIO
En vue d’assurer la durabilité dans la chaine de production du cacao en Côte d’Ivoire, diverses organisations dont des entreprises du secteur du cacao interviennent, par le biais d’ONG, dans les zones de production du cacao pour l’amélioration l’autonomisation des femmes ; l’amélioration de l’éducation, la formation professionnelle des jeunes avec pour objectif ultime l’amélioration des conditions de vie des populations productrices de cacao. Quelle est la situation des indicateurs associés ? La présente étude a apporté une réponse à cette question à travers la combinaison d’une enquête par sondage et des entretiens qualitatifs auprès des bénéficiaires et non bénéficiaires des appuis et selon les catégories de populations éligibles. Il ressort les principaux résultats suivants :
- les conditions de vie dans les communautés se rapprochent de la situation nationale. Le taux de pauvreté monétaire est de 42% avec une ampleur plus importante au sein des ménages de grande taille,
- Les compétences en français et en mathématique des enfants sont moyennes et celles des femmes adultes sont basses.
- Le phénomène du travail des enfants est bien présent dans les zones étudiées. Dans ces communautés, trois enfants sur cinq se consacrent entièrement à leurs études pendant qu’un enfant sur six travaille.
- La majorité des femmes participent aux activités de production et particulièrement la culture du cacao, les cultures vivrières et les AGR. Cependant, l’autonomisation des femmes n’est pas très manifeste.
Durabilité de la chaine de production : Mesure des capacités de lecture et de calcul des enfants, de l’autonomisation des femmes et des conditions de vie des ménages dans les zones de production de cacao en Côte d’Ivoire.
|
Session Surprise
Session Surprise | |||
18h00-20h00 | Programme social |
9h10-10h30 |
Session Transport 1
Session Transport 1 Barbara CHRISTIAN, Fabrice HASIAK, Jimmy ARMOOGUM
Un historique rapide des méthodes de mesure de la mobilité des personnes montre que les enquêtes auprès des ménages, pour alimenter des modèles de trafic au niveau d’une agglomération, ont constitué un socle de base de l’analyse de la mobilité quotidienne en France. Il est stable depuis plus de 50 ans, grâce à une coordination et un soutien, par l’Etat, du déroulement des enquêtes au travers du Cerema (ex-Certu), et ce, malgré la forte décentralisation des compétences en matière de transport vers les collectivités. En face-à-face ou par téléphone, la mobilité quotidienne se mesure au travers de la description, par un individu, de l’ensemble de ses déplacement d’un jour de semaine, ce qui permet d’évaluer son niveau (nombre de déplacements, distance, temps), quand, comment (mode de transport) et pourquoi l’individu se déplace (motif de déplacement). Au fil du temps, les enquêtes-ménage déplacements « standard Certu » se sont adaptées à de nouveaux besoins et ont éclairé de nombreux diagnostics territoriaux au-delà des modèles. La nouvelle génération d’Enquêtes Mobilité Certifiées Cerema (EMC²) conservera le « cœur » historique de l’enquête, tout en proposant de multiples options visant par exemple à mesurer la mobilité le week-end, ou complétant la collecte principale par des traces GPS renseignant sur les itinéraires des personnes, ou proposant des collectes de réactualisation plus fréquentes. Les données massives, issues d’objets connectés, sont très présentes dans le domaine de la prévision des transports mais elles servent plus la gestion « en temps réel » que l’évaluation à moyen terme. La mesure des comportements de mobilité en France : une collaboration de longue date entre ingénieurs et statisticiens sous le regard des chercheurs
Florian LEZEC, Dominique PLACE
D’avril 2018 à avril 2019, une nouvelle enquête nationale « Mobilité des personnes » est conduite par le service statistique du Ministère de la transition écologique et solidaire, en partenariat avec l’Insee. Comme l’Enquête nationale transports et déplacements réalisée 10 ans plus tôt, ses objectifs sont de recenser les véhicules à disposition des ménages et d’apprécier la mobilité locale et à longue distance des Français sur le territoire métropolitain. Plus de 20 000 ménages sont enquêtés et l’échantillon permettra de caractériser la mobilité des ménages des quartiers prioritaires de la politique de la ville.
Cette nouvelle édition consiste en une unique visite, estimée à une heure en moyenne. La durée d’interview a pu être réduite notamment en allégeant la collecte relative à l’utilisation des véhicules des ménages et en n’interrogeant plus que sur une seule journée de mobilité locale, au lieu de deux lors de la précédente enquête. Pour cela un algorithme de sélection de la journée à décrire a été mis en place afin d’aboutir à une répartition des jours de mobilité de manière fidèle aux résultats de l’enquête de 2008-2009. Des thématiques propres aux nouvelles pratiques de la mobilité sont également abordées telles que l’autopartage, le covoiturage, l’utilisation de vélos en libre-service ou le télé-travail.
En 2019, une expérimentation multimode sera conduite pour mesurer les potentiels biais de collecte dans le cas d’une enquête par Internet. L’enquête nationale Mobilité des personnes 2018-2019
Keven BOSA, François GAGNON
La modernisation du Programme de la statistique du tourisme de Statistique Canada repose sur les cinq piliers suivants : (i) la prestation de services axés sur l’utilisateur; (ii) l’utilisation de méthodes d’intégration des données à la fine pointe de la technologie; (iii) le renforcement des capacités statistiques et leadership; (iv) le partage et la collaboration et (v) l’effectif moderne et le milieu de travail flexible. En plus des enquêtes par sondage, de nombreuses avenues innovatrices sont actuellement explorées afin de moderniser le Programme en fonction de ces cinq piliers. Parmi elles, notons l’utilisation des données de paiement et de cartes de crédit afin d’estimer les dépenses reliées aux voyages; l’utilisation de l’intelligence artificielle et des données volumineuses provenant des réseaux sociaux ou des compagnies de téléphonie mobile pour recueillir de l’information sur les voyages; l’utilisation accrue des données administratives provenant de l’Agence des services frontaliers du Canada; et la collaboration avec les organismes fédéraux, provinciaux et municipaux reliés au tourisme afin d’unir nos efforts pour la cueillette de données sur le tourisme. La présentation décrira le progrès réalisé par Statistique Canada sur chacune de ces initiatives et discutera du potentiel de chacune de ces avenues pour produire des statistiques de qualité, disponibles rapidement et qui répondront aux besoins des utilisateurs. MODERNISATION DU PROGRAMME DE LA STATISTIQUE DU TOURISME DE STATISTIQUE CANADA
|
Session Petits Domaines
Session Petits Domaines Isabel MOLINA
L'étude des indicateurs de pauvreté pour les petits domaines est d'intérêt grandissant ce dernier temps. Ces indicateurs aident les gouvernements et les organisations internationales à planifier et gérer plus facilement les mesures à l'échelle régionale en assurant une meilleure réponse vers les populations qui ont vraiment besoin. Plusieurs méthodes ont été proposées ce dernier temps pour étudier ces indicateurs pour les petits domaines. Ces méthodes donnent en général des meilleurs résultats que les méthodes traditionnelles employées par la Banque Mondiale. Dans cette présentation, nous allons présenter plusieurs méthodes pour l'étude d'indicateurs de pauvreté pour les petits domaines, dont celles basées sur les modèles au niveau domaine et utilisées par U.S. Census Bureau ainsi que les méthodes basées sur les modèles au niveau unité utilisées par la Banque Mondiale. Nous allons aussi discuter quelques modifications des procédures de base qui peuvent être utilisées pour traiter le cas d'un sondage non-informatif ou à deux degrés. Nous allons présenter aussi les avantages et inconvénients de ces méthodes d'un point de vue pratique et théorique.
A review of small area estimation methods for poverty mapping
Éric LESAGE, Jean-François BEAUMONT, Cynthia BOCCI
Les besoins croissants d’information conduit à utiliser les enquêtes pour produire des estima- teurs statistiques sur des domaines (par exemple des régions) de tailles très variables. Ainsi, dans le cadre d’une même enquête, la taille des échantillons dans les domaines peut aller de quelques unités à plusieurs centaines. Dans la mesure où les estimateurs directs (Horvitz- Thompson ou calage) manquent de précision sur les petits domaines, il est préférable de recourir à des estimateurs "petits domaines" tel que l’estimateur composite de Fay-Herriot.
Il existe des instruments statistiques destinés à évaluer si l’estimation composite est globale- ment meilleure que l’estimation directe. On peut ainsi utiliser des tests statistiques standard pour juger de la validité du modèle de Fay-Herriot. Toutefois, il n’existe pas à notre con- naissance de diagnostics locaux qui permettent de déterminer, domaine par domaine, quel estimateur est préférable. L’erreur quadratique moyenne, basée sur le modèle, pourrait être considérée, d’une certaine façon, comme un diagnostic local à la condition forte d’admettre que le modèle est valable pour tous les domaines.
Or, certains utilisateurs des statistiques regardent un domaine spécifique et ne sont pas in- téressés par un critère global de qualité pour juger de la précision de l’estimateur composite qui porte sur leur unique domaine. Ces utilisateurs sont davantage séduits par une inférence conditionnelle aux paramètres d’intérêt de leur domaine, telle que l’inférence basée sur le plan de sondage, par opposition à l’inférence sous le modèle.
Nous avons utilisé cette approche conditionnelle pour produire des diagnostics locaux, pour chaque domaine, qui indiquent si l’estimateur composite est susceptible d’être plus précis que l’estimateur direct. Nous avons trouvé que, dépendamment de la taille de l’échantillon et de l’importance du résidu standardisé du modèle, il est possible de détecter si l’estimateur composite est susceptible d’avoir une erreur quadratique moyenne sous le plan plus petite que l’estimateur direct. Quelques diagnostics locaux pour le modèle de Fay-Herriot
Eve LECONTE, Sandrine CASANOVA
Nous nous intéressons au cas de l’estimation de la fonction de répartition (fdr) sur petits domaines lorsque la variable d'intérêt est censurée à droite, cas n’ayant, à notre connaissance, jamais été étudié dans le cadre des sondages. Si les domaines sont de taille suffisante, l'estimation peut être basée uniquement sur les données relatives au domaine et les estimateurs produits sont de précision acceptable. Cependant, dans beaucoup d’applications, les tailles d'échantillons correspondant à des petits domaines ne sont pas suffisantes. De l'information doit alors être ``empruntée'' aux autres domaines pour améliorer la précision. Nous nous plaçons dans une approche basée sur un modèle non paramétrique et disposons d’une information auxiliaire fournie par une covariable, connue sur toute la population. Notre estimateur est une adaptation au cas censuré de la technique de Casanova (2012) : la variable d'intérêt d'un individu hors échantillon est prédite à l’aide d’un quantile conditionnel dont l'ordre doit être préalablement estimé. Les estimations de ces deux étapes utilisent les échantillons de tous les domaines afin d'emprunter de la force aux voisins, en se basant sur l'estimateur de Kaplan-Meier généralisé lissé (Leconte et al., 2002) de la fdr conditionnelle. Des simulations comparent les performances du nouvel estimateur avec l’estimateur model-based de Casanova et Leconte (2015) et l'estimateur de Kaplan-Meier, qui n’utilisent que l’information relative au domaine. Des données sur le temps d’accès au premier emploi de jeunes filles diplômées de la région Occitanie illustrent notre méthode, les domaines étant le niveau et le type de la formation suivie. Estimateurs non paramétriques de la fonction de répartition d'une variable censurée à droite sur petits domaines : approche basée sur un modèle
|
Session RGPD
Session RGPD Philippe TASSI
Intervenants session RGPD:
Lucie Keller, Médiamétrie : « Le RGPD : enjeux et impacts de la nouvelle réglementation, visions européenne et française »
Ali Saoud, Haut Commissariat au Plan : "Les données personnelles au Maroc : comment sont-elles protégées ?"
Wesley Yung (sous réserve), Statistique Canada : « Le point de vue canadien » Session RGPD
| |||
10h30-11h00 | Pause | |||||
11h00-12h20 |
Session Transport 2
Session Transport 2 Mathieu RABAUD
En 2016, la Métropole Européenne de Lille a décidé de réaliser en parallèle de son Enquête Ménages Déplacements standard Cerema « classique » (EMD) en face à face une Enquête Complémentaire (EC) réalisée par téléphone, avec l’objectif de pouvoir réaliser cette deuxième enquête moins couteuse et compliquée tous les 3 ans environ en attendant la prochaine EMD. L’EMD s’est déroulée de décembre 2015 à avril 2016 tandis que l’EC a eu lieu de février 2016 à avril 2016, les deux enquêtes portant sur le même périmètre. L’un des objectifs communs aux deux enquêtes était de mesurer le nombre de déplacements quotidiens ainsi que l’usage des différents modes de déplacements.
Cette communication se propose de comparer à plusieurs niveaux les deux enquêtes, notamment :
- Une comparaison de la consommation d’échantillon nécessaire pour atteindre les objectifs d’enquête attendus
- Un point sur la dispersion des coefficients de redressement, indicateur de la qualité du caractère aléatoire du recrutement
- Une analyse sur les différences ou les similarités dans les indicateurs de mobilité obtenue selon le mode de collecte.
Les résultats montrent un avantage important en terme de consommation d’échantillon en face à face (4,3 fois moins d’adresses nécessaires), des caractéristiques variables sur la distribution des coefficients de redressement (plus de valeurs extrêmes dans l’EMD, mais aussi plus de valeurs proches de la moyenne) et enfin une mobilité recueillie plus complète au téléphone. Ce dernier point est cependant discuté, la possibilité d’un biais non détecté dans le recrutement restant entière.
Mesurer la mobilité quotidienne via une enquête en face à face ou par téléphone ? Analyse comparative de l'Enquête Ménages Déplacements et de l'Enquête Complémentaire 2016 de la Métropole Européenne de Lille
Fabio RENDINA, Jimmy ARMOOGUM, Myriam MAUMY-BERTRAND
Nous souhaitons mesurer la mobilité des non-résidents en Corse, pour ce faire nous utiliserons la méthode généralisée du partage des poids afin d'échantillonner des services destinés principalement aux touristes et de les interroger sur les différents lieux de ces nombreuses prestations touristiques. Pour pouvoir estimer des paramètres d'intérêts relatifs aux touristes, il faudrait relier le jeu de poids des services échantillonnés au jeu de poids des touristes qui ont fréquenté ces services.
We want to measure the non-residents’s mobility in Corsica, to do so, we will use the generalized weight sharing method in order to sample different main tourist attraction, and question them. To estimate a group of interest parameters regarding tourists, the job is to link tourist attraction weight with the tourist weight who visited one or more of these sites. Mise au point d’un plan de sondage afin de mesurer la mobilité des non-résidents
Mathieu GARDRAT, Alban CORDIER
Nous exposons dans ce travail une méthodologie originale d’enquête sur les nouvelles pratiques de consommation des ménages (e-commerces, livraisons en points relais ou à domicile…) et les formes de mobilités induites par ces nouveaux comportements. Afin de délimiter notre champ de collecte et de mesure, nous avons construit un concept original qui prend en compte le large spectre des pratiques des ménages. Le concept choisi pour résumer ce phénomène a été celui du découplage de l’achat et de la récupération des marchandises par les ménages ou Achats Découplés des Ménages (ADM), incluant certes le e-commerce, mais également toute autre pratique d’achats sortant du cadre « classique » des achats en magasins (livraison en sortie de caisse par exemple). Ce concept recouvre toute forme d’achat pour lequel l’achat et la récupération se déroulent dans un espace et/ou un temps différent. Nous allons dans cette communication présenter cet objet de recherche original qu’est l’ADM, justifier la nécessité de sa formalisation pour une meilleure mesure de la mobilité urbaine des personnes et des marchandises. Nous articulerons également cette communication autour de la mise en œuvre et le retour d’expérience de l’enquête réalisée par une hybridation de modes d’administration (recrutement téléphonique et carnet de bord web) auprès de 2000 ménages sur le territoire de la métropole de Lyon. Nous discuterons ainsi les forces et faiblesses de la méthode et des divers modes d’administration choisis et pour mesurer ce phénomène en évolution constante. UN CONCEPT DE MESURE POUR DE NOUVELLES PRATIQUES : LE DÉCOUPLAGE DE L’ACHAT ET DE LA RÉCUPÉRATION DES MARCHANDISES
|
Session Statistical matching / Mesure d'audience
Session Statistical matching / Mesure d'audience Lorie DUDOIGNON
Sur ces dernières années, on a pu constater une explosion des technologies numériques portable et des consommations associées. Les marques digitales se sont naturellement très vite adaptées à ces évolutions en déclinant leurs contenus sur tous les écrans via des applications sur mobile et tablette. L’audience Internet sur chacun des écrans est mesurée par Médiamétrie auprès de panélistes équipés de « meter » sur au moins un type d’écran. Jusqu’en 2017, Médiamétrie proposait ainsi 3 mesures de référence (une par type d’écran). Ces dispositifs étaient alors complétés par l’étude Internet Global. Cette étude qui, comme son nom l’indique, consiste en une mesure globale des marques digitales sur les différents écrans, était réalisée par fusion statistique des 3 panels vers une étude receveuse ou Hub. Depuis Octobre 2017, l’étude Internet Global est devenue la mesure de référence des audiences Internet. A cette occasion la méthodologie de fusion des 3 panels a été entièrement revue grâce, notamment, au recrutement de panélistes mesurés sur plusieurs types d’écran. L’objectif de cette présentation est de détailler la nouvelle méthodologie mise en place en expliquant les raisons qui ont pu guider nos choix. Fusion statistique de données d'enquêtes : dernières avancées pour les mesures d'audience
Cecilia Roxana ADAM
L’étude présente un aperçu sur la perspective théorique concernant l’appariement statistique, combiné simultanément avec des considérations pratiques. Le sujet est traité au niveau "micro" et traite aussi l’ensemble des problèmes concernant l’hypothèse implicite sur l’indépendance conditionnelle dans la pratique. Les niveaux de validation de Rässler concernant l’appariement statistique sont discutés et proposés pour l’analyse de la qualité de la méthode d’appariement. Finalement, une situation typique d’appariement est décrite en quatre étapes, avec des exemples concrets liés aux enquêtes EMB et EU-SILC. CONSIDÉRATIONS THÉORIQUES ET PRATIQUES CONCERNANT LES TECHNIQUES D’APPARIEMENT
Gaël CROCHET, Gilbert SAINT-JOANIS
L’industrie des médias connait de profonds bouleversements du fait de la révolution numérique et ce comme jamais au cours des périodes précédentes. La consommation de la Presse en particulier s’est significativement modifiée sous les effets de la forte croissance des consommations digitales, du développement des réseaux sociaux et de la baisse de la consommation du Print.
La Presse en France a pris des mesures fortes et innovantes pour répondre aux défis du numérique et des nouveaux concurrents, jusqu’à repenser son dispositif de mesure d’audience en le recentrant notamment autour de la marque Média (Print + Digital). Ce nouveau dispositif permet par ailleurs une meilleure mesure des duplications entre les différentes natures de support (Print vs Digital) avec la mise en place d’un dispositif innovant de recueil des consommations digitales des panélistes. Enfin, le nouveau dispositif permettra de faire évoluer le Médiaplanning Presse vers un Médiaplanning global du média, enrichi des reprises en main et de la vitesse d’accumulation de l’audience permettant ainsi une complète symétrie entre les supports Print et Numériques LA MESURE UNIFIEE DE LA MARQUE DE PRESSE
|
Session Calage
Session Calage Risto LEHTONEN, Ari VEIJANEN
Le calage est un outil flexible pour réaliser des estimations dans des populations finies. Le calage ordinaire, sans modèle, a été systématiquement utilisé pour des estimations dans des populations et des sous-populations (domaines) de grandes tailles. Il a la particularité de ne pas être fiable pour des estimations dans de petits domaines car l’estimateur calé est instable lorsque la taille des échantillons tirés dans des domaines est petite. Le calage assisté par un modèle («model-assisted ») intègre la modélisation explicite dans la procédure de calage. Nous montrons que dans les cas considérés, la méthode « model-assisted » surpasse le calage ordinaire au niveau de la précision des estimations. Dans le calage assisté par un modèle, les sommes des prédictions du modèle sont utilisées dans les équations de calage au lieu des sommes des variables auxiliaires comme dans le calage ordinaire. La propriété de la cohérence intégrée du calage ordinaire (qui consiste dans l'utilisation d'un ensemble désiré de variables auxiliaires) est donc perdue dans le calage assisté par un modèle. Pour maintenir cette propriété, nous proposons une méthode appelée calage « hybride ». La méthode combine certaines propriétés du calage ordinaire (propriété de la cohérence intégrée) et du calage assisté par un modèle (modélisation flexible et amélioration de l'efficacité). Comme extension supplémentaire, nous introduisons deux niveaux de calage hybride pour les cas où le calage ordinaire et celui assisté par un modèle sont exécutés à différents niveaux hiérarchiques de la population. Cette approche pourrait être utile dans les cas où la partie sans modèle indique une instabilité à cause de la taille des échantillons dans des petits domaines et le calage assisté par un modèle exécuté à un niveau plus élevé devraient apporter une amélioration. Pour illustrer les forces et faiblesses des différentes méthodes de calage, nous comparons leurs propriétés statistiques (biais, précision) et les distributions correspondantes de poids de calage à l'aide d'une simulation de type « design-based » ; celle-ci utilise des données réelles obtenues à partir des registres statistiques provenant de Statistics Finland et des modèles mixtes linéaires généralisés (GLMM). Notre exemple basé sur des données réelles vise l’estimation de la pauvreté. ESTIMATION SUR PETITS DOMAINES PAR CALAGE
Mohammed EL HAJ TIRARI
L'estimation du total de la population est parmi les problématiques ayant suscitée beaucoup d'intérêt en théorie des sondages. En effet, le fait de bien estimer un total conduit à l'amélioration de l'estimation de tout paramètre de la population qui peut s'écrire comme une fonction de totaux. Plusieurs estimateurs ont été proposés pour estimer un total dont l'estimateur d'Horvitz-Thompson (1952) et celui par calage (Deville, 1992) sont parmi les plus utilisés en pratique. Cependant, chacun de ces deux estimateurs possède des avantages et des inconvénients. Nous proposons un nouvel estimateur composite des estimateurs HT et par calage dont l'élaboration est faite de telle sorte à tenir compte des situations les plus favorables à l'utilisation de chacun de ces deux estimateurs. Estimateur composite du total de la population sous l'approche basée sur le plan et le modèle
Pierre-Arnaud PENDOLI, Sébastien HALLEPEE, Olivia SAUTORY
Le dernier recensement de la population (RP) date de 1999. Depuis 2004, la France est divisée en 5 groupes de rotation : chaque année, tout ou partie d'un groupe est recensée au cours des enquêtes annuelles de recensement (EAR). Un RP repose ainsi sur l’agrégation des données de 5 EAR.
Les groupes de rotation, sur lesquels sont construites les EAR, sont parfois très déséquilibrés en termes de nombre de logements et de population. On observe ainsi dans certaines régions d'importantes fluctuations dans les séries de populations calculées à partir des EAR, freinant jusqu’à présent une utilisation plus poussée de cette source.
L’exploitation des données d'une seule EAR offre pourtant plusieurs avantages, notamment la fraîcheur des données, l’unicité de période d’observation et une plus grande réactivité en cas de modifications du questionnaire. Par exemple, une modification du questionnaire de la feuille de logement a lieu en 2018. Une nouvelle analyse ménage-famille pourra conduire à des études dès 2019 à partir de l’EAR, contre 2023 si on devait utiliser le RP.
Nous présenterons une nouvelle méthodologie de calage des EAR visant à améliorer la précision de ces données. Celle-ci repose notamment sur l'utilisation de variables auxiliaires issues du Fichier démographique des logements et des individus (Fideli) basé sur des sources fiscales.
La nouvelle pondération réduit les écarts entre les estimations issues de l'EAR 2014 et celles du RP 2014. Elle permet aussi de lisser les fluctuations des séries de population et de nombre de logements dues aux déséquilibres des groupes de rotation. La repondération des enquêtes annuelles de recensement pour une diffusion complémentaire du RP
| |||
12h30-13h00 | Présentation POSTERS Présentation Posters
Présentation Posters Modérateur: Alina MATEI, Grand Amphi | |||||
13h00-14h30 | Repas et présentation posters | |||||
14h30-16h00 | Table RONDE: Enquêtes internationales Intervenants table ronde:
Enquêtes internationales Modérateur: Pascal ARDILLY, Grand Amphi | |||||
16h00-16h30 | Pause café et présentation posters | |||||
16h30-18h10 |
Session Enquêtes Internationales
Session Enquêtes Internationales Emilio DI MEGLIO, Agnieszka LITWINSKA, Sorina VÂJU
La stratégie Europe 2020, le socle européen des droits sociaux et la crise économique et financière ont mis en évidence l'importance des statistiques sociales. Dans ce contexte, Eurostat révise l'enquête EU-SILC aussi dans le cadre de la modernisation des statistiques sociales européennes.
La révision d'EU-SILC vise à:
- Modulariser l'enquête et mieux l'adapter aux besoins des utilisateurs. Un «noyau» couvrant les données Europe 2020 et d'autres variables clés seront collectés chaque année. Des modules mobiles fixes complèteront tous les trois ans (par exemple, le travail et la santé) ou six ans (par exemple, la qualité de vie, l'accès aux services et à la richesse ainsi que les nouveaux besoins politiques futurs)
- Améliorer la ponctualité, avec une disponibilité des données EU-SILC au plus tard en décembre de l'année de référence.
- Eventuellement étendre le panel rotatif de 4 à 6 ans, pour mieux étudier les transitions et les récurrences.
- Permettre plus de ventilations des indicateurs par région.
Des parties de la révision, par exemple, la ponctualité ou la régionalisation, ainsi que la mesure améliorée de la privation matérielle, sont déjà mises en œuvre dans EU-SILC. Les autres éléments seront mis en œuvre dans le cadre d'un règlement-cadre sur les "statistiques sociales européennes intégrées" en cours de négociation par les instances politiques européennes.
LE DÉVELOPPEMENT FUTUR DE L'ENQUÊTE EU-SILC
Guillaume OSIER
Cette contribution propose une formule d’estimation permettant le calcul des marges d'erreurs dans le cas d’échantillons rotatifs. Cette formule est à la fois justifiée sur le plan théorique et facile à mettre en pratique à l’aide des logiciels standards d’analyse statistique comme SAS, Stata, SPSS ou R. Elle peut être étendue aux indicateurs longitudinaux, aux indicateurs de changement ainsi qu’aux statistiques non linéaires via la technique de linéarisation. Des résultats numériques obtenus à partir des statistiques européennes sur les revenus et les conditions de vie (EU-SILC) sont fournis à la fin de la contribution. CALCUL DE PRECISION DANS LE CAS D'ECHANTILLONS ROTATIFS : L'EXEMPLE DES STATISTIQUES EU-SILC AU LUXEMBOURG
Arianna CAPORALI
Les métadonnées sont essentielles dans la mise à disposition des enquêtes internationales et longitudinales pour fournir aux utilisateurs des informations sur la comparabilité des données de différents pays et de différentes vagues d'enquête. Une documentation des données bien planifiée est par conséquent nécessaire pour le bon management de ces enquêtes. Cet article traite de la documentation des données dans le Generations and Gender Programme (GGP). Il s'agit d'une enquête démographique longitudinale auprès des personnes âgées de 18 à 79 ans en Europe et au-delà. Les instruments d'enquête ont été adaptés aux différents contextes nationaux, ou bien incorporés dans des enquêtes existantes. Les défis de la documentation des enquêtes GGP consistent en la nécessité de combiner les informations sur les spécificités de chaque pays avec les informations concernant l'harmonisation post hoc des données, et ce à travers différentes vagues. Pour relever ces défis, la documentation des données suit une procédure structurée. Les métadonnées sont fournies conformément à la Data Documentation Initiative (DDI), une norme internationale de documentation des données, et elles sont mises à disposition avec les jeux de données en ligne via le logiciel Nesstar. L’article aborde les limites de la documentation des enquêtes GGP, ainsi que la manière dont ils seront résolus à l’avenir. Basé sur un plus grand suivi de la collecte par l'équipe de coordination centrale, le nouveau cycle de GGP à partir de 2020 permettra d’optimiser la documentation et la mise à disposition des données. Faire face aux défis de la documentation et de la mise à disposition des enquêtes internationales et longitudinales : le cas du Generations and Gender Programme
Stanislas SPILKA, Emmanuelle GODEAU
En 2018, face à la difficulté de participer tous les quatre ans aux enquêtes internationales Health behaviour in School-aged children (HBSC) et European School Project on Alcohol and other Drugs (ESPAD), la France a décidé de réaliser de manière unifiée et simultanée ces deux enquêtes en collège et en lycée. Ce projet dénommé EnCLASS (Enquête Nationale en Collège et en Lycée chez les Adolescents sur la Santé et les Substances), vise à doter notre pays d’un dispositif innovant et unique au niveau international, de suivi des comportements de santé des adolescents en France, qui garantisse la parfaite comparabilité des données au niveau international. Toutefois, l’harmonisation de ces deux projets soulève de nombreuses difficultés, tant au niveau international qu’au niveau national, où l’harmonisation des dispositifs reste un enjeu fort face à la difficulté de concilier des méthodologies et des questionnaires différents. En s’appuyant sur les premiers résultats, la présentation sera l’occasion de revenir sur la mise en œuvre d’EnCLASS et les solutions proposées pour répondre aux contraintes d’un tel projet, qu’il s’agisse de la réticence des autres chercheurs internationaux impliqués dans chacun des réseaux ou de la difficulté de coordonner deux enquêtes indépendantes, à la fois proches mais différentes. Pour autant, les bénéfices peuvent se révéler très importants, sur les plans scientifiques, financiers et politiques, et justifier les risques pris. Le projet ENcLASS bien plus qu’un simple mariage de raison entre deux enquêtes internationales
François ROUBAUD, Mireille RAZAFINDRAKOTO
Cette communication présente une expérience en cours en matière d’élaboration de statistiques sur la Gouvernance, la Paix et la Sécurité harmonisée à l’échelle de l’Afrique (GPS-SHaSA). La méthode consiste à greffer sur des enquêtes socio-économiques auprès des ménages des modules spécifiques sur ces thématiques. Après un rappel historique sur la montée progressive du concept de gouvernance et les premiers défis de sa mesure, la présentation du nouveau contexte international (ODD16, Agenda 2063) montre l’importance des enjeux et l’opportunité aujourd’hui de consolider une méthodologie de collecte de données sur la gouvernance, la paix et la sécurité. Cette contextualisation permet de souligner l’intérêt et la possibilité de développer un dispositif harmonisé d’enquêtes conduites par les Instituts Nationaux de la Statistique, qui puisse être institutionnalisé dans le cadre d’une initiative continentale. La communication explicite les principales options méthodologiques retenues avant de dresser un premier bilan des premières opérations de terrain menées à titre pilote dans une quinzaine de pays. Quelques résultats empiriques viennent illustrer la pertinence et la portée analytique des modules GPS-SHaSA. Les modules Gouvernance, Paix et Sécurité dans un cadre harmonisé au niveau de l’Afrique (GPS-SHaSA) : développement d’une méthodologie d’enquête statistique innovante
|
Session Enquêtes sociales
Session Enquêtes sociales Nathalie AUDET, France LAPOINTE, Robert COURTEMANCHE
Résumé : Malgré le recours grandissant à des sources alternatives de données, les enquêtes populationnelles demeurent souvent l’unique moyen de disposer d’un large éventail de renseignements pour l’analyse de phénomènes sociaux complexes. Par souci d’efficacité, les organismes désireux d’étudier la même population ont intérêt à s’unir.
Au cours des dernières années, l’Institut de la statistique du Québec a effectué plusieurs enquêtes concernant les jeunes enfants et leur famille qui ont notamment servi à connaître le parcours des enfants de 0 à 5 ans et les expériences parentales. Ces enquêtes ont ainsi fourni aux partenaires à l’enquête à plusieurs ministères québécois, dont celui de la Famille, de la Santé et des Services sociaux ou de l’Éducation et de l’Enseignement supérieur ou à l’organisme Avenir d’enfant des données probantes concernant la petite enfance (0 à 5 ans).
Cet article présente le cas d’un partenariat de plusieurs organismes ayant permis la mise en commun de trois enquêtes portant sur les enfants de la maternelle. Ainsi, une enquête par recensement a été jumelée à une étude de type cas-témoins et à une enquête échantillon à portée régionale. La base d’un partenariat efficace pour l’élaboration d’un questionnaire adapté est abordée, de même que les stratégies de collecte de données mises de l’avant pour le recueil en cascade de renseignements auprès des enseignants, puis des parents d’enfants à la maternelle en 2016-2017. On détaillera également comment la disponibilité d’une base de sondage de qualité a facilité l’élaboration d’un plan d’échantillonnage optimal pour la combinaison des deux enquêtes par échantillon.
Mots clés : échantillon, recensement, questionnaire, partenariat, enquêtes combinées, jeunes enfants
Abstract : Despite the growing availability of alternate sources of data, population survey often remains the sole avenue to access a vast spectrum of information that will enable the analysis of complex social phenomena. To enhance efficiency, organisations that are interested in studying the same population may greatly profit from working together.
In recent years, l’Institut de la statistique du Québec has conducted many surveys pertaining to young children and their families. These studies have been used, amongst other things, to depict the course of children from 0-5 years as well as the parents’ experiences. Ministries in Quebec, including the one of Family, of Health and Social Services or of Education and Higher Education, and organisations such as Avenir d’enfant have all benefitted from these surveys that have provided data that enhances the understanding of early childhood.
This article describes how the partnership of many organisations resulted in the merger of three studies targeting kindergarten children. Thus, a census was combined to a case-control study as well as to a regional sample survey. The basics of an efficient partnership in order to design an adequate questionnaire are discussed, as well as data collection strategies put forth to gather the successive input of teachers and parents of children in kindergarten in 2016-2017. We shall also elaborate on how the availability of rich sampling frame simplifies the development of an optimal sampling design for the combination of two sample surveys.
Keywords : sample, census, questionnaire, partnership, combined surveys, young children
La combinaison d’enquêtes : les défis d’une expérience québécoise
Gérard BOUVIER
Attribuer la nationalité française à un étranger est d’abord une décision régalienne de l’Etat français. On présentera les grandes lignes des mécanismes administratifs en vigueur en France, puis on les mettra en perspective, au vu des faits statistiques et de quelques comparaisons avec l’étranger. Deux sources statistiques permettent une analyse des caractéristiques sociodémographique des « nouveaux Français », dont l’enquête « Trajectoires et Origines » (TeO), qui n’avait jamais été utilisée à cette fin et permet d’affiner cette analyse. L’autre source utilisée ici est le recensement. On décrit brièvement ensuite les principaux facteurs influents (sur le fait d’avoir ou non obtenu la nationalité) qui ont pu être mis en évidence en utilisant les deux sources. La démographie est importante : âge, âge à l’arrivée, durée de présence. Le fait d’avoir un conjoint, particulièrement s’il est lui-même Français naturalisé joue positivement.
On mettra l’accent sur trois facteurs influents. De fortes variations par pays d’origine s’observent sur les taux de naturalisation. Cet effet d’origine se combine avec des effets spécifiques du motif administratif d’entrée (le motif du premier Titre de séjour »). Les facteurs sociaux (emploi, diplôme) sont notables, mais un très fort effet négatif du manque de maitrise du français ressort aussi. Il y a donc bien ici correspondance entre la volonté affichée de l’Etat d’exiger une maitrise suffisante du français et les résultats observés.
Un point méthodologique complète l’article, précisant ce que Recensement et TeO ont pu apporter.
Devenir Français, ce que les immigrés proposent et comment en dispose l’administration
Gérard BOUVIER
Les Etats gardent des prérogatives majeures pour accorder ou non un titre de séjour à un résident étranger. Pour l’essentiel, trois catégories de migrants sont pris en compte (par ordre d’importance numérique) : les migrants familiaux, économiques, humanitaires. Un point de cadrage statistique avec quelques comparaisons internationale est d’abord proposé.
On utilise en premier lieu les données de l’enquête ELIPA pour discuter dans le cadre proposé par Lee (1966) d’une adéquation entre motif administratif, motivations (soit les « push factors », qui incitent à l’émigration) et raisons (soit les « pull factors » qui incitent le migrant à se diriger vers tel ou tel pays d’accueil). Motifs, motivations et raisons s’entremêlent et ne correspondent pas exactement. Il y a cependant bien une certaine cohérence dans les projets migratoires et celle-ci est plus nette encore pour les migrants humanitaires.
Une deuxième source de données (Trajectoires et origines, TeO) est utilisée pour prolonger l’analyse. On examine ainsi comment les immigrés s’insèrent sur le marché du travail, en fonction du motif d’entrée. Ce sont d’abord les caractéristiques usuelles (qualifications) qui déterminent le plus l’accès à l’emploi. Pour les migrants, la durée de présence est aussi une caractéristique très influente. Les migrants humanitaires ont un peu moins en emploi du fait de difficultés à maitriser le français. Leur comportement économique est donc similaire à celui des autres migrants. L’écart (négatif) le plus important s’observe pour les migrantes familiales de certaines origines.
Les statistiques peuvent-elles nous aider à distinguer migrants économiques et migrants humanitaires ?
Ali SAOUD
Les microdonnées statistiques offrent un potentiel analytique considérable tout en regorgeant d’informations individuelles relevant de la vie privée des gens. Leur diffusion tant souhaitée et briguée nécessiterait l’occultation prudente de leur identité et de leurs attributs distinguables. Tel est le principe d’anonymisation des microdonnées qui vise à considérablement minimiser le risque d’identification.
Autant que nous sachions, la règle du k-anonymat, sur laquelle se base l’une des mesures du risque d’identification, s’applique actuellement en intégrant les valeurs manquantes selon une approche que nous avons jugée trop peu restrictive à notre goût.
La présente contribution introduit deux nouvelles alternatives pour l’estimation des valeurs manquantes, OPTA et PESA, toutes deux plus restrictives que l’approche en vigueur et pouvant convenir aux instituts statistiques publics, chacun selon l’ampleur de son besoin d’anonymisation des microdonnées qu’il produit. L'impact revu des valeurs manquantes sur la mesure du risque d'identification basée sur la règle du k-anonymat : présentation d'OPTA et de PESA
Idrissa OUILI
With the introduction of the Sustainable Development Goals, there is a renewed interest in reducing child poverty as measured multidimensionally. Cash transfers and social protection are a leading tool to address poverty and vulnerability in low- and middle-income settings, however to date there is no rigorous evidence on their ability to effect child multi-dimensional poverty. We utilize a three-year experimental evaluation of the Government of Malawi’s unconditional cash transfer to assess impacts on multi-dimensional poverty using the Multiple Overlapping Deprivation Approach to define child multidimensional poverty. We find that although the program decreased monetary poverty among children aged zero to 17 at endline, the impacts on multi-dimensional headcounts depend on the level of deprivation. However, the program did reduce the intensity of multi-dimensional poverty among the full sample, and had larger impacts on younger children and boys. In addition, impacts on specific domains like health, nutrition and water deprivations provide promising evidence to spur further research on potential and constraints of large-scale cash transfer programming. Unconditional Cash Transfers and Child Multidimensional Poverty: Evidence from Malawi
|
Session Statistique officielle II et big-data
Session Statistique officielle II et big-data Li-Chun ZHANG
Survey sampling has many attractive features that are particularly important to Official Statistics, such as transparency, universality and flexibility. Over the past decades reusing data originated from administrative sources has gathered greater momentum internationally. The more recent digital revolution has greatly improved the availability of data outside the administrative sources, which can as well be repurposed for Official Statisticas. In this talk I will discuss the various types of uses of big data for Official Statistics. Emphasis is given to the need of formulating precise validity conditions for descriptive inference from non-probability big data and the difficult challenges of validating these validity conditions. Indeed, in most situations bias seems unavoidable. An approach to uncertainty assessment and communication will be proposed and illustrated. How to use big data for Official Statistics?
Yves TILLE
Les méthodes d'échantillonnage probabilistes ont été mises au point dans le cadre de la statistique d'enquête. Récemment, ces méthodes ont fait l'objet d'un intérêt renouvelé pour la réduction de la taille des grands ensembles de données. Une application particulière est l'échantillonnage à partir d'un flux de données. Le flux est censé être tellement important qu'il ne peut pas être stocké. Lorsqu'une nouvelle unité apparaît, la décision de la conserver ou non doit être prise directement sans examiner toutes les unités déjà apparues dans le flux. Dans cet article, nous examinons les méthodes existantes d'échantillonnage avec des probabilités inégales à partir d'un flux. Nous proposons ensuite un résultat général sur le sous-échantillonnage à partir d'un échantillon équilibré qui nous permet de proposer plusieurs nouvelles solutions pour l'échantillonnage et le sous-échantillonnage à partir d'un flux. Plusieurs nouvelles applications de ce résultat général sont développées.Ensuite, nous proposons un résultat général pour sous-échantillonner qui nous permet de proposer plusieurs nouvelles solutions pour l'échantillonnage et le sous-échantillonnage dans un flux de données. Plusieurs nouvelles applications de ce résultat général seront présentées. Procédures rapides pour sélectionner des échantillons à probabilités inégales dans un flux de données
|
9h10-10h50 |
Session Multi-modes / Collecte
Session Multi-modes / Collecte Stéphane LEGLEYE
Résumé.
Les enquêtes multimodes ont ceci d’original qu’elles imposent de reconsidérer quelques aspects fondamentaux de méthodologie d’enquête qui sont souvent minimisés voire ignorés dans les enquêtes monomodes. Dans cette présentation, je rappellerai quelques-unes de ces évidences, relatives au mode de contact, au mode de collecte, à leur impact sur la représentativité des échantillons de répondants ainsi qu’à leur impact sur la qualité intrinsèque du recueil des données. Si l’effet mode de collecte est généralement perçu comme une nuisance, il peut être au contraire bénéfique et désiré et contribuer à dicter le choix du protocole multimode. Les situations doivent s’apprécier au cas par cas, suivant l’objectif des enquêtes, leur place dans les dispositifs d’observations, leurs utilisations publiques et pour la recherche, et enfin par l’existence de séries de mesures dans le temps.
Après avoir défini l’effet de sélection et l’effet de mesure, et rappelé les principales techniques permettant de les séparer, je présenterai quelques approches définies récemment pour tenter de le contenir voire de neutraliser l’effet de mesure. Enfin, je présenterai une approche pragmatique et parcimonieuse développée à l’Insee, fondée directement sur le concept d’effet de mesure, visant à le réduire au maximum lorsque cela est nécessaire.
The originality of mixed-mode surveys is that they require a reconsideration of some fundamental aspects of survey methodology that are often minimized or even ignored in single-mode surveys. In this presentation, I will recall some of these evidences, relating to the mode of contact, the mode of collection, their impact on the representativeness of the respondents' samples as well as their impact on the intrinsic quality of the data collection. While the collection mode effect is generally perceived as a nuisance, it can be beneficial and desired and help dictate the choice of a mixed-mode protocol. Situations must be assessed on a case-by-case basis, according to the purpose of the surveys, their place in observation systems, their public and research uses, and finally by the existence of series of measurements over time. After having defined the selection effect and the measurement effect, and recalled the main techniques to separate them, I will present some approaches recently defined to try to contain or even neutralize the measurement effect. Finally, I will present a pragmatic and parsimonious approach developed at INSEE, based directly on the concept of measurement effect, aiming to reduce it to the maximum when necessary. Agrégation de données multimodes : un état des lieux et une proposition pragmatique pour contrôler l’effet de mesure
Johann NEUMAYR, Joachim SCHORK, Guillaume OSIER
Cette étude cherche à évaluer les effets de mode impactant les variables tirées de l'enquête sur les forces de travail (EFT) au Luxembourg. Cette enquête repose sur un système de collecte mixte web/téléphone. Une technique de matching (coarsened exact matching) permet d'apparier le sous-échantillon des répondants par Internet avec ceux par téléphone en contrôlant le mécanisme de sélection des sous-échantillons. On peut ainsi évaluer l'ampleur de l'effet de mode qui affecte les résultats.
L'application de cette approche sur les variables de l'EFT ne révèle aucun effet de mode significatif pour ce qui est des variables de statut dans l'emploi, tandis que des effets de mode importants apparaissent avec des questions subjectives comme la satisfaction avec l'emploi ou la rémunération.
-----------------------------
Based on the Luxembourgish Labor Force Survey, the largest recurring household survey in Luxembourg, we investigate if reports on participants employment status differ in web and telephone data. Analysis of the raw data reveals significant differences in sample composition (e.g. respondents personal characteristics such as age or nationality) as well as in key variables for measuring employment status.
In order to investigate whether differences in employment status are caused by sample composition or survey mode effects, we match web and telephone samples according to variables that lead to dissimilarities in sample composition. Based on the selected variables, we then apply a Coarsened Exact Matching to enable a comparison among web and telephone samples. After matching, we show that most differences between web and telephone samples disappear, which leads to the conclusion that survey mode has a minor effect on measuring employment status. Les effets du mode de collecte des données sur la mesure de l'emploi : une comparaison entre le web et le téléphone
Yves FRADIER, Joel WILLIAMS
Il y a une forte demande au Royaume-Uni, et dans les pays comparables, pour une méthode financièrement abordable d'enquête en population générale utilisant les techniques d'échantillonnage aléatoire. Dans ce texte, nous décrivons une méthode alternative, déjà utilisée aux États-Unis mais nouvelle au Royaume-Uni : le Sondage en Ligne Basé sur les Adresses. Ce texte couvre tous les aspects de la méthode, répondant aux questions sur le niveau de couverture, la qualité des données, les taux de réponse probables et les biais potentiels dans les estimations. COMME UNE LETTRE A LA POSTE : L’ALEATOIRE EN LIGNE
Magalie SENAUX
Médiamétrie réalise des enquêtes téléphoniques auprès de la population française équipée de téléphone fixe et/ou mobile, elle interroge via le système CATI autour de 1,5M d’individus par an ce qui génère des milliers de datas permettant de suivre l’évolution de la joignabilité par téléphone.
L’absence d’une base de sondage nous pousse à utiliser des méthodes non probabilistes pour sélectionner nos échantillons. Nos principales difficultés reposent sur la construction d’une base de numéros la plus complète possible et la mise en œuvre d’un protocole d’appel optimal pour optimiser les taux de participation et limiter les problèmes de joignabilité.
L’objet de notre communication sera d’exposer les tendances que nous observons au sein de deux de nos enquêtes téléphoniques : la 126000 Radio et l’Observatoire des Usages Internet et de décrire les différents scénarii possibles que nous envisageons sur l’avenir des enquêtes téléphoniques.
EVOLUTION DE LA JOIGNABILITE DANS LES ENQUETES TELEPHONIQUES
|
Session Enquêtes entreprises
Session Enquêtes entreprises Arnaud FIZZALA, Thomas DEROYON, Cyril FAVRE-MARTINOZ
Les unités atypiques sont des unités de la population qui, suivant qu’elles appartiennent ou pas à l’échantillon, changent beaucoup le niveau des estimateurs calculés et diffusés. Elles sont de plus en plus souvent traitées à l’Insee par winsorisation. Le but de la winsorisation est de limiter l’impact de ces unités en réduisant leur poids de sondage ou la valeur associée à la (ou les) variable pour laquelle l’unité est influente. Ce faisant, les estimateurs gagnent en stabilité mais un biais est introduit.
En pratique, la winsorisation, appliquée à un échantillon sélectionné par sondage aléatoire simple stratifié, se base sur des seuils définis dans chaque strate de tirage: les valeurs qui dépassent le seuil sont "rognées", et les valeurs se situant sous le seuil sont conservées à l’identique. Le choix de ces seuils est déterminant pour la qualité de la winsorisation. Kokic et Bell ont proposé une méthode pour calculer des seuils optimaux, c’est-à-dire minimisant l’erreur quadratique moyenne anticpée sous un certain modèle de l’estimateur winsorisé. Cependant, ces seuils sont optimaux sous certaines hypothèses parmi lesquelles le fait que le plan de sondage de l’enquête soit aléatoire simple stratifié, ce qui est le cas de la majorité des enquêtes auprès d’entreprises du système statistique public français.
Deux demandes concernant le traitement des unités atypiques représentatives dans des cas de plans de sondage "plus complexes" ont récemment été formulées à la Division Sondages.
L’article décrira plus en détails les simulations réalisées dans le but de répondre à ces demandes, et qui montrent dans les deux cas que les seuils de Kokic et Bell peuvent donner de bons résultats même lorsque le plan de sondage n’est pas aléatoire simple stratifié. Les seuils de Kokic et Bell performants dans d'autres cadres que le sondage aléeatoire simple stratifié
Hélène MORON, Yves BOURNIQUE, Gérard BOUVIER, Bastien FUENTES, Nathalie MOSSMANN
Généric est un projet d’application de reprise d’enquêtes auprès des entreprises. L’ensemble des fonctionnalités offertes par l’application concerne essentiellement la collecte et le traitement des données et relève des chapitres 4 et 5 du generic statistical business process model. L’application doit pouvoir traiter simultanément plusieurs enquêtes annuelles ou pluri-annuelles, similaires quant à leur taille : de l’ordre de 10 000 unités enquêtées, questionnaires « modestes » (moins de 100 questions), mais différentes suivant leur champ ou thématique. L’application est construite à partir de principes communs pour le traitement des données.
Les fonctionnalités qu’offrira Généric sont décrites et replacées dans le contexte général d’une opération de collecte et traitement de données. Généric comprend en fait deux applications, l’une de reprise (le traitement des données, utilisée par les gestionnaires d’enquêtes) et une autre application de conception et pilotage. L’accent est ainsi mis sur les fonctionnalités « cœur de Généric » : l’organisation et le déroulement d’un processus de reprise mené conjointement par des processus automatiques et une expertise humaine. Le projet s’est construit et se mène toujours avec un souci aigu de satisfaire les utilisateurs et de le rendre accessible. Il résulte d’un travail commun entre concepteurs, utilisateurs des applications actuelles et futurs (probables) utilisateurs. En préalable à ce souci de co-construction, Généric répondait à des besoins d’harmonisation des pratiques de reprise, et aux impératifs d’insertion dans un écosystème d’applications, de référentiels et normes, propre à l’Insee. Construire une application informatique est d’abord une aventure humaine ...
Comment normaliser sans uniformiser le traitement des données d’enquêtes avec Généric
Lionel QUALITE
L'enquête suisse sur la structure des salaires permet d'obtenir des informations sur les salaires versés par les entreprises, sur les emplois concernés et sur les caractéristiques des employés qui perçoivent ces salaires. Pour l'enquête de 2018, l'Office fédéral de la statistique (OFS) a entrepris de réviser le plan d'échantillonnage. Le nouveau plan doit être défini en fonction d'objectifs de précision donnés, et permettre d'utiliser les données auxiliaires sur les revenus qui proviennent de la Centrale de Compensation (partie du système de sécurité sociale suisse). C'est également l'occasion d'adapter la procédure au tirage de Poisson avec probabilités de sélection uniformes dans des domaines qui remplace depuis 2012 le tirage stratifié. L'utilisation d'un plan de Poisson a permis de simplifier le calcul d'une allocation optimale. En effet, contrairement au plan stratifié, ce calcul ne nécessite pas de traiter des problèmes d'arrondis ou d'imposer des tailles minimales d'échantillons dans les domaines. Certains des objectifs de précision concernaient l'estimation de médianes. Pour les traiter, des calculs de variables linéarisées ont été effectués puis comparés à l'aide de simulations. Enfin, la précision attendue avec la nouvelle allocation peut être évaluée en utilisant les données de l'enquête 2016. Révision du plan de sondage pour l'enquête suisse sur la structure des salaires
Arnaud FIZZALA
Les statistiques d’entreprises françaises font actuellement l’objet d’une refonte majeure. En effet, ces dernières tendent à s’appuyer de plus en plus sur une notion économique d’entreprise plutôt que sur la notion juridique d’unité légale qui était utilisée jusqu’ici à l’Insee. Le profilage des entreprises, permettant d’établir la liste d’unités légales composant chaque entreprise, est réalisé manuellement pour les plus grandes sociétés et sur la base d’algorithmes pour les autres.
Depuis 2016, le tirage des échantillons de deux grandes enquêtes entreprises de l’Insee - l’enquête sectorielle annuelle et l’enquête annuelle de production - est réalisé au niveau des entreprises profilées. Au moment du tirage, les contours des entreprises profilées sont provisoires, et ce n’est que quelques mois plus tard que l’information à jour sur les contours peut être utilisée. La mise à jour de ces contours pose plusieurs problèmes méthodologiques, à commencer par la définition de l’échantillon d’entreprises effectivement échantillonné et mis en collecte après mise à jour des contours et le calcul d’un poids d’extrapolation pour ces entreprises. Pour réaliser ces opérations, nous nous sommes appuyés sur la théorie du sondage indirect et sur la méthode généralisée du partage des poids.
L’article présentera dans une première partie une comparaison de deux versions de partage des poids permettant de gérer la mise à jour des contours des entreprises, et dans une deuxième partie une comparaison de deux possibilités d’adaptation à un partage des poids des méthodes de traitement des valeurs influentes utilisées jusqu’ici dans ces enquêtes.
LE TRAITEMENT DES CHANGEMENTS DE CONTOURS DES ENTREPRISES PAR PARTAGE DES POIDS
|
Session Estimation de variance et Robustesse
Session Estimation de variance et Robustesse Guillaume CHAUVET
Les enquêtes auprès des ménages sont souvent sélectionnées selon un plan de sondage à plusieurs degrés. Par exemple, le plan de sondage initial de l’enquête Panel Politique de la Ville [1], réalisée entre 2011 et 2014, peut modulo quelques simplifications être vu comme le résultat d’un plan de sondage à deux degrés. Un échantillon de quartiers est tout d’abord sélectionné, en stratifiant selon le degré d’avancement urbain et avec des probabilités de tirage proportionnelles au nombre de résidences principales. Un échantillon de ménages est ensuite sélectionné dans chaque quartier tiré au premier degré, et tous les individus de 3 ans et plus de ces ménages sont théoriquement enquêtés. Les individus sont suivis pendant quatre vagues d’enquête, avec ajout d’échantillons complémentaires lors des vagues suivantes. Ces ajouts sont réalisés afin de compenser de l’attrition et de permettre de produire des estimations transversales à toutes les vagues d’enquête.
Même dans le cas le plus simple d’une estimation lors de la première vague, l’estimation de variance associée est complexe en raison des différents traitements statistiques. Les poids de sondage des ménages sont ajustés de la non-réponse, en général selon la méthode des groupes homogènes de réponse [2], tout comme les poids individuels. Les poids obtenus sont ensuite calés, généralement de façon simultanée [3], sur des totaux auxiliaires au niveau ménage et au niveau individuel. Pour un plan de sondage à d degrés, la variance d’un estimateur se décompose alors en d+2 termes. Les d premiers sont dus aux différents degrés d’échantillonnage. Les deux derniers sont dus à la non-réponse, respectivement de niveau ménage et de niveau individuel.
Dans ce travail, nous étudions les performances d’estimateurs de variance à un seul terme et permettant de tenir compte de toutes ces sources d’alea. Ces estimateurs ne nécessitent pas de produire d’estimateur de variance à l’intérieur des unités primaires, ce qui les rend particulièrement simples d’utilisation. Dans le cas d’une réponse complète au niveau ménage et au niveau individuel, le premier estimateur estime correctement la variance due au premier degré, mais sous-estime la variance due aux degrés suivants de tirage [4]. Le second estimateur de variance est conservatif : il surestime généralement la variance de premier degré, mais estime correctement la variance due aux degrés suivants de tirage. Ces estimateurs peuvent être adaptés facilement pour tenir compte de la variance de non-réponse, en utilisant une technique de linéarisation [5]. Le second estimateur de variance présente également l’avantage de pouvoir être reproduit par bootstrap.
Estimation de variance simplifiée pour une enquête à plusieurs degrés - Application aux enquêtes répétées dans le temps
Nicolas PALIOD, Martin CHEVALIER
Le package R gustave (Gustave : a User-oriented Statistical Toolkit for Analytical Variance Estimation, https://github.com/martinchevalier/gustave), développé par le Département des méthodes statistiques de l'Insee, est une nouvelle proposition visant à faciliter la mise en oeuvre d'estimation de variance analytique pour tout type d'enquête. Il repose sur deux ensembles de fonctions : d'une part des fonctions méthodologiques, qui mettent en oeuvre les estimateurs de variance classiques (Sen-Yates-Grundy, Deville-Tillé) ; d'autre part des fonctions techniques qui créent, à partir des fonctions méthodologiques, des outils d'estimation de variance autonomes et ergonomiques dont l'utilisation ne requiert aucune expertise méthodologique particulière. Le package gustave constitue ainsi une véritable "boîte à outils" pour le méthodologue qui systématise et simplifie la production de programmes d'estimation de variance tenant compte des spécificités de chaque enquête. Estimation de variance dans les enquêtes de l'Insee : le package R gustave
Audrey-Anne VALLEE, Guillaume CHAUVET
Les plans de sondage à deux degrés sont communément utilisés pour des enquêtes sur les ménages et sur la santé. Un estimateur de base pour des totaux dans les populations est l'estimateur Horvitz-Thompson, accompagné de ses estimateurs de variance usuels. La convergence et la distribution asymptotique des estimateurs sont complexes à étudier dans les plans à deux degrés. Dans cette présentation, les propriétés asymptotiques de l'estimateur du total Horvitz-Thompson et de ses estimateurs de variance sont étudiées. Sous des hypothèses raisonnables, la convergence des estimateurs est prouvée. Dans le cas du plan de sondage réjectif au premier degré, la convergence d'un estimateur de variance simplifié du type Hajek est vérifiée et il est montré que l'estimateur du total a une distribution asymptotiquement normale. Les résultats d'une étude par simulations évaluant les propriétés asymptotiques seront présentés. La convergence d'estimateurs et d'estimateurs de variance pour l'échantillonnage à deux degrés
Cyril FAVRE-MARTINOZ, Thomas DEROYON
Dans le cadre du traitement des valeurs atypiques ou influentes, les méthodes de winsorisation souvent très souvent utilisées. Cette méthode nécessite de déterminer un seuil au delà duquel les unités sont ramenées. En pratique, la méthode de Kokic et Bell (1994) est une méthode très souvent mobilisée. Cette méthode a été développée dans le cas d'un sondage aléatoire simple stratifié et sous une hypothèse modèle particulière. L'objectif de cette présentation est d'étendre dans le cas du plan de sondage poissonnien la méthode de Kokic et Bell en présentant les hypothèses modèles associées. Des résultats par simulation seront présentés pour évaluer les performances de cette nouvelle méthode et sa robustesse à une mauvaise spécification du modèle. Cet estimateur sera également comparé empiriquement à l'estimateur robuste basé sur le biais conditionnel proposé par Beaumont et al.(2013). Extension de la méthode de Kokic et Bell au plan poissonnien
| |||
10h50-11h20 | Pause | |||||
11h20-13h00 |
Session Enquêtes électorales
Session Enquêtes électorales Carine MARCE
La campagne 2017 a été marquée par un très grand nombre d’intentions de vote réalisés par les instituts de sondage pour les différents media. Cette quasi overdose de sondages au jour le jour avec des commentaires souvent exagérés par rapport au mouvement observé a contribué à une lecture hystérisée de la campagne.
Kantar Sofres avec ses partenaires LCI / RTL / Le Figaro a fait le choix d’enquêtes plus espacées mais qui ont permis d’enregistrer les moments forts de la campagne. Le choix a été de nourrir l’analyse des intentions de vote par d’autres indicateurs de manière à éclairer les résultats :
• Le potentiel électoral des différents candidats
• Le souhait de victoire à l’election présidentielle
• Le pronostic de victoire
• La stature présidentielle des différents candidats
Le suivi en parallèle de ces différents indicateurs permettait une vision plus claire de la situation politique et notamment la faiblesse structurelle de Marine Le Pen et la très forte avance en image d’Emmanuel Macron.
Nous avons également complété nos analyses par une typologie réalisée à partir de la question de potentiel electoral qui permet de rassembler les « profils » équivalents de probabilité de vote pour déterminer des groupes électoraux ayant des comportements homogènes.
Cette typologie nous a permis de suivre notamment en fin de campagne électorale de quelles réserves de voix disposaient les principaux candidats et d’évaluer ce qu' étaient susceptibles de faire les électeurs encore indécis.
Au-delà du simple sondage d’intentions de vote , les indicateurs de suivi de la campagne électorale
Frédérik CASSOR, Brigitte LE ROUX
Le principal objectif des données barométriques est d'étudier les changements qui se produisent au cours du temps. Nous étudierons ici les données issues de l'enquête « Baromètre de la confiance politique » initiée par le cevipof et portant sur la confiance des électeurs français. Plus précisément, nous comparerons les vagues d'enquête qui ont eu lieu 6 mois après les élections présidentielles de 2012 et 2017. Nous étudierons les évolutions à l'aide des méthodes d'analyse géométrique des données. Pour l'analyse statistique, on a retenu 27 questions qui relèvent de 4 thèmes (politique, institutionnel, économique et interpersonnel). Pour tenir compte des différentes dimensions de la confiance, nous avons construit un espace de la confiance en effectuant une analyse des correspondances après dédoublement des questions et pondération par thème. Les individus interrogés en 2017 (vague 9) on été pris comme ensemble de référence, ceux interrogés en 2012 ont été mis en éléments supplémentaires.
Pour étudier l'évolution des réponses aux questions, nous avons appliqué les formules de transition aux individus supplémentaires, ce qui nous permet de visualiser les trajectoires des groupes d'individus de chaque vague selon leurs réponses aux questions. Par ailleurs, nous avons effectué une classification des individus de l'année 2017 (méthode de Ward). Nous avons d'abord identifié 5 classes d'individus au regard de la confiance (« hyperconfiants », « confiants modérés », « défiants altruistes », « défiants autoritaires », « hyperdéfiants négativites »). Nous avons ensuite affecté les individus de l'enquête 2012 aux classes en prenant un critère d'affectation basé sur la distance de Mahalanobis associée à chaque classe afin de tenir compte de la forme des classes. Nous avons ainsi étudié les transferts entre classes. Baromètre de la confiance politique : Comparaison des vagues 2017 et 2012
|
Session Méthodes modernes et développements théoriques
Session Méthodes modernes et développements théoriques Thomas DEROYON
La baisse générale des taux de réponse et la complexification de la collecte des enquêtes en face à face accroissent l’importance des redressements, et notamment de la correction de la non-réponse. Celle-ci, dans le cas d’une enquête classique dont l’échantillon est sélectionné suivant un plan de sondage aléatoire, a pour but de supprimer ou limiter le biais d’estimation qu’introduit le fait que l’ensemble des personnes échantillonnées ne fournissent pas de réponses à l’enquête. Pour ce faire, l’enjeu est de mobiliser, de la manière la plus pertinente possible, le maximum d’information auxiliaire. Quand la non-réponse est traitée par repondération, la correction implique d’estimer le plus correctement possible la probabilité de réponse sous-jacente de chaque unité de l’échantillon en s’appuyant sur cette information auxiliaire. Les techniques d’apprentissage statistique dans un cadre supervisé semblent, pour cet objectif, des méthodes intéressantes à étudier.
Cette présentation décrit les travaux réalisés dans le prolongement des expérimentations présentées lors du précédent colloque francophone sur les sondages de 2016, à Gatineau. Elle s’appuie également sur les travaux réalisés par B. Gelein et présentés lors des journées de méthodologie statistique de 2018. L’objectif de ces travaux est d’appliquer à des données réelles d’enquêtes auprès des entreprises et des ménages des méthodes courantes d’apprentissage statistique (forêts aléatoires, boosting,…) et d’évaluer, sur ces données, les gains qu’elles peuvent apporter pour la correction de la non-réponse, en s’appuyant sur des critères d’estimation de la qualité de prédiction du comportement de réponse et de mesure du biais d’estimation. Repondérer une enquête pour corriger la non-réponse : une comparaison de méthodes sur données réelles
Alina MATEI, Mihaela-Catalina ANASTASIADE, Yves TILLE
Le salaire d'un employé est hypothétiquement un reflet de ses caractéristiques, telles que le niveau d'éducation ou l'expérience de travail. Il est possible qu'un homme et une femme ayant les mêmes caractéristiques perçoivent des salaires différents. En nous basant sur des données d'enquête, nous modélisons les distributions de salaires. Pour mesurer la différence entre les salaires d'un homme et d'une femme, nous utilisons une distribution contrefactuelle (voir Fortin et all., 2011). Celle-ci est utile pour estimer ce que gagneraient les femmes, si elles avaient les caractéristiques des hommes. L'approche de régression de Blinder (1973) et de Oaxaca (1973) consiste à modéliser la moyenne du salaire de chaque individu conditionnellement à ses caractéristiques. L'objectif est d'isoler la part attribuable à la discrimination salariale entre hommes et femmes au niveau moyen.
Conditionnellement à certaines caractéristiques, nous supposons que la distribution conditionnelle du salaire de chaque femme suit une distribution théorique donnée avec des paramètres inconnus. Nous estimons les paramètres de la distribution du salaire de chaque femme en fonction de ses caractéristiques. Ensuite, la distribution marginale des salaires des femmes est estimée en fonction des distributions individuelles des salaires des femmes. Une distribution contrefactuelle est construite en pondérant la distribution des salaires des femmes (Anastasiade et Tillé, 2017). Nous proposons deux méthodes paramétriques pour estimer les quantiles des salaires des femmes, des hommes et les quantiles des salaires contrefactuels. L'objectif est de calculer les différences entre ceux-ci pour estimer la discrimination salariale à différents quantiles. Nous illustrons les deux méthodes proposées en utilisant la distribution GB2 utile pour modéliser des salaires et nous les comparons avec d'autres approches données dans la littérature. Estimation d'une distribution contrefactuelle des salaires à l'aide de données d'enquête
Monique GRAF
Considérons un modèle statistique de super-population dans lequel une variable d’intérêt connue sur une population de taille N est considérée comme un ensemble de N réalisations aléatoires indépendantes du modèle. La log-vraisemblance au niveau de la population s’écrit alors comme une somme. Si on ne dispose que d’un échantillon, tiré selon un plan de sondage à probabilités inégales, la pseudo-vraisemblance est l’estimateur de Horvitz-Thompson de la vraisemblance de la population. En général, les poids sont multipliés par un facteur de normalisation, de telle sorte qu’ils somment à la taille de
l’échantillon. Dans le cas d’un seul niveau, cela ne change pas la valeur des paramètres estimés. Le problème du choix des facteur de normalisation dans les plans en grappes a été abondamment traité dans la littérature, sans aboutir à des directives claires. On propose de calculer ces facteurs de telle sorte que la pseudo-vraisemblance soit une vraisemblance au sens propre en tenant compte du caractère aléatoire des poids.
Une interprétation de la pseudo-vraisemblance
Herbert SMITH, Karen LASATER, Olga JARRÍN, Matthew MCHUGH, Douglas SLOANE, Linda AIKEN
Il s’agit de l’influence de l’organisation chez les hôpitaux de la pratique infirmière sur les résultats pour les patients : L’analyse se déroule au niveau de l’organisation, mais la collecte de données s’appuie sur un sondage d’infirmières, dont chacune sert comme indicateur de fiabilité variable de la conjoncture organisationnelle. On obtient une représentation excellente des hôpitaux, surtout par rapport à ceux qui s’occupent de pratiquement la totalité des malades dans chaque état américain de l’enquête. C’est un atout quand les administrateurs des hôpitaux ont tendance de participer aux enquêtes en fonction des styles de gestion qui sont fort corrélés avec les axes primordiaux de l’étude.
Nous évitons un biais de non-réponse qui plombe ces genres d’études, soit ceux qui se fondent sur les données administratives mariés aux réponses des informateurs clés, soit ceux qui s’appuient sur les réponses des infirmières, échantillonnées des listes dans chaque hôpital. En penchant pour un sondage des infirmières fondé sur les listes professionnelles dans chaque état, avec une agrégation ultérieure au niveau de l’hôpital, on se heurte au mal des grands sondages par courrier : les taux de réponses qui n’excèdent pas 40%. Pour pallier cet inconvénient, nous effectuons des échantillons des non-répondants, avec les taux de réponses entre 85-91%, qui correspond à une population cible avec un champ de couverture qui voisine 95%. Les infirmières répondent en fonction de plusieurs caractéristiques démographiques, mais on ne décèle pas de grandes tendances pour les évaluations des pratiques organisationnelles de se confondre avec les probabilités de réponse.
« Traitement de non-réponse dans un enquête à deux niveaux »
|
Session Environnement / Populations rares
Session Environnement / Populations rares Yung WESLEY, Carolyn CAHILL
L'état de l'environnement est une préoccupation mondiale majeure, comme en témoigne le fait que plus de 3 000 accords internationaux sur l'environnement existent. Bien que plusieurs d'entre elles soient bilatérales ou tripartites, il existe des accords multilatéraux très connus qui démontrent la nature globale des problèmes. Le suivi des progrès réalisés dans ces accords exige des informations statistiques de haute qualité qui sont généralement fournies par les organismes nationaux de statistique. Le Canada n'est pas différent des autres pays à cet égard, où les décideurs comptent sur Statistique Canada pour produire les renseignements statistiques nécessaires afin de prendre des décisions éclairées. Dans cet article, nous décrivons comment Statistique Canada a répondu à ce besoin et soulignons certains des principaux défis méthodologiques rencontrés. Les défis méthodologiques en produisant des statistiques environnementales à Statistique Canada
Henri BODET, Theo LEROY
Lors d'enquêtes auprès des entreprises portant sur des questions environnementales comme l'enquête annuelle sur les consommations d'énergie dans l'Industrie ou l'enquête sur les dépenses faites pour protéger l’environnement, on accepte parfois le regroupement de réponses. Il ne s'agit pas de permettre à plusieurs unités interrogées de transmettre une réponse simultanément mais de permettre à une unité de répondre pour tout un groupe - en ne transmettant que la réponse agrégée.
Cette pratique permet, on l'espère, de réduire la charge statistique pour les entreprises mais également d'augmenter le taux de réponse. La contrepartie de l'obtention d'une donnée exacte à un niveau agrégé est une perte de précision de l'information à un niveau local ; ce qui semble satisfaisant, l'objectif de ces enquêtes étant d'obtenir des résultats nationaux.
L'objet de cette communication est de présenter les traitements mis en œuvre pour utiliser ces données agrégées et les conditions nécessaires pour que les estimations obtenues ne soient pas trop biaisées. Nous présenterons une évaluation par simulation, à partir de données d'enquête, du biais obtenu en fonction de la part de ces regroupements dans l'échantillon ainsi qu'une évaluation de l'allègement de la charge statistique que cela représente pour les entreprises. Nous proposons des indicateurs pour repérer en cours de collecte les regroupements qui risquent de créer un biais important et nous envisageons l'utilisation de la méthode de partage des poids pour traiter cette situation. Le traitement des regroupements de réponse lors d'enquêtes auprès des entreprises.
Louise ROLLAND-GUILLARD, Elisabeth MORAND, Géraldine CHARRANCE
L’estimation de la taille de populations difficiles à joindre (rares, dépourvues de base de sondage, et parfois stigmatisées) représente une réelle difficulté en termes de méthodologie d’enquêtes et nécessite de mobiliser des méthodes de sondage moins conventionnelles. De nombreuses méthodes ont été conçues ces dernières années pour les populations à risque VIH.
L’objectif de ce travail est donc de recenser les méthodes d’estimation possibles et de confronter leurs hypothèses et leurs aspects pratiques à nos connaissances sur la population qui recourt à l’assistance médicale à la procréation (AMP) à l’étranger, afin de déterminer si elles sont pertinentes pour estimer cette population.
Il existe plusieurs méthodes pour estimer la taille des populations difficiles à joindre : le sondage dirigé par le répondant, l’échantillonnage espace-temps, la capture-recapture, l’amplificateur par réseau et le multiplicateur.
Les méthodes récentes pour estimer la taille des populations difficiles à joindre ont un fort potentiel et méritent une évaluation de leur application à d’autres populations. La population qui recourt à l’AMP à l’étranger présente trois caractéristiques : difficile à joindre, dispersée et faiblement connectée.
Nous présenterons ici ce qui nous a amené à choisir l’amplificateur par réseau et le multiplicateur qui sont les plus adaptés à l’estimation de cette population. ESTIMER UNE POPULATION DIFFICILE À JOINDRE : LE CAS DE L’ASSISTANCE MÉDICALE À LA PROCRÉATION À L’ÉTRANGER
Jean-Baptiste ANTENORD, Etienne Billette DE VILLEMEUR
Dans de nombreux contextes, il est difficile de pouvoir s'appuyer sur des bases de sondage. Les méthodes dites de “capture-recapture”, développées pour effectuer le dénombrement de populations animales, élaborent des estimateurs statistiques permettant de corriger au moins partiellement les biais liés à la non-représentativité des échantillons. Les divers travaux réalisés sur ces méthodes s'attèlent à élaborer, sous différentes hypothèses et techniques de sondage, des modèles mieux appropriés pour estimer la taille d'une population difficile à joindre ou à travers de différents fichiers administratifs. Les progrès réalisés dans l’élaboration et l’application de ces méthodes vont presque toujours dans le sens d’une amélioration de l’estimation de la taille d’une population là où il n’y a pas de base de sondage. Pour un nombre d’individus n(x,y) de caractéristiques (x,y), l’objectif de ce papier est d’estimer directement, à partir des estimateurs obtenus “par capture-recapture”, la probabilité d’observer le nombre d'individus de caractéristique y étant donné une caractéristique x. Un estimateur par maximum de vraisemblance de cette probabilité est obtenu pour deux listes supposées indépendantes. Etant donné la dépendance non linéaire de cet estimateur de la fréquence non observée pour un type quelconque yx, une approximation de l’estimateur de la variance de l’estimateur est obtenu par la Méthode Delta. Régression binaire par capture recapture
|
Session Challenge Graines de sondeur
Session Challenge Graines de sondeur Camelia GOGA
Equipe Lyon: « Enquête sur les fast-food » par Marie-Line SONNEY, Prune ERMAKOFF, Ninon LAPIERRE et Assya SAIBI (lycée Récamier)
Equipe Mullhouse: « Sujet Libre Enquête sur le développement durable » (TES Lycée Albert Schweitzer) par Alicia Stoecklin, Camille Heckmann, Tiffany Combre et Vanessa Bemmert
Equipe Strasbourg: « Enquête sur la consommation d’alcool et d’autres drogues » (TS Lycée d’Erstein) par Sarah Obrecht, Aymeric Bourbier, Nathan Corcellut et Ludovic Felder
Equipe Dijon: « Le harcèlement » par Cheyenne Chaussiez, Alexandra Deschamps, Chloé Molina, Léa Picard (lycée Eugène-Guillaume)
Finale Challenge Graines de Sondeur
| ||
13h00-14h20 | Repas | |||||
14h20-14h50 | Remise DES PRIX Meilleur poster et challenge Graines de sondeur Equipe Lyon: « Enquête sur les fast-food » par Marie-Line SONNEY, Prune ERMAKOFF, Ninon LAPIERRE et Assya SAIBI (lycée Récamier) Equipe Mullhouse: « Sujet Libre Enquête sur le développement durable » (TES Lycée Albert Schweitzer) par Alicia Stoecklin, Camille Heckmann, Tiffany Combre et Vanessa Bemmert Equipe Strasbourg: « Enquête sur la consommation d’alcool et d’autres drogues » (TS Lycée d’Erstein) par Sarah Obrecht, Aymeric Bourbier, Nathan Corcellut et Ludovic Felder Equipe Dijon: « Le harcèlement » par Cheyenne Chaussiez, Alexandra Deschamps, Chloé Molina, Léa Picard (lycée Eugène-Guillaume) Meilleur poster et challenge Graines de sondeur Modérateur: Catherine VERMANDELE ET CAMELIA GOGA, Grand Amphi | |||||
14h50-15h40 | Jean CHICHE Enquêtes et estimations le jour du vote Depuis 1965, les citoyens français sont informés des résultats des élections par de très bonnes estimations bien avant que le ministère de l’intérieur ne les diffuse. Pas de soirée électorale à la télévision ou à la radio sans estimations, ni sondages. Cela parait naturel de connaitre très vite au-delà des grandes tendances, les résultats exacts ou quasi exacts d’un scrutin. C’est en fait un challenge, une vraie gageure. Cette communication décrira les principes généraux et les finalités des estimations, des sondages sortis des urnes, des sondages le jour du vote. Quelle taille d’échantillon de bureaux de vote peut-on construire ? Avec quelle méthode ? Comment évaluer le niveau de la participation avant la fermeture des bureaux ? Dans une république au système politique complexe où toutes les élections ont un mode de scrutin différent, où les découpages territoriaux changent au grès des majorités politiques il faut prendre en compte les règles du jeu et adapter les modèles à chaque cas. Ces opérations sont maintenant encadrées par la loi. Le résultat d’un scrutin pourrait peut-être dépendre de la diffusion des résultats avant que tous les bureaux de vote ne soient fermés. Les réseaux sociaux ou des media situés à l’étranger publient souvent de fausses informations et cela peut perturber le bon fonctionnement de l’élection et donc avoir des effets très négatifs sur la démocratie. Nous nous interrogerons sur la pérennité de ces opérations compte tenu des progrès techniques et de la révolution numérique, mais aussi des coûts pour les instituts et les media commanditaires ou diffuseurs. Enquêtes et estimations le jour du vote Modérateur: Anne RUIZ-GAZEN, Grand Amphi | |||||
15h40-16h00 | Discours de clôture (Grand Amphithéâtre) |