Texteà faire figurer dans les formulaires de collecte de données de tous les instruments de recueil de données (sur support papier, électronique ou autre) utilisés par l’OMS pour recueillir des données auprès des États Membres. Les données sont le fondement de toutes les mesures rationnelles de santé publique et les avantages de la
1- Création de bases de données SQLite3 SQLite est une bibliothèque qui fournit une base de données légère sur disque ne nécessitant pas de processus serveur distinct et permet d’accéder à la base de données à l’aide d’une variante du langage de requête SQL. Certaines applications peuvent utiliser SQLite pour le stockage de données interne. Il est également possible de prototyper une application utilisant SQLite, puis de transférer le code dans une base de données plus grande telle que PostgreSQL ou Oracle. Pour utiliser le module, vous devez d'abord créer un objet Connection qui représente la base de données. Dans l'exemple ci-dessous, les données seront stockées dans le fichier import sqlite3 conn = Remarque. importante ! Vous n'êtes pas obligé de créer la base de données mais elle sera crée automatiquement dans le même réprtoire que le fichier Python! Une fois que vous avez une connexion, vous pouvez créer un objet Cursor et appeler sa méthode execute pour exécuter des commandes SQL Créer un cursor cur = 2 - Création de table SQLite3 Et maintenant si on veut créer une table au sein de la base SQLite3 il suffit d'utiliser la commande CREATE TABLE nom_de_la_table Code complet -*- coding utf-8 -*- import sqlite3 conn = Créer un cursor cur = Création de la requete req = "CREATE TABLE studentsid INTEGER PRIMARY KEY AUTOINCREMENT, name TEXT NOT NULL, email TEXT NOT NULL" Exécution de la requete Envoyer la requete Fermer la connexion 3- Insertion de données L'insertion de données en environnement SQLite3 est exactement identique au cas du MySql Insérer une ligne de données "INSERT INTO students `nom`,`email` VALUES 'Albert', 'albert Commettre ou engager les données Code complet -*- coding utf-8 -*- import sqlite3 conn = cur = Insérer une ligne de données INTO students`nom`,`email` VALUES 'Albert', 'albert Engager l'opération Fermer la connexion 4- Insertion des données de variables dans une table SQLite Quand on a inséré directement les données au sein de la requête comme on a fait dans l'exemple ci-dessus, aucun problème n'a été rencontré! INTO students`nom`,`email` VALUES 'Albert', 'albert Imaginez que les données qu'on souhaite insérer, sont des valeurs de variables récupérées depuis un autre fichier ou provenant d'un formulaire d'enregistrement...Dans ce cas l'insertion des données de cette façon est totalement erronée ! nom = "Albert" email = "albert INTO students`nom`,`email` VALUES nom, email" TOTALEMENT FAUX ! ATTENTION ! TOTALEMENT FAUX ! Puisque les variables nom et email ne seront pas interprétées ! Pour corriger l'erreur, on utilise la méthode de formatage des chaines à l'aide du symbole ''?'' nom = 'Albert' email = 'albert age = 22 cur = into students nom,email,age values ?,?,?",nom, email, age Code complet -*- coding utf-8 -*- import sqlite3 conn = nom = 'Albert' email = 'albert age = 22 Créer un cursor cur = into students nom,email,age values ?,?,?",nom, email, age 5- Affichage des données d'une table SQLite3 Maintenant, il est tout à fait légitime de se demander si tout a été bien réglé création de la table students au sein de la base de données SQLite3 , insertion de données au sein de la table students... - Création d'un cursor pour exécuter une requête de sélection cur = result = students " Parcourir les résultats de la sélection Pour afficher les données, on va parcourir l'objet cursor par un compteur row. La variable row qui fait le parcourt est un objet tuple dont les constituants sont les valeurs des champs id, nom, email, age... for row in result print"ID ",row[0] print"nom ",row[1] print"Email ",row[2] print"Age ",row[3] 6- Éditeur WYSIWYG SQLite3 .Tout a été fait en noir ! Jusqu'à présent vous n'avez encore rien vue, ni table ni données...Pour répondre à cette question, je vous informe qu'il y a de nombreux utilitaires permettant d'explorer les bases de données SQLite3. Je vous recommande DB Browser for SQLite qui est gratuit et très simple d'usage Téléchargez DB Browser for SQLite, Installez le, Lancez DB Browser Depuis le menu File –> cliquez sur le sous menu Open Databse Sélectionnez ensuite votre base de donnée Cliquez finalement sur Browse data pour voir votre table students avec les donnée que vous venez d’insérer Younes Derfoufi CRMEF OUJDA Post Views 11 196
Danscet exemple, vous apprendrez comment envoyer des informations au collecteur de données afin d'obtenir des données d'analyse pour les vidéos qui ne sont pas affichées dans un lecteur Web ou SDK Brightcove. Notez que cette technique ne doit pas être utilisée si vous utilisez les lecteurs Web ou SDK Brightcove, car elle entraînera des données analytiques Les données capturées par les capteurs vont suivre une chaine d'information au sein du système, qui a pour but de les collecter, de les analyser et de les traiter. À partir d'une information source, trois principales étapes, résumées sur la figure 1 constituent la chaine d'information L'information source est d'abord acquise grâce à un capteur, qui va effectuer des mesures de la grandeur physique d'intérêt. Le capteur produit, comme résultat de ses mesures, un signal électrique de type logique, analogique ou numérique. Le signal produit par le capteur est ensuite traité, typiquement par un programme exécuté sur un microcontrôleur, dans le cadre de petits systèmes, voire sur un ordinateur plus puissant, doté d'un ou plusieurs microprocesseurs, pour de gros systèmes. Enfin, une fois le signal traité, vient une phase de communication du résultat du traitement. L'information peut, par exemple, être restituée sous forme d'une visualisation, après avoir été stockée dans une base de données. Un autre scénario possible est l'envoi d'une consigne vers un système, pour commander une action ou configurer des paramètres de ce dernier. La chaine d'information commence par l'acquisition d'une mesure de la grandeur physique d'intérêt, puis vient un traitement des données collectées et enfin, une communication des résultats du traitement. Acquérir des données du capteur La première étape de la chaine de transmission consiste donc en l'acquisition de données à partir des différents capteurs choisis. Dans le cadre du système développé dans ce cours, trois capteurs ont été choisis et présentés dans le chapitre précédent. La température est mesurée à l'aide d'un LM35, l'humidité relative à l'aide d'un DHT11 et, enfin, le niveau sonore avec un module de détection sonore. Pour choisir le capteur le plus adéquat, pour mesurer une grandeur physique donnée, plusieurs critères peuvent être pris en compte Il faut évidemment d'abord vérifier que la plage de mesures du capteur couvre les valeurs qu'il faudra être capable de mesurer, dans le cadre du système développé. Ensuite, il faut s'intéresser aux éventuelles contraintes imposées par le projet, et s'assurer que les caractéristiques du capteur soient compatibles avec ces dernières. Il se peut, par exemple, qu'un certain niveau de précision, qu'une résolution minimale ou encore qu'un temps de réponse minimal soit imposé. On peut également prendre en compte les caractéristiques en lien avec la qualité du capteur, telles que sa fiabilité, sa fidélité ou encore sa gamme de températures d'utilisation. En fonction du système développé, un simple capteur pourrait suffire, ou alors il se peut qu'il faille monter en qualité. Enfin, il ne faut pas non plus négliger le prix du capteur, notamment par rapport au budget total prévu pour développer le système. Ce budget pourrait être plus faible dans le cadre d'un prototype et ensuite plus élevé dans le cadre d'une version plus avancée, une fois que la preuve de concept a été faite et validée. On peut aussi s'intéresser au nombre de capteurs qui seront nécessaires pour le système à développer. Comme on l'a vu au chapitre précédent, certains capteurs peuvent mesurer plusieurs grandeurs physiques, comme le DHT11 qui mesure l'humidité relative et la température. N'avoir qu'un capteur au lieu de deux peut rendre plus faciles les traitements effectués dans la suite de la chaine d'information, pour autant que ses caractéristiques satisfont les demandes du projet, évidemment. Cette question particulière de la mesure de la température, avec le LM35 ou le DHT11 est abordée plus loin, à la section Enfin, il faut également s'assurer que les différents capteurs choisis sont compatibles entre eux, le plus possible en tout cas, notamment par rapport à leur type de signal de sortie et à leurs tensions d'alimentation possibles. Au plus il y aura de l'hétérogénéité, au plus la suite de la chaine d'information sera complexe à réaliser. Traiter des données par l'Arduino La deuxième étape de la chaine de transmission consiste donc à traiter les données qui proviennent des capteurs. Cette étape est typiquement réalisée par un programme exécuté sur une machine, que ce soit un simple microcontrôleur ou un ordinateur plus puissant composé d'un ou plusieurs microprocesseurs. Le but de cette étape est de récupérer toutes les données provenant de plusieurs capteurs pour les traiter, et pour les analyser et prendre des décisions. Le traitement des données consiste en une interprétation des signaux électriques reçus des capteurs, selon leur type. Les données de type numérique vont souvent nécessiter plus de travail que les données logiques ou analogiques. On peut également, parfois, devoir transformer, interpréter ou vérifier les données reçues. Rappelez-vous, par exemple, du DHT11, vu à la section qui envoie des trames de 40 bits contenant les valeurs mesurées de l'humidité relative et de la température chacune sur 16 bits, ainsi qu'un code de 8 bits utilisé pour vérifier s'il y a eu des erreurs de transmission sur le bus 1-Wire. Le traitement des données provenant de ce capteur nécessitera beaucoup de travail. Dans ce cours, on va travailler avec l'Arduino Uno, présentée sur la figure 2, une simple carte électronique open source sur laquelle se trouve un microcontrôleur ATmega328P d'architecture Atmel, autour duquel se trouvent toute une série d'autres composants, qui vont faciliter sa programmation et son interfaçage avec d'autres circuits extérieurs. L'Arduino Uno est une simple carte électronique open source composée d'un microcontrôleur ATmega328P et d'une série de composants facilitant sa programmation et son interfaçage avec d'autres circuits extérieurs. L'Arduino possède de nombreuses pins, lui permettant de communiquer avec d'autres circuits, notamment des capteurs. L'Arduino Uno possède précisément $14$ pins numériques et $6$ pins analogiques, toutes capables de fonctionner en entrée ou en sortie. D'autres versions de l'Arduino possèdent un plus grand nombre de pins. La tension de fonctionnement de ces $20$ pins est de 5 V, la même que celle de l'Arduino. On pourra donc aisément utiliser les trois capteurs que l'on a sélectionné pour le système de surveillance sonore développé dans ce cours. Enfin, l'Arduino se programme très facilement grâce à l'environnement de développement intégré Arduino IDE et au langage de programmation Arduino, une version spécifique du langage C++, avec une librairie standard contenant des fonctions spécifiques à l'Arduino. Un programme Arduino, appelé sketch, est compilé puis chargé sur le microcontrôleur de l'Arduino pour y être exécuté. Un sketch se compose de trois parties, inspirées du langage de programmation Processing a une partie en-tête, avec notamment des imports de librairies et des définitions de variables globales, b la fonction d'initialisation setup exécutée une seule fois au lancement du sketch, c et, enfin, la fonction boucle principale loop dont le contenu est exécuté en boucle, se répétant indéfiniment. La figure 3 montre un exemple de sketch Arduino, qui fait clignoter une LED connectée à la pin numérique $7$, en produisant un signal électrique qui alterne entre un signal haut et un signal bas, en attendant une seconde entre les transitions Dans l'en-tête du sketch, on définit simplement le mot LED comme étant équivalent à $7$, le numéro de la pin numérique sur laquelle la LED a été connectée. Dans la fonction d'initialisation, on configure la pin~$7$ en mode sortie, à l'aide de la fonction pinMode, c'est-à -dire que le microcontrôleur de l'Arduino va pouvoir envoyer un signal vers le monde extérieur via cette pin, en l'occurrence alimenter ou non la LED avec une tension de 5 V. Enfin, dans la fonction boucle principale, on va répéter indéfiniment quatre opérations a envoyer un signal haut vers la pin~$7$ avec la fonction digitalWrite, appelée avec HIGH comme second paramètre, b attendre 1000 ms, c'est-à -dire une seconde, c envoyer un signal bas vers la pin~$7$, de nouveau avec digitalWrite, mais appelée cette fois-ci avec LOW comme second paramètre, d et, enfin, encore attendre 1000 ms. Ce très simple exemple de sketch vous montre la facilité avec laquelle on peut programmer la carte électronique Arduino Uno. Un sketch Arduino se compose de trois parties, à savoir une en-tête, la fonction d'initialisation qui s'exécute une fois au lancement et la fonction boucle principale dont le contenu se répète en boucle indéfiniment. Avec l'Arduino Uno, on va donc pouvoir, sans problèmes, collecter les données provenant du LM35, du DHT11 et du module de détection sonore, dans le cadre du système de surveillance du niveau sonore aux alentours d'un aéroport développé dans ce livre. On verra comment traiter les données envoyées par chacun des capteurs dans la section Communiquer des données vers l'extérieur La dernière étape de la chaine de transmission est la communication des données qui ont été collectées, analysées et traitées. Elle peut prendre plusieurs formes, selon la communication qui est faite. Une première possibilité de communication est l'envoi d'une consigne, ou d'un signal de commande, depuis la machine qui a traité les données du capteur vers une autre machine, un appareil, un moteur, etc. Par exemple, un thermostat mesure la température ambiante et la compare ensuite avec une température seuil configurée. Si la température mesurée est inférieure au seuil, le thermostat envoie un signal vers la chaudière pour la démarrer, pour chauffer la pièce. La communication peut aussi simplement consister en l'envoi des données collectées vers une autre machine, plus puissante, qui va pouvoir faire des traitements plus avancés. Par exemple, un serveur dans le cloud peut stocker des données reçues et proposer une interface de visualisation de ces dernières, sous forme d'un dashboard. La figure 4 montre un exemple de dashboard qui présente des données d'inscriptions à un collège. Il a été généré sur le service cloud Visualize Free disponible ici qui permet de gratuitement réaliser des visualisations. Le service cloud Visualize Free permet de visualiser des données sous forme d'un dashboard, par exemple des données d'inscriptions à un collège. Précédent SuivantExempleconcret d’un formulaire RGPD-friendly Un mot à retenir pour vos formulaires : confidentialité Avec le RGPD, la pratique de la collecte de données impose un devoir d’information et de transparence concernant les données personnelles que vous collectez et les traitements que vous en faites.ArcGIS Survey123 est une solution complète centrée sur les formulaires pour la création, le partage et l’analyse d’enquêtes. Vous pouvez créer des formulaires intelligents qui utilisent le branchement conditionnel et des valeurs par défaut et prennent en charge de nombreuses langues. Collectez des données via le Web ou des appareils mobiles, même lorsque vous n’êtes pas connecté à Internet. Analysez rapidement les résultats et importez des données de manière sécurisée pour une analyse approfondie. Des données fiables pour de meilleures prises de décisions Affranchissez-vous de la collecte de données sur support papier et des risques d’erreur qu’elle implique adoptez une solution numérique fiable répondant aux besoins des utilisateurs dans divers environnements. Fonctionnement 000 Témoignage client Promouvoir la participation citoyenne Découvrez comment le Service des parcs nationaux utilise ArcGIS Survey123 pour mobiliser ses bénévoles dans le parc national de Glacier. Lire le récit Plus efficaces ensemble Les solutions ArcGIS spécialisées, utilisées conjointement avec ArcGIS Survey123, vous aident à optimiser le rendement du travail de terrain et fournissent des données fiables et exploitables par tous les membres de votre organisation. Découvrir les solutions de mobilité sur le terrain ArcGIS Workforce Coordonnez vos projets Survey123 de collecte de données sur le terrain et améliorez la communication entre le personnel sur le terrain et dans les bureaux. Découvrir Workforce for ArcGIS ArcGIS Dashboards Visualisez les données générées à partir de Survey123 dans des tableaux de bord mis à jour en temps réel pour favoriser de meilleures prises de décisions. Découvrir ArcGIS Dashboards ArcGIS Web AppBuilder Utilisez cette application WYSIWYG intuitive pour développer une application d’assurance qualité/de contrôle de la qualité des réponses reçues aux enquêtes Survey123. Découvrez ArcGIS Web AppBuilder Applications ArcGIS Utilisez les données créées dans Survey123 dans d’autres applications spécialisées pour optimiser l’efficacité des activités sur le terrain, favoriser de meilleures prises de décisions et communiquer de manière plus efficace. Découvrir les applications ArcGIS Contacter l’équipe des ventes Partagez vos informations et notre équipe des ventes prendra rapidement contact avec vous. Nous avons hâte d’échanger avec vous. Lafaçon la plus conventionnelle de créer des formulaires d’entrée de données dans Excel est sans aucun doute de créer des formulaires directement dans les cellules des feuilles Excel. Cette façon de faire facilite largement la conception et la compilation des résultats peut se faire avec Power Query. Toutefois, cette approche manque Que seraient les études sans le traitement des données ? Et le traitement sans une bonne collecte ? Selon les professionnels, 40 % à 50 % du coût d'une étude sont consacrés à la collecte de l'information et seulement 10 à 15 % au traitement des données. Or, quelles que soient les techniques d'enquête utilisées, les informations brutes obtenues ne peuvent servir que si elles sont traitées», rappellent Jacques Lendrevie, Julien Levy et Denis Lindon dans le MercatorJacques Lendrevie, Julien Lévy et Denis Lindon, Dunod, septembre 2009.. Et Syntec Etudes Marketing & OpinionEtudes Marketing et Opinion fiabilité des méthodes et bonnes pratiques, Syntec EMO sous la direction de Françoise Frisch, Dunod, 2007. d'insister sur l'importance d'opérations préalables au traitement proprement dit qui en assurent la qualité. Parmi ces étapes figurent la vérification des questionnaires editing afin de contrôler l'exhaustivité et la cohérence des données qu'ils contiennent ; la codification des réponses aux questions ouvertes pour qu'elles soient traitées informatiquement, via une grille de codage ; la vérification du fichier des données afin d'éliminer les erreurs de saisie ; et enfin l'élaboration du plan de traitement qui spécifie les traitements nécessaires pour répondre au problème posé. Le traitement est une part importante d'une étude, la base de notre profession; il permet de tirer de bonnes conclusions», insiste Gabor Koska, responsable du pôle Quanti chez Added Value outre, le traitement des données doit s'adapter au développement des différents modes de collecte et au recours croissant au multimodal dans les questionnaires quanti. Selon Syntec Etudes Marketing & Opinion, 25 % des études quantitatives en France ont été effectuées via Internet en 2008, soit 8 points de mieux qu'en 2007. La technologie apporte aussi de nouveaux outils. A l'instar des études via les pocket PC ou les mobiles. Preuve s'il en fallait une étude de Lightspeed ResearchThe Benefits of Mobile Research. menée en Grande-Bretagne et aux Etats-Unis vient de démontrer les avantages des enquêtes via les mobiles. Ces changements ont fait émerger de nouvelles solutions pour faciliter la compatibilité des logiciels de programmation, de collecte et de traitement des questionnaires qui doivent communiquer» entre eux. Désormais ils sont pratiquement tous interfaçables, permettant une bonne homogénéisation des différentes sources SPSS, Voxco, Conversoft, Askia, Grimmersoft, GN Research, Soft Concept.... Côté études en ligne les critères de qualité sont plus que jamais d'actualité origine du panéliste taille critique d'échantillon durée de réponse aux questions... et des sociétés comme Confirmit Research Now SSI Harris Interactive ou GMI multiplient les logiciels de contrôle traitement des études devient de plus en plus complexe en raison de sources nombreuses et variées, non homogènes. L'outil cross media de Médiamétrie a ainsi nécessité des méthodes statistiques extrêmement sophistiquées. Aux sources études proprement dites viennent s'ajouter d'autres données, notamment issues des mesures passives, du Web blogs, forums, bulletin boards, communautés, sites collaboratifs, micro-blogging, twitt, wiki... , sans oublier les banques de données clients. Autant de sources qui peuvent doivent ? être intégrées dans un traitement intelligent d'une problématique outils completsCette analyse du buzz a aujourd'hui ses experts ainsi que ses logiciels dédiés Alceste, AMI Software, SPSS... . Car les citoyens s'expriment déplus en plus sur la Toile», constate François Laurent, fondateur de ConsumerInsight, qui souhaite des outils d'analyse permettant à la fois d'appréhender la Toile avec les yeux du surfeur moyen, et de collecter, structurer et analyser scientifiquement les éléments découverts. Pourtant, selon François Laurent, peu d'outils peuvent conjuguer surf intelligent et puissance de traitement. C'est, bien sûr, la voie royale, mais cela demande des experts capables de maîtriser des approches qualitatives lourdes - c'est-à -dire à la limite du qualitatif traditionnel et de son intuitivité - et du quantitatif, avec son recours au traitement informatique. Un tel profil est rare dans bien des instituts», du dernier salon Semo, en partenariat avec AT Internet, a présenté une solution pour mesurer la satisfaction client, résultat de la complémentarité de différents types d'outils les outils de mesure et d'analyse de trafic en ligne d'AT Internet données comportementales et les outils de recueil et de reporting en ligne d' données attitudinales . Quant à Toluna, la société veut, avec son produit BrandSpector, enrichir l'analyse des enquêtes avec des informations issues directement de son panel. Cela va changer complètement la manière de réaliser et d'analyser les post-tests publicitaires» assure Philippe Guilbert directeur général de Toluna France. Dès cette année la société va d'ailleurs intégrer des informations issues de ses différents sous-panels ailleurs, montent en puissance des solutions EFM, concept d' Enterprise Feedback Management, apparu en 2005 aux Etats-Unis, sur lequel des acteurs internationaux comme Confirmit, Globalpark ou Vovici axent leur communication. De quoi s'agit-il ? De la disponibilité, sur une seule plateforme intégrée, de toutes les fonctionnalités nécessaires aux enquêtes, évaluations, tests ou sondages solutions de ciblage gestion de panels, échantillonnages..., dispositifs de collecte enquêtes en ligne, numérisation de questionnaires papier, face-à -face, Internet... , outils statistiques puissants y compris data et text minings , systèmes de restitution et de reporting adaptés. Intégrée dans le système d'information, cette plateforme est utilisée dans tous les domaines fonctionnels de l'entreprise dès lors qu'il s'agit de collecter et d'analyser de l'information par le biais de questionnaires études marketing, études de satisfaction, 360°, enquêtes internes, évaluations et expérimentations R&D, contrôle interne...Pour mesurer le niveau de maturité des entreprises françaises sur ces points et comprendre leurs attentes, Grimmersoft s'est associé à Marketor pour réaliser le premier baromètre de l'EFM en France. Il a ainsi interrogé 22 000 personnes travaillant dans les domaines informatique, marketing/études et RH/ formation. 95 % d'entre elles ont admis ne pas connaître l'EFM, constate Pascal Hébert, président de Grimmersoft. Pourtant, une fois les caractéristiques des solutions EFM présentées, 76 % ont jugé ces outils utiles, voire très utiles. Au final, un quart envisagent défaire évoluer une ou plusieurs applications vers une solution EFM à court terme.»Plus que jamais les données sont nombreuses et nécessitent d'être bien traitées" pour en tirer tout le potentiel décisionnel», souligne Thierry Vallaud, responsable data mining et décisionnel de Socio Logiciels. Il faut faire ressortir les marges d'erreur, les significativités, les biais éventuels. La généralisation des petits échantillons et des terrains en ligne renforce ce besoin de cohérence des traitements, car des sociétés qui ne sont pas issues des études arrivent sur ce marché», fait-il remarquer. Et d'ajouter Bien traiter les données veut dire de l'inférence statistique simple, mais aussi des présentations visuelles sexy et complétées par des analyses multivariées qui évitent les résultats triviaux et des conclusions non opérationnelles. » Des traitements de plus en plus complexes...La complexification des traitements de l'information nécessite un recours plus fréquent à des sociétés spécialisées Socio Logiciels, Double Précision, Eole, Marketing Studio Services, 5ème Force... et ce d'autant plus que tous les instituts d'études ne disposent pas, en interne, des compétences statistiques nécessaires. Récemment, INit et Repères se sont dotés d'expertises internes en statistiques et ont de plus en plus souvent recours aux réseaux Bayésiens. Cette méthode de traitement de données particulièrement innovante a enrichi nos diagnostics, notamment sur les drivers de l'appréciation globale dans les tests de produit. L'apprentissage non supervisé des relations entre les variables de l'étude permet de découvrir de façon rapide et efficace la structure sous-jacente des perceptions consommateurs. Déplus, la possibilité d'utiliser le modèle pour déterminer le meilleur scénario d'optimisation pour un produit testé nous a fait franchir un cap supplémentaire dans l'opérationnalité de nos diagnostics», constate Fabien Craignou, responsable du département data mining chez Repères, un département créé en delivery» joue aujourd'hui un rôle-clé dans la valorisation des données études et du traitement. De lourds investissements ont été consentis par les instituts BVA, GfK, Ipsos, TNS Sofres, Harris Interactive... et les sociétés de logiciels pour l'optimiser, notamment grâce à l'utilisation d'Internet. Nombreuses sont les suites logicielles entièrement automatisées, capables de suivre une étude, du terrain au web reporting en passant par le traitement. Aujourd'hui, la grande attente des instituts d'études, qu'ils soient moyens ou petits, est de pouvoir y avoir recours à des prix abordables....mais une technologie plus accessible Parallèlement, les tableaux de bord se font à la fois plus complets et plus faciles à manier. Nous simplifions la technologie pour que nos clients aillent encore plus loin dans son utilisation», souligne Patrick George, président d'Askia. Ce dernier note que les axes de développement se sont concentrés en 2009 sur la mise à disposition des données en ligne mais aussi la production de rapports automatisés sous forme de fichiers PowerPoint mis à jour directement à partir de l'application de traitement et accessible par le client final. En janvier 2010, la société a présenté son outil d'export PPT à partir des dossiers d'analyse Vista ou Analyse on-line ou off-line . Du côté des instituts, Crmmetrix a développé sa propre technologie, EZ-Views. Cette plateforme de reporting permet aux clients et aux consultants d'accéder à des indicateurs-clés, traités automatiquement, en temps société d'études Actencia le soulignait lors de sa dernière réunion sur le thème Evolution des études crise ou mutation ?» présentée par Brigitte Colas de la Noue, expliquant que la valeur ajoutée des études doit être redéfinie. Chez Socio Logiciels, on pense que le traitement devra devenir plus sophistiqué pour sortir des sentiers battus et donner plus de valeur aux part du traitement dans un budget études devrait donc croître en valeur. Le traitement devra rajouter de l'expertise. Au-delà des outils, ce sont bien les hommes, leurs analyses et leurs expertises qui permettent de prendre les bonnes décisions», résume Guillaume Weill, directeur général de Crmmetrix. Marc Bertrand François Laurent Consumerlnsight Le développement de l'analyse du discours citoyen nécessite la conjugaison d'outils informatiques dédiés et d'une forte polyvalence intellectuelle des chargés d'études.» Marc Bertrand Thierry Vallaud SocioLogiciels en matière de traitement, les clients veulent plus de sophistication, ce petit plus» qui permettra de faire une recommandation différente, plus intelligente». » L'enjeu du traitement pour les études qualitatives Opinion Sous l'influence des nouvelles technologies, la collecte et le traitement des données en études qualitatives ont sensiblement évolué. L'avis de georges guelfand, qualitativiste et enseignant à Paris Dauphine. En collecte, si les anciennes méthodes sont toujours d'actualité entretiens individuels, en dyades, en triades, en focus group..., les capacités offertes par le Web ont initié une écriture et une culture numérique caractérisées par un volume et une interactivité sans précédent. Manipulation et partage de textes, de vidéos, de photographies, journaux intimes, dessins... toutes ces pratiques nous ont obligés à apprendre de nouveaux langages comme la phonétique, le mélange des codes alphabétiques et alphanumériques, l'usage de smileys... Dès lors, on assiste à la naissance de nombreuses méthodes de recueil permettant aux conso-internautes de laisser libre cours, selon l'expression d'Oriane Deseilligny, à leur créativité poétique et graphique»Pratiques d'écritures adolescentes l'exemple des skyblogs», Le journal des psychologues, nov. 2009. blogging, netnographie, focus groups on line, community panels, innovation on line... chaque institut donnant aussi libre cours à sa créativité. Cette diversification des méthodes de recueil a eu plusieurs effets. Tout d'abord, elle a permis d'atteindre des publics difficilement accessibles. Ensuite, elle a permis d'accéder efficacement aux expériences non discursives des consommateurs leurs comportements en situation de consommation. Enfin, elle autorise l'interactivité et une collaboration directe, en situation d'interview, entre client, institut et consommateur. Ces changements nous ont obligés à repenser nos procédures de traitement. En effet, si les traitements classiques, fondés sur les apports de la psycho-linguistique analyse thématique, socio-sémantique... restent utiles, ils deviennent moins opérants lorsqu'il s'agit d'analyser de nouveaux langages, faits d'une floraison de mots et d'images. Il a donc fallu, d'une part, établir de nouvelles procédures de traitement des données et, d'autre part, repenser l'étude qualitative elle-même, la rendre transdisciplinaire et systémique. De telles évolutions ont eu des conséquences importantes sur la place attribuée à la collecte et au traitement des données. En effet, si le but d'une étude qualitative n'est pas seulement de répondre à des questions, mais aussi de les reformuler, et surtout de mettre à jour les questions pertinentes non encore formulées ; s'il s'agit non seulement d'expliquer la réalité, mais aussi de l'améliorer ; si le but premier est, comme l'indique Jean-Louis Le MoigneLa modélisation des systèmes complexes, Dunod, 2009., de formuler les problèmes qu'il s'avérera pertinent de résoudre» ; si ces objectifs sont premiers, alors traitement et analyse des données seront conçus en amont du terrain, que ce soit dans la formulation des objectifs entre annonceur et institut ou dans l'élaboration d'un protocole et d'un guide qui soient en eux-mêmes un modèle de traitement des données. Cette question de la collecte et du traitement des données se trouve ainsi subordonnée, en amont, à celle de la formulation des questions et objectifs de l'étude, et, en aval, à celle de la modélisation des résultats. Sur ce second plan, les modèles de structuration des données ne manquent pasNous citerons comme exemples les classifications d'Yves Durand L'exploration de l'imaginaire, Circe, n° 1-1969., le modèle ago-antagoniste d'E. Bernard Weil L'arc et la corde, Maloine, 1975, celui de Stéphane Lupasco L'univers psychique, Denoël, 1979, le formalisme triadique de Pierce, les modèles inspirés des sciences de la cognition.. Adopter une telle démarche, qui pense les méthodes qualitatives du point de vue des problématiques à résoudre et des modèles d'interprétation à mobiliser, réclame une exigence nouvelle. Ainsi, les qualitativistes doivent acquérir de nouveaux modes de pensée, posséder une culture qui ne soit pas seulement celle des entreprises et des marchés, mais qui puise aux sources de la littérature, des arts et des sciences... Autrement dit une culture qui se donne les moyens d'analyser les conséquences sur les consommateurs des profondes mutations de nos sociétésCrise, rupture et dépassement, collectif sous la direction de René Kaës, Dunod, 1979.... une culture transdisciplinaire qui puisse relever les défis de notre temps. A cette condition, les études qualitatives permettront de lire, de comprendre et d'interpréter les nouveaux langages des consommateurs et de réactiver leur désir de consommer. Guillaume Weill Crmmetrix Au-delà des outils, ce sont bien les hommes, leur analyse et leur expertise qui permettent de prendre les bonnes décisions.» Patrick George Askia Nous simplifions la technologie pour que nos clients aillent encore plus loin dans l'utilisation de nos outils. »
Siles formulaires de collecte de données peuvent enrichir votre organisme en données qualifiées, il faut savoir que dans la plupart des cas ces informations sont soumises à réglementations. La CNIL veille au bon usage de ces données, il vous faut donc être vigilant sur la collecte. Ce que vous devez faire . Sécuriser les fichiers. Assurer la confidentialité des
Constituer un registre RGPD ou autrement dit le registre des activités de traitement est une opération qui doit s’opérer en deux phases tout d’abord il faut recenser toutes les activités de traitement de l’organisation dans une fiche registre. Ensuite il faut documenter cette fiche, conformément à l’article 30 du RGPD. Mais rassurez-vous, l’élaboration d’un registre n’est aujourd’hui plus une opération complexe à condition d’utiliser les bons outils ! Un exemple réel de registre RGPD qui recense les activités de traitement Voici un exemple de registre RGPD rempli pour une petite entreprise commerciale ; son élaboration prends environ 3 minutes avec un logiciel RGPD,si on importe les traitements standards qui sont déjà prérédigés Pour une petite entreprise, il est important de lister les activités de traitement suivantes Les activités de traitement liées au marketing La prospection commerciale Le site web blog / site de présentation de l’entreprise La newsletter collecte de l’email Les activités sur les réseaux sociaux le cas échéant L’organisation de petits déjeuners collecte des cartes de visite Les activités de traitement liées aux opérations commerciales La vente des produits et services de l’entreprise La facturation La comptabilité Le suivi et la gestion des devis… Les activités de traitement liées aux RH Gestion des personnels paye, avancement, déclarations sociales obligatoires… La formation Le recrutement constitution d’une base CV… Les activités métier qui dépendent de chaque entreprise - par exemple pour une entreprise spécialisée en sécurité informatique l’audit la formation tests d’intrusion Le contentieux La gestion des obligations RGPD et oui, il faut “porter le registre au registre”, car le registre va généralement impliquer la mise en oeuvre de traitements de données personnelles… Un exemple de fiche registre qui détaille le contenu de ces activités Une fois que l’on a listé toutes les activités de traitement mises en oeuvre par l’entreprise, il est nécessaire ensuite de détailler chaque fiche registre et notamment de préciser les finalités du traitement Par exemple, pour la gestion de la facturation, on pense au premier abord à l’édition des factures, mais il est également nécessaire d’ajouter toutes les activités annexes, telles que la gestion de l’historique des échanges commerciaux - qui sont des données dont la conservation est déterminante en cas de contentieux, la gestion des taxes TVA, etc. Ici, parce que l’on utilise un logiciel de gestion du registre, ces activités de traitement sont déjà prédocumentées et peuvent être simplement importées en un clic, ce qui économise du temps et un travail laborieux de recensement de toutes les activités de l’entreprise. Utiliser un logiciel de gestion du registre n’est évidemment pas obligatoire, mais cela accélère considérablement l’élaboration du registre avant on y passait plusieurs semaines, aujourd’hui quelques minutes seulement. Pour reprendre le cas de la gestion de la facturation, voici la description intégrale proposée par le logiciel Le présent traitement a pour objet d’assurer la gestion et le suivi des factures de l’organisation tels que la préparation et l’émission de factures et des devis, le calcul des prix, la gestion de la traçabilité des produits et de leur disponibilité, la gestion des contacts commerciaux et de facturation, l’historique des échanges pour l’établissement des factures ou devis, les relances pour impayés, la gestion de la TVA et des taxes associées à la vente, ainsi que la réception de factures à régler, le paiement des ces factures et de manière globale, le contentieux associé à la facturation. Si vous recensez vos traitements à la main, pensez ensuite ajouter le détail des mentions obligatoires qui sont imposées par l’article 30, et notamment prévoir les destinataires des données avez-vous pensé aux administrations fiscales ? Et à la CNIL qui légalement peut avoir accès aux données les délais de conservation des données que vous devez déterminer précisément Pour tous les traitements standards, tels que la gestion des factures, la prospection commerciale, la gestion RH, ou encore la mise en place d’outils logiciels standards Wordpress, Woocommerce, Shopify…, l’import en un clic est vraiment la méthode la plus rapide et la plus efficace Pour les autres traitements métiers qui sont très spécifiques à l’entreprise, il faut créer une nouvelle fiche et la remplir manuellement. Une question qui va rapidement se poser est “combien de traitements faut-il porter au registre” ; cela dépend évidemment de la taille de l’entreprise, du nombre de salariés et des activités en place. Typiquement une entreprise de 200 salariés peut engendrer une quarantaine de traitements si ceux-ci sont bien rédigés. Toutefois, le nombre dépend évidemment de l’étendue des finalités qui sont définies. Attention à ne pas confondre traitement et fichier… Dans le processus d’élaboration du registre, il est important de ne pas confondre traitements et fichiers. En effet, une entreprise peut avoir des milliers de fichiers, mais ces fichiers peuvent être intégrés dans un seul et même traitement. C’est souvent le cas pour des activités RH, ou des activités commerciales. Au premier abord on peut s’interroger comment s’assurer de recenser toutes les activités de traitements alors qu’une entreprise peut parfois gérer des milliers de fichiers Excel ? On peut effectivement s’en inquiéter, mais en réalité les fichiers d’un service RH ne sont jamais que la traduction d’une seule et même activité de traitement recruter, gérer le personnel…. Donc peu importe que le service utilise des outils logiciels différents pour la mettre en oeuvre ou qu’il dispose d’un grand nombre de fichiers Excel pour ce faire. S’il mène une seule et même activité de traitement, le registre comportera une seule fiche en pratique il est fréquent qu’un service RH puisse avoir 5 ou 10 fiches registre, selon l’ampleur des activités - mais ce n’est pas systématiquement le cas ; pour avoir audité les traitements du service RH d’une entreprise du CAC40, celle-ci se reposait sur une seule fiche !. Voici une vidéo expliquant plus en détail ces concepts. S’ils ne sont pas clairs venez nous rejoindre en formation, car il faut vraiment deux jours pour comprendre et intégrer l’ensemble des processus permettant de mettre une organisation en conformité. Pour rappel, voici le détail de l’article 30 qui décrit les éléments qui doivent obligatoirement figurer au registre pour chaque fiche a le nom et les coordonnées du responsable du traitement et, le cas échéant, du responsable conjoint du traitement, du représentant du responsable du traitement et du délégué à la protection des données; b les finalités du traitement; c une description des catégories de personnes concernées et des catégories de données à caractère personnel; d les catégories de destinataires auxquels les données à caractère personnel ont été ou seront communiquées, y compris les destinataires dans des pays tiers ou des organisations internationales; e le cas échéant, les transferts de données à caractère personnel vers un pays tiers ou à une organisation internationale, y compris l’identification de ce pays tiers ou de cette organisation internationale et, dans le cas des transferts visés à l’article 49, paragraphe 1, deuxième alinéa, les documents attestant de l’existence de garanties appropriées; f dans la mesure du possible, les délais prévus pour l’effacement des différentes catégories de données; g dans la mesure du possible, une description générale des mesures de sécurité techniques et organisationnelles visées à l’article 32, paragraphe 1. ysio.