Traductionsen contexte de "formulaire de collecte" en français-anglais avec Reverso Context : La section suivante présente un formulaire de collecte de données minimale.
Il est aujourd’hui possible de recueillir une multitude d’informations détaillées sur ses clients et ses prospects, et ce dans le respect de la législation RGPD par exemple. Bien utilisées, ces données peuvent s’avérer très utiles pour les entreprises. En permettant de répondre plus précisément aux besoins et aux attentes des audiences, elles contribuent en effet à améliorer l’offre et les actions marketing des entreprises au quotidien. L’exploitation efficace des données joue un rôle de plus en plus important dans le succès d’une stratégie marketing. Lead nurturing, campagnes display ciblées, automatisation, création de contenus personnalisés… Quelles que soient les opérations marketing que vous cherchez à mettre en place, elles reposent toutes sur le même pilier la collecte et l’exploitation des données. Face à la concurrence, ces dernières sont un moyen efficace pour tisser des relations clients plus personnalisées et plus solides. Quels sont les différents types de données et quelle en est leur exploitation ? Découvrez-le dans cet article de Qualifio ! Petite typologie des données marketing Nous pouvons catégoriser les différents types de données selon deux dimensions leur source first party, second party ou third party et la méthode de collecte déclarative ou non déclarative. Différencier les données selon leur source ▷ Les données first party Ce sont les informations récoltées par l’entreprise elle-même sur ses canaux offline ou digitaux sites web, applications mobiles, publicités en ligne, points de vente, CRM… Elles peuvent être comportementales collectées via des cookies, par exemple ou déclaratives. Dans le contexte du RGPD et suite à des scandales tels que celui de Cambridge Analytica, les données first party sont celles qui sont les plus prisées 56% des annonceurs et agences média plébiscitent ces données “propriétaires” car elles permettent d’avoir une connaissance de premier ordre sur les consommateurs ou prospects d’une marque. Source Elles offrent également plus de contrôle et de sécurité. Exemple La compagnie aérienne ElastiqueFlight collecte des données sur ses voyageurs grâce à son programme de fidélité. Les données de contact sont collectées via un formulaire que le membre remplit à l’inscription, et sont ensuite enrichies avec des données comportementales first party collectées via un cookie déposé sur le portail web dédié aux membres. ▷ Les données second party Elles sont les données first party récupérées auprès de partenaires qui viennent enrichir les données propriétaires dont dispose déjà l’entreprise. Elles sont le plus souvent ciblées en fonction d’un partenariat établi entre les deux marques – parfois payant. Exemple ElastiqueFlight souhaite collecter des données de contact, pour promouvoir son programme de fidélité auprès d’une base plus large. Elle établit donc un partenariat second party avec son partenaire de longue date, l’office du tourisme américain destination vers laquelle elle a de nombreux vols , qui lui communique une base de données e-mail. ▷ Les données third party Elles sont achetées auprès de fournisseurs extérieurs spécialisés dans la récolte et l’analyse de données à grande échelle, ou utilisées à travers les réseaux sociaux. Leur rôle est de compléter les données first party et second party. Les sources des données peuvent être multiples et il y a souvent plusieurs intermédiaires dans la transaction. Bien qu’elles présentent l’avantage d’être déjà segmentées par un prestataire spécialiste, ce qui constitue un gain de temps considérable, ces données deviennent quelque peu obsolètes dans l’écosystème digital post-RGPD. Exemple ElastiqueFlight paie la société spécialisée Data Renard pour obtenir des données complémentaires sur un segment spécifique de son groupe cible, soit les personnes intéressées par les voyages vers les Etats-Unis. Différencier les données selon leur méthode de collecte ▷ Les données déclaratives Ces données sont obtenues via un processus dit “déclaratif”, c’est-à-dire qu’elles sont récoltées directement à partir de déclarations de personnes. Elles servent essentiellement à qualifier le profil client et à améliorer le ciblage. Exemple ElastiqueFlight met en place une enquête pour améliorer sa connaissance client. Pour mener son enquête, elle utilise questionnaires en ligne, ainsi que des entretiens téléphoniques et face-à-face. ▷ Les données comportementales Ce sont toutes les informations qui traduisent le comportement des internautes, face à l’envoi d’un e-mailing par exemple, ou lorsqu’ils naviguent sur un site web. Elles peuvent être identifiées ou non, selon si le client a entré son identifiant et son mot de passe par exemple. Exemple ElastiqueFlight traque les taux d’ouverture et de clics sur les e-mails qu’elle envoie. Si un internaute n’a pas cliqué sur les 3 dernières newsletters, elle arrête les envois. ElastiqueFlight suit également la navigation sur son site un panier abandonné ou la recherche d’un vol vers une destination spécifique déclenche l’envoi d’un e-mail automatique personnalisé. Et les données personnelles, dans tout ça ? ▷ Les données personnelles et le RGPD Pour 60% des entreprises, le RGPD a considérablement modifié les flux de travail en matière de collecte, d’utilisation et de protection des informations personnelles. Source Fortement associées à la vie privée, les données personnelles correspondent aux informations qui permettent d’identifier une personne directement ou indirectement, notamment par recoupement avec d’autres données. Une donnée personnelle peut donc être un nom, une adresse, un numéro de téléphone, mais également un numéro client, une donnée de localisation ou un identifiant en ligne. Une donnée personnelle peut donc autant être une donnée first party que second party ou third party. Elle peut également être déclarative ou non. Typiquement, une adresse IP n’est pas une donnée déclarative, mais est considéré comme une donnée personnelle. Qu’en est-il des données anonymisées, chiffrées ou pseudonymisées ? Des données à caractère personnel qui ont été anonymisées, chiffrées ou pseudonymisées, mais qui peuvent être utilisées pour identifier à nouveau une personne constituent toujours des données à caractère personnel et sont couvertes par le RGPD. Pour qu’une donnée soit véritablement rendue anonyme, le processus d’anonymisation doit être irréversible. Source Comment collecter des données clients ? Enrichissez facilement votre base de données client grâce à des campagnes marketing interactives quiz, tirage au sort, instant gagnant, concours, formulaire, sondage, test de personnalité, memory, etc.. Ces contenus vous permettent de collecter des données dans un environnement ludique et interactif. Les données peuvent ensuite être intégrées en temps réel dans tous vos outils emailing, CRM, etc. afin que vous puissiez les exploiter et générer de nouvelles opportunités de business. La plateforme Qualifio vous permet de collecter des leads qualifiés à travers 50+ mécaniques interactives ; enrichir votre stratégie marketing des données collectées ; segmenter vos bases de données ; améliorer le ciblage et la personnalisation de vos prochaines campagnes ; analyser la performance de vos campagnes en temps réel. La solution idéale pour collecter des données fiables, transformer vos contacts en clients potentiels, et améliorer votre fidélisation ! Cliquez ici pour découvrir Qualifio Article écrit en collaboration avec Qualifio
Texteà faire figurer dans les formulaires de collecte de données de tous les instruments de recueil de données (sur support papier, électronique ou autre) utilisés par l’OMS pour recueillir des données auprès des États Membres. Les données sont le fondement de toutes les mesures rationnelles de santé publique et les avantages de la

1- Création de bases de données SQLite3 SQLite est une bibliothèque qui fournit une base de données légère sur disque ne nécessitant pas de processus serveur distinct et permet d’accéder à la base de données à l’aide d’une variante du langage de requête SQL. Certaines applications peuvent utiliser SQLite pour le stockage de données interne. Il est également possible de prototyper une application utilisant SQLite, puis de transférer le code dans une base de données plus grande telle que PostgreSQL ou Oracle. Pour utiliser le module, vous devez d'abord créer un objet Connection qui représente la base de données. Dans l'exemple ci-dessous, les données seront stockées dans le fichier import sqlite3 conn = Remarque. importante ! Vous n'êtes pas obligé de créer la base de données mais elle sera crée automatiquement dans le même réprtoire que le fichier Python! Une fois que vous avez une connexion, vous pouvez créer un objet Cursor et appeler sa méthode execute pour exécuter des commandes SQL Créer un cursor cur = 2 - Création de table SQLite3 Et maintenant si on veut créer une table au sein de la base SQLite3 il suffit d'utiliser la commande CREATE TABLE nom_de_la_table Code complet -*- coding utf-8 -*- import sqlite3 conn = Créer un cursor cur = Création de la requete req = "CREATE TABLE studentsid INTEGER PRIMARY KEY AUTOINCREMENT, name TEXT NOT NULL, email TEXT NOT NULL" Exécution de la requete Envoyer la requete Fermer la connexion 3- Insertion de données L'insertion de données en environnement SQLite3 est exactement identique au cas du MySql Insérer une ligne de données "INSERT INTO students `nom`,`email` VALUES 'Albert', 'albert Commettre ou engager les données Code complet -*- coding utf-8 -*- import sqlite3 conn = cur = Insérer une ligne de données INTO students`nom`,`email` VALUES 'Albert', 'albert Engager l'opération Fermer la connexion 4- Insertion des données de variables dans une table SQLite Quand on a inséré directement les données au sein de la requête comme on a fait dans l'exemple ci-dessus, aucun problème n'a été rencontré! INTO students`nom`,`email` VALUES 'Albert', 'albert Imaginez que les données qu'on souhaite insérer, sont des valeurs de variables récupérées depuis un autre fichier ou provenant d'un formulaire d'enregistrement...Dans ce cas l'insertion des données de cette façon est totalement erronée ! nom = "Albert" email = "albert INTO students`nom`,`email` VALUES nom, email" TOTALEMENT FAUX ! ATTENTION ! TOTALEMENT FAUX ! Puisque les variables nom et email ne seront pas interprétées ! Pour corriger l'erreur, on utilise la méthode de formatage des chaines à l'aide du symbole ''?'' nom = 'Albert' email = 'albert age = 22 cur = into students nom,email,age values ?,?,?",nom, email, age Code complet -*- coding utf-8 -*- import sqlite3 conn = nom = 'Albert' email = 'albert age = 22 Créer un cursor cur = into students nom,email,age values ?,?,?",nom, email, age 5- Affichage des données d'une table SQLite3 Maintenant, il est tout à fait légitime de se demander si tout a été bien réglé création de la table students au sein de la base de données SQLite3 , insertion de données au sein de la table students... - Création d'un cursor pour exécuter une requête de sélection cur = result = students " Parcourir les résultats de la sélection Pour afficher les données, on va parcourir l'objet cursor par un compteur row. La variable row qui fait le parcourt est un objet tuple dont les constituants sont les valeurs des champs id, nom, email, age... for row in result print"ID ",row[0] print"nom ",row[1] print"Email ",row[2] print"Age ",row[3] 6- Éditeur WYSIWYG SQLite3 .Tout a été fait en noir ! Jusqu'à présent vous n'avez encore rien vue, ni table ni données...Pour répondre à cette question, je vous informe qu'il y a de nombreux utilitaires permettant d'explorer les bases de données SQLite3. Je vous recommande DB Browser for SQLite qui est gratuit et très simple d'usage Téléchargez DB Browser for SQLite, Installez le, Lancez DB Browser Depuis le menu File –> cliquez sur le sous menu Open Databse Sélectionnez ensuite votre base de donnée Cliquez finalement sur Browse data pour voir votre table students avec les donnée que vous venez d’insérer Younes Derfoufi CRMEF OUJDA Post Views 11 196

Danscet exemple, vous apprendrez comment envoyer des informations au collecteur de données afin d'obtenir des données d'analyse pour les vidéos qui ne sont pas affichées dans un lecteur Web ou SDK Brightcove. Notez que cette technique ne doit pas être utilisée si vous utilisez les lecteurs Web ou SDK Brightcove, car elle entraînera des données analytiques Les données capturées par les capteurs vont suivre une chaine d'information au sein du système, qui a pour but de les collecter, de les analyser et de les traiter. À partir d'une information source, trois principales étapes, résumées sur la figure 1 constituent la chaine d'information L'information source est d'abord acquise grâce à un capteur, qui va effectuer des mesures de la grandeur physique d'intérêt. Le capteur produit, comme résultat de ses mesures, un signal électrique de type logique, analogique ou numérique. Le signal produit par le capteur est ensuite traité, typiquement par un programme exécuté sur un microcontrôleur, dans le cadre de petits systèmes, voire sur un ordinateur plus puissant, doté d'un ou plusieurs microprocesseurs, pour de gros systèmes. Enfin, une fois le signal traité, vient une phase de communication du résultat du traitement. L'information peut, par exemple, être restituée sous forme d'une visualisation, après avoir été stockée dans une base de données. Un autre scénario possible est l'envoi d'une consigne vers un système, pour commander une action ou configurer des paramètres de ce dernier. La chaine d'information commence par l'acquisition d'une mesure de la grandeur physique d'intérêt, puis vient un traitement des données collectées et enfin, une communication des résultats du traitement. Acquérir des données du capteur La première étape de la chaine de transmission consiste donc en l'acquisition de données à partir des différents capteurs choisis. Dans le cadre du système développé dans ce cours, trois capteurs ont été choisis et présentés dans le chapitre précédent. La température est mesurée à l'aide d'un LM35, l'humidité relative à l'aide d'un DHT11 et, enfin, le niveau sonore avec un module de détection sonore. Pour choisir le capteur le plus adéquat, pour mesurer une grandeur physique donnée, plusieurs critères peuvent être pris en compte Il faut évidemment d'abord vérifier que la plage de mesures du capteur couvre les valeurs qu'il faudra être capable de mesurer, dans le cadre du système développé. Ensuite, il faut s'intéresser aux éventuelles contraintes imposées par le projet, et s'assurer que les caractéristiques du capteur soient compatibles avec ces dernières. Il se peut, par exemple, qu'un certain niveau de précision, qu'une résolution minimale ou encore qu'un temps de réponse minimal soit imposé. On peut également prendre en compte les caractéristiques en lien avec la qualité du capteur, telles que sa fiabilité, sa fidélité ou encore sa gamme de températures d'utilisation. En fonction du système développé, un simple capteur pourrait suffire, ou alors il se peut qu'il faille monter en qualité. Enfin, il ne faut pas non plus négliger le prix du capteur, notamment par rapport au budget total prévu pour développer le système. Ce budget pourrait être plus faible dans le cadre d'un prototype et ensuite plus élevé dans le cadre d'une version plus avancée, une fois que la preuve de concept a été faite et validée. On peut aussi s'intéresser au nombre de capteurs qui seront nécessaires pour le système à développer. Comme on l'a vu au chapitre précédent, certains capteurs peuvent mesurer plusieurs grandeurs physiques, comme le DHT11 qui mesure l'humidité relative et la température. N'avoir qu'un capteur au lieu de deux peut rendre plus faciles les traitements effectués dans la suite de la chaine d'information, pour autant que ses caractéristiques satisfont les demandes du projet, évidemment. Cette question particulière de la mesure de la température, avec le LM35 ou le DHT11 est abordée plus loin, à la section Enfin, il faut également s'assurer que les différents capteurs choisis sont compatibles entre eux, le plus possible en tout cas, notamment par rapport à leur type de signal de sortie et à leurs tensions d'alimentation possibles. Au plus il y aura de l'hétérogénéité, au plus la suite de la chaine d'information sera complexe à réaliser. Traiter des données par l'Arduino La deuxième étape de la chaine de transmission consiste donc à traiter les données qui proviennent des capteurs. Cette étape est typiquement réalisée par un programme exécuté sur une machine, que ce soit un simple microcontrôleur ou un ordinateur plus puissant composé d'un ou plusieurs microprocesseurs. Le but de cette étape est de récupérer toutes les données provenant de plusieurs capteurs pour les traiter, et pour les analyser et prendre des décisions. Le traitement des données consiste en une interprétation des signaux électriques reçus des capteurs, selon leur type. Les données de type numérique vont souvent nécessiter plus de travail que les données logiques ou analogiques. On peut également, parfois, devoir transformer, interpréter ou vérifier les données reçues. Rappelez-vous, par exemple, du DHT11, vu à la section qui envoie des trames de 40 bits contenant les valeurs mesurées de l'humidité relative et de la température chacune sur 16 bits, ainsi qu'un code de 8 bits utilisé pour vérifier s'il y a eu des erreurs de transmission sur le bus 1-Wire. Le traitement des données provenant de ce capteur nécessitera beaucoup de travail. Dans ce cours, on va travailler avec l'Arduino Uno, présentée sur la figure 2, une simple carte électronique open source sur laquelle se trouve un microcontrôleur ATmega328P d'architecture Atmel, autour duquel se trouvent toute une série d'autres composants, qui vont faciliter sa programmation et son interfaçage avec d'autres circuits extérieurs. L'Arduino Uno est une simple carte électronique open source composée d'un microcontrôleur ATmega328P et d'une série de composants facilitant sa programmation et son interfaçage avec d'autres circuits extérieurs. L'Arduino possède de nombreuses pins, lui permettant de communiquer avec d'autres circuits, notamment des capteurs. L'Arduino Uno possède précisément $14$ pins numériques et $6$ pins analogiques, toutes capables de fonctionner en entrée ou en sortie. D'autres versions de l'Arduino possèdent un plus grand nombre de pins. La tension de fonctionnement de ces $20$ pins est de 5 V, la même que celle de l'Arduino. On pourra donc aisément utiliser les trois capteurs que l'on a sélectionné pour le système de surveillance sonore développé dans ce cours. Enfin, l'Arduino se programme très facilement grâce à l'environnement de développement intégré Arduino IDE et au langage de programmation Arduino, une version spécifique du langage C++, avec une librairie standard contenant des fonctions spécifiques à l'Arduino. Un programme Arduino, appelé sketch, est compilé puis chargé sur le microcontrôleur de l'Arduino pour y être exécuté. Un sketch se compose de trois parties, inspirées du langage de programmation Processing a une partie en-tête, avec notamment des imports de librairies et des définitions de variables globales, b la fonction d'initialisation setup exécutée une seule fois au lancement du sketch, c et, enfin, la fonction boucle principale loop dont le contenu est exécuté en boucle, se répétant indéfiniment. La figure 3 montre un exemple de sketch Arduino, qui fait clignoter une LED connectée à la pin numérique $7$, en produisant un signal électrique qui alterne entre un signal haut et un signal bas, en attendant une seconde entre les transitions Dans l'en-tête du sketch, on définit simplement le mot LED comme étant équivalent à $7$, le numéro de la pin numérique sur laquelle la LED a été connectée. Dans la fonction d'initialisation, on configure la pin~$7$ en mode sortie, à l'aide de la fonction pinMode, c'est-à-dire que le microcontrôleur de l'Arduino va pouvoir envoyer un signal vers le monde extérieur via cette pin, en l'occurrence alimenter ou non la LED avec une tension de 5 V. Enfin, dans la fonction boucle principale, on va répéter indéfiniment quatre opérations a envoyer un signal haut vers la pin~$7$ avec la fonction digitalWrite, appelée avec HIGH comme second paramètre, b attendre 1000 ms, c'est-à-dire une seconde, c envoyer un signal bas vers la pin~$7$, de nouveau avec digitalWrite, mais appelée cette fois-ci avec LOW comme second paramètre, d et, enfin, encore attendre 1000 ms. Ce très simple exemple de sketch vous montre la facilité avec laquelle on peut programmer la carte électronique Arduino Uno. Un sketch Arduino se compose de trois parties, à savoir une en-tête, la fonction d'initialisation qui s'exécute une fois au lancement et la fonction boucle principale dont le contenu se répète en boucle indéfiniment. Avec l'Arduino Uno, on va donc pouvoir, sans problèmes, collecter les données provenant du LM35, du DHT11 et du module de détection sonore, dans le cadre du système de surveillance du niveau sonore aux alentours d'un aéroport développé dans ce livre. On verra comment traiter les données envoyées par chacun des capteurs dans la section Communiquer des données vers l'extérieur La dernière étape de la chaine de transmission est la communication des données qui ont été collectées, analysées et traitées. Elle peut prendre plusieurs formes, selon la communication qui est faite. Une première possibilité de communication est l'envoi d'une consigne, ou d'un signal de commande, depuis la machine qui a traité les données du capteur vers une autre machine, un appareil, un moteur, etc. Par exemple, un thermostat mesure la température ambiante et la compare ensuite avec une température seuil configurée. Si la température mesurée est inférieure au seuil, le thermostat envoie un signal vers la chaudière pour la démarrer, pour chauffer la pièce. La communication peut aussi simplement consister en l'envoi des données collectées vers une autre machine, plus puissante, qui va pouvoir faire des traitements plus avancés. Par exemple, un serveur dans le cloud peut stocker des données reçues et proposer une interface de visualisation de ces dernières, sous forme d'un dashboard. La figure 4 montre un exemple de dashboard qui présente des données d'inscriptions à un collège. Il a été généré sur le service cloud Visualize Free disponible ici qui permet de gratuitement réaliser des visualisations. Le service cloud Visualize Free permet de visualiser des données sous forme d'un dashboard, par exemple des données d'inscriptions à un collège. Précédent Suivant
Exempleconcret d’un formulaire RGPD-friendly Un mot à retenir pour vos formulaires : confidentialité Avec le RGPD, la pratique de la collecte de données impose un devoir d’information et de transparence concernant les données personnelles que vous collectez et les traitements que vous en faites.
ArcGIS Survey123 est une solution complète centrée sur les formulaires pour la création, le partage et l’analyse d’enquêtes. Vous pouvez créer des formulaires intelligents qui utilisent le branchement conditionnel et des valeurs par défaut et prennent en charge de nombreuses langues. Collectez des données via le Web ou des appareils mobiles, même lorsque vous n’êtes pas connecté à Internet. Analysez rapidement les résultats et importez des données de manière sécurisée pour une analyse approfondie. Des données fiables pour de meilleures prises de décisions Affranchissez-vous de la collecte de données sur support papier et des risques d’erreur qu’elle implique adoptez une solution numérique fiable répondant aux besoins des utilisateurs dans divers environnements. Fonctionnement 000 Témoignage client Promouvoir la participation citoyenne Découvrez comment le Service des parcs nationaux utilise ArcGIS Survey123 pour mobiliser ses bénévoles dans le parc national de Glacier. Lire le récit Plus efficaces ensemble Les solutions ArcGIS spécialisées, utilisées conjointement avec ArcGIS Survey123, vous aident à optimiser le rendement du travail de terrain et fournissent des données fiables et exploitables par tous les membres de votre organisation. Découvrir les solutions de mobilité sur le terrain ArcGIS Workforce Coordonnez vos projets Survey123 de collecte de données sur le terrain et améliorez la communication entre le personnel sur le terrain et dans les bureaux. Découvrir Workforce for ArcGIS ArcGIS Dashboards Visualisez les données générées à partir de Survey123 dans des tableaux de bord mis à jour en temps réel pour favoriser de meilleures prises de décisions. Découvrir ArcGIS Dashboards ArcGIS Web AppBuilder Utilisez cette application WYSIWYG intuitive pour développer une application d’assurance qualité/de contrôle de la qualité des réponses reçues aux enquêtes Survey123. Découvrez ArcGIS Web AppBuilder Applications ArcGIS Utilisez les données créées dans Survey123 dans d’autres applications spécialisées pour optimiser l’efficacité des activités sur le terrain, favoriser de meilleures prises de décisions et communiquer de manière plus efficace. Découvrir les applications ArcGIS Contacter l’équipe des ventes Partagez vos informations et notre équipe des ventes prendra rapidement contact avec vous. Nous avons hâte d’échanger avec vous. Lafaçon la plus conventionnelle de créer des formulaires d’entrée de données dans Excel est sans aucun doute de créer des formulaires directement dans les cellules des feuilles Excel. Cette façon de faire facilite largement la conception et la compilation des résultats peut se faire avec Power Query. Toutefois, cette approche manque Que seraient les études sans le traitement des données ? Et le traitement sans une bonne collecte ? Selon les professionnels, 40 % à 50 % du coût d'une étude sont consacrés à la collecte de l'information et seulement 10 à 15 % au traitement des données. Or, quelles que soient les techniques d'enquête utilisées, les informations brutes obtenues ne peuvent servir que si elles sont traitées», rappellent Jacques Lendrevie, Julien Levy et Denis Lindon dans le MercatorJacques Lendrevie, Julien Lévy et Denis Lindon, Dunod, septembre 2009.. Et Syntec Etudes Marketing & OpinionEtudes Marketing et Opinion fiabilité des méthodes et bonnes pratiques, Syntec EMO sous la direction de Françoise Frisch, Dunod, 2007. d'insister sur l'importance d'opérations préalables au traitement proprement dit qui en assurent la qualité. Parmi ces étapes figurent la vérification des questionnaires editing afin de contrôler l'exhaustivité et la cohérence des données qu'ils contiennent ; la codification des réponses aux questions ouvertes pour qu'elles soient traitées informatiquement, via une grille de codage ; la vérification du fichier des données afin d'éliminer les erreurs de saisie ; et enfin l'élaboration du plan de traitement qui spécifie les traitements nécessaires pour répondre au problème posé. Le traitement est une part importante d'une étude, la base de notre profession; il permet de tirer de bonnes conclusions», insiste Gabor Koska, responsable du pôle Quanti chez Added Value outre, le traitement des données doit s'adapter au développement des différents modes de collecte et au recours croissant au multimodal dans les questionnaires quanti. Selon Syntec Etudes Marketing & Opinion, 25 % des études quantitatives en France ont été effectuées via Internet en 2008, soit 8 points de mieux qu'en 2007. La technologie apporte aussi de nouveaux outils. A l'instar des études via les pocket PC ou les mobiles. Preuve s'il en fallait une étude de Lightspeed ResearchThe Benefits of Mobile Research. menée en Grande-Bretagne et aux Etats-Unis vient de démontrer les avantages des enquêtes via les mobiles. Ces changements ont fait émerger de nouvelles solutions pour faciliter la compatibilité des logiciels de programmation, de collecte et de traitement des questionnaires qui doivent communiquer» entre eux. Désormais ils sont pratiquement tous interfaçables, permettant une bonne homogénéisation des différentes sources SPSS, Voxco, Conversoft, Askia, Grimmersoft, GN Research, Soft Concept.... Côté études en ligne les critères de qualité sont plus que jamais d'actualité origine du panéliste taille critique d'échantillon durée de réponse aux questions... et des sociétés comme Confirmit Research Now SSI Harris Interactive ou GMI multiplient les logiciels de contrôle traitement des études devient de plus en plus complexe en raison de sources nombreuses et variées, non homogènes. L'outil cross media de Médiamétrie a ainsi nécessité des méthodes statistiques extrêmement sophistiquées. Aux sources études proprement dites viennent s'ajouter d'autres données, notamment issues des mesures passives, du Web blogs, forums, bulletin boards, communautés, sites collaboratifs, micro-blogging, twitt, wiki... , sans oublier les banques de données clients. Autant de sources qui peuvent doivent ? être intégrées dans un traitement intelligent d'une problématique outils completsCette analyse du buzz a aujourd'hui ses experts ainsi que ses logiciels dédiés Alceste, AMI Software, SPSS... . Car les citoyens s'expriment déplus en plus sur la Toile», constate François Laurent, fondateur de ConsumerInsight, qui souhaite des outils d'analyse permettant à la fois d'appréhender la Toile avec les yeux du surfeur moyen, et de collecter, structurer et analyser scientifiquement les éléments découverts. Pourtant, selon François Laurent, peu d'outils peuvent conjuguer surf intelligent et puissance de traitement. C'est, bien sûr, la voie royale, mais cela demande des experts capables de maîtriser des approches qualitatives lourdes - c'est-à-dire à la limite du qualitatif traditionnel et de son intuitivité - et du quantitatif, avec son recours au traitement informatique. Un tel profil est rare dans bien des instituts», du dernier salon Semo, en partenariat avec AT Internet, a présenté une solution pour mesurer la satisfaction client, résultat de la complémentarité de différents types d'outils les outils de mesure et d'analyse de trafic en ligne d'AT Internet données comportementales et les outils de recueil et de reporting en ligne d' données attitudinales . Quant à Toluna, la société veut, avec son produit BrandSpector, enrichir l'analyse des enquêtes avec des informations issues directement de son panel. Cela va changer complètement la manière de réaliser et d'analyser les post-tests publicitaires» assure Philippe Guilbert directeur général de Toluna France. Dès cette année la société va d'ailleurs intégrer des informations issues de ses différents sous-panels ailleurs, montent en puissance des solutions EFM, concept d' Enterprise Feedback Management, apparu en 2005 aux Etats-Unis, sur lequel des acteurs internationaux comme Confirmit, Globalpark ou Vovici axent leur communication. De quoi s'agit-il ? De la disponibilité, sur une seule plateforme intégrée, de toutes les fonctionnalités nécessaires aux enquêtes, évaluations, tests ou sondages solutions de ciblage gestion de panels, échantillonnages..., dispositifs de collecte enquêtes en ligne, numérisation de questionnaires papier, face-à-face, Internet... , outils statistiques puissants y compris data et text minings , systèmes de restitution et de reporting adaptés. Intégrée dans le système d'information, cette plateforme est utilisée dans tous les domaines fonctionnels de l'entreprise dès lors qu'il s'agit de collecter et d'analyser de l'information par le biais de questionnaires études marketing, études de satisfaction, 360°, enquêtes internes, évaluations et expérimentations R&D, contrôle interne...Pour mesurer le niveau de maturité des entreprises françaises sur ces points et comprendre leurs attentes, Grimmersoft s'est associé à Marketor pour réaliser le premier baromètre de l'EFM en France. Il a ainsi interrogé 22 000 personnes travaillant dans les domaines informatique, marketing/études et RH/ formation. 95 % d'entre elles ont admis ne pas connaître l'EFM, constate Pascal Hébert, président de Grimmersoft. Pourtant, une fois les caractéristiques des solutions EFM présentées, 76 % ont jugé ces outils utiles, voire très utiles. Au final, un quart envisagent défaire évoluer une ou plusieurs applications vers une solution EFM à court terme.»Plus que jamais les données sont nombreuses et nécessitent d'être bien traitées" pour en tirer tout le potentiel décisionnel», souligne Thierry Vallaud, responsable data mining et décisionnel de Socio Logiciels. Il faut faire ressortir les marges d'erreur, les significativités, les biais éventuels. La généralisation des petits échantillons et des terrains en ligne renforce ce besoin de cohérence des traitements, car des sociétés qui ne sont pas issues des études arrivent sur ce marché», fait-il remarquer. Et d'ajouter Bien traiter les données veut dire de l'inférence statistique simple, mais aussi des présentations visuelles sexy et complétées par des analyses multivariées qui évitent les résultats triviaux et des conclusions non opérationnelles. » Des traitements de plus en plus complexes...La complexification des traitements de l'information nécessite un recours plus fréquent à des sociétés spécialisées Socio Logiciels, Double Précision, Eole, Marketing Studio Services, 5ème Force... et ce d'autant plus que tous les instituts d'études ne disposent pas, en interne, des compétences statistiques nécessaires. Récemment, INit et Repères se sont dotés d'expertises internes en statistiques et ont de plus en plus souvent recours aux réseaux Bayésiens. Cette méthode de traitement de données particulièrement innovante a enrichi nos diagnostics, notamment sur les drivers de l'appréciation globale dans les tests de produit. L'apprentissage non supervisé des relations entre les variables de l'étude permet de découvrir de façon rapide et efficace la structure sous-jacente des perceptions consommateurs. Déplus, la possibilité d'utiliser le modèle pour déterminer le meilleur scénario d'optimisation pour un produit testé nous a fait franchir un cap supplémentaire dans l'opérationnalité de nos diagnostics», constate Fabien Craignou, responsable du département data mining chez Repères, un département créé en delivery» joue aujourd'hui un rôle-clé dans la valorisation des données études et du traitement. De lourds investissements ont été consentis par les instituts BVA, GfK, Ipsos, TNS Sofres, Harris Interactive... et les sociétés de logiciels pour l'optimiser, notamment grâce à l'utilisation d'Internet. Nombreuses sont les suites logicielles entièrement automatisées, capables de suivre une étude, du terrain au web reporting en passant par le traitement. Aujourd'hui, la grande attente des instituts d'études, qu'ils soient moyens ou petits, est de pouvoir y avoir recours à des prix abordables....mais une technologie plus accessible Parallèlement, les tableaux de bord se font à la fois plus complets et plus faciles à manier. Nous simplifions la technologie pour que nos clients aillent encore plus loin dans son utilisation», souligne Patrick George, président d'Askia. Ce dernier note que les axes de développement se sont concentrés en 2009 sur la mise à disposition des données en ligne mais aussi la production de rapports automatisés sous forme de fichiers PowerPoint mis à jour directement à partir de l'application de traitement et accessible par le client final. En janvier 2010, la société a présenté son outil d'export PPT à partir des dossiers d'analyse Vista ou Analyse on-line ou off-line . Du côté des instituts, Crmmetrix a développé sa propre technologie, EZ-Views. Cette plateforme de reporting permet aux clients et aux consultants d'accéder à des indicateurs-clés, traités automatiquement, en temps société d'études Actencia le soulignait lors de sa dernière réunion sur le thème Evolution des études crise ou mutation ?» présentée par Brigitte Colas de la Noue, expliquant que la valeur ajoutée des études doit être redéfinie. Chez Socio Logiciels, on pense que le traitement devra devenir plus sophistiqué pour sortir des sentiers battus et donner plus de valeur aux part du traitement dans un budget études devrait donc croître en valeur. Le traitement devra rajouter de l'expertise. Au-delà des outils, ce sont bien les hommes, leurs analyses et leurs expertises qui permettent de prendre les bonnes décisions», résume Guillaume Weill, directeur général de Crmmetrix. Marc Bertrand François Laurent Consumerlnsight Le développement de l'analyse du discours citoyen nécessite la conjugaison d'outils informatiques dédiés et d'une forte polyvalence intellectuelle des chargés d'études.» Marc Bertrand Thierry Vallaud SocioLogiciels en matière de traitement, les clients veulent plus de sophistication, ce petit plus» qui permettra de faire une recommandation différente, plus intelligente». » L'enjeu du traitement pour les études qualitatives Opinion Sous l'influence des nouvelles technologies, la collecte et le traitement des données en études qualitatives ont sensiblement évolué. L'avis de georges guelfand, qualitativiste et enseignant à Paris Dauphine. En collecte, si les anciennes méthodes sont toujours d'actualité entretiens individuels, en dyades, en triades, en focus group..., les capacités offertes par le Web ont initié une écriture et une culture numérique caractérisées par un volume et une interactivité sans précédent. Manipulation et partage de textes, de vidéos, de photographies, journaux intimes, dessins... toutes ces pratiques nous ont obligés à apprendre de nouveaux langages comme la phonétique, le mélange des codes alphabétiques et alphanumériques, l'usage de smileys... Dès lors, on assiste à la naissance de nombreuses méthodes de recueil permettant aux conso-internautes de laisser libre cours, selon l'expression d'Oriane Deseilligny, à leur créativité poétique et graphique»Pratiques d'écritures adolescentes l'exemple des skyblogs», Le journal des psychologues, nov. 2009. blogging, netnographie, focus groups on line, community panels, innovation on line... chaque institut donnant aussi libre cours à sa créativité. Cette diversification des méthodes de recueil a eu plusieurs effets. Tout d'abord, elle a permis d'atteindre des publics difficilement accessibles. Ensuite, elle a permis d'accéder efficacement aux expériences non discursives des consommateurs leurs comportements en situation de consommation. Enfin, elle autorise l'interactivité et une collaboration directe, en situation d'interview, entre client, institut et consommateur. Ces changements nous ont obligés à repenser nos procédures de traitement. En effet, si les traitements classiques, fondés sur les apports de la psycho-linguistique analyse thématique, socio-sémantique... restent utiles, ils deviennent moins opérants lorsqu'il s'agit d'analyser de nouveaux langages, faits d'une floraison de mots et d'images. Il a donc fallu, d'une part, établir de nouvelles procédures de traitement des données et, d'autre part, repenser l'étude qualitative elle-même, la rendre transdisciplinaire et systémique. De telles évolutions ont eu des conséquences importantes sur la place attribuée à la collecte et au traitement des données. En effet, si le but d'une étude qualitative n'est pas seulement de répondre à des questions, mais aussi de les reformuler, et surtout de mettre à jour les questions pertinentes non encore formulées ; s'il s'agit non seulement d'expliquer la réalité, mais aussi de l'améliorer ; si le but premier est, comme l'indique Jean-Louis Le MoigneLa modélisation des systèmes complexes, Dunod, 2009., de formuler les problèmes qu'il s'avérera pertinent de résoudre» ; si ces objectifs sont premiers, alors traitement et analyse des données seront conçus en amont du terrain, que ce soit dans la formulation des objectifs entre annonceur et institut ou dans l'élaboration d'un protocole et d'un guide qui soient en eux-mêmes un modèle de traitement des données. Cette question de la collecte et du traitement des données se trouve ainsi subordonnée, en amont, à celle de la formulation des questions et objectifs de l'étude, et, en aval, à celle de la modélisation des résultats. Sur ce second plan, les modèles de structuration des données ne manquent pasNous citerons comme exemples les classifications d'Yves Durand L'exploration de l'imaginaire, Circe, n° 1-1969., le modèle ago-antagoniste d'E. Bernard Weil L'arc et la corde, Maloine, 1975, celui de Stéphane Lupasco L'univers psychique, Denoël, 1979, le formalisme triadique de Pierce, les modèles inspirés des sciences de la cognition.. Adopter une telle démarche, qui pense les méthodes qualitatives du point de vue des problématiques à résoudre et des modèles d'interprétation à mobiliser, réclame une exigence nouvelle. Ainsi, les qualitativistes doivent acquérir de nouveaux modes de pensée, posséder une culture qui ne soit pas seulement celle des entreprises et des marchés, mais qui puise aux sources de la littérature, des arts et des sciences... Autrement dit une culture qui se donne les moyens d'analyser les conséquences sur les consommateurs des profondes mutations de nos sociétésCrise, rupture et dépassement, collectif sous la direction de René Kaës, Dunod, 1979.... une culture transdisciplinaire qui puisse relever les défis de notre temps. A cette condition, les études qualitatives permettront de lire, de comprendre et d'interpréter les nouveaux langages des consommateurs et de réactiver leur désir de consommer. Guillaume Weill Crmmetrix Au-delà des outils, ce sont bien les hommes, leur analyse et leur expertise qui permettent de prendre les bonnes décisions.» Patrick George Askia Nous simplifions la technologie pour que nos clients aillent encore plus loin dans l'utilisation de nos outils. »
34 Les données de dépistage sont-elles reliées aux données du (des) registre(s) du cancer populationnel(s)? (1. Oui; 2. Des registres existent mais pas de liens entre les données; 3. Non, pas de registre; 4. Ne sais pas) [ ] 3.5 Autres informations relatives au système d'information : (par exemple, contrôle de la qualité de la collecte des
Données personnelles de quoi parle-t-on ? Une donnée personnelle est décrite par la CNIL comme toute information se rapportant à une personne physique identifiée ou identifiable. Il existe 2 types d’identifications identification directe nom, prénom etc. identification indirecte identifiant, numéro etc.. Lorsqu’une opération ou un ensemble d’opérations portant sur des données personnelles sont effectuées, on considère qu’il s’agit de traitement de données personnelles. La CNIL donne les actions suivantes à titre d’exemple du traitement des données tenue d’un fichier de ses clients collecte de coordonnées de prospects via un questionnaire mise à jour d’un fichier de fournisseurs La protection des données personnelles a été renforcée dans le cadre du règlement général de protection des données RGPD. Le RGPD, qu’est-ce que c’est ? Le règlement général de protection des données RGPD est un texte réglementaire européen qui encadre le traitement des données de manière égalitaire sur tout le territoire de l’Union Européenne. Il est entré en application le 25 mai 2018. Mode d'emploi du RGPD Lire aussi Règlement général de la protection des données RGPD attention aux arnaques ! Utilisation de données personnelles dans quelles situations informer l’internaute ? D'après le RGPD, il existe 2 situations dans lesquelles l’information de l’internaute est obligatoire En cas de collecte directe des données de l’internaute, que ce soit de façon active via remplissage d’un formulaire lors d’un achat en ligne, de la souscription d’un contrat, de l’ouverture d’un compte bancaire… ou au travers de l’observation de son activité via des outils d’analyse de sa navigation, de géolocalisation, de mesure d’audience… En cas de collecte indirecte des données de l’internaute données récupérées auprès de partenaires commerciaux par exemple. Lire aussi Règlement Général sur la Protection des Données RGPD des droits renforcés pour les consommateurs Utilisation de données personnelles à quels moments informer l'internaute ? Le RGPD stipule 3 moments où vous devez informer l'internaute Vous devez informer l’internaute au moment de la collecte de ses données personnelles dans le cas d’une collecte directe ou dès que possible dans le cas d’une collecte indirecte de données lors du 1er contact par exemple. Vous devez également informer l’internaute de l’utilisation de ses données en cas de modification de leur utilisation. Enfin, dans un souci de transparence, vous devez informer régulièrement l’internaute de l’utilisation de ses données personnelles. Lire aussi Entreprises, quelles sont vos obligations en matière de courriel commercial ? Utilisation de données personnelles quelles informations donner à l’internaute ? Le RGPD précise les informations que vous devez rendre disponibles. Ainsi, si un internaute vous en fait la demande, vous avez l’obligation de donner accès aux informations suivantes Identité et coordonnées de l’organisme responsable du traitement de données Coordonnées du délégué à la protection des données DPO, ou d’un point de contact sur les questions de protection des données personnelles Base juridique du traitement de données consentement de l’internaute, respect d’une obligation prévue par un texte, exécution d’un contrat… Finalités des données collectées pour prise de décisions automatisée, pour prévenir la fraude, parce que les informations sont requises par la réglementation… Caractère obligatoire ou facultatif du recueil des données et les conséquences pour la personne en cas de non-fourniture des données Destinataires ou catégories de destinataires des données Durée de conservation des données Transferts de données à caractère personnel envisagés à destination d'un État n'appartenant pas à l'Union européenne Vous devez également informer l’internaute de ses droits accès à ses données, possibilité de rectification ou d’effacement de ses données, de retrait de son consentement, possibilité de faire une réclamation auprès de la CNIL. En cas de données collectées de manière indirecte, vous devez informer l’internaute de la source des données. Comment rédiger les informations ? L’information doit être rédigée de la manière la plus claire, précise et simple possible. Son format doit être lisible par l’internaute. Vous devez informer l’internaute de la finalité de leurs données. À cet effet, il est recommandé d’insérer une page vie privée », accessible et compréhensible par tous. Votre charte vie privée sur votre site doit être à jour. Vous devez également proposer à l’internaute une possibilité simple de contact. Plus d’information sur l’information à délivrer à l’internaute Lire aussi Mentions sur votre site Internet les obligations à respecter Utilisation de données personnelles quand devez-vous obtenir le consentement de l'internaute ? Il existe plusieurs situations dans lesquels l'information ne suffit pas. Il faut expressément demander l'accord de l'internaute dans le cadre de la prospection commerciale par courrier électronique et dans certains cas, lors de l’utilisation de cookies. Consentement lors de l’utilisation de cookies ou de traceurs publicitaire Il faut obtenir le consentement de l’internaute avant de déposer les cookies liés aux opérations relatives à la publicité, les cookies des réseaux sociaux générés par les boutons de partage et certains cookies de mesure d'audience. Tout ce qu’il faut savoir sur les cookies et les solutions de la CNIL Consentement dans le cadre de courriels commerciaux newsletters Les destinataires de courriels commerciaux newsletters doivent avoir explicitement donné leur accord pour être démarchés, au moment de la collecte de leur adresse électronique. Ce consentement préalable de l’internaute doit être recueilli par une case à cocher. En cas de transmission de ses données personnelles à des partenaires, l’internaute doit également y avoir consenti au moment du recueil de ses données personnelles. Tout ce qu’il faut savoir sur vos obligations en matière de courriel commercial Quelles sont les sanctions en cas de non respect des obligations d'informations de l'internaute ? L'absence d'une information obligatoire est punie de l'amende de 1 500 €. Tout traitement informatique non consenti est puni de 5 ans d'emprisonnement et de 300 000 € d'amende. 111. Les services de l’Etat collectent-ils des données statistiques et d’autres informations concernant l’élimination de toutes les formes de travail forcé ou obligatoire? ____ Oui____ Non 11.2. Dans l’affirmative, veuillez préciser quelles sont ces données statistiques et informations En France, la protection des données personnelles existe d'un point de vue législatif depuis la Loi 78-17 du 6 janvier 1978. Son objectif est de veiller à ce que l'usage des données privées ne porte atteinte ni à l'identité humaine, ni aux droits de l'homme, ni à la vie privée, ni aux libertés individuelles ou publiques source. C'est la CNIL Commission Nationale de l'Informatique et des Libertés qui fait autorité dans ce domaine. Depuis, la loi n'a cessé d'évoluer pour tenir compte de l'évolution de la société et des nouvelles technologies avec dernièrement l'entrée en vigueur au niveau européen du Règlement Général sur la Protection des Données RGPD afin de s'adapter aux nouvelles technologies. C'est aussi une évolution juridique qui prend de l'ampleur et se retrouve ailleurs dans le monde comme en Californie ou au Brésil. D'autres institutions agréées et des associations nationales de défense des consommateurs existent pour aider les citoyens français et les organisations comme la CADA qui permettent de faire un recours contre un organisme qui ne ferait pas preuve de transparence par exemple. Qu'est-ce qu'une donnée personnelle ? À l'ère du numérique, il est de plus en plus important d'être conscient de la manière dont ses données personnelles sont utilisées. Une information est qualifiée de donnée personnelle dès lors qu'elle permet d'identifier directement ou indirectement une personne physique. Il peut s'agir d'un nom de famille, d'une adresse postale, d'un email, d'un matricule, d'une adresse IP ou encore d'un enregistrement vidéo liste non exhaustive. Ces informations peuvent être collectées directement en ligne par les organisations ou hors ligne en remplissant une formulaire pour une carte de fidélité ou en constituant un dossier administratif par exemple. Elles sont souvent stockées dans des bases de données informatisées auxquelles les entreprises, les gouvernements et d'autres structures peuvent accéder. Si la disponibilité de ces informations présente de nombreux avantages, elle comporte également des risques importants comme faire l'objet d'une fuite informatique, d'un vol des données par piratage ou tout simplement d'une utilisation abusive par le responsable du fichier, ce qui entraîne une atteinte à la vie privée et un préjudice potentiellement grave pour les personnes qui en sont victimes. Grâce aux législateurs, chaque individu a le droit d'obtenir des renseignements sur le traitement de ses données à caractère personnel et d'avoir un accès aux données qui le concernent pour en demander la modification ou la suppression lorsqu'elles ne sont plus nécessaires ou illégalement conservées. Pour veiller au respect de la réglementation, les entreprises et les administrations doivent recenser tous les traitements mis en œuvre dans leur organisation respective et désigner un délégué à la protection des données comme interlocuteur unique DPO en anglais. Vousdevez alors en informer la CNIL en effectuant une déclaration de collecte de données. Selon les informations collectées et leur usage, 2 formulaires vous seront proposés : la déclaration simple ou bien la déclaration normale. Il est essentiel de vérifier dans quel cadre vous entrez afin de remplir la bonne déclaration. Même si Excel n’est pas la première solution qui vient en tête quand on a besoin de construire une interface de saisie de données, il existe désormais de nombreuses façons de créer des formulaires performants dont les données sont faciles à analyser dans Excel. Cet article vise à vous présenter les méthodes plus traditionnelles et les méthodes plus modernes pour consolider et analyser convenablement dans Excel des données saisies dans des formulaires. De plus, le 20 mai dernier, je vous ai offert un webinaire qui vous présentait une façon moderne de saisir les données via des formulaires intuitifs et d’emmagasiner aisément l’information dans Excel, pour fin d’analyse. Si vous êtes membre VIP du CFO masqué, vous pourrez écouter l’enregistrement de ce webinaire gratuitement voir tout en bas de cet article. Présentation Excel comme solution d’entrée de données Voici la présentation PowerPoint qui accompagne ce webinaire. Méthodes tradionnelles pour gérer l’entrée de données dans Excel Saisie de données directe dans les cellules d’une feuille Excel La façon la plus conventionnelle de créer des formulaires d’entrée de données dans Excel est sans aucun doute de créer des formulaires directement dans les cellules des feuilles Excel. Cette façon de faire facilite largement la conception et la compilation des résultats peut se faire avec Power Query. Toutefois, cette approche manque parfois de souplesse et n’offre pas toujours la meilleure expérience pour ceux qui doivent effectuer la saisie de données. Cela dit, avec un peu de créativité et de techniques, il est possible de créer des formulaires d’entrée de données, tout à fait satisfaisants. Il faut d’abord comprendre ce qui est requis comme information. L’usage de fonctionnalités comme la validation de données ou encore les contrôles de formulaires, par exemple, permettront de créer des interfaces dynamiques. Extrait d’un formulaire de saisie de données directement dans une feuille Excel Saisie de données par formulaires indépendants créés en VBA Une méthode beaucoup plus intéressante du point de vue de l’expérience usager est de créer des formulaires avec la programmation VBA. Par contre, ce ne sont pas tous les créateurs de fichiers Excel qui maîtrisent ce langage de programmation. Mais pour ceux qui se sont donné la peine de s’investir dans une formation VBA, ce type de formulaire demeure fort pertinent. Habitué de travailler avec Excel et besoin de vous mettre à jour avec les nouvelles fonctionnalités qu’offre maintenant Office 365 ? Pour concevoir des solutions en phase avec les développements technologiques actuels, jetez un œil à nos formations sur Office 365. Méthodes modernes de gérer l’entrée de données dans Excel Il devient de plus en plus intéressant de sortir d’Excel pour effectuer l’entrée de données et d’utiliser plutôt Excel uniquement pour compiler et analyser les informations. Pour ce faire, il existe désormais de nombreux formulaires en ligne, accessibles également via applications mobiles. Et il est ensuite possible d’utiliser Power Query pour importer ou se connecter directement aux données saisies dans les formulaires , fusionner les données et même les croiser avec d’autres données, au besoin. Formulaires externes solutions de tiers SaaS Pour créer le formulaire d’inscription à notre webinaire, j’ai utilisé le service Crowdsignal. Il s’agit d’une solution qui permet de créer des formulaires très professionnels et de les rendre accessibles en ligne. Ensuite, les résultats peuvent être diffusés sur un flux RSS ou encore par courriel. Dans les deux cas, il est possible d’utiliser Power Query, dans Excel pour se connecter aux données ainsi saises dans les formulaires. Excel Surveys et Microsoft Forms Microsoft propose désormais une application indépendante, Microsoft Forms, qui permet de créer le même type de formulaires, avec toutefois certaines limitations au niveau de la compiliation des résultats dans Excel, lorsqu’on ne connaît pas tous les trucs et astuces. Lors du webinaire du 20 mai, je vous ai expliqué comment vous pouvez utiliser les Microsoft Forms pour compiler et analyser aisément les résultats dans Excel. Nous verrons aussi comment et pourquoi utiliser les Excel Surveys, qui se veulent, en quelques sortes, l’ancêtre des Microsoft Forms mais qui peuvent encore s’avérer utiles. Extrait d’un Microsoft Form Formulaire Microsoft Quelle est la façon la plus facile de créer un formulaire d’entrée de données à analyser dans Excel? La réponse dépend vraiment de la complexité du formulaire à construire et des compétences des personnes qui doivent le construire. Mais Excel demeure un outil idéal pour compiler les informations saisies dans des formulaires et les analyser convenablement. Écoutez notre webinaire en différé Pour écouter ce webinaire en différé devenez membre VIP du CFO masqué. Formation complémentaire Afin de mettre à jour vos connaissances sur les fonctions et fonctionnalités les plus récentes d’Excel, via O365, nous vous recommandons notre formation Excel O365 – Bienvenue dans l’ère moderne! Voici quelques commentaires d’apprenants ayant suivi cette formation La mission du CFO masqué est de développer les compétences techniques des analystes et des contrôleurs de gestion en informatique décisionnelle avec Excel et Power BI et favoriser l’atteinte de leur plein potentiel, en stimulant leur autonomie, leur curiosité, leur raisonnement logique, leur esprit critique et leur créativité.

Siles formulaires de collecte de données peuvent enrichir votre organisme en données qualifiées, il faut savoir que dans la plupart des cas ces informations sont soumises à réglementations. La CNIL veille au bon usage de ces données, il vous faut donc être vigilant sur la collecte. Ce que vous devez faire . Sécuriser les fichiers. Assurer la confidentialité des

Constituer un registre RGPD ou autrement dit le registre des activités de traitement est une opération qui doit s’opérer en deux phases tout d’abord il faut recenser toutes les activités de traitement de l’organisation dans une fiche registre. Ensuite il faut documenter cette fiche, conformément à l’article 30 du RGPD. Mais rassurez-vous, l’élaboration d’un registre n’est aujourd’hui plus une opération complexe à condition d’utiliser les bons outils ! Un exemple réel de registre RGPD qui recense les activités de traitement Voici un exemple de registre RGPD rempli pour une petite entreprise commerciale ; son élaboration prends environ 3 minutes avec un logiciel RGPD,si on importe les traitements standards qui sont déjà prérédigés Pour une petite entreprise, il est important de lister les activités de traitement suivantes Les activités de traitement liées au marketing La prospection commerciale Le site web blog / site de présentation de l’entreprise La newsletter collecte de l’email Les activités sur les réseaux sociaux le cas échéant L’organisation de petits déjeuners collecte des cartes de visite Les activités de traitement liées aux opérations commerciales La vente des produits et services de l’entreprise La facturation La comptabilité Le suivi et la gestion des devis… Les activités de traitement liées aux RH Gestion des personnels paye, avancement, déclarations sociales obligatoires… La formation Le recrutement constitution d’une base CV… Les activités métier qui dépendent de chaque entreprise - par exemple pour une entreprise spécialisée en sécurité informatique l’audit la formation tests d’intrusion Le contentieux La gestion des obligations RGPD et oui, il faut “porter le registre au registre”, car le registre va généralement impliquer la mise en oeuvre de traitements de données personnelles… Un exemple de fiche registre qui détaille le contenu de ces activités Une fois que l’on a listé toutes les activités de traitement mises en oeuvre par l’entreprise, il est nécessaire ensuite de détailler chaque fiche registre et notamment de préciser les finalités du traitement Par exemple, pour la gestion de la facturation, on pense au premier abord à l’édition des factures, mais il est également nécessaire d’ajouter toutes les activités annexes, telles que la gestion de l’historique des échanges commerciaux - qui sont des données dont la conservation est déterminante en cas de contentieux, la gestion des taxes TVA, etc. Ici, parce que l’on utilise un logiciel de gestion du registre, ces activités de traitement sont déjà prédocumentées et peuvent être simplement importées en un clic, ce qui économise du temps et un travail laborieux de recensement de toutes les activités de l’entreprise. Utiliser un logiciel de gestion du registre n’est évidemment pas obligatoire, mais cela accélère considérablement l’élaboration du registre avant on y passait plusieurs semaines, aujourd’hui quelques minutes seulement. Pour reprendre le cas de la gestion de la facturation, voici la description intégrale proposée par le logiciel Le présent traitement a pour objet d’assurer la gestion et le suivi des factures de l’organisation tels que la préparation et l’émission de factures et des devis, le calcul des prix, la gestion de la traçabilité des produits et de leur disponibilité, la gestion des contacts commerciaux et de facturation, l’historique des échanges pour l’établissement des factures ou devis, les relances pour impayés, la gestion de la TVA et des taxes associées à la vente, ainsi que la réception de factures à régler, le paiement des ces factures et de manière globale, le contentieux associé à la facturation. Si vous recensez vos traitements à la main, pensez ensuite ajouter le détail des mentions obligatoires qui sont imposées par l’article 30, et notamment prévoir les destinataires des données avez-vous pensé aux administrations fiscales ? Et à la CNIL qui légalement peut avoir accès aux données les délais de conservation des données que vous devez déterminer précisément Pour tous les traitements standards, tels que la gestion des factures, la prospection commerciale, la gestion RH, ou encore la mise en place d’outils logiciels standards Wordpress, Woocommerce, Shopify…, l’import en un clic est vraiment la méthode la plus rapide et la plus efficace Pour les autres traitements métiers qui sont très spécifiques à l’entreprise, il faut créer une nouvelle fiche et la remplir manuellement. Une question qui va rapidement se poser est “combien de traitements faut-il porter au registre” ; cela dépend évidemment de la taille de l’entreprise, du nombre de salariés et des activités en place. Typiquement une entreprise de 200 salariés peut engendrer une quarantaine de traitements si ceux-ci sont bien rédigés. Toutefois, le nombre dépend évidemment de l’étendue des finalités qui sont définies. Attention à ne pas confondre traitement et fichier… Dans le processus d’élaboration du registre, il est important de ne pas confondre traitements et fichiers. En effet, une entreprise peut avoir des milliers de fichiers, mais ces fichiers peuvent être intégrés dans un seul et même traitement. C’est souvent le cas pour des activités RH, ou des activités commerciales. Au premier abord on peut s’interroger comment s’assurer de recenser toutes les activités de traitements alors qu’une entreprise peut parfois gérer des milliers de fichiers Excel ? On peut effectivement s’en inquiéter, mais en réalité les fichiers d’un service RH ne sont jamais que la traduction d’une seule et même activité de traitement recruter, gérer le personnel…. Donc peu importe que le service utilise des outils logiciels différents pour la mettre en oeuvre ou qu’il dispose d’un grand nombre de fichiers Excel pour ce faire. S’il mène une seule et même activité de traitement, le registre comportera une seule fiche en pratique il est fréquent qu’un service RH puisse avoir 5 ou 10 fiches registre, selon l’ampleur des activités - mais ce n’est pas systématiquement le cas ; pour avoir audité les traitements du service RH d’une entreprise du CAC40, celle-ci se reposait sur une seule fiche !. Voici une vidéo expliquant plus en détail ces concepts. S’ils ne sont pas clairs venez nous rejoindre en formation, car il faut vraiment deux jours pour comprendre et intégrer l’ensemble des processus permettant de mettre une organisation en conformité. Pour rappel, voici le détail de l’article 30 qui décrit les éléments qui doivent obligatoirement figurer au registre pour chaque fiche a le nom et les coordonnées du responsable du traitement et, le cas échéant, du responsable conjoint du traitement, du représentant du responsable du traitement et du délégué à la protection des données; b les finalités du traitement; c une description des catégories de personnes concernées et des catégories de données à caractère personnel; d les catégories de destinataires auxquels les données à caractère personnel ont été ou seront communiquées, y compris les destinataires dans des pays tiers ou des organisations internationales; e le cas échéant, les transferts de données à caractère personnel vers un pays tiers ou à une organisation internationale, y compris l’identification de ce pays tiers ou de cette organisation internationale et, dans le cas des transferts visés à l’article 49, paragraphe 1, deuxième alinéa, les documents attestant de l’existence de garanties appropriées; f dans la mesure du possible, les délais prévus pour l’effacement des différentes catégories de données; g dans la mesure du possible, une description générale des mesures de sécurité techniques et organisationnelles visées à l’article 32, paragraphe 1. ysio.
  • apkbrfq3wu.pages.dev/183
  • apkbrfq3wu.pages.dev/418
  • apkbrfq3wu.pages.dev/140
  • apkbrfq3wu.pages.dev/197
  • apkbrfq3wu.pages.dev/133
  • apkbrfq3wu.pages.dev/182
  • apkbrfq3wu.pages.dev/283
  • apkbrfq3wu.pages.dev/277
  • exemple de formulaire de collecte de donnĂ©es