Modèle recueil de données

Posted on

L`approche basée sur les modèles mis en œuvre par le biais d`une infrastructure logicielle est en contradiction avec les efforts actuels de l`Institut pour l`amélioration de la santé, qui a opté pour une collection d`outils distincts, y compris un Tracker d`amélioration, feuille de calcul de la PDA, et Run Les outils de graphique, les entrées et les sorties qui doivent être gérés par les utilisateurs. Bien que, une fois configurés et déployés, ces outils fournissent des fonctionnalités similaires, ils ne prennent toujours pas en charge l`entreposage de données, les fonctionnalités d`entreprise ou les rapports automatisés, en comptant plutôt sur les utilisateurs qui les mettent ensemble manuellement. Aucune autre infrastructure logicielle collaborative unique comprenant des fonctionnalités similaires n`est connue des auteurs. Les pages de collecte de données sont construites dynamiquement à partir des éléments de données définis dans l`IDM, les données d`entrée étant conservées dans la base de données relationnelle. Les formulaires sont constitués de widgets graphiques (champs de texte, zones déroulantes, calendriers, etc.) associés aux éléments de données que les utilisateurs remplissent, avec la vérification des erreurs de champ fournie à l`entrée. Les éléments masqués qui sont automatiquement capturés par l`outil incluent l`identificateur unique pour l`entrée faite, la date et l`heure exactes de l`entrée a été faite, et l`identité de l`utilisateur effectuant l`entrée. Dans les années 1970, le GM Nijssen a développé la méthode de l`analyse de l`information en langage naturel (NIAM), et l`a développée dans les années 1980 en collaboration avec Terry Halpin dans la modélisation des rôles d`objets (ORM). Cependant, il a été 1989 thèse de doctorat de Terry Halpin qui a créé la base formelle sur laquelle Object-Role Modeling est basé. Une rétroaction efficace des données pour l`amélioration de la qualité a un certain nombre de caractéristiques: rapidité, spécificité au contexte local, crédibilité et durabilité dans le temps [14].

Cependant, les données collectées systématiquement ne satisfont souvent pas à ces critères. La mesure doit toujours refléter l`état actuel, nécessitant une collecte de données en temps utile et un partage efficace et rapide des résultats au sein de l`équipe. Dans une grande institution, il s`agit généralement d`un processus long puisque les données collectées systématiquement doivent être extraites, organisées et analysées avant de pouvoir être utilisées pour l`analyse des performances et les résultats envoyés à l`équipe de mise en œuvre de l`amélioration. En outre, la spécificité du contexte local est manquante, car les améliorations locales peuvent nécessiter des données sur mesure qui ne résident pas dans un système de DSE existant. Afin d`éviter de compromettre les définitions de mesures, en les limitant aux données disponibles dans le système de DSE, ces données sont souvent collectées dans des tableurs ou d`autres instruments de collecte de données locaux, sans surveillance centrale et sans visibilité pour les équipes. Bien que potentiellement utile à court terme, sans un modèle d`information commun et des normes de qualité partagées, cette approche ne parvient pas à produire des résultats comparables qui peuvent être utilisés pour l`apprentissage des meilleures pratiques. Enfin, les techniques d`analyse utilisées devraient refléter les besoins et les compétences de l`équipe d`amélioration pour atteindre la crédibilité et la durabilité. Les outils de collecte de données électroniques (EDC) populaires pour les essais cliniques, tels que REDCap [25], manquent de l`analytique intégrée définie par l`utilisateur qui est nécessaire pour fournir des informations d`amélioration compréhensibles et actuelles aux utilisateurs.

Par exemple, REDCap fournit des comptes de fréquence en ligne pour des questions individuelles, mais toute autre analyse de données est laissée à des chercheurs spécialisés utilisant des outils analytiques externes [40].