Réfraction de l'Enfant : Outil statistique Guy Clergeau & Alain Péchereau
En matière d’étude de la réfraction il existe de nombreux travaux. L’évaluation de chacun d’entre eux et leur comparaison nécessitent des moyens appropriés dont nous n’exposerons ici que les bases élémentaires.

La distribution gaussienne


Le constat d’une distribution en cloche avec symétrie approximative par rapport à la réfraction moyenne a été réalisé chez l’enfant depuis au moins un siècle. L’élément le plus caractéristique en dehors de la moyenne est l’écart-type (ou déviation standard = DS). L’écart-type est une valeur algébrique (positive et négative, symétrique par rapport à la moyenne) qui décrit la situation sur l’axe des abscisses des 2 points de jonction des segments « horizontaux et verticaux  » de la courbe en cloche. La distance entre ces 2 points est m ±1 DS. Plus cette distance est faible plus les valeurs sont concentrées autour de la moyenne ; c’est la situation considérée comme caractéristique pour l’adulte à l’inverse de l’aspect aplati et étalé classiquement décrit chez le nouveau-né. Approximativement les 2/3 des sujets sont inclus dans cette partie de la courbe (68,3  % pour une distribution « normale  »). Il est par ailleurs possible d’utiliser les multiples de l’écart-type. Ainsi les valeurs de 2 et 3 écart-types délimitent 95,5  % et 99,7  % de la population (toujours en distribution normale). On précisera qu’en réalité la distribution des réfractions ne constitue pas une courbe strictement symétrique par rapport à la moyenne (excédent d’hypermétropies et plus grand étalement des myopies) mais les critères de significativité confirment le caractère gaussien des courbes chez l’enfant.
Dans les descriptions biologiques la plupart des auteurs considèrent que la limite physiologique se situe à 2 ou 3 écart-types, ce qui correspond approximativement à l’intervalle de confiance de 95  % ou au percentile 95 également utilisés. En fait il est essentiel de noter que la description statistique n’a d’autre prétention que de définir le fait ou la probabilité qu’un certain pourcentage de l’échantillon se situe dans les limites définies. L’assimilation à une définition physiologique peut éventuellement être valable lorsqu’il s’agit de données purement anatomiques (poids, taille). Mais cette description n’est plus forcément applicable dès lors que l’on s’intéresse à un élément fonctionnel comme la réfraction. Lorsque l’on prend en compte l’hypermétropie, les valeurs de 1 et 2 écart-types correspondent respectivement à +3,50 et +5,00 dioptries. Par le biais de l’accommodation, ces 2 valeurs sont compatibles avec une vision normale pour un tout jeune enfant. Mais la valeur de +5,00  ∂ étant un facteur de risque élevé, la limite physiologique retenue est de +3,50  ∂. Inversement, pour la myopie les valeurs références sont de +0,50  ∂ et -1,00  ∂ (le centre de la courbe est à +1,50  ∂). Compte tenu de l’acuité encore limitée avant 1 an, un trouble visuel ne surviendra qu’à partir d’une dioptrie soit 2 écart-types. Par contre il existe une excellente corrélation entre facteur de risque et la valeur d’un écart-type pour le cylindre et pour l’anisométropie.
Par conséquent, malgré sa signification limitée, la description statistique gaussienne constitue une excellente base pour le dépistage des réfractions à risque, d’autant que ce risque déterminé de façon clinique n’est valable que pour des périodes limitées (6 à 13 mois) alors qu’il est plus facile d’obtenir des données évolutives par analyse statistique à des âges plus avancés.

Description mono et multiparamétrique


D’une manière habituelle les publications parlent de prévalence de l’hypermétropie, de la myopie, de l’astigmatisme et de l’anisométropie. Cette description monoparamétrique est une donnée qui est surtout intéressante pour analyser l’évolution propre à chaque type d’amétropie.
Or sur le plan général de l’épidémiologie, il est beaucoup plus utile de connaître la prévalence des sujets amétropes quel que soit le caractère unique ou multiple des anomalies. Compte tenu des associations fréquentes la prévalence multiparamétrique est supérieure aux prévalences monoparamétriques mais inférieure à leur somme.

Reproductibilité des mesures


Un certain nombre de méthodes de mesure comportent une part d’analyse subjective. C’est le cas de la skiascopie malgré sa dénomination de technique objective. Des résultats variables sont donc susceptibles d’être présentés par des examinateurs différents ou lors d’examens répétés dans les mêmes conditions techniques. Ce problème a fait l’objet de multiples analyses.
Hirsch (1 956 [3]) a étudié la différence de résultats entre 2 examinateurs dans la rétinoscopie statique. Les résultats sont apparus proches : 0,28  ∂ ±0,34. Il n’est pas apparu de différence significative entre l’œil droit et l’œil gauche mais la valeur de l’œil gauche peut être influencée par celle de l’œil droit. L’attention de l’examinateur peut être variable selon qu’il s’agit d’un but de recherche ou de thérapeutique.
Safir et Hyams (1 970 [8], 1 971 [4]) ont étudié d’une manière complète les biais inhérents à la technique skiascopique elle-même. Il est apparu que la précision n’était pas affectée par le type d’amétropie mais que cette précision était meilleure pour le cylindre que pour la sphère et pour l’œil droit par rapport à l’œil gauche. Sur un plan statistique la méthode skiascopique apparaît parfaitement valable, gommant les imprécisions relatives individuelles. Au total les auteurs constatent de manière générale un biais tenant à l’examinateur qui par soucis de bien faire aurait tendance à surestimer l’hypermétropie et le cylindre. Il existe surtout des différences de précision entre les divers examinateurs. En fait la vraie difficulté (et qui touche en fait l’ensemble des techniques réfractives) est l’absence de référentiel absolu puisque la technique de référence (« le juge de paix  ») est habituellement considérée comme étant la réfraction subjective sous cycloplégie, laquelle n’est pas utilisable chez le jeune enfant et se montre par ailleurs variable dans le temps selon la présence ou non d’une correction optique et de la pathologie corrigée.
D’autres auteurs se sont également penchés sur ces problèmes. Mohindra (1 979 [7]) a trouvé une excellente corrélation entre les examinateurs. Bujara (1 981 [1]) a trouvé que le plus grand risque d’erreur portait sur les petits cylindres. Pour Saunders (1 992 [9]) le problème de reproductibilité serait surtout lié au patient lui-même.
Nous avons nous-mêmes réalisé une étude comparative entre 2 opérateurs concernant une étude transversale sur 5 groupes d’enfants âgés de 8 à 59 mois et réalisée avec le même protocole de skiascopie sous cycloplégie. Il est apparu une différence constante et unidirectionnelle entre les 2 examinateurs de 0,50 à 0,75  ∂ pour la sphère (p < 0,0001). La différence entre les cylindres est nettement plus faible à 0,10  ∂ mais est également significative (p = 0,016). Nous avons également établi un bilan de nos résultats moyens personnels pour les examens du 9e mois réalisés entre 1 980 et 2 004. La moyenne a été de +1,42  ∂ de 1 980 à 1 989, +1,74  ∂ de 1 990 à 1 997 et +1,80  ∂ de 1 998 à 2 004. La variation du cylindre était plus faible mais également significative. Le protocole étant resté inchangé nous attribuons cette évolution à des modifications dans la distance d’examen et à une évolution de la précision.
Des problèmes identiques de reproductibilité d’évaluation se posent également dans le domaine de la photoréfraction, mais cette fois en ce qui concerne la lecture des clichés (Mohan [6]). Les techniques automatisées de vidéoréfraction et d’autoréfractométrie permettent évidemment de contourner ces problèmes de subjectivité. Néanmoins ce problème de reproductibilité des mesures se pose également avec les procédures automatisées (Harvey [2], Suryakumar [10]).

Validité et comparaison des échantillons


Comparaison par rapport à un référent


Ce problème se pose par exemple chaque fois que l’on veut évaluer un nouveau moyen d’investigation en matière de mesure ou de dépistage. Il apparaît que jusqu’à ce jour la technique de référence est la skiascopie sous cycloplégie. La fiabilité de chaque nouvelle technique est alors définie par un certain nombre de critères.
  • La sensibilité
    Elle représente le pourcentage de tests vérifiés comme réellement positifs (VP) au regard de la référence par rapport au nombre de tests jugés positifs dans la méthode analysée. Les erreurs, c’est-à-dire les sujets en réalité négatifs, sont qualifiées de faux négatifs (FN). La sensibilité s’exprime alors : Sensibilité = VP/(VP + FN). Ce critère évalue finalement la fiabilité du dépistage des sujets positifs (FN = insuffisances de dépistage).
  • La spécificité
    Elle représente le pourcentage de tests vérifiés comme réellement négatifs (VN) au regard de la référence par rapport au nombre de tests jugés négatifs dans la méthode analysée. Les erreurs, c’est-à-dire les sujets en réalité positifs, sont qualifiées de faux positifs (FP). La spécificité s’exprime : VN/(VN + FP). Ce critère évalue finalement la fiabilité du dépistage des sujets négatifs (FP = insuffisance de dépistage).
  • La valeur prédictive positive (VPP)
    Elle définit parmi les tests positifs la proportion d’anomalies retrouvées par rapport à l’examen de référence. Elle s’exprime : VPP = VP/(VP + FP). Ce critère révèle les erreurs en excès (FP).
  • La valeur prédictive négative
    Elle définit parmi les tests négatifs la proportion d’anomalies retrouvées par rapport à l’examen de référence. Elle s’exprime : VPN = VN/(VN + FN). Ce critère révèle les erreurs en excès (FN).

Tab 1
Sensibilité ⎧ (FN ⎩)Sensibilité ⎩ (FN ⎧)
VPP ⎩ (FP ⎧)VPP ⎧ (FP ⎩)
Spécificité ⎩ (FP ⎧)Spécificité ⎧ (FP ⎩)
VPN ⎧ (FN ⎩)VPN ⎩ (FN ⎧)

La sensibilité analyse la qualité du dépistage des sujets présentant une anomalie. Cette sensibilité est augmentée en diminuant le seuil réfractif à partir duquel est défini le risque visuel et qui détermine les sujets qui seront soumis à un examen plus approfondi. Dans cette démarche, on augmente le nombre de sujets examinés pour lesquels il n’y aura pas confirmation d’anomalie. En termes comptables on pourrait dire que la sécurité a un coût en moyens humains et financiers.
La spécificité comporte la démarche inverse, en augmentant le seuil réfractif. Elle améliore la détection des sujets réellement anormaux. Le nombre de contrôles inutiles diminue mais le nombre de sujets anormaux non détectés augmente. En termes comptables, l’économie de moyens augmente le risque.
Les paramètres de valeur prédictive positive et négative quantifient la proportion d’erreurs respectivement pour la sensibilité et pour la spécificité.
La solution permettant d’obtenir le meilleur compromis possible entre ces 2 stratégies a priori opposées repose sur l’utilisation de la méthode dite « des courbes ROC  » (Receiver Operating Characteristic) qui exprime sur un diagramme XY la spécificité en abscisse et la sensibilité en ordonnée. Plus l’aire située sous la courbe est importante meilleur sera le test (Metz [5]).
Il apparaît dans ces conditions que les dépistages les plus satisfaisants comportent- préférentiellement une spécificité et une valeur prédictive négative élevées (> 90%) (page 290).

Comparaison entre deux ou plusieurs échantillons


Les tests de conformité


L’objectif est ici de vérifier si un échantillon est conforme à une distribution ou à une théorie à laquelle on se réfère (savoir par exemple si un échantillon présente une distribution gaussienne). Le test du χ2 est ici parfaitement adapté. Ce test est défini comme un paramètre global de divergence qui ne doit pas dépasser certaines limites dans le cadre d’un coefficient de sécurité choisi. Au-delà de ces limites l’échantillon ne répond pas aux critères recherchés.

Les tests d’homogénéité


Il s’agit de rechercher si un ou plusieurs échantillons issus d’une population sont représentatifs de la population mère et s’ils peuvent- par conséquent lui être comparés. Cette analyse apparaît par exemple indispensable dans l’étude de l’évolution de la réfraction où le nombre d’observations se réduit de façon souvent importante au fil de l’étude longitudinale avec une tendance bien connue à la sélection de certains dossiers. On peut comparer les moyennes, les variances ou les pourcentages.

Corrélation entre paramètres


La valeur d’une donnée telle que la réfraction est elle-même liée à un certain nombre d’autres paramètres anatomiques, génétiques ou environnementaux. On va donc étudier la relation de chacun des paramètres l’un à l’autre. La corrélation r définit cette relation. La corrélation est nulle (= 0) s’il y a indépendance de 2 variables. Dans le cas contraire ce coefficient varie entre +1 et -1 définissant une pente dans un diagramme XY. Lorsque tous les points sont strictement alignés, ils matérialisent une ligne de régression. Cette ligne est en fait le plus souvent la moyenne d’un nuage de points distribués autour de cette pente moyenne. Dans le cas le plus simple le rapport est celui d’une régression linéaire. Lorsqu’il existe plusieurs paramètres il faut faire appel à des tests multivariables.

Concordance entre plusieurs méthodes ou résultats


On peut être amené à comparer la concordance entre 2 méthodes d’analyse en utilisant par exemple le coefficient Kappa (Κ).
Pour vérifier l’absence de différence significative entre 2 résultats dans des populations de distribution normale on utilise en général le test de Student, le t-test de Student ou le test de Wilcoxon.

Conclusion


S’il existe de nombreux tests statistiques permettant de valider ou non un certain nombre de résultats ou d’hypothèses, il s’agit toujours d’une probabilité définie dans une certaine limite de confiancechoisie. Ces résultats ne s’imposent jamais comme un résultat absolu surtout si un certain nombre de critères n’ont pas été intégrés dans l’analyse. C’est en particulier souvent le cas pour les éléments génétiques et héréditaires.
Références
  1. Bujara K, Schultz E, Haase W. Retinoscopy under cycloplegic and non-cycloplegic conditions in children comparison of measurements of three examiners. Albrecht Von Graefes Arch Klin Exp Ophthalmol-. 1 981 ; 216 : 339-43.
  2. Harvey EM, Miller JM, Wagner LK & al. Reproductibility and accuracy of measurements with a hand held autorefractor in children. Br J Ophthalmol. 1 997 ; 81 : 941-8.
  3. Hirsch MJ. The variability of retinoscopy in measurements when applied to large groups of children under screening conditions. Am J Optom Arch Am Acad Optom. 1 956 ; 33 : 410-16.
  4. Hyams L, Safir A, Philpot J. Studies of refraction : II. Bias and accuracy of retinoscopy. Arch Ophthalmol. 1 971 ; 85 : 33-41.
  5. Metz CE. Basic principles of ROC analysis. Semin Nucl Med. 1 978 ; 8 : 283-98.
  6. Mohan KM, Miller JM, Dobson V & al. Inter-rater and intra-rater reliability in the interpretation of MTI Photoscreener photographs of Native American preschool children. Optom Vis Sci. 2 000 ; 77 : 473-82.
  7. Mohindra I, Molinari JF. Near retinoscopy and cycloplegic retinoscopy in early primary grade children. Am J Optom Physiol Opt. 1 979 ; 56 : 34-8.
  8. Safir A, Hyams L, Philpot J & al. Studies in refraction : I. The precision of retinoscopy. Arch Ophthalmol. 1 970 ; 84 : 49-61.
  9. Saunders KJ, Westall CA. A comparison between near retinoscopy and cycloplegic retinoscopy in the refraction of infants and young children. Optom Vision Sci. 1 992 ; 69 : 615-22.
  10. Suryakumar R, Bobier WR. The manifestation of noncycloplegic state in preschoolchildren is dependent on autorefractor design. Optom- Vis Sci. 2 003 ; 80 : 578-86.

Date de création du contenu de la page : Juin 2010 / date de dernière révision : Décembre 2010