Les tests de puissance pour optimiser ses protocoles de suivis
Espaces naturels n°34 - avril 2011
Aurélien Besnard
Cefe - Montpellier
Jules Chiffard Carricaburu
Cefe - Montpellier
C’est simple, efficace et gratuit. Et si vous faisiez un test de puissance avant de vous lancer dans un protocole de suivi ?
En professionnel, le gestionnaire d’espaces naturels doit valider la pertinence des actions qu’il a mises en œuvre. Or, de nombreuses études révèlent l’absence fréquente de résultats statistiquement significatifs lors des évaluations. C’est pourquoi un protocole rigoureux et solide doit être élaboré. Le gestionnaire définira notamment des objectifs clairs et anticipera sur l’analyse afin que les données soient facilement exploitables.
Cependant, pour obtenir des résultats significatifs en limitant ses dépenses, il lui faudra aussi optimiser l’effort d’échantillonnage : combien de placettes, de points d’écoute, combien de nids parmi tous les possibles doit-on étudier pour détecter une variation d’effectifs ? Ceci dépend de deux facteurs :
• l’ampleur du changement attendu (veut-on détecter de petits changements ou uniquement des événements importants ?) ;
• la variabilité de ce que l’on observe : il sera plus facile de détecter un changement dans une population stable ou répartie de façon homogène que dans une population dont les effectifs sont très variables dans le temps ou l’espace.
Le type de question sera : « Combien de points d’écoute doit-on effectuer pour détecter une baisse de 10 % de la population sur cinq ans ? »
Le test de puissance permet d’y répondre. Cet outil mathématique pointu (logiciel) prend en compte la variabilité et la taille des échantillons pour évaluer a priori l’effort d’échantillonnage nécessaire.
Les tests de puissance peuvent être des formules mathématiques ou des simulations : en créant des données virtuelles similaires à celles que l’on aurait obtenues sur le terrain, et en répétant cette opération un grand nombre de fois, on peut calculer dans quelle proportion des cas le protocole envisagé est capable de répondre à la question. Unique contrainte, une connaissance préalable du système étudié (moyenne et variance d’un échantillon) est nécessaire. On aura parfois besoin d’une pré-étude, ou d’utiliser des données antérieures.
Imaginons que nous suivons une population d’amphibiens sur des petits points d’eau. Chaque point d’eau est une unité d’échantillonnage. Suite à la mise en place d’une mesure de gestion, on s’attend à une augmentation des effectifs sur la zone. Nous voulons donc déterminer le nombre de points d’eau à prospecter pour détecter une augmentation d’au moins 5 %.
Pour cela, renseignons tout d’abord le logiciel sur la moyenne et la variance dans les mares (la variabilité des effectifs d’une mare à l’autre). Définissons ensuite un effort d’échantillonnage potentiel.
Tout est prêt pour lancer la simulation. On obtient des graphiques qu’il est aisé d’interpréter.
Les points et les barres qui symbolisent respectivement l’estimation de la moyenne et l’intervalle de confiance. Plus les barres sont longues, plus l’incertitude est grande.
Ainsi, sur la figure 1, où la taille de l’échantillon varie de 10 (bleu) à 40 (rouge), il apparaît qu’il est insuffisant de suivre dix mares. En effet, avec un petit échantillonnage les barres se recoupent entre la première et la seconde année (zone entourée). On ne peut donc prouver avec certitude la différence entre l’année 1 et l’année 2.
La valeur du test de puissance est de 0.61. Cela signifie que le protocole choisi a 61 % de chance de détecter la variation attendue. Ce test confirme que le protocole n’est pas assez précis pour détecter avec certitude des changements. Avec quarante mares suivies (bleu) on a, en revanche, 99 % de chance de détecter une variation de 5 %.
Les simulations peuvent être modifiées facilement pour explorer des situations diverses : observons par exemple l’effet de la variance sur l’efficacité de notre protocole. Dans le cas en bleu, nous gardons les valeurs précédentes ; dans le cas en rouge, nous simulons une variance deux fois plus importante que celle attendue (cela peut être intéressant par exemple si nous connaissons mal le système étudié).
Si la variance est de 5, on détecte des différences significatives dans seulement 58 % des cas (valeur du test 0.58) alors qu’on la détecte dans 99 % des cas lorsque la variance est de 2.5.
Cet outil mathématique permet d’optimiser l’investissement sur le terrain et d’éviter de lancer des protocoles inopérants. Développés au Centre d’écologie fonctionnelle et évolutive de Montpellier, ces programmes simples à utiliser sont gratuits qui plus est.