Commit 02466979 authored by Rima Nait-Saidi's avatar Rima Nait-Saidi

exo

parent 02733e05
--- ---
title: "Analyse de l'incidence du syndrôme grippal" title: "Analyse de l'incidence du syndrome grippal"
author: "Konrad Hinsen" author: "Rima NS"
output: date: "28 décembre 2020"
pdf_document: output: html_document
toc: true
html_document:
toc: true
theme: journal
documentclass: article
classoption: a4paper
header-includes:
- \usepackage[french]{babel}
- \usepackage[upright]{fourier}
- \hypersetup{colorlinks=true,pagebackref=true}
--- ---
```{r setup, include=FALSE} ```{r setup, include=FALSE}
knitr::opts_chunk$set(echo = TRUE) knitr::opts_chunk$set(echo = TRUE)
``` ```
## Préparation des données Chargement du document à partir de l'URL: data_url = "https://www.sentiweb.fr/datasets/incidence-PAY-3.csv"
Les données de l'incidence du syndrome grippal sont disponibles du site Web du [Réseau Sentinelles](http://www.sentiweb.fr/). Nous les récupérons sous forme d'un fichier en format CSV dont chaque ligne correspond à une semaine de la période demandée. Nous téléchargeons toujours le jeu de données complet, qui commence en 1984 et se termine avec une semaine récente. L'URL est:
```{r} ```{r}
data_url = "http://www.sentiweb.fr/datasets/incidence-PAY-3.csv" library(readr)
data <- read_csv("C:/Users/SAW/Desktop/MOOC recherche reproductible/incidence-PAY-3.csv",skip = 1)
head(data)
``` ```
Voici l'explication des colonnes donnée sur le [sur le site d'origine](https://ns.sentiweb.fr/incidence/csv-schema-v1.json): Pour montrer les premières lignes du document:
skip=1 permet de ne pas se préoccuper de la première ligne du document:
| Nom de colonne | Libellé de colonne |
|----------------+-----------------------------------------------------------------------------------------------------------------------------------|
| `week` | Semaine calendaire (ISO 8601) |
| `indicator` | Code de l'indicateur de surveillance |
| `inc` | Estimation de l'incidence de consultations en nombre de cas |
| `inc_low` | Estimation de la borne inférieure de l'IC95% du nombre de cas de consultation |
| `inc_up` | Estimation de la borne supérieure de l'IC95% du nombre de cas de consultation |
| `inc100` | Estimation du taux d'incidence du nombre de cas de consultation (en cas pour 100,000 habitants) |
| `inc100_low` | Estimation de la borne inférieure de l'IC95% du taux d'incidence du nombre de cas de consultation (en cas pour 100,000 habitants) |
| `inc100_up` | Estimation de la borne supérieure de l'IC95% du taux d'incidence du nombre de cas de consultation (en cas pour 100,000 habitants) |
| `geo_insee` | Code de la zone géographique concernée (Code INSEE) http://www.insee.fr/fr/methodes/nomenclatures/cog/ |
| `geo_name` | Libellé de la zone géographique (ce libellé peut être modifié sans préavis) |
La première ligne du fichier CSV est un commentaire, que nous ignorons en précisant `skip=1`.
### Téléchargement
```{r} ```{r}
data = read.csv(data_url, skip=1) data = read.csv(data_url, skip=1)
head(data)
``` ```
Regardons ce que nous avons obtenu: Pour montrer les dernières lignes du document:
```{r} ```{r}
head(data)
tail(data) tail(data)
``` ```
Y a-t-il des points manquants dans nos données ? Là on peut voir les lignes (1) où des données sont manquantes:
```{r} ```{r}
na_records = apply(data, 1, function (x) any(is.na(x))) lignes_na = apply(data, 1, function(x) any(is.na(x)))
data[na_records,] data[lignes_na,]
``` ```
Les deux colonnes qui nous intéressent sont `week` et `inc`. Vérifions leurs classes: Permet de voir si les nombres sont bien condidérés comme tels:
```{r} ```{r}
class(data$week) class(data$week)
```
```{r}
class(data$inc) class(data$inc)
``` ```
Ce sont des entiers, tout va bien !
### Conversion des numéros de semaine Normalement, dans le jeu de données initial, il y a un tiret à la place de la valeur pour cette ligne (mais pas ici). Il considère donc normalement que le tiret est une valeur réelle. Il faut recharger le jeu de données en disant que le tiret est une valeur manquante:
La gestion des dates est toujours un sujet délicat. Il y a un grand nombre de conventions différentes qu'il ne faut pas confondre. Notre jeux de données utilise un format que peu de logiciels savent traiter: les semaines en format [ISO-8601](https://en.wikipedia.org/wiki/ISO_8601). En `R`, il est géré par la bibliothèque [parsedate](https://cran.r-project.org/package=parsedate): data = read.csv(data_url, skip=1, na.strings = "-")
```{r}
Chargement de la librairie (pour changer le format des dates, adapté pour R):
library(parsedate) library(parsedate)
```
Pour faciliter le traitement suivant, nous remplaçons ces semaines par les dates qui correspondent aux lundis. Voici une petite fonction qui fait la conversion pour une seule valeur:
date = 199501
ws = paste(date)
iso = paste0(substring(ws, 1, 4), "-W", substring(ws, 5, 6))
parse_iso_8601(iso)
puis changement avec la fonction:
```{r} ```{r}
convert_week = function(w) { convert_week = function(date) {
ws = paste(w) ws = paste(date)
iso = paste0(substring(ws, 1, 4), "-W", substring(ws, 5, 6)) iso = paste0(substring(ws, 1, 4), "-W", substring(ws, 5, 6))
as.character(parse_iso_8601(iso)) as.character(parse_iso_8601(iso))
} }
``` ```
Nous appliquons cette fonction à tous les points, créant une nouvelle colonne `date` dans notre jeu de données:
```{r} ```{r}
data$date = as.Date(convert_week(data$week)) data$date = as.Date(sapply(data$week, convert_week))
``` ```
Vérifions qu'elle est de classe `Date`:
```{r} ```{r}
class(data$date) class(data$date)
``` ```
Les points sont dans l'ordre chronologique inverse, il est donc utile de les trier: Classement des lignes en fonction de la date:
```{r} ```{r}
data = data[order(data$date),] data = data[order(data$date),]
``` ```
C'est l'occasion pour faire une vérification: nos dates doivent être séparées d'exactement sept jours:
```{r} ```{r}
all(diff(data$date) == 7) head(data)
``` ```
### Inspection Vérification que toutes nos semaines ont bien 7 jours:
```{r}
all(diff(data$date) == 7)
```
Regardons enfin à quoi ressemblent nos données ! Plot en lignes ("l"):
```{r} ```{r}
plot(data$date, data$inc, type="l", xlab="Date", ylab="Incidence hebdomadaire") plot(data$date, data$inc, type="l", xlab="Date", ylab="Incidence hebdomadaire")
``` ```
Un zoom sur les dernières années montre mieux la localisation des pics en hiver. Le creux des incidences se trouve en été. Idem mais que pour les 400 dernières semaines:
```{r} ```{r}
with(tail(data, 200), plot(date, inc, type="l", xlab="Date", ylab="Incidence hebdomadaire")) with(tail(data, 400), plot(date, inc, type="l", xlab="Date", ylab="Incidence hebdomadaire"))
``` ```
## L'incidence annuelle ### Questions et réponses
### Calcul 1- Dans quelles années yavait-il les épidémies les plus fortes?
Étant donné que le pic de l'épidémie se situe en hiver, à cheval entre deux années civiles, nous définissons la période de référence entre deux minima de l'incidence, du 1er août de l'année $N$ au 1er août de l'année $N+1$. Nous mettons l'année $N+1$ comme étiquette sur cette année décalée, car le pic de l'épidémie est toujours au début de l'année $N+1$. Comme l'incidence de syndrome grippal est très faible en été, cette modification ne risque pas de fausser nos conclusions. 2- Quelle est la fréquence d'épidémies faibles, moyennes et fortes ?
L'argument `na.rm=True` dans la sommation précise qu'il faut supprimer les points manquants. Ce choix est raisonnable car il n'y a qu'un seul point manquant, dont l'impact ne peut pas être très fort.
On détermine nos années (somme de toutes les semaines), de tel sorte que chaque année commence et se termine à la même date (na.rm=TRUE permet de ne pas tenir compte de la semaine manquante):
```{r} ```{r}
pic_annuel = function(annee) { pic_annuel = function(annee) {
debut = paste0(annee-1,"-08-01") debut = paste0(annee-1, "-08-01")
fin = paste0(annee,"-08-01") fin = paste0(annee, "-08-01")
semaines = data$date > debut & data$date <= fin semaines = data$date > debut & data$date <= fin
sum(data$inc[semaines], na.rm=TRUE) sum(data$inc[semaines], na.rm=TRUE)
} }
``` ```
Nous devons aussi faire attention aux premières et dernières années de notre jeux de données. Les données commencent en octobre 1984, ce qui ne permet pas de quantifier complètement le pic attribué à 1985. Nous l'enlevons donc de notre analyse. Par contre, pour une exécution en octobre 2018, les données se terminent après le 1er août 2018, ce qui nous permet d'inclure cette année. En choisissant de commencer en 1986 et de finir en 2017 (comme l'exemple du cours, mais à la base c'est parce qu'en 1986, l'année commence en plein pic):
```{r} ```{r}
annees = 1986:2018 annees = 1986:2017
``` ```
Nous créons un nouveau jeu de données pour l'incidence annuelle, en applicant la fonction `pic_annuel` à chaque année: Création d'un nouveau jeu de donnée pour l'incidence annuelle:
```{r} ```{r}
inc_annuelle = data.frame(annee = annees, incidence_annuelle = data.frame(annee = annees, incidence = sapply(annees, pic_annuel))
incidence = sapply(annees, pic_annuel))
head(inc_annuelle)
``` ```
### Inspection
Voici les incidences annuelles en graphique:
```{r} ```{r}
plot(inc_annuelle, type="p", xlab="Année", ylab="Incidence annuelle") head(incidence_annuelle)
``` ```
### Identification des épidémies les plus fortes Plot:
```{r}
plot(incidence_annuelle, type="p")
```
Une liste triée par ordre décroissant d'incidence annuelle permet de plus facilement repérer les valeurs les plus élevées: Classement en fonction des années qui ont le plus fort pic annuelle au moins fort:
```{r} ```{r}
head(inc_annuelle[order(-inc_annuelle$incidence),]) head(incidence_annuelle[order(-incidence_annuelle$incidence),])
``` ```
Enfin, un histogramme montre bien que les épidémies fortes, qui touchent environ 10% de la population française, sont assez rares: il y en eu trois au cours des 35 dernières années. Fréquence des incidences:
```{r} ```{r}
hist(inc_annuelle$incidence, breaks=10, xlab="Incidence annuelle", ylab="Nb d'observations", main="") hist(incidence_annuelle$incidence, breaks=10)
``` ```
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment