--- title: "Exercices 2 module 3" author: "Thibault Verrier" output: html_document --- ```{r setup, include=FALSE} knitr::opts_chunk$set(echo = TRUE) ``` ## Description des données On stock l'adresse de téléchargement dans ```data_url``` ```{r} data_url <- "https://www.sentiweb.fr/datasets/incidence-PAY-7.csv" ``` | Nom de colonne | Libellé de colonne | |----------------+-----------------------------------------------------------------------------------------------------------------------------------| | `week` | Semaine calendaire (ISO 8601) | | `indicator` | Code de l'indicateur de surveillance | | `inc` | Estimation de l'incidence de consultations en nombre de cas | | `inc_low` | Estimation de la borne inférieure de l'IC95% du nombre de cas de consultation | | `inc_up` | Estimation de la borne supérieure de l'IC95% du nombre de cas de consultation | | `inc100` | Estimation du taux d'incidence du nombre de cas de consultation (en cas pour 100,000 habitants) | | `inc100_low` | Estimation de la borne inférieure de l'IC95% du taux d'incidence du nombre de cas de consultation (en cas pour 100,000 habitants) | | `inc100_up` | Estimation de la borne supérieure de l'IC95% du taux d'incidence du nombre de cas de consultation (en cas pour 100,000 habitants) | | `geo_insee` | Code de la zone géographique concernée (Code INSEE) http://www.insee.fr/fr/methodes/nomenclatures/cog/ | | `geo_name` | Libellé de la zone géographique (ce libellé peut être modifié sans préavis) | La structure des données est identique à celle vu précédemment pour la grippe. La première ligne du fichier CSV est un commentaire, que nous ignorons en précisant `skip=1`. ## Téléchargement et création d'un fichier local On test d'abord si le fichier "syndrome-grippal.csv" existe dans notre dépôt local. Si non, on télécharge les données à l'adresse fournie et on créé le fichier local contenant ces données. On les lit ensuite en supprimant la premiere ligne qui est un commentaire. ```{r} data_file = "varicelle.csv" if(!file.exists(data_file)) { download.file(url = data_url, destfile = data_file, method = "auto") } data = read.csv(data_file, skip=1) ``` Regardons ce que nous avons obtenu: ```{r} head(data) tail(data) ``` Y a-t-il des points manquants dans nos données ? ```{r} na_records = apply(data, 1, function (x) any(is.na(x))) data[na_records,] ``` Il n'y a pas de données manquantes. Les deux colonnes qui nous intéressent sont `week` et `inc`. Vérifions leurs classes: ```{r} class(data$week) class(data$inc) ``` Les deux sont des integers ### Conversion des numéros de semaine (copie du scipt original) La gestion des dates est toujours un sujet délicat. Il y a un grand nombre de conventions différentes qu'il ne faut pas confondre. Notre jeux de données utilise un format que peu de logiciels savent traiter: les semaines en format [ISO-8601](https://en.wikipedia.org/wiki/ISO_8601). En `R`, il est géré par la bibliothèque [parsedate](https://cran.r-project.org/package=parsedate): ```{r} library(parsedate) ``` Pour faciliter le traitement suivant, nous remplaçons ces semaines par les dates qui correspondent aux lundis. Voici une petite fonction qui fait la conversion pour une seule valeur: ```{r} convert_week = function(w) { ws = paste(w) iso = paste0(substring(ws, 1, 4), "-W", substring(ws, 5, 6)) as.character(parse_iso_8601(iso)) } ``` Nous appliquons cette fonction à tous les points, créant une nouvelle colonne `date` dans notre jeu de données: ```{r} data$date = as.Date(convert_week(data$week)) ``` Vérifions qu'elle est de classe `Date`: ```{r} class(data$date) ``` Les points sont dans l'ordre chronologique inverse, il est donc utile de les trier: ```{r} data = data[order(data$date),] ``` C'est l'occasion pour faire une vérification: nos dates doivent être séparées d'exactement sept jours: ```{r} all(diff(data$date) == 7) ``` Il n'y a pas de problème de semaines manquantes. ### Inspection Regardons enfin à quoi ressemblent nos données ! ```{r} plot(data$date, data$inc, type="l", xlab="Date", ylab="Incidence hebdomadaire") ``` Un zoom sur les dernières années montre mieux la localisation des pics en hiver. Le creux des incidences se trouve en été. ```{r} with(tail(data, 200), plot(date, inc, type="l", xlab="Date", ylab="Incidence hebdomadaire")) ``` ## L'incidence annuelle ### Calcul L'argument `na.rm=True` dans la sommation précise qu'il faut supprimer les points manquants. Ce choix est raisonnable car il n'y a qu'un seul point manquant, dont l'impact ne peut pas être très fort. ```{r} pic_annuel = function(annee) { debut = paste0(annee-1,"-09-01") fin = paste0(annee,"-09-01") semaines = data$date > debut & data$date <= fin sum(data$inc[semaines], na.rm=TRUE) } ``` Nous devons aussi faire attention aux premières et dernières années de notre jeux de données. Les données commencent en décembre 1990, ce qui ne permet pas de quantifier complètement le pic attribué à 1991. Nous l'enlevons donc de notre analyse. De, pour une exécution en septembre 2019, les données se terminent après le 1er Mai 2020, ce qui ne nous permet d'inclure cette année. ```{r} annees = 1992:2018 ``` Nous créons un nouveau jeu de données pour l'incidence annuelle, en applicant la fonction `pic_annuel` à chaque année: ```{r} inc_annuelle = data.frame(annee = annees, incidence = sapply(annees, pic_annuel)) head(inc_annuelle) ``` ### Inspection Voici les incidences annuelles en graphique: ```{r} plot(inc_annuelle, type="p", xlab="Année", ylab="Incidence annuelle") ``` ### Identification des épidémies les plus fortes Une liste triée par ordre décroissant d'incidence annuelle permet de plus facilement repérer les valeurs les plus élevées: ```{r} head(inc_annuelle[order(-inc_annuelle$incidence),]) ``` ### Identification des épidémies les plus faibles Une liste triée par ordre croissant d'incidence annuelle permet de plus facilement repérer les valeurs les plus faibles: ```{r} head(inc_annuelle[order(inc_annuelle$incidence),]) ```