diff --git a/journal/ReproducibleResearchMOOC.org b/journal/ReproducibleResearchMOOC.org index bfadf1031e065e977c64532771992be20f01f6aa..0e884a80f4ee1573aa959417cfc0701e1dbdd1a9 100644 --- a/journal/ReproducibleResearchMOOC.org +++ b/journal/ReproducibleResearchMOOC.org @@ -1,41 +1,54 @@ # -*- coding: utf-8 -*- -# -*- mode: org -*- +# -*- mode: org -*- #+TITLE: Reproducible Research Notes #+AUTHOR: Anthony Scemama #+CATEGORY: Notes #+TAGS: [ TOOLS : ORGMODE(o) EMACS(e) SPACEMACS(s) R(r) PYTHON(p) ] -#+STARTUP: content +#+STARTUP: content + +* Emacs installation :EMACS: -* Emacs installation :EMACS: - ** Install Emacs via miniconda: - - #+begin_src bash - conda update -n base -c defaults conda - conda install -c conda-forge emacs r-parsedate - #+end_src - + #+begin_src bash + conda update -n base -c defaults conda + conda install -c conda-forge emacs r-parsedate + #+end_src + ** Install Spacemacs :SPACEMACS: [[https://www.spacemacs.org/][Spacemacs website]] #+begin_src bash git clone https://github.com/syl20bnr/spacemacs ~/.emacs.d #+end_src and activate the *org* layer. -** Install +** Install Source-code-pro font + [[https://github.com/adobe-fonts/source-code-pro][GitHub]] + #+begin_src bash + git clone https://github.com/adobe-fonts/source-code-pro.git + cd source-code-pro/TTF + cp * ~/.fonts/ + #+end_src * Spacemacs memo :SPACEMACS: - - Open ~/.spacemacs file : SPC f e d + - Open ~/.spacemacs file : SPC f e d * Org-mode memo :ORGMODE: [[https://orgmode.org/manual][Org-mode Manual]] ** General + :DRAWERNAME: + Hidden info + :END: - C-c / : Sparse tree + - , s n : Narrow to subtree + - , s N : Widen + - SPC i s : Insert snippet + - = a r : indent subtree - Drawers contain info we don't normally want to see - :DRAWERNAME: - Hidden info - :END: - + - C-c C-c : Activate cross in [ ] + - S-up S-dn on date : Modify date [2020-04-09 Thu] + - Enter time +2 to add a range of 2 hours [2020-04-07 Tue 14:00-16:00] + - , C i , C o : Clock from agenda + - , S S : sort ** Tables - Move table columns with M-LEFT - Insert column with M-S-RIGHT @@ -49,25 +62,25 @@ | 2 | 4 | #+TBLFM: $2=$1*1 #+TBLFM: $2=$1*2 - + | Task 1 | Task 2 | Total | |---------+----------+----------| | 2:12 | 1:00 | 03:12:00 | | 2:15 | 1:47 | 04:02 | | 3:02:20 | -2:07:00 | 0.92 | #+TBLFM: @2$3=$1+$2;T::@3$3=$1+$2;U::@4$3=$1+$2;t - + ** Plots #+PLOT: title:"Citas" ind:1 deps:(3) type:2d with:histograms set:"yrange [0:]" - | Sede | Max cites | H-index | - |-----------+-----------+---------| - | Chile | 257.72 | 21.39 | - | Leeds | 165.77 | 19.68 | - | Sao Paolo | 71.00 | 11.50 | - | Stockholm | 134.19 | 14.33 | - | Morelia | 257.56 | 17.67 | - M-x org-plot/gnuplot - + | Sede | Max cites | H-index | + |-----------+-----------+---------| + | Chile | 257.72 | 21.39 | + | Leeds | 165.77 | 19.68 | + | Sao Paolo | 71.00 | 11.50 | + | Stockholm | 134.19 | 14.33 | + | Morelia | 257.56 | 17.67 | + M-x org-plot/gnuplot + * Resources ** Links * [[http://kitchingroup.cheme.cmu.edu/blog/][Blog]] @@ -75,17 +88,16 @@ * Models for LaTex: [[https://github.com/schnorr/ieeeorg][IEEE]], [[https://github.com/schnorr/wileyorg][Wiley]], [[https://github.com/schnorr/acmorg][ACM]], [[https://github.com/schnorr/llncsorg][LNCS]] ** Examples * [[https://github.com/norvig/pytudes/blob/master/ipynb/Economics.ipynb][Jupyter]], [[https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks][Gallery]], [[https://nbviewer.jupyter.org/url/www.inp.nsk.su/~grozin/python/sympy.ipynb][SymPy tutorial]] - * - * Git configuration login: 27c0641acb9e5727b9680a9b3481db8e password: ce21b85a28 -* Nice HTML rendering +* Nice HTML rendering #+begin_src html -#+HTML_HEAD: -#+HTML_HEAD: -#+HTML_HEAD: -#+HTML_HEAD: -#+HTML_HEAD: -#+HTML_HEAD: + ,#+HTML_HEAD: + ,#+HTML_HEAD: + ,#+HTML_HEAD: + ,#+HTML_HEAD: + ,#+HTML_HEAD: + ,#+HTML_HEAD: #+end_src + diff --git a/module3/exo1/analyse-syndrome-grippal.org b/module3/exo1/analyse-syndrome-grippal.org index 1720b70df3a93009c79592b68d1dcf57a53f6341..08468b76090090a78e538cc4103398cec84e4483 100644 --- a/module3/exo1/analyse-syndrome-grippal.org +++ b/module3/exo1/analyse-syndrome-grippal.org @@ -27,11 +27,15 @@ if sys.version_info.major < 3 or sys.version_info.minor < 6: print("Veuillez utiliser Python 3.6 (ou plus) !") #+END_SRC +#+RESULTS: + #+BEGIN_SRC emacs-lisp :results output (unless (featurep 'ob-python) (print "Veuillez activer python dans org-babel (org-babel-do-languages) !")) #+END_SRC +#+RESULTS: + ** R 3.4 Nous n'utilisons que des fonctionnalités de base du langage R, une version antérieure devrait suffire. @@ -40,6 +44,8 @@ Nous n'utilisons que des fonctionnalités de base du langage R, une version ant (print "Veuillez activer R dans org-babel (org-babel-do-languages) !")) #+END_SRC +#+RESULTS: + * Préparation des données Les données de l'incidence du syndrome grippal sont disponibles du site Web du [[http://www.sentiweb.fr/][Réseau Sentinelles]]. Nous les récupérons sous forme d'un fichier en format CSV dont chaque ligne correspond à une semaine de la période d'observation. Nous téléchargeons toujours le jeu de données complet (rien d'autre n'est proposé), qui commence en 1984 et se termine avec une semaine récente. L'URL est: @@ -50,16 +56,16 @@ Voici l'explication des colonnes donnée sur [[https://ns.sentiweb.fr/incidence/ | Nom de colonne | Libellé de colonne | |----------------+-----------------------------------------------------------------------------------------------------------------------------------| -| ~week~ | Semaine calendaire (ISO 8601) | -| ~indicator~ | Code de l'indicateur de surveillance | -| ~inc~ | Estimation de l'incidence de consultations en nombre de cas | -| ~inc_low~ | Estimation de la borne inférieure de l'IC95% du nombre de cas de consultation | -| ~inc_up~ | Estimation de la borne supérieure de l'IC95% du nombre de cas de consultation | -| ~inc100~ | Estimation du taux d'incidence du nombre de cas de consultation (en cas pour 100,000 habitants) | -| ~inc100_low~ | Estimation de la borne inférieure de l'IC95% du taux d'incidence du nombre de cas de consultation (en cas pour 100,000 habitants) | -| ~inc100_up~ | Estimation de la borne supérieure de l'IC95% du taux d'incidence du nombre de cas de consultation (en cas pour 100,000 habitants) | -| ~geo_insee~ | Code de la zone géographique concernée (Code INSEE) http://www.insee.fr/fr/methodes/nomenclatures/cog/ | -| ~geo_name~ | Libellé de la zone géographique (ce libellé peut être modifié sans préavis) | +| ~week~ | Semaine calendaire (ISO 8601) | +| ~indicator~ | Code de l'indicateur de surveillance | +| ~inc~ | Estimation de l'incidence de consultations en nombre de cas | +| ~inc_low~ | Estimation de la borne inférieure de l'IC95% du nombre de cas de consultation | +| ~inc_up~ | Estimation de la borne supérieure de l'IC95% du nombre de cas de consultation | +| ~inc100~ | Estimation du taux d'incidence du nombre de cas de consultation (en cas pour 100,000 habitants) | +| ~inc100_low~ | Estimation de la borne inférieure de l'IC95% du taux d'incidence du nombre de cas de consultation (en cas pour 100,000 habitants) | +| ~inc100_up~ | Estimation de la borne supérieure de l'IC95% du taux d'incidence du nombre de cas de consultation (en cas pour 100,000 habitants) | +| ~geo_insee~ | Code de la zone géographique concernée (Code INSEE) http://www.insee.fr/fr/methodes/nomenclatures/cog/ | +| ~geo_name~ | Libellé de la zone géographique (ce libellé peut être modifié sans préavis) | L'indication d'une semaine calendaire en format [[https://en.wikipedia.org/wiki/ISO_8601][ISO-8601]] est populaire en Europe, mais peu utilisée aux Etats-Unis. Ceci explique peut-être que peu de logiciels savent gérer ce format. Le langage Python le fait depuis la version 3.6. Nous utilisons donc ce langage pour la préparation de nos données, ce qui a l'avantage de ne nécessiter aucune bibliothèque supplémentaire. (Note: nous expliquerons dans le module 4 pourquoi il est avantageux pour la réproductibilité de se limiter à un minimum de bibliothèques.) @@ -75,15 +81,29 @@ data_lines = lines[1:] table = [line.split(',') for line in data_lines] #+END_SRC +#+RESULTS: + Regardons ce que nous avons obtenu: #+BEGIN_SRC python :results value table[:5] #+END_SRC -** Recherche de données manquantes -Il y a malheureusement beaucoup de façon d'indiquer l'absence d'un point de données. Nous testons ici seulement pour la présence de champs vides. Il faudrait aussi rechercher des valeurs non-numériques dans les colonnes à priori numériques. Nous ne le faisons pas ici, mais une vérification ultérieure capterait des telles anomalies. +#+RESULTS: +| week | indicator | inc | inc_low | inc_up | inc100 | inc100_low | inc100_up | geo_insee | geo_name | +| 202013 | 3 | 0 | 0 | 0 | 0 | 0 | 0 | FR | France | +| 202012 | 3 | 8321 | 5873 | 10769 | 13 | 9 | 17 | FR | France | +| 202011 | 3 | 101704 | 93652 | 109756 | 154 | 142 | 166 | FR | France | +| 202010 | 3 | 104977 | 96650 | 113304 | 159 | 146 | 172 | FR | France | -Nous construisons un nouveau jeu de données sans les lignes qui contiennent des champs vides. Nous affichons ces lignes pour en garder une trace. +** Recherche de données manquantes +Il y a malheureusement beaucoup de façon d'indiquer l'absence d'un point de +données. Nous testons ici seulement pour la présence de champs vides. Il +faudrait aussi rechercher des valeurs non-numériques dans les colonnes à priori +numériques. Nous ne le faisons pas ici, mais une vérification ultérieure +capterait des telles anomalies. + +Nous construisons un nouveau jeu de données sans les lignes qui contiennent des +champs vides. Nous affichons ces lignes pour en garder une trace. #+BEGIN_SRC python :results output valid_table = [] for row in table: @@ -94,8 +114,14 @@ for row in table: valid_table.append(row) #+END_SRC +#+RESULTS: +: ['198919', '3', '0', '', '', '0', '', '', 'FR', 'France'] + ** Extraction des colonnes utilisées -Il y a deux colonnes qui nous intéressent: la première (~"week"~) et la troisième (~"inc"~). Nous vérifions leurs noms dans l'en-tête, que nous effaçons par la suite. Enfin, nous créons un tableau avec les deux colonnes pour le traitement suivant. +Il y a deux colonnes qui nous intéressent: la première (~"week"~) et la troisième +(~"inc"~). Nous vérifions leurs noms dans l'en-tête, que nous effaçons par la +suite. Enfin, nous créons un tableau avec les deux colonnes pour le traitement +suivant. #+BEGIN_SRC python :results silent week = [row[0] for row in valid_table] assert week[0] == 'week' @@ -106,11 +132,28 @@ del inc[0] data = list(zip(week, inc)) #+END_SRC -Regardons les premières et les dernières lignes. Nous insérons ~None~ pour indiquer à org-mode la séparation entre les trois sections du tableau: en-tête, début des données, fin des données. +Regardons les premières et les dernières lignes. Nous insérons ~None~ pour +indiquer à org-mode la séparation entre les trois sections du tableau: en-tête, +début des données, fin des données. #+BEGIN_SRC python :results value [('week', 'inc'), None] + data[:5] + [None] + data[-5:] #+END_SRC +#+RESULTS: +| week | inc | +|--------+--------| +| 202013 | 0 | +| 202012 | 8321 | +| 202011 | 101704 | +| 202010 | 104977 | +| 202009 | 110696 | +|--------+--------| +| 198448 | 78620 | +| 198447 | 72029 | +| 198446 | 87330 | +| 198445 | 135223 | +| 198444 | 68422 | + ** Vérification Il est toujours prudent de vérifier si les données semblent crédibles. Nous savons que les semaines sont données par six chiffres (quatre pour l'année et deux pour la semaine), et que les incidences sont des nombres entiers positifs. #+BEGIN_SRC python :results output @@ -121,10 +164,15 @@ for week, inc in data: print("Valeur suspecte dans la colonne 'inc': ", (week, inc)) #+END_SRC +#+RESULTS: + Pas de problème ! ** Conversions -Pour faciliter les traitements suivants, nous remplaçons les numéros de semaine ISO par les dates qui correspondent aux lundis. A cette occasion, nous trions aussi les données par la date, et nous transformons les incidences en nombres entiers. +Pour faciliter les traitements suivants, nous remplaçons les numéros de semaine +ISO par les dates qui correspondent aux lundis. A cette occasion, nous trions +aussi les données par la date, et nous transformons les incidences en nombres +entiers. #+BEGIN_SRC python :results silent import datetime @@ -140,6 +188,21 @@ str_data = [(str(date), str(inc)) for date, inc in converted_data] [('date', 'inc'), None] + str_data[:5] + [None] + str_data[-5:] #+END_SRC +#+RESULTS: +| date | inc | +|------------+--------| +| 1984-10-29 | 68422 | +| 1984-11-05 | 135223 | +| 1984-11-12 | 87330 | +| 1984-11-19 | 72029 | +| 1984-11-26 | 78620 | +|------------+--------| +| 2020-02-24 | 110696 | +| 2020-03-02 | 104977 | +| 2020-03-09 | 101704 | +| 2020-03-16 | 8321 | +| 2020-03-23 | 0 | + ** Vérification des dates Nous faisons encore une vérification: nos dates doivent être séparées d'exactement une semaine, sauf autour du point manquant. #+BEGIN_SRC python :results output @@ -149,10 +212,16 @@ for date1, date2 in zip(dates[:-1], dates[1:]): print(f"Il y a {date2-date1} entre {date1} et {date2}") #+END_SRC +#+RESULTS: +: Il y a 14 days, 0:00:00 entre 1989-05-01 et 1989-05-15 + ** Passage Python -> R -Nous passons au langage R pour inspecter nos données, parce que l'analyse et la préparation de graphiques sont plus concises en R, sans nécessiter aucune bibliothèque supplémentaire. +Nous passons au langage R pour inspecter nos données, parce que l'analyse et la +préparation de graphiques sont plus concises en R, sans nécessiter aucune +bibliothèque supplémentaire. -Nous utilisons le mécanisme d'échange de données proposé par org-mode, ce qui nécessite un peu de code Python pour transformer les données dans le bon format. +Nous utilisons le mécanisme d'échange de données proposé par org-mode, ce qui +nécessite un peu de code Python pour transformer les données dans le bon format. #+NAME: data-for-R #+BEGIN_SRC python :results silent [('date', 'inc'), None] + [(str(date), inc) for date, inc in converted_data] @@ -164,17 +233,32 @@ data$date <- as.Date(data$date) summary(data) #+END_SRC +#+RESULTS: +: +: date inc +: Min. :1984-10-29 Min. : 0 +: 1st Qu.:1993-09-09 1st Qu.: 5016 +: Median :2002-07-15 Median : 15998 +: Mean :2002-07-14 Mean : 62009 +: 3rd Qu.:2011-05-19 3rd Qu.: 50700 +: Max. :2020-03-23 Max. :1001824 + ** Inspection Regardons enfin à quoi ressemblent nos données ! #+BEGIN_SRC R :results output graphics :file inc-plot.png plot(data, type="l", xlab="Date", ylab="Incidence hebdomadaire") #+END_SRC -Un zoom sur les dernières années montre mieux la situation des pics en hiver. Le creux des incidences se trouve en été. +#+RESULTS: + +Un zoom sur les dernières années montre mieux la situation des pics en hiver. Le +creux des incidences se trouve en été. #+BEGIN_SRC R :results output graphics :file inc-plot-zoom.png plot(tail(data, 200), type="l", xlab="Date", ylab="Incidence hebdomadaire") #+END_SRC +#+RESULTS: + * Étude de l'incidence annuelle ** Calcul de l'incidence annuelle @@ -201,19 +285,40 @@ inc_annuelle = data.frame(annee = annees, head(inc_annuelle) #+END_SRC +#+RESULTS: +| 1986 | 5100540 | +| 1987 | 2861556 | +| 1988 | 2766142 | +| 1989 | 5460155 | +| 1990 | 5233987 | +| 1991 | 1660832 | + ** Inspection Voici les incidences annuelles en graphique. #+BEGIN_SRC R :results output graphics :file annual-inc-plot.png plot(inc_annuelle, type="p", xlab="Année", ylab="Incidence annuelle") #+END_SRC +#+RESULTS: + ** Identification des épidémies les plus fortes Une liste triée par ordre décroissant d'incidence annuelle permet de plus facilement repérer les valeurs les plus élevées: #+BEGIN_SRC R :results output head(inc_annuelle[order(-inc_annuelle$incidence),]) #+END_SRC +#+RESULTS: +: annee incidence +: 4 1989 5460155 +: 5 1990 5233987 +: 1 1986 5100540 +: 28 2013 4182265 +: 25 2010 4085126 +: 14 1999 3897443 + Enfin, un histogramme montre bien que les épidémies fortes, qui touchent environ 10% de la population française, sont assez rares: il y en eu trois au cours des 35 dernières années. #+BEGIN_SRC R :results output graphics :file annual-inc-hist.png hist(inc_annuelle$incidence, breaks=10, xlab="Incidence annuelle", ylab="Nb d'observations", main="") #+END_SRC + +#+RESULTS: diff --git a/module3/exo2/exercice_python_fr.org b/module3/exo2/exercice_python_fr.org index c7157ba42216cf2e1d291112bb351ce48811115c..eeb285c64058b196b71084f82c1e45d181a413b7 100644 --- a/module3/exo2/exercice_python_fr.org +++ b/module3/exo2/exercice_python_fr.org @@ -1,9 +1,8 @@ -#+TITLE: Votre titre -#+AUTHOR: Votre nom -#+DATE: La date du jour +#+TITLE: Incidence du syndrôme grippal #+LANGUAGE: fr -# #+PROPERTY: header-args :eval never-export +#+OPTIONS: *:nil num:1 toc:t +# #+HTML_HEAD: #+HTML_HEAD: #+HTML_HEAD: #+HTML_HEAD: @@ -11,83 +10,341 @@ #+HTML_HEAD: #+HTML_HEAD: -* Quelques explications +#+PROPERTY: header-args :session :exports both -Ceci est un document org-mode avec quelques exemples de code -python. Une fois ouvert dans emacs, ce document peut aisément être -exporté au format HTML, PDF, et Office. Pour plus de détails sur -org-mode vous pouvez consulter https://orgmode.org/guide/. +* Préface -Lorsque vous utiliserez le raccourci =C-c C-e h o=, ce document sera -compilé en html. Tout le code contenu sera ré-exécuté, les résultats -récupérés et inclus dans un document final. Si vous ne souhaitez pas -ré-exécuter tout le code à chaque fois, il vous suffit de supprimer -le # et l'espace qui sont devant le ~#+PROPERTY:~ au début de ce -document. + Pour exécuter le code de cette analyse, il faut disposer des logiciels suivants: -Comme nous vous l'avons montré dans la vidéo, on inclue du code -python de la façon suivante (et on l'exécute en faisant ~C-c C-c~): +** Emacs 25 ou plus +Une version plus ancienne d'Emacs devrait suffire. Pour une version antérieure à 26, il faut installer une version récente (9.x) d'org-mode. +** Python 3.6 ou plus +Nous utilisons le traitement de dates en format ISO 8601, qui a été implémenté en Python seulement avec la version 3.6. -#+begin_src python :results output :exports both -print("Hello world!") -#+end_src +#+BEGIN_SRC python :results output +import sys +if sys.version_info.major < 3 or sys.version_info.minor < 6: + print("Veuillez utiliser Python 3.6 (ou plus) !") +#+END_SRC #+RESULTS: -: Hello world! -Voici la même chose, mais avec une session python, donc une -persistance d'un bloc à l'autre (et on l'exécute toujours en faisant -~C-c C-c~). -#+begin_src python :results output :session :exports both -import numpy -x=numpy.linspace(-15,15) -print(x) -#+end_src +#+BEGIN_SRC emacs-lisp :results output +(unless (featurep 'ob-python) + (print "Veuillez activer python dans org-babel (org-babel-do-languages) !")) +#+END_SRC + +#+RESULTS: + +** R 3.4 +Nous n'utilisons que des fonctionnalités de base du langage R, une version antérieure devrait suffire. + +#+BEGIN_SRC emacs-lisp :results output +(unless (featurep 'ob-R) + (print "Veuillez activer R dans org-babel (org-babel-do-languages) !")) +#+END_SRC + +#+RESULTS: + +* Préparation des données + +Les données de l'incidence de la varicelle sont disponibles du site Web du +[[http://www.sentiweb.fr/][Réseau Sentinelles]]. Nous les récupérons sous forme d'un fichier en format CSV +dont chaque ligne correspond à une semaine de la période d'observation. Nous +téléchargeons toujours le jeu de données complet (rien d'autre n'est proposé), +qui commence en 1991 et se termine avec une semaine récente. L'URL est: + +#+NAME: data-url +http://www.sentiweb.fr/datasets/incidence-PAY-7.csv + +Voici l'explication des colonnes donnée sur [[https://ns.sentiweb.fr/incidence/csv-schema-v1.json][le site d'origine:]] + +| Nom de colonne | Libellé de colonne | +|----------------+-----------------------------------------------------------------------------------------------------------------------------------| +| ~week~ | Semaine calendaire (ISO 8601) | +| ~indicator~ | Code de l'indicateur de surveillance | +| ~inc~ | Estimation de l'incidence de consultations en nombre de cas | +| ~inc_low~ | Estimation de la borne inférieure de l'IC95% du nombre de cas de consultation | +| ~inc_up~ | Estimation de la borne supérieure de l'IC95% du nombre de cas de consultation | +| ~inc100~ | Estimation du taux d'incidence du nombre de cas de consultation (en cas pour 100,000 habitants) | +| ~inc100_low~ | Estimation de la borne inférieure de l'IC95% du taux d'incidence du nombre de cas de consultation (en cas pour 100,000 habitants) | +| ~inc100_up~ | Estimation de la borne supérieure de l'IC95% du taux d'incidence du nombre de cas de consultation (en cas pour 100,000 habitants) | +| ~geo_insee~ | Code de la zone géographique concernée (Code INSEE) http://www.insee.fr/fr/methodes/nomenclatures/cog/ | +| ~geo_name~ | Libellé de la zone géographique (ce libellé peut être modifié sans préavis) | + +L'indication d'une semaine calendaire en format [[https://en.wikipedia.org/wiki/ISO_8601][ISO-8601]] est populaire en +Europe, mais peu utilisée aux Etats-Unis. Ceci explique peut-être que peu de +logiciels savent gérer ce format. Le langage Python le fait depuis la version +3.6. Nous utilisons donc ce langage pour la préparation de nos données, ce qui a +l'avantage de ne nécessiter aucune bibliothèque supplémentaire. (Note: nous +expliquerons dans le module 4 pourquoi il est avantageux pour la +réproductibilité de se limiter à un minimum de bibliothèques.) + +** Téléchargement + Après avoir téléchargé les données, nous commençons par l'extraction des + données qui nous intéressent. D'abord nous découpons le contenu du fichier en + lignes, dont nous jetons la première qui ne contient qu'un commentaire. Les + autres lignes sont découpées en colonnes. + +#+BEGIN_SRC python :results silent :var data_url=data-url +from urllib.request import urlopen + +data = urlopen(data_url).read() +lines = data.decode('latin-1').strip().split('\n') +data_lines = lines[1:] +table = [line.split(',') for line in data_lines] +#+END_SRC + +#+RESULTS: + +Regardons ce que nous avons obtenu: +#+BEGIN_SRC python :results value +table[-5:] +#+END_SRC + +#+RESULTS: +| 199101 | 7 | 15565 | 10271 | 20859 | 27 | 18 | 36 | FR | France | +| 199052 | 7 | 19375 | 13295 | 25455 | 34 | 23 | 45 | FR | France | +| 199051 | 7 | 19080 | 13807 | 24353 | 34 | 25 | 43 | FR | France | +| 199050 | 7 | 11079 | 6660 | 15498 | 20 | 12 | 28 | FR | France | +| 199049 | 7 | 1143 | 0 | 2610 | 2 | 0 | 5 | FR | France | + +** Recherche de données manquantes +Il y a malheureusement beaucoup de façon d'indiquer l'absence d'un point de +données. Nous testons ici seulement pour la présence de champs vides. Il +faudrait aussi rechercher des valeurs non-numériques dans les colonnes à priori +numériques. Nous ne le faisons pas ici, mais une vérification ultérieure +capterait des telles anomalies. + +Nous construisons un nouveau jeu de données sans les lignes qui contiennent des +champs vides. Nous affichons ces lignes pour en garder une trace. +#+BEGIN_SRC python :results output +valid_table = [] +for row in table: + missing = any([column == '' for column in row]) + if missing: + print(row) + else: + valid_table.append(row) +#+END_SRC + +#+RESULTS: + +** Extraction des colonnes utilisées +Il y a deux colonnes qui nous intéressent: la première (~"week"~) et la troisième +(~"inc"~). Nous vérifions leurs noms dans l'en-tête, que nous effaçons par la +suite. Enfin, nous créons un tableau avec les deux colonnes pour le traitement +suivant. +#+BEGIN_SRC python :results silent +week = [row[0] for row in valid_table] +assert week[0] == 'week' +del week[0] +inc = [row[2] for row in valid_table] +assert inc[0] == 'inc +del inc[0] +data = list(zip(week, inc)) +#+END_SRC + +Regardons les premières et les dernières lignes. Nous insérons ~None~ pour +indiquer à org-mode la séparation entre les trois sections du tableau: en-tête, +début des données, fin des données. +#+BEGIN_SRC python :results value +[('week', 'inc'), None] + data[:5] + [None] + data[-5:] +#+END_SRC + +#+RESULTS: +| week | inc | +|--------+-------| +| 202014 | 3966 | +| 202013 | 7351 | +| 202012 | 8123 | +| 202011 | 10198 | +| 202010 | 9011 | +|--------+-------| +| 199101 | 15565 | +| 199052 | 19375 | +| 199051 | 19080 | +| 199050 | 11079 | +| 199049 | 1143 | + +** Vérification +Il est toujours prudent de vérifier si les données semblent crédibles. Nous savons que les semaines sont données par six chiffres (quatre pour l'année et deux pour la semaine), et que les incidences sont des nombres entiers positifs. +#+BEGIN_SRC python :results output +for week, inc in data: + if len(week) != 6 or not week.isdigit(): + print("Valeur suspecte dans la colonne 'week': ", (week, inc)) + if not inc.isdigit(): + print("Valeur suspecte dans la colonne 'inc': ", (week, inc)) +#+END_SRC #+RESULTS: -#+begin_example -[-15. -14.3877551 -13.7755102 -13.16326531 -12.55102041 - -11.93877551 -11.32653061 -10.71428571 -10.10204082 -9.48979592 - -8.87755102 -8.26530612 -7.65306122 -7.04081633 -6.42857143 - -5.81632653 -5.20408163 -4.59183673 -3.97959184 -3.36734694 - -2.75510204 -2.14285714 -1.53061224 -0.91836735 -0.30612245 - 0.30612245 0.91836735 1.53061224 2.14285714 2.75510204 - 3.36734694 3.97959184 4.59183673 5.20408163 5.81632653 - 6.42857143 7.04081633 7.65306122 8.26530612 8.87755102 - 9.48979592 10.10204082 10.71428571 11.32653061 11.93877551 - 12.55102041 13.16326531 13.7755102 14.3877551 15. ] -#+end_example -Et enfin, voici un exemple de sortie graphique: -#+begin_src python :results output file :session :var matplot_lib_filename="./cosxsx.png" :exports results -import matplotlib.pyplot as plt +Pas de problème ! -plt.figure(figsize=(10,5)) -plt.plot(x,numpy.cos(x)/x) -plt.tight_layout() +** Conversions +Pour faciliter les traitements suivants, nous remplaçons les numéros de semaine +ISO par les dates qui correspondent aux lundis. A cette occasion, nous trions +aussi les données par la date, et nous transformons les incidences en nombres +entiers. -plt.savefig(matplot_lib_filename) -print(matplot_lib_filename) -#+end_src +#+BEGIN_SRC python :results silent +import datetime +converted_data = [(datetime.datetime.strptime(year_and_week + ":1" , '%G%V:%u').date(), + int(inc)) + for year_and_week, inc in data] +converted_data.sort(key = lambda record: record[0]) +#+END_SRC + +Regardons de nouveau les premières et les dernières lignes: +#+BEGIN_SRC python :results value +str_data = [(str(date), str(inc)) for date, inc in converted_data] +[('date', 'inc'), None] + str_data[:5] + [None] + str_data[-5:] +#+END_SRC + +#+RESULTS: +| date | inc | +|------------+-------| +| 1990-12-03 | 1143 | +| 1990-12-10 | 11079 | +| 1990-12-17 | 19080 | +| 1990-12-24 | 19375 | +| 1990-12-31 | 15565 | +|------------+-------| +| 2020-03-02 | 9011 | +| 2020-03-09 | 10198 | +| 2020-03-16 | 8123 | +| 2020-03-23 | 7351 | +| 2020-03-30 | 3966 | + +** Vérification des dates +Nous faisons encore une vérification: nos dates doivent être séparées d'exactement une semaine, sauf autour du point manquant. +#+BEGIN_SRC python :results output +dates = [date for date, _ in converted_data] +for date1, date2 in zip(dates[:-1], dates[1:]): + if date2-date1 != datetime.timedelta(weeks=1): + print(f"Il y a {date2-date1} entre {date1} et {date2}") +#+END_SRC + +#+RESULTS: + +** Passage Python -> R +Nous passons au langage R pour inspecter nos données, parce que l'analyse et la +préparation de graphiques sont plus concises en R, sans nécessiter aucune +bibliothèque supplémentaire. + +Nous utilisons le mécanisme d'échange de données proposé par org-mode, ce qui +nécessite un peu de code Python pour transformer les données dans le bon format. +#+NAME: data-for-R +#+BEGIN_SRC python :results silent +[('date', 'inc'), None] + [(str(date), inc) for date, inc in converted_data] +#+END_SRC + +En R, les données arrivent sous forme d'un data frame, mais il faut encore convertir les dates, qui arrivent comme chaînes de caractères. +#+BEGIN_SRC R :results output :var data=data-for-R +data$date <- as.Date(data$date) +summary(data) +#+END_SRC + +#+RESULTS: +: +: date inc +: Min. :1990-12-03 Min. : 161 +: 1st Qu.:1998-04-02 1st Qu.: 7616 +: Median :2005-08-01 Median :12761 +: Mean :2005-08-01 Mean :12823 +: 3rd Qu.:2012-11-29 3rd Qu.:17254 +: Max. :2020-03-30 Max. :36298 + +** Inspection +Regardons enfin à quoi ressemblent nos données ! +#+BEGIN_SRC R :results output graphics :file inc-plot.png +plot(data, type="l", xlab="Date", ylab="Incidence hebdomadaire") +#+END_SRC #+RESULTS: -[[file:./cosxsx.png]] -Vous remarquerez le paramètre ~:exports results~ qui indique que le code -ne doit pas apparaître dans la version finale du document. Nous vous -recommandons dans le cadre de ce MOOC de ne pas changer ce paramètre -(indiquer ~both~) car l'objectif est que vos analyses de données soient -parfaitement transparentes pour être reproductibles. +Un zoom sur les dernières années montre mieux la situation des pics en hiver. Le +creux des incidences se trouve en été. +#+BEGIN_SRC R :results output graphics :file inc-plot-zoom.png +plot(tail(data, 200), type="l", xlab="Date", ylab="Incidence hebdomadaire") +#+END_SRC + +#+RESULTS: + +* Étude de l'incidence annuelle + +** Calcul de l'incidence annuelle +Étant donné que le pic de l'épidémie se situe en hiver, à cheval entre deux années civiles, nous définissons la période de référence entre deux minima de l'incidence, du 1er août de l'année /N/ au 1er août de l'année /N+1/. Nous mettons l'année /N+1/ comme étiquette sur cette année décalée, car le pic de l'épidémie est toujours au début de l'année /N+1/. Comme l'incidence du syndrome grippal est très faible en été, cette modification ne risque pas de fausser nos conclusions. -Attention, la figure ainsi générée n'est pas stockée dans le document -org. C'est un fichier ordinaire, ici nommé ~cosxsx.png~. N'oubliez pas -de le committer si vous voulez que votre analyse soit lisible et -compréhensible sur GitLab. +Voici une fonction qui calcule l'incidence annuelle en appliquant ces conventions. +#+BEGIN_SRC R :results silent +pic_annuel = function(annee) { + debut = paste0(annee-1,"-09-01") + fin = paste0(annee,"-09-01") + semaines = data$date > debut & data$date <= fin + sum(data$inc[semaines], na.rm=TRUE) + } +#+END_SRC -Enfin, n'oubliez pas que nous vous fournissons dans les ressources de -ce MOOC une configuration avec un certain nombre de raccourcis -claviers permettant de créer rapidement les blocs de code python (en -faisant ~