Third Update analyse-syndrome-grippal.org

parent 7e0951d7
...@@ -67,7 +67,7 @@ L'indication d'une semaine calendaire en format [[https://en.wikipedia.org/wiki/ ...@@ -67,7 +67,7 @@ L'indication d'une semaine calendaire en format [[https://en.wikipedia.org/wiki/
Pour nous protéger contre une éventuelle disparition ou modification du serveur du Réseau Sentinelles, nous faisons une copie locale de ce jeux de données que nous préservons avec notre analyse. Il est inutile et même risquée de télécharger les données à chaque exécution, car dans le cas d'une panne nous pourrions remplacer nos données par un fichier défectueux. Pour cette raison, nous téléchargeons les données seulement si la copie locale n'existe pas. Pour nous protéger contre une éventuelle disparition ou modification du serveur du Réseau Sentinelles, nous faisons une copie locale de ce jeux de données que nous préservons avec notre analyse. Il est inutile et même risquée de télécharger les données à chaque exécution, car dans le cas d'une panne nous pourrions remplacer nos données par un fichier défectueux. Pour cette raison, nous téléchargeons les données seulement si la copie locale n'existe pas.
#+BEGIN_SRC python :results output :var data_url=data-url #+BEGIN_SRC python :results output :var data_url=data-url
data_file="syndrome-grippal.csv" data_file = "syndrome-grippal.csv"
import os import os
import urllib.request import urllib.request
...@@ -75,12 +75,10 @@ if not os.path.exists(data_file): ...@@ -75,12 +75,10 @@ if not os.path.exists(data_file):
urllib.request.urlretrieve(data_url, data_file) urllib.request.urlretrieve(data_url, data_file)
#+END_SRC #+END_SRC
Nous commençons le traitement par l'extraction des données qui nous intéressent. D'abord nous découpons le contenu du fichier en lignes, dont nous jetons la première aui ne contient qu'un commentaire. Les autres lignes sont découpées en colonnes. Nous commençons le traitement par l'extraction des données qui nous intéressent. D'abord nous découpons le contenu du fichier en lignes, dont nous jetons la première qui ne contient qu'un commentaire. Les autres lignes sont découpées en colonnes.
#+BEGIN_SRC python :results silent :var data_url=data-url #+BEGIN_SRC python :results silent :var data_url=data-url
from urllib.request import urlopen data = urlopen(data_file,'rb').read()
data = urlopen(data_url).read()
lines = data.decode('latin-1').strip().split('\n') lines = data.decode('latin-1').strip().split('\n')
data_lines = lines[1:] data_lines = lines[1:]
table = [line.split(',') for line in data_lines] table = [line.split(',') for line in data_lines]
...@@ -201,7 +199,7 @@ pic_annuel = function(annee) { ...@@ -201,7 +199,7 @@ pic_annuel = function(annee) {
} }
#+END_SRC #+END_SRC
Nous devons aussi faire attention aux premières et dernières années de notre jeux de données. Les données commencent en octobre 1984, ce qui ne permet pas de quantifier complètement le pic attribué à l'année 1985. Nous le supprimons donc de notre analyse. Pour la même raison, nous arrêtons en 2018. Nous devons attendre les données pour juillet 2019 avant d'augmenter la dernière année à 2019. Nous devons aussi faire attention aux premières et dernières années de notre jeux de données. Les données commencent en octobre 1984, ce qui ne permet pas de quantifier complètement le pic attribué à l'année 1985. Nous le supprimons donc de notre analyse. Par contre, les données se terminent après le 1er août 2018 (pour une exécution après cette date bien sûr), ce qui nous permet d'inclure cette année dans l'analyse.
#+BEGIN_SRC R :results silent #+BEGIN_SRC R :results silent
annees <- 1986:2018 annees <- 1986:2018
#+END_SRC #+END_SRC
......
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment