From 4916e141d4274ead36b0293695db81ae1a2dc716 Mon Sep 17 00:00:00 2001 From: bergaent Date: Sat, 24 Feb 2024 21:07:46 +0100 Subject: [PATCH] update --- module2/exo5/exo5_fr.Rmd | 4 +++- module3/exo1/analyse-syndrome-grippal.Rmd | 10 +++++----- 2 files changed, 8 insertions(+), 6 deletions(-) diff --git a/module2/exo5/exo5_fr.Rmd b/module2/exo5/exo5_fr.Rmd index 479d782..aa0d117 100644 --- a/module2/exo5/exo5_fr.Rmd +++ b/module2/exo5/exo5_fr.Rmd @@ -26,6 +26,7 @@ Challenger. Nous commençons donc par charger ces données: ```{r} +setwd("C:/Users/berga/Seafile/MOOC/mooc-rr/module2/exo5") data = read.csv("shuttle.csv",header=T) data ``` @@ -70,7 +71,7 @@ $p=p(t)$. Pour relier $p(t)$ à $t$, on va donc effectuer une régression logistique. ```{r} -logistic_reg = glm(data=data, Malfunction/Count ~ Temperature, weights=Count, +logistic_reg = glm(data=data, Malfunction/Count ~ Temperature+Pressure, weights=Count, family=binomial(link='logit')) summary(logistic_reg) ``` @@ -101,6 +102,7 @@ précédents où nous il y a eu défaillance d'au moins un joint. Revenons défaillance d'un joint: ```{r} +setwd("C:/Users/berga/Seafile/MOOC/mooc-rr/module2/exo5") data_full = read.csv("shuttle.csv",header=T) sum(data_full$Malfunction)/sum(data_full$Count) ``` diff --git a/module3/exo1/analyse-syndrome-grippal.Rmd b/module3/exo1/analyse-syndrome-grippal.Rmd index 771e78f..75efe1e 100644 --- a/module3/exo1/analyse-syndrome-grippal.Rmd +++ b/module3/exo1/analyse-syndrome-grippal.Rmd @@ -17,13 +17,15 @@ header-includes: ```{r setup, include=FALSE} knitr::opts_chunk$set(echo = TRUE) + ``` ## Préparation des données Les données de l'incidence du syndrome grippal sont disponibles du site Web du [Réseau Sentinelles](http://www.sentiweb.fr/). Nous les récupérons sous forme d'un fichier en format CSV dont chaque ligne correspond à une semaine de la période demandée. Nous téléchargeons toujours le jeu de données complet, qui commence en 1984 et se termine avec une semaine récente. L'URL est: ```{r} -data_url = "http://www.sentiweb.fr/datasets/incidence-PAY-3.csv" +setwd("C:/Users/berga/Seafile/MOOC/mooc-rr/module3/exo1") +data<-read.csv("incidence-PAY-3.csv") ``` Voici l'explication des colonnes donnée sur le [sur le site d'origine](https://ns.sentiweb.fr/incidence/csv-schema-v1.json): @@ -43,9 +45,7 @@ Voici l'explication des colonnes donnée sur le [sur le site d'origine](https:// La première ligne du fichier CSV est un commentaire, que nous ignorons en précisant `skip=1`. ### Téléchargement -```{r} -data = read.csv(data_url, skip=1) -``` + Regardons ce que nous avons obtenu: ```{r} @@ -133,7 +133,7 @@ pic_annuel = function(annee) { Nous devons aussi faire attention aux premières et dernières années de notre jeux de données. Les données commencent en octobre 1984, ce qui ne permet pas de quantifier complètement le pic attribué à 1985. Nous l'enlevons donc de notre analyse. Par contre, pour une exécution en octobre 2018, les données se terminent après le 1er août 2018, ce qui nous permet d'inclure cette année. ```{r} -annees = 1986:2018 +annees = 1986:2023 ``` Nous créons un nouveau jeu de données pour l'incidence annuelle, en applicant la fonction `pic_annuel` à chaque année: -- 2.18.1