Commit 27f8a28a authored by MigAP's avatar MigAP

start of the project : the data is downloaded and beginning analysis

parent 0f846689
...@@ -268,3 +268,5 @@ Les résultats d'un calcul dépendent : ...@@ -268,3 +268,5 @@ Les résultats d'un calcul dépendent :
** 4. Conclusion : que faut-il retenir ** 4. Conclusion : que faut-il retenir
- -
* Travaux Pratiques
#+TITLE: Votre titre #+TITLE: Concentration de CO2 dans l'atmosphère depuis 1958
#+AUTHOR: Votre nom #+AUTHOR: Miguel Arpa Perozo
#+DATE: La date du jour #+DATE: \today
#+LANGUAGE: fr #+LANGUAGE: fr
# #+PROPERTY: header-args :eval never-export # #+PROPERTY: header-args :eval never-export
...@@ -91,3 +91,65 @@ faisant ~<p~, ~<P~ ou ~<PP~ suivi de ~Tab~). ...@@ -91,3 +91,65 @@ faisant ~<p~, ~<P~ ou ~<PP~ suivi de ~Tab~).
Maintenant, à vous de jouer! Vous pouvez effacer toutes ces Maintenant, à vous de jouer! Vous pouvez effacer toutes ces
informations et les remplacer par votre document computationnel. informations et les remplacer par votre document computationnel.
* Notes
- Lien de téléchargement : [[https://scrippsco2.ucsd.edu/assets/data/atmospheric/stations/in_situ_co2/weekly/weekly_in_situ_co2_mlo.csv][link]]
- Date du téléchargement : 2020-11-16
- The CO2 concentration is in [micro-mol CO2 per more] (ppm).
- The weekly values have been adjusted to 12:00 hours at middle day
of each weekly period.
* Tasks
** TODO Faire une FFT pour essayer de trouver un modèle pour l'évolution lente (filter contribution périodique)
* Téléchargement des données
** Téléchargement
Les données ont été téléchargées le 2020-11-16. Le lien de
téléchargement utilisé est le suivant :
#+name: data-url
https://scrippsco2.ucsd.edu/assets/data/atmospheric/stations/in_situ_co2/weekly/weekly_in_situ_co2_mlo.csv
On vérifie si les données
sont pas localement, si ce n'est pas le cas on les télécharge.
#+BEGIN_SRC python :results silent :var data_url=data-url :session
data_file ="weekly_in_situ_co2_mlo.csv"
import os
import urllib.request
if not os.path.exists(data_file):
urllib.request.urlretrieve(data_url, data_file)
#+END_SRC
Les données commencent à la ligne 45, donc on ne prend pas en compte
les premières 45 lignes du fichier.
#+BEGIN_SRC python :results silent :var data_url=data-url :session
data = open(data_file, 'rb').read()
lines = data.decode('latin-1').strip().split('\n')
data_lines = lines[45:]
table = [line.split(',') for line in data_lines]
#+END_SRC
#+BEGIN_SRC python :results value :session
table[:5]
#+END_SRC
#+RESULTS:
| 1958-04-05 | 317.31 |
| 1958-04-12 | 317.69 |
| 1958-04-19 | 317.58 |
| 1958-04-26 | 316.48 |
| 1958-05-03 | 316.95 |
** TODO Graphiques avec datetime : https://stackoverflow.com/questions/1574088/plotting-time-in-python-with-matplotlib
** Vérification des dates
Nous faisons encore une vérification: nos dates doivent être séparées d'exactement une semaine.
#+BEGIN_SRC python :results output :session
dates = [date for date, _ in converted_data]
for date1, date2 in zip(dates[:-1], dates[1:]):
if date2-date1 != datetime.timedelta(weeks=1):
print(f"Il y a {date2-date1} entre {date1} et {date2}")
#+END_SRC
#+RESULTS:
This diff is collapsed.
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment