diff --git a/module2/exo1/Exercice Mod 2 Exe 1 en jupyter.pdf b/module2/exo1/Exercice Mod 2 Exe 1 en jupyter.pdf new file mode 100644 index 0000000000000000000000000000000000000000..041853d4a45dcfe267d2dbc39983fe39dfe8e661 Binary files /dev/null and b/module2/exo1/Exercice Mod 2 Exe 1 en jupyter.pdf differ diff --git a/module2/exo1/Mon_toy_notebook_fr.html b/module2/exo1/Mon_toy_notebook_fr.html new file mode 100644 index 0000000000000000000000000000000000000000..d2e20dae8378d59d2da61b4b2352b871afe0e9f9 --- /dev/null +++ b/module2/exo1/Mon_toy_notebook_fr.html @@ -0,0 +1,13335 @@ + + +
+ +Mon ordinateur m'indique que $\pi$ vaut aproximativement
+ +from math import *
+print(pi)
+
Mais calculé avec la méthode des aiguilles de Buffon, on obtiendrait comme aproximation :
+ +import numpy as np
+np.random.seed(seed=42)
+N = 10000
+x = np.random.uniform(size=N, low=0, high=1)
+theta = np.random.uniform(size=N, low=0, high=pi/2)
+2/(sum((x+np.sin(theta))>1)/N)
+
Sinon, une méthode plus simple à comprendre et ne faisant pas intervenir d’appel à la fonction +sinus se base sur le fait que si X ~ U(0, 1) et Y ~ U(0, 1) alors P[X2 + Y2 <= 1] = $\pi$/4 (voir +méthode de Monte Carlo sur Wikipedia). Le code suivant illustre ce fait :
+ +%matplotlib inline
+import matplotlib.pyplot as plt
+
+np.random.seed(seed=42)
+N = 1000
+x = np.random.uniform(size=N, low=0, high=1)
+y = np.random.uniform(size=N, low=0, high=1)
+accept = (x*x+y*y) <= 1
+reject = np.logical_not(accept)
+
+fig, ax = plt.subplots(1)
+ax.scatter(x[accept], y[accept], c='b', alpha=0.2, edgecolor=None)
+ax.scatter(x[reject], y[reject], c='r', alpha=0.2, edgecolor=None)
+ax.set_aspect('equal')
+
Il est alors aisé d’obtenir une approximation (pas terrible) de $\pi$ en comptant combien de fois, +en moyenne, X2 + Y2 est inférieur à 1 :
+ +4*np.mean(accept)
+