Typographie

Cet article sert d'exemple pour l'affichage d'éléments.
Il est fortement inspiré de l'article de démo du thème terminus.

Titres

H1

H2

H3

H4

H5
H6

Paragraphes

Xerum, quo qui aut unt expliquam qui dolut labo. Aque venitatiusda cum, voluptionse latur sitiae dolessi aut parist aut dollo enim qui voluptate ma dolestendit peritin re plis aut quas inctum laceat est volestemque commosa as cus endigna tectur, offic to cor sequas etum rerum idem sintibus eiur? Quianimin porecus evelectur, cum que nis nust voloribus ratem aut omnimi, sitatur? Quiatem. Nam, omnis sum am facea corem alique molestrunt et eos evelece arcillit ut aut eos eos nus, sin conecerem erum fuga. Ri oditatquam, ad quibus unda veliamenimin cusam et facea ipsamus es exerum sitate dolores editium rerore eost, temped molorro ratiae volorro te reribus dolorer sperchicium faceata tiustia prat.

Itatur? Quiatae cullecum rem ent aut odis in re eossequodi nonsequ idebis ne sapicia is sinveli squiatum, core et que aut hariosam ex eat.

Figures

Python Logo

Bannière
La Liberté guidant le Peuple

Citations

Ce qui se conçoit bien s'énonce clairement, et les mots pour le dire viennent aisément.

Nicolas Boileau

Boutons et liens

Lien

Tables

ItaliqueGrasCode
italiquegrascode

Listes

  1. Cochable
    • Cochée
    • Décochée
  2. Non-ordonnée
    • Pomme
    • Orange
    • Banane
  3. Ordonnée
    1. Sucre
    2. Farine

Blocs

1def factorielle(n: int) -> int:
2 """
3 Calcul récursif de factorielles d'entiers positifs
4 Source: https://github.com/TheAlgorithms/Python
5 """
6 if not isinstance(n, int):
7 raise ValueError("N'accepte que des nombres entiers.")
8 if n < 0:
9 raise ValueError("N'accepte que des nombres positifs.")
10 return 1 if n in {0, 1} else n * factorielle(n - 1)

Formulaires






Autres éléments

C2H6O <=> H2O

Xn + Yn = Zn

GIF est un format d'image matriciel.

Tapez CTRL+ALT+Suppr pour fermer la session.

Attention, ce qui suit peut heurter la sensibilité des plus jeunes.

Bouh ! 👻

Le processus itératif de minimisation de l'erreur à l'entraînement d'un réseau de neurones s'appelle la descente de gradient.