projet-systemes-algorithmes.../slides.md

449 lines
11 KiB
Markdown
Raw Normal View History

2022-12-23 18:22:23 +00:00
---
marp: true
paginate: true
author: Clément Contet, Laurent Fainsin
2023-01-08 16:07:57 +00:00
math: katex
2022-12-23 18:22:23 +00:00
---
<style>
section::after {
/*custom pagination*/
content: attr(data-marpit-pagination) ' / ' attr(data-marpit-pagination-total);
}
</style>
2023-01-08 16:07:57 +00:00
# The RAFT Consensus Algorithm
2022-12-23 18:22:23 +00:00
<!-- https://github.com/raft/raft.github.io -->
<!-- https://ongardie.net/static/coreosfest/slides -->
![bg right:60%](https://raft.github.io/logo/solo.svg)
<footer>
2023-01-08 16:07:57 +00:00
Reliable, Replicated, Redundant, And Fault-Tolerant.<br>
2022-12-23 18:22:23 +00:00
Diego Ongaro,
John Ousterhout,
Stanford University
2023-01-08 16:07:57 +00:00
(2014)
2022-12-23 18:22:23 +00:00
</footer>
2023-01-10 12:08:46 +00:00
<!-- Laurent -->
2022-12-23 18:22:23 +00:00
---
<!-- Qu'est ce que le "consensus" dans un premier temps ? -->
<header>
# Consensus ?
</header>
> Consensus algorithms allow a collection of machines to work as a coherent group that can survive the failures of some of its members. RAFT authors
2023-01-08 16:07:57 +00:00
<!-- Les algorithmes de consensus permettent à un ensemble de machines de fonctionner comme un groupe cohérent qui peut survivre aux défaillances de certains de ses membres. -->
2022-12-23 18:22:23 +00:00
<br>
- Accord sur l'état partagé (image système unique)
2023-01-08 16:07:57 +00:00
- Réparation (réplication) autonome en cas de défaillance d'un serveur
2022-12-23 18:22:23 +00:00
- Une minorité de serveurs HS: pas de problème
- La majorité des serveurs HS: perte de disponibilité, maintien de la cohérence
- La clé pour construire des systèmes de stockage cohérents
2023-01-10 12:08:46 +00:00
<!-- Laurent -->
2022-12-23 18:22:23 +00:00
---
<header>
# Architecture typique des systèmes de consensus
2023-01-10 12:08:46 +00:00
</header>
2022-12-23 18:22:23 +00:00
![bg 95%](https://ongardie.net/static/coreosfest/slides/rsm.svg)
2023-01-08 16:07:57 +00:00
<!-- Un ou plusieurs clients. Et plusieurs serveurs formant un groupe de consensus (généralement > 3 et impair). Quand client RPC serv, leader réplique cela sur ses suiveurs et une fois cela validé, répond au client. -->
2022-12-23 18:22:23 +00:00
<!--
- Replicated log -> replicated state machine
- All servers execute same commands in same order
- Consensus module ensures proper log replication
- System makes progress as long as any majority of servers up
- Failure model: fail-stop (not Byzantine), delayed/lost msgs
-->
2023-01-10 12:08:46 +00:00
<!-- Laurent -->
2022-12-23 18:22:23 +00:00
---
<header>
# Motivation ?
</header>
<!-- Avant RAFT il existait déjà un algorithme bien connu du nom de Paxos qui dominait sur le reste des algos de consensus. -->
<!-- Alors pourquoi faire un nouvel algo ? quels sont les motivations des auteurs ? -->
Paxos domine le marché depuis ~25 ans (Leslie Lamport, 1989)
- Difficile à comprendre
- Difficile à implémenter
> The dirty little secret of the NSDI community is that at most five people really, truly understand every part of Paxos ;-). [NSDI](https://www.usenix.org/conference/nsdi23) reviewer
> There are significant gaps between the description of the Paxos algorithm and the needs of a real-world system…the final system will be based on an unproven protocol. [Chubby](https://research.google/pubs/pub27897/) authors
2023-01-10 12:08:46 +00:00
<!-- Clément -->
---
<header>
# Paxos ?
</header>
![bg 100%](https://www.scylladb.com/wp-content/uploads/paxos-diagram.png)
2023-01-10 12:08:46 +00:00
<!-- Clément -->
2022-12-23 18:22:23 +00:00
---
<header>
2023-01-08 16:07:57 +00:00
# Les différences de RAFT ?
2022-12-23 18:22:23 +00:00
</header>
<!-- Les auteurs de RAFT en avait donc ras le bol de voir cette situation, ils ont donc décidés de créer un nouvel algorithme, en se fondant sur la compréhensibilité -->
2023-01-10 12:08:46 +00:00
<!-- Clément -->
2022-12-23 18:22:23 +00:00
## Prendre des décisions de conception fondées sur la compréhensibilité
<!-- Pour se faire ils ont choisis de décomposer le consensus le plus possible en des petits problèmes trivials à résoudre. -->
- Décomposition du problème
<!-- Il ont aussi essayé de diminuer l'espace des états possibles lors du fonctionnement de l'algorithme pour le rendre le plus simple possible. -->
- Minimiser l'espace des états
- Traiter plusieurs problèmes avec un seul mécanisme
- Éliminer les cas particuliers
- Minimiser le non-déterminisme
- Maximiser la cohérence
2023-01-10 12:08:46 +00:00
<!-- Laurent -->
2022-12-23 18:22:23 +00:00
---
<header>
# Décomposition du problème
</header>
1. Élection d'un leader (mandat)
- Sélectionner un serveur qui sera le leader
- Détecter les pannes, choisir un nouveau leader
2. Réplication des logs (fonctionnement normal)
2023-01-08 16:07:57 +00:00
- Le leader accepte les commandes des clients et les ajoute à son journal
- Le leader réplique son journal aux autres serveurs (écrase les incohérences)
2022-12-23 18:22:23 +00:00
3. Sécurité
- Maintenir la cohérence des journaux
2023-01-08 16:07:57 +00:00
- Seuls les serveurs dont les journaux sont à jour peuvent devenir des leaders
2022-12-23 18:22:23 +00:00
2023-01-10 12:08:46 +00:00
<!-- Laurent -->
2022-12-23 18:22:23 +00:00
---
<header>
# Minimiser l'espace des états
</header>
2023-01-08 16:07:57 +00:00
<!--
Il n'y a que 3 états possibles pour les serveurs !
Et les changements d'états sont assez simples. -->
2022-12-23 18:22:23 +00:00
![bg 90%](https://oracleblog.org/wp-content/uploads/2018/10/QQ%E6%88%AA%E5%9B%BE20181001142911.png)
<!--
2023-01-08 16:07:57 +00:00
Follower: Passive (but expects regular heartbeats to stay in this state, get a random timeout time at startup), if after some time there is no heartbeat, timeout, change to candidate.
(RPC: https://en.wikipedia.org/wiki/Remote_procedure_call)
Candidate: Issues RequestVote RPCs to get elected as leader. After results, if majority, becomes new leader. if other leader gets elected or is already present, step down.
2022-12-23 18:22:23 +00:00
Leader: Issues AppendEntries RPCs:
- Replicate its log
- Heartbeats to maintain leadership
-->
2023-01-10 12:08:46 +00:00
<!-- Laurent -->
2022-12-23 18:22:23 +00:00
---
<header>
# Mandats
</header>
![bg 100%](https://oracleblog.org/wp-content/uploads/2018/10/WX20181002-112612@2x.png)
2022-12-23 18:22:23 +00:00
<!--
- At most 1 leader per term
2023-01-08 16:07:57 +00:00
- Some terms have no leader (failed election, example: 3 servers, all switch to candidate at same time, no majority)
2022-12-23 18:22:23 +00:00
- Each server maintains current term value (no global view)
- Exchanged in every RPC
- Peer has later term? Update term, revert to follower
- Incoming RPC has obsolete term? Reply with error
Terms identify obsolete information
-->
2023-01-10 12:08:46 +00:00
<!-- Clément -->
2022-12-23 18:22:23 +00:00
---
<header>
2023-01-08 16:07:57 +00:00
# Élection du leader
2022-12-23 18:22:23 +00:00
</header>
2023-01-08 16:07:57 +00:00
![bg 70%](figs/leader-election.png)
2022-12-23 18:22:23 +00:00
2023-01-10 12:08:46 +00:00
<!-- Clément -->
2022-12-23 18:22:23 +00:00
---
<header>
2023-01-10 12:08:46 +00:00
# Correction des élections
2022-12-23 18:22:23 +00:00
</header>
2023-01-08 16:07:57 +00:00
- Sécurité: autoriser au maximum un gagnant par mandat
- Chaque serveur ne donne qu'un seul vote par mandat (persistant sur disque)
- Majorité requise pour gagner l'élection
![](figs/election-correctness.png)
- Vivacité: un candidat doit finir par gagner
- Délais d'expiration des élections aléatoire dans $[T, 2T]$ (e.g. 150-300 ms)
2023-01-08 16:07:57 +00:00
- Le serveur gagne l'élection en dépassant le délai d'attente avant les autres
- Fonctionne bien si $T_{\text{diffusion}} \ll T \ll \text{MTBF}$
2023-01-08 16:07:57 +00:00
- Approche aléatoire plus simple que les autres comme le ranking
2022-12-23 18:22:23 +00:00
2023-01-10 12:08:46 +00:00
<!-- Clément -->
2022-12-23 18:22:23 +00:00
---
<header>
# Démo interactive
</header>
<iframe
src="https://raft.github.io/raftscope/index.html"
frameborder="0"
scrolling="no"
height=100%
width=100%
></iframe>
<!--
Normal Operation:
- Client sends command to leader
- Leader appends command to its log
- Leader sends AppendEntries RPCs to all followers
- Once new entry committed:
- Leader executes command in its state machine, returns result to client
- Leader notifies followers of committed entries in subsequent AppendEntries RPCs
- Followers execute committed commands in their state machines
- Crashed/slow followers?
-Leader retries AppendEntries RPCs until they succeed
- Optimal performance in common case:
- One successful RPC to any majority of servers
-->
---
<header>
2023-01-08 16:07:57 +00:00
# Structure des journaux
2022-12-23 18:22:23 +00:00
</header>
2023-01-08 16:07:57 +00:00
![bg 100%](figs/log-structure.png)
<!--
- Must survive crashes (store on disk)
- Entry committed if safe to execute in state machines
- Replicated on majority of servers by leader of its term (that the goal of the leader)
-->
2022-12-23 18:22:23 +00:00
<!-- Laurent -->
2022-12-23 18:22:23 +00:00
---
<header>
2023-01-08 16:07:57 +00:00
# Incohérences des journaux
2022-12-23 18:22:23 +00:00
</header>
2023-01-08 16:07:57 +00:00
![bg 65%](figs/log-inconsistencies.png)
<!--
Logs may be inconsistent after leader change
- No special steps by new leader:
- Start normal operation
- Followers logs will eventually match leader
- Leaders log is “the truth”
Crashes can result in log inconsistencies:
- Raft minimizes special code for repairing inconsistencies:
- Leader assumes its log is correct (se pose pas de question sur la validité des ses propres logs, source de vérité)
- Normal operation will repair all inconsistencies
-->
2022-12-23 18:22:23 +00:00
<!-- Clément -->
2022-12-23 18:22:23 +00:00
---
<header>
2023-01-08 16:07:57 +00:00
# Propriété de correspondance des journaux
2022-12-23 18:22:23 +00:00
</header>
2023-01-08 16:07:57 +00:00
![bg 90%](figs/log-matching-property.png)
<!--
Goal: high level of consistency between logs
- If log entries on different servers have same index and term:
- They store the same command
- The logs are identical in all preceding entries
- If a given entry is committed, all preceding entries are also committed
-->
<!-- Laurent -->
2023-01-08 16:07:57 +00:00
---
<header>
# Réparation des journaux par correspondance
</header>
![bg 95%](figs/log-consistency-check.png)
<!--
AppendEntries RPCs include <index, term> of entry preceding new one(s)
- Follower must contain matching entry; otherwise it rejects request
- Leader retries with lower log index
- Implements an induction step, ensures Log Matching Property
-->
2022-12-23 18:22:23 +00:00
<!-- Clément -->
2022-12-23 18:22:23 +00:00
---
<header>
2023-01-10 12:08:46 +00:00
# Changement de composition du cluster
</header>
![bg 80%](figs/cluster-change.png)
<!-- Clément -->
2023-01-10 12:08:46 +00:00
---
<header>
2022-12-23 18:22:23 +00:00
# De nombreuses implémentations
</header>
| Name | Primary Authors | Language | License |
| :------------- | :------------------------------------------------ | :--------- | :--------- |
| etcd/raft | Blake Mizerany, Xiang Li and Yicheng Qin (CoreOS) | Go | Apache 2.0 |
| go-raft | Ben Johnson (Sky) and Xiang Li (CMU, CoreOS) | Go | MIT |
| hashicorp/raft | Armon Dadgar (hashicorp) | Go | MPL-2.0 |
| copycat | Jordan Halterman | Java | Apache2 |
| LogCabin | Diego Ongaro (Stanford, Scale Computing) | C++ | ISC |
| akka-raft | Konrad Malawski | Scala | Apache2 |
| kanaka/raft.js | Joel Martin | Javascript | MPL-2.0 |
2023-01-10 12:08:46 +00:00
<!-- Laurent -->
2022-12-23 18:22:23 +00:00
---
<header>
2023-01-08 16:07:57 +00:00
# Quel degré de hasard est nécessaire pour éviter les votes non concluants ?
2022-12-23 18:22:23 +00:00
</header>
![bg 90%](https://ongardie.net/static/coreosfest/slides/timeoutcdf.svg)
2023-01-10 12:08:46 +00:00
<!-- Clément -->
2022-12-23 18:22:23 +00:00
---
<header>
2023-01-08 16:07:57 +00:00
# Étude: Raft est-il plus simple que Paxos ?
2022-12-23 18:22:23 +00:00
</header>
<!--
- 43 students in 2 graduate OS classes (Berkeley and Stanford)
- Group 1: Raft video, Raft quiz, then Paxos video, Paxos quiz
- Group 2: Paxos video, Paxos quiz, then Raft video, Raft quiz
- Instructional videos:
- Same instructor (Ousterhout)
- Covered same functionality: consensus, replicated log, cluster reconfiguration
- Fleshed out missing pieces for Paxos
- Videos available on YouTube
- Quizzes:
- Questions in 3 general categories
- Same weightings for both tests
- Experiment favored Paxos slightly:
- 15 students had prior experience with Paxos
-->
![bg 70%](https://ongardie.net/static/coreosfest/slides/studyscatter.svg)
![bg 90%](https://ongardie.net/static/coreosfest/slides/survey.svg)
2023-01-10 12:08:46 +00:00
<!-- Laurent -->