aboutsummaryrefslogtreecommitdiff
path: root/src/Technique
diff options
context:
space:
mode:
authorQuentin Dufour <quentin@deuxfleurs.fr>2020-04-18 17:17:54 +0200
committerQuentin Dufour <quentin@deuxfleurs.fr>2020-04-18 17:17:54 +0200
commit2ea473d3bd2d8bd8323c31f2355b5d427852e164 (patch)
tree648d9f212fe5badd061923524720f4c959578b11 /src/Technique
parentef35a40059be533bfc66c39bfdfb6ba22c0a672f (diff)
downloadsite-2ea473d3bd2d8bd8323c31f2355b5d427852e164.tar.gz
site-2ea473d3bd2d8bd8323c31f2355b5d427852e164.zip
Rework website structure
Diffstat (limited to 'src/Technique')
-rw-r--r--src/Technique/Développement/Bottin.md1
-rw-r--r--src/Technique/Développement/Diplonat.md1
-rw-r--r--src/Technique/Développement/Garage.md241
-rw-r--r--src/Technique/Développement/Guichet.md1
-rw-r--r--src/Technique/Infra/Internet.md5
-rw-r--r--src/Technique/Operations/Assets/exemple_offre.txt118
-rw-r--r--src/Technique/Operations/Assets/livebox_parefeu_personnalise.pngbin0 -> 84154 bytes
-rw-r--r--src/Technique/Operations/Jitsi.md94
-rw-r--r--src/Technique/index.md22
9 files changed, 483 insertions, 0 deletions
diff --git a/src/Technique/Développement/Bottin.md b/src/Technique/Développement/Bottin.md
new file mode 100644
index 0000000..0cf67ed
--- /dev/null
+++ b/src/Technique/Développement/Bottin.md
@@ -0,0 +1 @@
+Le code de Bottin se trouve ici : https://git.deuxfleurs.fr/Deuxfleurs/bottin
diff --git a/src/Technique/Développement/Diplonat.md b/src/Technique/Développement/Diplonat.md
new file mode 100644
index 0000000..47bb620
--- /dev/null
+++ b/src/Technique/Développement/Diplonat.md
@@ -0,0 +1 @@
+Le code est ici : https://git.deuxfleurs.fr/Deuxfleurs/diplonat
diff --git a/src/Technique/Développement/Garage.md b/src/Technique/Développement/Garage.md
new file mode 100644
index 0000000..16fa635
--- /dev/null
+++ b/src/Technique/Développement/Garage.md
@@ -0,0 +1,241 @@
+# Garage: a S3-like object storage
+
+Store pile of bytes in your garage.
+
+
+## Context
+
+Data storage is critical: it can lead to data loss if done badly and/or on hardware failure.
+Filesystems + RAID can help on a single machine but a machine failure can put the whole storage offline.
+Moreover, it put a hard limit on scalability. Often this limit can be pushed back far away by buying expensive machines.
+But here we consider non specialized off the shelf machines that can be as low powered and subject to failures as a raspberry pi.
+
+Distributed storage may help to solve both availability and scalability problems on these machines.
+Many solutions were proposed, they can be categorized as block storage, file storage and object storage depending on the abstraction they provide.
+
+## Related work
+
+Block storage is the most low level one, it's like exposing your raw hard drive over the network.
+It requires very low latencies and stable network, that are often dedicated.
+However it provides disk devices that can be manipulated by the operating system with the less constraints: it can be partitioned with any filesystem, meaning that it supports even the most exotic features.
+We can cite [iSCSI](https://en.wikipedia.org/wiki/ISCSI) or [Fibre Channel](https://en.wikipedia.org/wiki/Fibre_Channel).
+Openstack Cinder proxy previous solution to provide an uniform API.
+
+File storage provides a higher abstraction, they are one filesystem among others, which means they don't necessarily have all the exotic features of every filesystem.
+Often, they relax some POSIX constraints while many applications will still be compatible without any modification.
+As an example, we are able to run MariaDB (very slowly) over GlusterFS...
+We can also mention CephFS (read [RADOS](https://ceph.com/wp-content/uploads/2016/08/weil-rados-pdsw07.pdf) whitepaper), Lustre, LizardFS, MooseFS, etc.
+OpenStack Manila proxy previous solutions to provide an uniform API.
+
+Finally object storages provide the highest level abstraction.
+They are the testimony that the POSIX filesystem API is not adapted to distributed filesystems.
+Especially, the strong concistency has been dropped in favor of eventual consistency which is way more convenient and powerful in presence of high latencies and unreliability.
+We often read about S3 that pioneered the concept that it's a filesystem for the WAN.
+Applications must be adapted to work for the desired object storage service.
+Today, the S3 HTTP REST API acts as a standard in the industry.
+However, Amazon S3 source code is not open but alternatives were proposed.
+We identified Minio, Pithos, Swift and Ceph.
+Minio/Ceph enforces a total order, so properties similar to a (relaxed) filesystem.
+Swift and Pithos are probably the most similar to AWS S3 with their consistent hashing ring.
+
+There was many attempts in research too. I am only thinking to [LBFS](https://pdos.csail.mit.edu/papers/lbfs:sosp01/lbfs.pdf) that was used as a basis for Seafile.
+
+- Cassandra (ScyllaDB) for metadata
+- Own system using consistent hashing for data chunks
+
+
+**Quentin:**
+
+- pas d'erasure coding mais des checksums à côté des fichiers (ou dans les meta données)
+- 2 ou 3 copies, configurable, potentiellement on a per bucket or per file basis
+- on ne setup pas à la main en effet, je pensais au système qui scan sa partition de stockage et qui fait stockage géré = min(stockage de la partition - stockage que je ne gère pas, stockage alloué)
+- La DHT/Ring à la dynamo, on doit pouvoir repomper un millier de truc sur leur papier. Surtout que je me le suis déja cogné deux fois. Le nombre d'entrées que tu mets est un multiple de ton stockage. eg: 500 Go, on fait des tranches de 10 Go --> 50 entrées dans le ring.
+- un protocole de maintenance pompé sur le papier dynamo avec de l'anti entropy qui vérifie les blobs et leurs checksums (en plus de la vérification réalisée à la lecture)
+- une interface web qui te donne en presque direct la santé de ton cluster (noeuds en vie, états de la réplication des données, problèmes de checksums)
+
+**Other ideas:**
+
+- split objects in constant size blocks or use the SeaFile strategy for better de-duplication? (Content Defined Chunking, Rabin's algorithm etc)
+
+_Remark 1_ I really like the Rabin fingerprinting approach however deduplication means we need to implement reference counting. How do we implement it? If we suppose a CRDT counter, if we do +1, +1, -1 but counter is registered as +1, -1, +1, we are at zero at one point and lost ou chunk. ---> we need to be careful in our implementation if we want to play.
+
+_Remark 2_ Seafile idea has been stolen from this article: https://pdos.csail.mit.edu/papers/lbfs:sosp01/lbfs.pdf
+
+#### Random notes
+
+--> we should not talk about block. It is the abstraction that manipulate your FS to interact with your hard drive. "Chunk" is probably more appropriate. Block storage are a class of distributed storage where you expose the abstraction of your hard drive over the network, mainly SATA over ethernet, thinking to SCSI, FiberChannel, and so on
+
+### Questions à résoudre
+
+
+ 1. est-ce que cassandra support de mettre certaines tables sur un SSD et d'autres sur un disque rotatif ?
+ 2. est-ce que cassandra/scylladb a un format de table on disk qui ne s'écroule pas complètement losque tu as des gros blobs ? (les devs de sqlite ont écrit tout un article pour dire que même avec leur lib qui est quand même sacrément optimisés, ils considèrent qu'à partir de je crois 4ko c'est plus efficace de mettre les blobs dans des fichiers séparés) - https://www.sqlite.org/intern-v-extern-blob.html
+ 3. Quelle taille de blocs ? L'idée c'est qu'on a quand même des liens en WAN avec des débits pas forcéments incroyables. Et ça serait bien que le temps de répliquer un bloc soit de l'ordre de la seconde maxi. En cas de retry, pour pouvoir mieux monitorer la progression, etc. Exoscale utilise 16Mo. LX propose 1Mo.
+
+
+
+
+
+#### Modules
+
+- `membership/`: configuration, membership management (gossip of node's presence and status), ring generation --> what about Serf (used by Consul/Nomad) : https://www.serf.io/? Seems a huge library with many features so maybe overkill/hard to integrate
+- `metadata/`: metadata management
+- `blocks/`: block management, writing, GC and rebalancing
+- `internal/`: server to server communication (HTTP server and client that reuses connections, TLS if we want, etc)
+- `api/`: S3 API
+- `web/`: web management interface
+
+
+#### Metadata tables
+
+**Objects:**
+
+- *Hash key:* Bucket name (string)
+- *Sort key:* Object key (string)
+- *Sort key:* Version timestamp (int)
+- *Sort key:* Version UUID (string)
+- Complete: bool
+- Inline: bool, true for objects < threshold (say 1024)
+- Object size (int)
+- Mime type (string)
+- Data for inlined objects (blob)
+- Hash of first block otherwise (string)
+
+*Having only a hash key on the bucket name will lead to storing all file entries of this table for a specific bucket on a single node. At the same time, it is the only way I see to rapidly being able to list all bucket entries...*
+
+**Blocks:**
+
+- *Hash key:* Version UUID (string)
+- *Sort key:* Offset of block in total file (int)
+- Hash of data block (string)
+
+A version is defined by the existence of at least one entry in the blocks table for a certain version UUID.
+We must keep the following invariant: if a version exists in the blocks table, it has to be referenced in the objects table.
+We explicitly manage concurrent versions of an object: the version timestamp and version UUID columns are index columns, thus we may have several concurrent versions of an object.
+Important: before deleting an older version from the objects table, we must make sure that we did a successfull delete of the blocks of that version from the blocks table.
+
+Thus, the workflow for reading an object is as follows:
+
+1. Check permissions (LDAP)
+2. Read entry in object table. If data is inline, we have its data, stop here.
+ -> if several versions, take newest one and launch deletion of old ones in background
+3. Read first block from cluster. If size <= 1 block, stop here.
+4. Simultaneously with previous step, if size > 1 block: query the Blocks table for the IDs of the next blocks
+5. Read subsequent blocks from cluster
+
+Workflow for PUT:
+
+1. Check write permission (LDAP)
+2. Select a new version UUID
+3. Write a preliminary entry for the new version in the objects table with complete = false
+4. Send blocks to cluster and write entries in the blocks table
+5. Update the version with complete = true and all of the accurate information (size, etc)
+6. Return success to the user
+7. Launch a background job to check and delete older versions
+
+
+Workflow for DELETE:
+
+1. Check write permission (LDAP)
+2. Get current version (or versions) in object table
+3. Do the deletion of those versions NOT IN A BACKGROUND JOB THIS TIME
+4. Return succes to the user if we were able to delete blocks from the blocks table and entries from the object table
+
+To delete a version:
+
+1. List the blocks from Cassandra
+2. For each block, delete it from cluster. Don't care if some deletions fail, we can do GC.
+3. Delete all of the blocks from the blocks table
+4. Finally, delete the version from the objects table
+
+
+Known issue: if someone is reading from a version that we want to delete and the object is big, the read might be interrupted. I think it is ok to leave it like this, we just cut the connection if data disappears during a read.
+
+("Soit P un problème, on s'en fout est une solution à ce problème")
+
+
+#### Block storage on disk
+
+**Blocks themselves:**
+
+- file path = /blobs/(first 3 hex digits of hash)/(rest of hash)
+
+**Reverse index for GC & other block-level metadata:**
+
+- file path = /meta/(first 3 hex digits of hash)/(rest of hash)
+- map block hash -> set of version UUIDs where it is referenced
+
+Usefull metadata:
+
+- list of versions that reference this block in the Casandra table, so that we can do GC by checking in Cassandra that the lines still exist
+- list of other nodes that we know have acknowledged a write of this block, usefull in the rebalancing algorithm
+
+Write strategy: have a single thread that does all write IO so that it is serialized (or have several threads that manage independent parts of the hash space). When writing a blob, write it to a temporary file, close, then rename so that a concurrent read gets a consistent result (either not found or found with whole content).
+
+Read strategy: the only read operation is get(hash) that returns either the data or not found (can do a corruption check as well and return corrupted state if it is the case). Can be done concurrently with writes.
+
+**Internal API:**
+
+- get(block hash) -> ok+data/not found/corrupted
+- put(block hash & data, version uuid + offset) -> ok/error
+- put with no data(block hash, version uuid + offset) -> ok/not found plz send data/error
+- delete(block hash, version uuid + offset) -> ok/error
+
+GC: when last ref is deleted, delete block.
+Long GC procedure: check in Cassandra that version UUIDs still exist and references this block.
+
+Rebalancing: takes as argument the list of newly added nodes.
+
+- List all blocks that we have. For each block:
+- If it hits a newly introduced node, send it to them.
+ Use put with no data first to check if it has to be sent to them already or not.
+ Use a random listing order to avoid race conditions (they do no harm but we might have two nodes sending the same thing at the same time thus wasting time).
+- If it doesn't hit us anymore, delete it and its reference list.
+
+Only one balancing can be running at a same time. It can be restarted at the beginning with new parameters.
+
+
+#### Membership management
+
+Two sets of nodes:
+
+- set of nodes from which a ping was recently received, with status: number of stored blocks, request counters, error counters, GC%, rebalancing%
+ (eviction from this set after say 30 seconds without ping)
+- set of nodes that are part of the system, explicitly modified by the operator using the web UI (persisted to disk),
+ is a CRDT using a version number for the value of the whole set
+
+Thus, three states for nodes:
+
+- healthy: in both sets
+- missing: not pingable but part of desired cluster
+- unused/draining: currently present but not part of the desired cluster, empty = if contains nothing, draining = if still contains some blocks
+
+Membership messages between nodes:
+
+- ping with current state + hash of current membership info -> reply with same info
+- send&get back membership info (the ids of nodes that are in the two sets): used when no local membership change in a long time and membership info hash discrepancy detected with first message (passive membership fixing with full CRDT gossip)
+- inform of newly pingable node(s) -> no result, when receive new info repeat to all (reliable broadcast)
+- inform of operator membership change -> no result, when receive new info repeat to all (reliable broadcast)
+
+Ring: generated from the desired set of nodes, however when doing read/writes on the ring, skip nodes that are known to be not pingable.
+The tokens are generated in a deterministic fashion from node IDs (hash of node id + token number from 1 to K).
+Number K of tokens per node: decided by the operator & stored in the operator's list of nodes CRDT. Default value proposal: with node status information also broadcast disk total size and free space, and propose a default number of tokens equal to 80%Free space / 10Gb. (this is all user interface)
+
+
+#### Constants
+
+- Block size: around 1MB ? --> Exoscale use 16MB chunks
+- Number of tokens in the hash ring: one every 10Gb of allocated storage
+- Threshold for storing data directly in Cassandra objects table: 1kb bytes (maybe up to 4kb?)
+- Ping timeout (time after which a node is registered as unresponsive/missing): 30 seconds
+- Ping interval: 10 seconds
+- ??
+
+
+#### Links
+
+ - CDC: <https://www.usenix.org/system/files/conference/atc16/atc16-paper-xia.pdf>
+ - Erasure coding: <http://web.eecs.utk.edu/~jplank/plank/papers/CS-08-627.html>
+ - [Openstack Storage Concepts](https://docs.openstack.org/arch-design/design-storage/design-storage-concepts.html)
+ - [RADOS](https://ceph.com/wp-content/uploads/2016/08/weil-rados-pdsw07.pdf)
+
diff --git a/src/Technique/Développement/Guichet.md b/src/Technique/Développement/Guichet.md
new file mode 100644
index 0000000..3e67c44
--- /dev/null
+++ b/src/Technique/Développement/Guichet.md
@@ -0,0 +1 @@
+Le code est ici : https://git.deuxfleurs.fr/Deuxfleurs/guichet
diff --git a/src/Technique/Infra/Internet.md b/src/Technique/Infra/Internet.md
new file mode 100644
index 0000000..b7ba6b4
--- /dev/null
+++ b/src/Technique/Infra/Internet.md
@@ -0,0 +1,5 @@
+## Problèmes de connexion
+
+Actuellement les serveurs sont hébergés derrière une connexion Free qui a des problèmes en soirée.
+
+Plus d'informations ici : https://www.aduf.org/viewtopic.php?t=286599&start=0
diff --git a/src/Technique/Operations/Assets/exemple_offre.txt b/src/Technique/Operations/Assets/exemple_offre.txt
new file mode 100644
index 0000000..3af76ec
--- /dev/null
+++ b/src/Technique/Operations/Assets/exemple_offre.txt
@@ -0,0 +1,118 @@
+type: offer, sdp: v=0
+o=- 1923518516 2 IN IP4 127.0.0.1
+s=-
+t=0 0
+a=msid-semantic: WMS 48d3ae09-99f6-4a73-bad1-1b0963eaf3cc-1
+a=group:BUNDLE audio video data
+m=audio 10000 RTP/SAVPF 111 103 104 126
+c=IN IP4 82.253.205.190
+a=rtpmap:111 opus/48000/2
+a=rtpmap:103 ISAC/16000
+a=rtpmap:104 ISAC/32000
+a=rtpmap:126 telephone-event/8000
+a=fmtp:111 minptime=10;useinbandfec=1
+a=rtcp:9 IN IP4 0.0.0.0
+a=rtcp-fb:111 transport-cc
+a=extmap:1 urn:ietf:params:rtp-hdrext:ssrc-audio-level
+a=extmap:5 http://www.ietf.org/id/draft-holmer-rmcat-transport-wide-cc-extensions-01
+a=setup:actpass
+a=mid:audio
+a=sendrecv
+a=ice-ufrag:97nc61e52b11gu
+a=ice-pwd:k2df7f8vgknj27sctj550cl2u
+a=fingerprint:sha-1 FC:4F:0B:F5:34:07:D8:09:47:D2:3C:FE:D1:8E:05:4B:05:10:CD:A1
+a=candidate:1 1 ssltcp 2130706431 172.17.0.1 8080 typ host generation 0
+a=candidate:2 1 ssltcp 2130706431 192.168.1.4 8080 typ host generation 0
+a=candidate:4 1 udp 2113932031 172.17.0.1 10000 typ host generation 0
+a=candidate:5 1 udp 2113932031 192.168.1.4 10000 typ host generation 0
+a=candidate:3 1 ssltcp 1677724415 82.253.205.190 8080 typ srflx raddr 192.168.1.4 rport 8080 generation 0
+a=candidate:6 1 udp 1677724415 82.253.205.190 10000 typ srflx raddr 192.168.1.4 rport 10000 generation 0
+a=ssrc:3265394670 cname:mixed
+a=ssrc:3265394670 msid:mixedmslabel mixedlabelaudio0
+a=ssrc:3265394670 mslabel:mixedmslabel
+a=ssrc:3265394670 label:mixedlabelaudio0
+a=ssrc:3761143749 cname:sMYSy0kNyRU3eK0c-1
+a=ssrc:3761143749 msid:48d3ae09-99f6-4a73-bad1-1b0963eaf3cc-1 8a034425-b6b5-4928-ab5f-9ca0ec4168c4-1
+a=ssrc:3761143749 mslabel:48d3ae09-99f6-4a73-bad1-1b0963eaf3cc-1
+a=ssrc:3761143749 label:8a034425-b6b5-4928-ab5f-9ca0ec4168c4-1
+a=ssrc:3240916804 cname:75Ayhq4Cuv7k5JAP-1
+a=ssrc:3240916804 msid:27755a82-e9e7-4cc4-bdb3-354a06b3f32a-1 45de0b7f-8590-4232-9bde-77d55a7366b5-1
+a=rtcp-mux
+m=video 10000 RTP/SAVPF 100 107 101 96 97 99
+c=IN IP4 82.253.205.190
+a=rtpmap:100 VP8/90000
+a=rtpmap:107 H264/90000
+a=rtpmap:101 VP9/90000
+a=rtpmap:96 rtx/90000
+a=rtpmap:97 rtx/90000
+a=rtpmap:99 rtx/90000
+a=fmtp:100 x-google-start-bitrate=800
+a=fmtp:107 level-asymmetry-allowed=1;packetization-mode=1;profile-level-id=42e01f;x-google-start-bitrate=800
+a=fmtp:101 x-google-start-bitrate=800
+a=fmtp:96 apt=100
+a=fmtp:97 apt=101
+a=fmtp:99 apt=107
+a=rtcp:9 IN IP4 0.0.0.0
+a=rtcp-fb:100 ccm fir
+a=rtcp-fb:100 nack
+a=rtcp-fb:100 nack pli
+a=rtcp-fb:100 transport-cc
+a=rtcp-fb:107 ccm fir
+a=rtcp-fb:107 nack
+a=rtcp-fb:107 nack pli
+a=rtcp-fb:107 transport-cc
+a=rtcp-fb:101 ccm fir
+a=rtcp-fb:101 nack
+a=rtcp-fb:101 nack pli
+a=rtcp-fb:101 transport-cc
+a=rtcp-fb:96 ccm fir
+a=rtcp-fb:96 nack
+a=rtcp-fb:96 nack pli
+a=extmap:3 http://www.webrtc.org/experiments/rtp-hdrext/abs-send-time
+a=extmap:5 http://www.ietf.org/id/draft-holmer-rmcat-transport-wide-cc-extensions-01
+a=setup:actpass
+a=mid:video
+a=sendrecv
+a=ice-ufrag:97nc61e52b11gu
+a=ice-pwd:k2df7f8vgknj27sctj550cl2u
+a=fingerprint:sha-1 FC:4F:0B:F5:34:07:D8:09:47:D2:3C:FE:D1:8E:05:4B:05:10:CD:A1
+a=candidate:1 1 ssltcp 2130706431 172.17.0.1 8080 typ host generation 0
+a=candidate:2 1 ssltcp 2130706431 192.168.1.4 8080 typ host generation 0
+a=candidate:4 1 udp 2113932031 172.17.0.1 10000 typ host generation 0
+a=candidate:5 1 udp 2113932031 192.168.1.4 10000 typ host generation 0
+a=candidate:3 1 ssltcp 1677724415 82.253.205.190 8080 typ srflx raddr 192.168.1.4 rport 8080 generation 0
+a=candidate:6 1 udp 1677724415 82.253.205.190 10000 typ srflx raddr 192.168.1.4 rport 10000 generation 0
+a=ssrc:3339205972 cname:75Ayhq4Cuv7k5JAP-1
+a=ssrc:3339205972 msid:27755a82-e9e7-4cc4-bdb3-354a06b3f32a-1 4de277cb-7421-402a-bbb1-2090dab4540e-1
+a=ssrc:3560865865 cname:sMYSy0kNyRU3eK0c-1
+a=ssrc:3560865865 msid:48d3ae09-99f6-4a73-bad1-1b0963eaf3cc-1 21a02fe8-c9f4-49fe-aaef-4c4ad48a3516-1
+a=ssrc:3560865865 mslabel:48d3ae09-99f6-4a73-bad1-1b0963eaf3cc-1
+a=ssrc:3560865865 label:21a02fe8-c9f4-49fe-aaef-4c4ad48a3516-1
+a=ssrc:1942865873 cname:mixed
+a=ssrc:1942865873 msid:mixedmslabel mixedlabelvideo0
+a=ssrc:1942865873 mslabel:mixedmslabel
+a=ssrc:1942865873 label:mixedlabelvideo0
+a=ssrc:3656552182 cname:sMYSy0kNyRU3eK0c-1
+a=ssrc:3656552182 msid:48d3ae09-99f6-4a73-bad1-1b0963eaf3cc-1 21a02fe8-c9f4-49fe-aaef-4c4ad48a3516-1
+a=ssrc:3656552182 mslabel:48d3ae09-99f6-4a73-bad1-1b0963eaf3cc-1
+a=ssrc:3656552182 label:21a02fe8-c9f4-49fe-aaef-4c4ad48a3516-1
+a=ssrc:4136660991 cname:75Ayhq4Cuv7k5JAP-1
+a=ssrc:4136660991 msid:27755a82-e9e7-4cc4-bdb3-354a06b3f32a-1 4de277cb-7421-402a-bbb1-2090dab4540e-1
+a=ssrc-group:FID 3560865865 3656552182
+a=ssrc-group:FID 3339205972 4136660991
+a=rtcp-mux
+a=x-google-flag:conference
+m=application 10000 DTLS/SCTP 5000
+c=IN IP4 82.253.205.190
+a=setup:actpass
+a=mid:data
+a=ice-ufrag:97nc61e52b11gu
+a=ice-pwd:k2df7f8vgknj27sctj550cl2u
+a=fingerprint:sha-1 FC:4F:0B:F5:34:07:D8:09:47:D2:3C:FE:D1:8E:05:4B:05:10:CD:A1
+a=candidate:1 1 ssltcp 2130706431 172.17.0.1 8080 typ host generation 0
+a=candidate:2 1 ssltcp 2130706431 192.168.1.4 8080 typ host generation 0
+a=candidate:4 1 udp 2113932031 172.17.0.1 10000 typ host generation 0
+a=candidate:5 1 udp 2113932031 192.168.1.4 10000 typ host generation 0
+a=candidate:3 1 ssltcp 1677724415 82.253.205.190 8080 typ srflx raddr 192.168.1.4 rport 8080 generation 0
+a=candidate:6 1 udp 1677724415 82.253.205.190 10000 typ srflx raddr 192.168.1.4 rport 10000 generation 0
+a=sctpmap:5000 webrtc-datachannel 1024
diff --git a/src/Technique/Operations/Assets/livebox_parefeu_personnalise.png b/src/Technique/Operations/Assets/livebox_parefeu_personnalise.png
new file mode 100644
index 0000000..16c922a
--- /dev/null
+++ b/src/Technique/Operations/Assets/livebox_parefeu_personnalise.png
Binary files differ
diff --git a/src/Technique/Operations/Jitsi.md b/src/Technique/Operations/Jitsi.md
new file mode 100644
index 0000000..8e87d8f
--- /dev/null
+++ b/src/Technique/Operations/Jitsi.md
@@ -0,0 +1,94 @@
+## 2020-04-02 Campagne de debug Jitsi
+
+Contact: Quentin
+
+### Description du problème
+
+Les conversations à 3+ donc relayées par le serveur ne fonctionnent pas bien.
+Louison m'a rapporté que ça avait marché pour lui (3 utilisateurs avec un Webkit).
+Mais moi ça a échoué hier soir (01/04/2020) avec des participants sous Firefox.
+Le bug est toujours le même : on entend 2 personnes sur 3 ou on voit 2 personnes sur 3, on recharge la page et c'est quelqu'un d'autre pour qui ça ne fonctionne plus. Souvent c'est que dans un sens.
+À chaque fois en passant sur Facebook Messenger, le problème est résolu instantanément.
+Par contre Facebook Messenger impose Google Chrome/Chromium pour les visio de groupe (et ne supporte donc pas Firefox).
+
+D'où mes 2 suspicions :
+
+ - Firefox a un bug quelconque dans sa pile WebRTC déclenché par le mode conversation de groupe
+ - Jitsi a un problème avec les déconnexions/changement de connexion/petit hoquets du réseau et n'arrive pas à se reconnecter. Ça pourrait être rendu pire à certain moment de la journée comme le soir où le réseau est plus sollicité. Et ce serait provoqué lors du reload on repasse de 3 à 2, en P2P donc puis de nouveau de 2 à 3.
+
+### Approfondissement
+
+Avant d'aller plus loin, nous avons voulu prendre le temps d'identifier précisément les problèmes d'expérience utilisateurs et leur corrélation avec la plateforme de l'utilisateur (navigateur, OS).
+
+Pour celà, nous avons suivi deux approches :
+ 1. Mener nos propres tests
+ 2. Chercher d'autres retours
+
+#### Mener nos propres tests
+
+Nous avons effectué deux appels : un avec Firefox seulement et un avec Chrome/Chromium seulement.
+Merci à Alex, Adrien et Maximilien pour leur participation.
+
+Voilà les conclusions que nous avons tirées de nos tests :
+
+ - L'appel avec Firefox a déclenché le bug immédiatement, peu importe la version de Firefox ou de l'OS (firefox stable/nightly, fedora stable/beta, etc.)
+ - Le passage de tout le monde sous Chrome/Chromium a permis d'avoir une conversation stable.
+ - Adrien avait sa Livebox avec pare-feu configuré en mode "élevé" et a du ajouter dans sa liste blanche les ports utilisés par Jitsi (`4443/tcp` et `10000/udp` au moment du test, seul un des deux a besoin d'être accessible)
+
+Nous avons donc demandé à Adrien quels étaient les ports ouverts par défaut dans le mode élevé de sa box :
+
+![Livebox Parefeu Personnalisé](Assets/livebox_parefeu_personnalise.png)
+
+Nous avons dans un premier temps retenu le port `995/tcp` pour Jitsi, le port UDP ne pouvant être changé (limitation de Jitsi).
+Cependant, pour des raisons de sécurité, les navigateurs ne peuvent pas utiliser les ports en dessous de `1024/*`, à l'exception des ports `80/tcp` et `443/tcp` comme l'indique ;'issue [#3583](https://bugs.chromium.org/p/webrtc/issues/detail?id=3583) de Chromium.
+
+La capture n'indique pas de port TCP supérieur à 1024, nous ne pouvons donc pas résoudre ce problème de notre côté, car à l'heure actuelle, nos ports `80/tcp` et `443/tcp` sont utilisés et nous n'avons qu'une seule IP publique.
+Les utilisateurs activant le parefeu en mode élevé devront ajouter une exception dans leur parefeu eux-mêmes.
+
+#### Chercher d'autres retours
+
+[Tedomum](https://tedomum.net/) a eu connaissance de problèmes similaires.
+Ils ont également identifié Firefox et assurent qu'avec l'application Android ça marche bien.
+Ils me confirment que le problème vient bien du logiciel et non pas de notre déploiement.
+Ils m'ont pointé entre autre vers cette issue github [#4758](https://github.com/jitsi/jitsi-meet/issues/4758)
+Apparemment une issue est dédiée en particulier au problème que nous rencontrons de déconnexion partielle d'un participant, mais nous ne l'avons pas encore retrouvée.
+
+### Correctifs
+
+ 1. Notre instance Jitsi a été reconfigurée pour refuser Firefox. Suivre l'avancée du développement de Jitsi pour Firefox
+ * [#4758](https://github.com/jitsi/jitsi-meet/issues/4758)
+ * [#5439](https://github.com/jitsi/jitsi-meet/issues/5439)
+ * _À compléter_
+ 2. Pour relayer la vidéo à travers la plupart des parefeux, notre `videobridge` Jitsi devait écouter sur le port `443/tcp`. Hors, ce port est déjà utilisé par notre frontal HTTPS. À défaut, Jitsi est maintenant configuré avec `8080/tcp` et `10000/udp` (contre `4443/tcp` et `10000/udp` avant).
+ * Un déploiement en IPv6 pourrait résoudre le problème pour une partie des utilisateurs
+ * Avoir un cluster géo-distribué avec plusieurs IPv4 pourrait également résoudre le problème
+ * Avoir un frontend layer 4 (niveau TCP) qui trouve une signature pour router du DTLS vers videobridge et du TLS vers traefik
+
+### À propos du control/data plane de Jitsi
+
+Notre videobridge écoute donc sur les ports `8080/tcp` et `10000/udp`.
+
+WebRTC fonctionne en deux étapes :
+ - Des offres doivent être échangées via un serveur de signaling quelconque
+ - Ensuite, ces offres servent à connecter des clients directement via un protocole TCP ou UDP avec un thin layer propre à WebRTC
+
+#### Le control plane de Jitsi : Prosody sur HTTPS via Bosh/XMPP
+
+Le serveur de signaling Jitsi n'est autre que le serveur de chat prosody.
+Pour ça, prosody est exposé à travers HTTP grâce au protocole BOSH (XMPP overs HTTPS).
+Une fois l'offre reçue ([exemple](Assets/exemple_offre.txt)), elle est enregistrée dans le navigateur à l'aide de `setRemoteDescription` pour initialiser le data plane.
+On peut débugger le signaling WebRTC sous Chromium avec [chrome://webrtc-internarls](chrome://webrtc-internals/).
+
+Quand plus de deux participants sont connectés dans la conversation, Jitsi n'envoie pas les offres de chaque participant aux autres participants. À la place, elle envoie qu'une seule offre, celle de son VideoBridge.
+
+Ainsi, le VideoBridge est une sorte de client WebRTC particulier, qui récolte et redispatche à travers WebRTC tous les flux video/audio.
+
+#### Le data plane de Jitsi : videobridge sur DTLS/SCTP via WebRTC
+
+WebRTC utilise deux formats de paquets selon [Mozilla Developer Network|RTCDataChannel|DataFormat](https://developer.mozilla.org/en-US/docs/Web/API/RTCDataChannel#Data_format) :
+ - `UDP/DTLS/SCTP`
+ - `TCP/DTLS/SCTP`
+
+On a donc un format de données arbitraire encapsulé dans du SCTP lui même encapsulé dans du DTLS.
+DTLS est prévu pour les datagrammes à l'origine, car WebRTC est prévu d'abord pour fonctionner sous UDP.
+Le TCP est là en mode dégradé, en secours, il sert juste de tunnel pour relayer des datagrammes.
diff --git a/src/Technique/index.md b/src/Technique/index.md
new file mode 100644
index 0000000..8aea90f
--- /dev/null
+++ b/src/Technique/index.md
@@ -0,0 +1,22 @@
+Deuxfleurs utilise les composants suivants dans son infrastructure:
+
+- Ansible (configuration des noeuds)
+- Docker (conteneurs)
+- Nomad (orchestration des conteneurs)
+- Consul (stockage clef/valeur distribué, découverte de services)
+- Glusterfs (système de fichiers distribué)
+- Stolon (système de réplication pour PostgreSQL)
+
+Les services proposés sont les suivants:
+
+- Chat via Matrix (Synapse, Riot)
+- Email (Postfix, Dovecot, SoGo)
+- Stockage (Seafile)
+
+Par ailleurs, nous avons développés nous-même un certain nombre d'outils pour compléter la stack:
+
+- [Bottin](https://bottin.eu), un serveur LDAP (gestion des comptes utilisateurs) basé sur le stockage clef/valeur de Consul
+- [Guichet](https://git.deuxfleurs.fr/Deuxfleurs/Guichet/), une interface web de gestion des utilisateurs
+- [Easybridge](https://git.deuxfleurs.fr/lx/Easybridge/), un bridge entre Matrix et d'autres réseaux
+
+Le code de l'infrastructure [est publiquement disponible](https://git.deuxfleurs.fr/Deuxfleurs/deuxfleurs.fr/).