Accueil > Les groupes de travail > Groupe de travail CEPH > Actualités Ceph
Actualités Ceph
retrouvez l’actualité concernant le projet Ceph, les infos des "releases" et des articles
Projet Ceph
Ceph Reef v18.2.0 du 07/08/2023
– le Cache tiering est déprécié.
– Le mode « read balancer » est désormais disponible ce qui permet d’équilibrer les PG principaux par pool sur leurs clusters Ceph
– Le repartitionnement des "Buckets" est désormais pris en charge pour les configurations multisites sous RGW
– Les RGW supportent la compression des objets RGW avec le chiffrement côté serveur.
– Le stockage RBD supporte la prise en charge du chiffrement en couches côté client.
Ceph Quicy v17.2.0 du 19/04/2022
– Filestore a été déprécié. BlueStore est le backend par défaut de Ceph.
– Dashboard : NFS : Permet des gérer les exports NFS
– Dashboard : le nouvel "Assistant d’expansion de cluster" guidera les utilisateurs dans les étapes de post-installation avec l’ajout de nouveaux hôtes, périphériques de stockage ou services.
– Cephadm : osd_memory_target_autotune est activé par défaut, ce qui fixe mgr/cephadm/autotune_memory_target_ratio à 0,7 de la RAM totale. Ceci est inadapté aux infrastructures hyperconvergées. Pour Ceph hyperconvergé, veuillez vous référer à la documentation ou définir mgr/cephadm/autotune_memory_target_ratio à 0.2.
Ceph Pacific v16.2.0 du 01/04/2021
– Cephadm peux migrer de la version Octopus vers Pacific avec une simple commande
– Configuration automatique du HA pour RGW avec haproxy et keepalived
– Introduction du RocksDB sharding
– Multiple CephFS par défaut
– cephfs-mirror pour mettre en miroir un CephFS sur un cluster Ceph distant.
– prochaine version Quincy 03/2022
Ceph Octopus v15.2.0 du 23/03/2020
cephadm new deployment tool, Container image (based on CentOS 8)
Ceph Nautilus v14.2.0 du 19/03/2019
Placement-group decreasing, v2 wire protocol, RBD image live-migration between pools, RBD image namespaces for fine-granular access rights
Ceph Mimic v13-2-0 du 01/06/2018
CephFS snapshots with multiple MDS servers, RBD image deep-copy
Présentations et événements
Respire : après-midi CEPH le 14/12/2023 par Respire
Stockage performant VAST Data et Ceph le 23/11/2023 par ARGOS
Cephalocon 2023 le 16 au 18/04/2023 par Ceph
What’s New in Pacific Ceph Release
Sage Weil le 25/02/2021
Formation Stockage S3 avec CEPH
Le groupe X/Stra à organisé cette formation le 16 et 17/02/2021 avec le soutien financier du bureau de formation continue de l’Université de Strasbourg
Formation Mise en oeuvre d’une solution de stockage distribué avec CEPH
Du 15 au 17 septembre 2020 DR10 du CNRS formateur Sébastien Geiger
Matinée stockage S3
Frédérique Ostré, Alain Sartout, Jean-luc Evrard, Sébastien Geiger le 05/11/2020 par X/Stra
CEPH Octopus Améliorations et nouvelles fonctionnalités
Sébastien Geiger France-grilles 2020
Une infrastructure mutualisée et recyclée avec Ceph
Bruno Buisson & Philippe Saby JRES 2017
Stockage des données volumineuses de la recherche à l’université de Lorraine
Stéphane Dugravot & Frédéric Nass JRES 2017
CEPH Retour d’expériences (3 ans, et après ?)
Yann Dupont JRES 2016
Système de stockage Ceph pour une infrastructure de virtualisation à haute disponibilité
Hervé Ballans Journées Mathrice 2015
Retour d’expérience avec CEPH
Yann Dupont JRES 2013
Post-scriptum : un lien n’est plus actif, ou vous désirez ajouter un lien, contactez le comité de pilotage