<?xml
version="1.0" encoding="utf-8"?>
<rss version="2.0" 
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:atom="http://www.w3.org/2005/Atom"
>

<channel xml:lang="fr">
	<title>L'Imp'Rock Sc&#233;nette (by @_daffyduke_)</title>
	<link>https://www.coincoin.fr.eu.org/</link>
	<description>Les billets personnels d'Olivier Duquesne plus connu sur la toile &#233;lectronique sous le pseudonyme de DaffyDuke ...
Je pouet de temps en temps sur Mastodon</description>
	<language>fr</language>
	<generator>SPIP - www.spip.net</generator>
	<atom:link href="https://www.coincoin.fr.eu.org/spip.php?id_rubrique=2&amp;page=backend" rel="self" type="application/rss+xml" />

	<image>
		<title>L'Imp'Rock Sc&#233;nette (by @_daffyduke_)</title>
		<url>https://www.coincoin.fr.eu.org/local/cache-vignettes/L144xH97/siteon0-5c625.png?1719642190</url>
		<link>https://www.coincoin.fr.eu.org/</link>
		<height>97</height>
		<width>144</width>
	</image>



<item xml:lang="fr">
		<title>Notes Meetup Docker - chez GFI</title>
		<link>https://www.coincoin.fr.eu.org/?Notes-Meetup-Docker-chez-GFI</link>
		<guid isPermaLink="true">https://www.coincoin.fr.eu.org/?Notes-Meetup-Docker-chez-GFI</guid>
		<dc:date>2017-02-23T18:29:00Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>


		<dc:subject>linux</dc:subject>
		<dc:subject>virtualisation</dc:subject>

		<description>
&lt;p&gt;VSCT &lt;br class='autobr' /&gt;
2015 openstack en r&#233;action &#224; aws 2016 docker + MEP openstack mutation socit&#233; &#233; DEVOPS cr&#233;ation d'une plateforme VSCloud, build fast &amp; chip Environ 10 applis en prod docker (essentiellement applis internes) ou le site de recrutement openstack par hp (helion) (avec un debut brique &#224; brique pour exp&#233;rimenter ) git puppet consul jenkins consul-hproxy swarm register jira &lt;br class='autobr' /&gt;
tenant + swarm + catalogue d'image docker tomcat, mysql, .... avec consul / nginx / ... jenkins en mode pipeline (&#8230;)&lt;/p&gt;


-
&lt;a href="https://www.coincoin.fr.eu.org/?-Au-boulot-" rel="directory"&gt;Au boulot&lt;/a&gt;

/ 
&lt;a href="https://www.coincoin.fr.eu.org/?+-linux-+" rel="tag"&gt;linux&lt;/a&gt;, 
&lt;a href="https://www.coincoin.fr.eu.org/?+-virtualisation-+" rel="tag"&gt;virtualisation&lt;/a&gt;

		</description>


 <content:encoded>&lt;div class='rss_texte'&gt;&lt;h2 class=&#034;spip&#034;&gt;VSCT&lt;/h2&gt;
&lt;p&gt;2015 openstack en r&#233;action &#224; aws&lt;br class='autobr' /&gt;
2016 docker + MEP openstack&lt;br class='autobr' /&gt;
mutation socit&#233; &#233; DEVOPS&lt;br class='autobr' /&gt;
cr&#233;ation d'une plateforme VSCloud, build fast &amp; chip&lt;br class='autobr' /&gt;
Environ 10 applis en prod docker (essentiellement applis internes) ou le site&lt;br class='autobr' /&gt;
de recrutement&lt;br class='autobr' /&gt;
openstack par hp (helion)&lt;br class='autobr' /&gt;
(avec un debut brique &#224; brique pour exp&#233;rimenter )&lt;br class='autobr' /&gt;
git puppet consul jenkins consul-hproxy swarm register jira&lt;/p&gt;
&lt;p&gt;tenant + swarm + catalogue d'image docker tomcat, mysql, ....&lt;br class='autobr' /&gt;
avec consul / nginx / ...&lt;br class='autobr' /&gt;
jenkins en mode pipeline pour le dploiement des conteneurs&lt;/p&gt;
&lt;p&gt;puis l'equipe de prod deploie en prod&lt;br class='autobr' /&gt;
dans le m&#234;me tenant (2 swarm + 1 VM bastion)&lt;/p&gt;
&lt;p&gt;c'est jenkins qui ordonnance les install' avec u go humain pour la prod&lt;/p&gt;
&lt;p&gt;puppet cr&#233;e le tenant pour donner &#224; manger &#224; heat&lt;br class='autobr' /&gt;
(avant rundeck + heat)&lt;br class='autobr' /&gt;
fail fast sur consul (pas encore de bdd &#224; rollbacker)&lt;br class='autobr' /&gt;
flocker pour le backup de base en cron&lt;br class='autobr' /&gt;
sur des SLA nuls :-)&lt;/p&gt;
&lt;p&gt;vision &#224; 2 ans pour la scalabilit&#233;&lt;/p&gt;
&lt;p&gt;planif de MEP encore&lt;/p&gt;
&lt;p&gt;garantie de la prod : prod ou dev ? c'est le dev qui a la main sur le contenu&lt;br class='autobr' /&gt;
pas la prod &#034;comme avant&#034;&lt;br class='autobr' /&gt;
besoin de changement d'organisation&lt;/p&gt;
&lt;p&gt;autre solution kafka-manager&lt;/p&gt;
&lt;p&gt;recrutement vsct com&lt;/p&gt;
&lt;p&gt;openstack = 1 IP entrante&lt;/p&gt;
&lt;p&gt;supervision cetreon mais pas simple sur docker ....&lt;/p&gt;
&lt;h2 class=&#034;spip&#034;&gt;ADEO&lt;/h2&gt;
&lt;p&gt;rancher&lt;br class='autobr' /&gt;
pas de maturite en prod, c'est le dev qui pousse&lt;/p&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>
<item xml:lang="fr">
		<title>Notes Configuration Management Camp 2017</title>
		<link>https://www.coincoin.fr.eu.org/?Notes-Configuration-Management</link>
		<guid isPermaLink="true">https://www.coincoin.fr.eu.org/?Notes-Configuration-Management</guid>
		<dc:date>2017-02-07T18:27:00Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>



		<description>
&lt;p&gt;650 personnes Ondrej Prazak pour foreman Ansible devant puppet en 2017 &lt;br class='autobr' /&gt;
Is a solved problem ? I'm sorry from the States @lusis Disait en 2011 is a solved problem with a panel service matters, not servers for what : package, daemons, files, templates, users now, everithyng else as orchestration, lifecycle, mgmt, secrets (Vault, HSM) &lt;br class='autobr' /&gt;
we miss active enforcement comprendre les modifs entre deux run de CM use dbu, inotify, kbus, .... =&gt; un hook kernel pour le cfgmgmt ? un nouvel init ? id&#233;e : (&#8230;)&lt;/p&gt;


-
&lt;a href="https://www.coincoin.fr.eu.org/?-Au-boulot-" rel="directory"&gt;Au boulot&lt;/a&gt;


		</description>


 <content:encoded>&lt;div class='rss_texte'&gt;&lt;textarea readonly='readonly' cols='40' rows='219' class='spip_cadre spip_cadre_block' dir='ltr'&gt;650 personnes Ondrej Prazak pour foreman Ansible devant puppet en 2017 Is a solved problem ? I'm sorry from the States @lusis Disait en 2011 is a solved problem with a panel service matters, not servers for what : package, daemons, files, templates, users now, everithyng else as orchestration, lifecycle, mgmt, secrets (Vault, HSM) we miss active enforcement comprendre les modifs entre deux run de CM use dbu, inotify, kbus, .... =&gt; un hook kernel pour le cfgmgmt ? un nouvel init ? id&#233;e : distributed CM (p2p) ex : whet happened when master go down Habitat is sort of peer ring between nodes Voir Ubuntu snappy (eq docker ?) le nouveau format de package &#034;universel&#034; https://www.ubuntu.com/desktop/snappy q? puppet inside container or deploy wontainer with puppet ? Self-Assembling, Self-Healing Architecture in AWS (hashicorp) James from hachicorp @jen20 ami en zfs root + snapshot inline dans le maifest packer approch sans provi terraform/packer demo : main.tf terraform plan, let's go permet de reprendre les modif &#224; la main forme de configm mgmt pour cloud then terraform apply ajout d'un rm de la cl&#233; ssh en fin de provi best practice : un main.cf par environnement, mais des modules communs deploy ubuntu consul branch&#233; sur le vault pour les mdp openvpn Paul Bellamy Love the container bosse &#224; weavecloud ieurs sch&#233;mas d'archi &#034;&#224; la maode&#034; nginx, proxy d'appli, .... pets vs cattle typos vs =&gt; kubernets/ansible/terraform (infrastructure management) attention tous ces outils sont TRES destructifs topics vs safe tools : people make mistakes without metadata there s no hope metrics, monitor : rate, errors, duration m&#234;me kevin l'a dit ! exemle de de grafana run fast , break things, fix them prometheus : https://prometheus.io/docs/introduction/overview/ Ansible Anonymous - Dag Wieers @dagwieers Group therapy for Ansible addicts ansible 2012n connu pour hpilo, vmware_guest documentation sur github, grossi avec le rachat de RedHat governance difficile &#224; suivre apr&#232;s le rachat de redhat github ansibot pour maintenir un annuaire de modules ansible =&gt; aussi pour la qualit&#233; du code Robyn Bergeron Architecte RedHat Ansbile PEP-8 compliance testing : https://www.python.org/dev/peps/pep-0008/ design : agentless, KISS ssh winrm python powershell yaml jinja2 yaml syntax parsinf : indentation is crucial, attention aux 'action:' *Read presciption carefully and consult doctor* attention &#224; &#233;crire le jinja2, attention aux attention &#224; la syntaxe yaml ansible-playbook &lt;yamlfile&gt; ex: missing command si manqun Kubernetes S&#233;bastien Goasguen @sebgoa serverless http://www.skippbox.com - dismissed EC2 Elastic Cloud Compute beta don't mind the hype garner : serverless archotecture dans la mont&#233;e loMike Roberts martinfowler.com/articles/serverless.html =&gt; definition of serverless applcation unit is shrinking to what it dies value chain and evolution 100%devops focus on the bizness, go fast kubeless change mindset : no ssh ! tout est API config rbac .... ajout de CRUD functions, zookeper pour les events demo kubectl get pods --all-mesages https://github.com/skippbox/kubeless/tree/master/examples kubcetl get VNF Why things are changing NFV management and organisation NFV Orchetsrator vs VNF manager vs virtualize infrastructure manager Open Baton ; opnfv VIM = virt infras managaer : openvim, .... Network Function Virtualiaztion NFV load abalncer appliance ecompil&#233;e par silo, on en fait des layer pour avoir un VNF est donc un package de virtualisation des fonctions network event driven on config-changed, metricjs, .... impl&#233;mentation python Orchestration : how to transform amonolithic appliance into a scamabele application possibilit&#233; de scalling sur ram, le nomre de host etc ... Katello sync pkg , QoS &amp; efficiency foreman+pulp+candlepin docker, rpm, puppet Rich Jerrido upload or sync yum, puppet, docker, rhcdn, any file download in background or cron Le smart proxy est ouvert sur internet ? manage products product Centos -repo base -updates -plus product postgres -el7 -el6 sync plans with custom subscriptions hammer --output json subscritpn.lst --search &#034;name = &#034;EPEL&#034; --organization enterprise Lifecycle : dev/test/staging/ .... every orga has library host have access to new package from repo depuis une library content view : hold yum, docker, repo, possibilit&#233; de rollback dev orga : availael by default, tout est visible os repo + app repo + puppet modules =&gt; filters + modules =&gt; content view =&gt; dispo dans la library library =&gt; dev =&gt; QA =&gt; production saufi si failure composite content view CCV : layers de OS / apps voir les erratas via situational awarenass =&gt; demo d'une application d'errata comme &#034;avant sur spacewalk&#034; questions foreman-users@google-groups.com ansible roles to katello Suse ? zypper support : SMT en plus https://213.32.49.93/settings?utf8=%E2%9C%93&amp;search=compos : compose to true to docker katello3 semble meilleur que passenger how to audit, with openscap &amp; foreman ondrej prazak motivation, compliance (joke clinton) scap scanner ajout du xccdf, puis cr&#233;ation d'une policy de compliance avec schedule execution du rapport openscap, camember via le dashboard foreman remediation script visible dans foreman via job invocation in host =&gt; foreman scap_client 2 avec profile stige_example tailoring file is supported now A venir : remediation inline Shlomi Zadok Infrastruce as a Code kief@thoutworks.com @kief - Kief Morris infrastructure-as-code.com Rappel du state of devops report par puppet Politics and economics of automation by Martin Simons Operating Systems are Assholes by George Miranda genre les OS &#231;a tombe en marche avec des recettes incompr&#233;hensibles pour des humains difficile de descendre des RPM non livr&#233;s apr mon OS ....,pb de signature Unix is a real things, et pourtant on en avait pas bvesoin lors des cartes unix = kernel, programmes, network , .... security... user interface are for people not for machines which tool is better vim / emacs :-) UI for human (smartphone, tablett, alexa, not datacenter) La pire promesse : les containers pour faire tourner des applications (juste tu t&#233;l&#233;charge et &#231;a marche) on se fiche de l'OS, pourtant on metun OS dedans et comment auditer ..... container or habitat runtime just enough os, appli runtime, ultra thin app with no os =&gt; iterate and compare next year normation - automate quality just like you atomate servers beno&#238;t peccattte, bpe@normation.com&lt;/textarea&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>
<item xml:lang="fr">
		<title>Notes Oracle Cloud</title>
		<link>https://www.coincoin.fr.eu.org/?Notes-Oracle-Cloud</link>
		<guid isPermaLink="true">https://www.coincoin.fr.eu.org/?Notes-Oracle-Cloud</guid>
		<dc:date>2016-11-17T18:15:00Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>



		<description>
&lt;p&gt;Pres Cloud Oracle 1 OCPU = 2 VCPU AWS (3 GHZ) =&gt; Attention factu gestion des users 30j de trial + renew si possible posssibilit&#233; de masquer des services &#224; l'utilisateur cloud fonctionne essentiellement en mode sas / paas, peu de iaas &lt;br class='autobr' /&gt;
=&gt; verifier le chiffrement des disques via la cle ssh &lt;br class='autobr' /&gt;
SLA 99,95% Extreme Performance avec in memory, dataguard (pas dispo en trial), RAC, multi tenant Oracle Linux 6.6 &lt;br class='autobr' /&gt;
scale up scale down possible sur database &lt;br class='autobr' /&gt;
1 To de stockage coute 4 $ / mois disques (&#8230;)&lt;/p&gt;


-
&lt;a href="https://www.coincoin.fr.eu.org/?-Au-boulot-" rel="directory"&gt;Au boulot&lt;/a&gt;


		</description>


 <content:encoded>&lt;div class='rss_texte'&gt;&lt;textarea readonly='readonly' cols='40' rows='56' class='spip_cadre spip_cadre_block' dir='ltr'&gt;Pres Cloud Oracle 1 OCPU = 2 VCPU AWS (3 GHZ) =&gt; Attention factu gestion des users 30j de trial + renew si possible posssibilit&#233; de masquer des services &#224; l'utilisateur cloud fonctionne essentiellement en mode sas / paas, peu de iaas =&gt; verifier le chiffrement des disques via la cle ssh SLA 99,95% Extreme Performance avec in memory, dataguard (pas dispo en trial), RAC, multi tenant Oracle Linux 6.6 scale up scale down possible sur database 1 To de stockage coute 4 $ / mois disques SSD, teiring, (disques ssd dedies sur bare metal) bulk data import en zfs mdp = celu ide system backup storage = backup sur disque local du meme compute depuis fra (1 full + 7 incr via rman) (apparte le stockage de cloud storage est du openstack swift) =&gt; create instance from backup DataGuard utilisable en PRA mais preciser lors de la creation des comptes/bases =&gt; &#224; faire aussi pour configurer un backup rman =&gt; access ssh avec base de donnes , c'est le partenaire qui maintient l'OS, les patchs, rotation de logs, controler la FRA les services ne sont pas manages par defaut cloud.oracle pas dispo on premise modele flat all inclusive ou modele ou tu paye les iops, la bp etc snapshot =&gt; via la gui ou un cron =&gt; snapshot de disque, pas de base presentation de volume =&gt; monte pour la base commandline + API AWS RDS = pas de base enterprise questions sla downtime =&gt; mise &#224; jour impos&#233;e par oracle (offre de protection des donn&#233;es/datacenter en cours d'arriv&#233;e) goldenfate&lt;/textarea&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>
<item xml:lang="fr">
		<title>Notes Susecon 2016 - Washington</title>
		<link>https://www.coincoin.fr.eu.org/?Notes-Susecon-2016-Washington-21563</link>
		<guid isPermaLink="true">https://www.coincoin.fr.eu.org/?Notes-Susecon-2016-Washington-21563</guid>
		<dc:date>2016-11-11T17:58:00Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>



		<description>
&lt;p&gt;# SAP-HANA : system replication, Matthieu Fattrez &lt;br class='autobr' /&gt;
clb pacemaker fait le job moins d'une minute de bascule pour une base de 800G SAP HANA &lt;br class='autobr' /&gt;
Utilisation de Suse Manager &lt;br class='autobr' /&gt;
exemple : patch la machine standby, bascule cluster, puis patch de la machine front, eventuellement retour en position nominale stonith method =&gt; sbd meilleure lecture du crm_mon crm_mon -r -A -f &lt;br class='autobr' /&gt;
# System Security Sardening, tuto &lt;br class='autobr' /&gt;
different levels high, midrange, lowlevel besoin de design AVANT et d'adopter des (&#8230;)&lt;/p&gt;


-
&lt;a href="https://www.coincoin.fr.eu.org/?-Au-boulot-" rel="directory"&gt;Au boulot&lt;/a&gt;


		</description>


 <content:encoded>&lt;div class='rss_texte'&gt;&lt;textarea readonly='readonly' cols='40' rows='173' class='spip_cadre spip_cadre_block' dir='ltr'&gt;# SAP-HANA : system replication, Matthieu Fattrez clb pacemaker fait le job moins d'une minute de bascule pour une base de 800G SAP HANA Utilisation de Suse Manager exemple : patch la machine standby, bascule cluster, puis patch de la machine front, eventuellement retour en position nominale stonith method =&gt; sbd meilleure lecture du crm_mon crm_mon -r -A -f # System Security Sardening, tuto different levels high, midrange, lowlevel besoin de design AVANT et d'adopter des philiosphies de d&#233;ploiement et de cycle de vie des applications impl&#233;mentation audit password : r&#232;gle de force de mot de passe, two factor auth si possible authenitifier autant que possible avec PAM =&gt; aging; failing, strength check # Keynote #2, annonce de SLES 11 SP4 par le CTO Suse, Mr T, French guy. Pub pour OpenAttic, derni&#232;re acquisition Suse pour permettre des migrations Storage Legacy vers du SDN avec CEPH. kubernetes, gaining moment, susecloud7 annonc&#233; &#224; l'openstack summit utilisation de kubernetes pour d&#233;ployer cloudfoundry ou ceph # CanaryCode, how to monitor SAP applications, une solution Datavard 3,5 Mio de recherches googles en erreur par jour 99,9% de SLA = 8h45 par jour d'indispo Clients SAP : 99.9997% =&gt; 1m/year Architecture : CanaryCode Central Instance avec des satelite sustems Bon CanaryCode c'est un AppDynamics en moins joli et moins flexible .... avec un b&#233;mol simple, AppDynamics n'a pas l'air compatible SAP l&#224; o&#249; CanaryCode est d&#233;di&#233; SAP. C'est pas une WebUI, c'est aussi intrusif, &#231;a stocke ces infos dans une base de donn&#233;es tierce. Ils annoncent avoir identifi&#233; dans &#034;une grosse banque allemeande&#034; des ralentissements dans des applications qui apr&#232;s correction, repr&#233;senteraient 948 d'attente : par jours corrig&#233;s car d&#233;tect&#233;s par CanaryCode. Un p&#233;trolier s'en sert pour faire de l'IDS (un peu comme certain avec Splunk). Il existe une version community : http://canarycode.com/en/ # Hands on Cloud Foundry Alejandro Bonilla https://github.com/abonillasuse/cf-intro syst&#232;me PAAS IAAS openstack SAAS github PAAS Cloud Foundry deployer : cf deploy utilisable openstack azure, vmware, aws, google, BOSH inerroge la plaeforme IAAS service broker permet de faire le lien entre les dependances des diff&#233;rents services BOSH CLI =&gt; BOSH director, qui pilote IAAS BOSH provides Stemcell (applications) Iici; pilote Crowbar, permet tous les hyperviseurs possible # Keynote #3 AIX kernel linux to z designed hana smart memory predictive fail memory resiliency multi tb pour hana ibm powervm virtualization limits reduce cost dynamic move vm builtin powervm over lpar SAP affirmation partenariat suse sap essentiellement hana # Hands on systemd storage pour les autres boot journalctl -b 1 pour avoir un pr&#233;c&#233;dent log de boot penser &#224; enlever les quiet etc ... Debian enable par d&#233;faut les services, pas Suse, il faut donc penser &#224; passer derri&#232;re une fois les RPMs install&#233; systemctl mask =&gt; ne pas d&#233;marrer sur un pb de d&#233;pendance, attention au list-unit-files si un service ne d&#233;marre pas systemctl list-unit-files | grep masked systemctl status cron.service = jurnalctl -u cron.service = rccron status rendre un service un peu pverbeux =&gt; sed -i '4 a set -x' /usr/sbin/service systemctl -t service status =&gt; liste tous les services voir le contenu d un service systemctl cqt cron.service systemctl show cron.service killall vs killall -s SIGKILL =&gt; le second est restart&#233; sur un SIGKILL kill&#233; sur un SIGTERM systemctl status &lt;fstqbentry&gt;.mount Int&#233;ressant le defaulttimeoutstartsec pour du nfs ! mieux, un systemd.device-timeout= dans la fstab (m&#233;thode pr&#233;f&#233;r&#233;e car visible de suite) ou de mettre l'option tmeout dans /etc/systemd/mnt2.mount/d/override.conf o&#249; /etc/systemd/mnt2.mount/d/override.conf contient [Unit] DefaultTimeoutStartSec=&lt;&gt; attention, i faut d'abord reg&#233;n&#233;rer les unit files avec systemctl daemon-reload journalctl -xb (from last boot) systemd-delta /etc =&gt; controle d'int&#233;grit&#233; /etc systemd-analyze plot &gt; file.svg = visu graphique de systemctl systemd and docker don't match together, so pb nspawn vs rocket # OpenStack Troubleshooting openstack cloud7 comme d'hab; /var/log/messages, free, vmstat etc .... Les logs de crowbar (production.log et ou) Les logs de chef /var/log/chef/server.log et Rabbit ou encore du provisionner /var/log/apache2/provisionner.log utiliser le rpm supportconfig, il y a iun plugin susecloud bien mettre les &#233;changes de cl&#233; ssh , rsysloger les logs si possible utiliser la commande proposal de crowbarctl voir les logs tftpboot voir le discovery voire mettre un mot de passe crowbar_join __verbose --start =&gt; pour que le node revienne dans le dashboard crowbar mettre les logs en verbose toujours, en debug parfois =&gt; 10 Gb de log par heure ! tester les services ind&#233;pendamment, exemple glance list et download crm configure graph crm_mon Les nodes s'attendent tous, si un dit timeout c'est qu'on peut aller voir l'info plus loin : pour identifier, utiliser knife search node founder:true -1 # OpenATTIC Une interface de managemnt de stockage alernative aux solutions propri&#233;taires Support NAS/SAN/CEPH compl&#232;tement GPL now, int&#233;gr&#233; &#224; Suse en nov. 2016 support zfs, btrfs, extX, SAN, NAS, LVM monitoring in progress icinga&lt;/textarea&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>
<item xml:lang="fr">
		<title>Notes Susecon 2016 - Washington</title>
		<link>https://www.coincoin.fr.eu.org/?Notes-Susecon-2016-Washington</link>
		<guid isPermaLink="true">https://www.coincoin.fr.eu.org/?Notes-Susecon-2016-Washington</guid>
		<dc:date>2016-11-07T17:53:00Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>


		<dc:subject>linux</dc:subject>

		<description>
&lt;p&gt;CEPH, OpenSorce, Software Defined Storage, LTS de 12 mois, Suse Storage 3 basee sur Jewel release
&lt;br class='autobr' /&gt;
jusqu qu 6 milliards de noeuds par cluster CERN et toutes les distrib ou constructeurs sont membres du management CEPH usual strategy is to scale up (vertical) ceph is for scaling out (horizontal) suse is the first to ship a iscsi gateway wih ceph (supported) RADOS = CEPH cluster, stockage objet Librados = app pour acceder aux donnees (C, PHP, Java etc) Radosgw = gateway REST co ;\mpatible S3, (&#8230;)&lt;/p&gt;


-
&lt;a href="https://www.coincoin.fr.eu.org/?-Au-boulot-" rel="directory"&gt;Au boulot&lt;/a&gt;

/ 
&lt;a href="https://www.coincoin.fr.eu.org/?+-linux-+" rel="tag"&gt;linux&lt;/a&gt;

		</description>


 <content:encoded>&lt;div class='rss_texte'&gt;&lt;textarea readonly='readonly' cols='40' rows='1056' class='spip_cadre spip_cadre_block' dir='ltr'&gt;CEPH, OpenSorce, Software Defined Storage, LTS de 12 mois, Suse Storage 3 basee sur Jewel release jusqu qu 6 milliards de noeuds par cluster CERN et toutes les distrib ou constructeurs sont membres du management CEPH usual strategy is to scale up (vertical) ceph is for scaling out (horizontal) suse is the first to ship a iscsi gateway wih ceph (supported) RADOS = CEPH cluster, stockage objet Librados = app pour acceder aux donnees (C, PHP, Java etc) Radosgw = gateway REST co;\mpatible S3, Swift RBD = block sur host qui heberge une instance CEPH FS = fs pour un client la gatway irbd presente les donnees en iscsi ou nfs etc 2 co;posants i;portants : - un OSD pour manager les disques (one per path) - MONS (3, $, ....), pour monitorer le cluster Un algo CRUSH de stockage Disk-&gt; FileSystem (XFS) -&gt; OSD Les donnes sont stockees via algo CRUSH Mimu;m de 3 MONS, utilise algo PAXOS pour monitorer les nodes et le reseau =&gt; i;pair absoluement monitor map, contient placement group map, CRUSH map, epoch pour garantir integrite des donnes rssayer de mettre le moins possible de mons un client accede a la donnee objet en ;ode osd directement PAXOS election de l ip la plus petite pour elire un MON les objets sont ranges dans des storage pools defaultpool rbd regles de placement de snapshot par pool l osd voit les placement group, chaque objet est associe a um placement group il faut faire attention au nbre de PG CRUSH controllable Replication Under les donnes ne sont pas centralisees OSD run CRUSH =&gt; besoin de CPU Step2, install, hardware voir la doc suse ceph unprivileged, 167 if possible DNS recommande ipv4 tres bien timesync and at least 2 networks : pub for client/admin and priv for osd to osd SES3 dispo en extension de SLES 12sp0 zypper in ceph-deploy and that s all folks ceph-deploy install &lt;node list&gt; ceph-deply new -cluster moncluster &lt;node list&gt; ceph.conf contient les cles et le rep du journal ceph-deploy mon create-initial &lt;node list&gt; utiliser create pour ajouter des nodes MON puis ajouter les OSD ceph-deploy osd prepare node:dev when check with ceph -k ceph.client.admin.keyring status ceph -w (watch) geeko@ses-admin:~/Desktop&gt; sudo su - We trust you have received the usual lecture from the local System Administrator. It usually boils down to these three things: #1) Respect the privacy of others. #2) Think before you type. #3) With great power comes great responsibility. root's password: ses-admin:~ # yast yast yast2 ses-admin:~ # yast2 ses-admin:~ # useradd -m cephadm ses-admin:~ # passwd cephadm New password: BAD PASSWORD: it is too short BAD PASSWORD: is too simple Retype new password: passwd: password updated successfully ses-admin:~ # visudo visudo: /etc/sudoers.tmp unchanged ses-admin:~ # visudo ses-admin:~ # su &#8211; cephadm su: user &#8211; does not exist ses-admin:~ # su - cephadm cephadm@ses-admin:~&gt; ssh-keygen Generating public/private rsa key pair. Enter file in which to save the key (/home/cephadm/.ssh/id_rsa): Created directory '/home/cephadm/.ssh'. Enter passphrase (empty for no passphrase): Enter same passphrase again: Your identification has been saved in /home/cephadm/.ssh/id_rsa. Your public key has been saved in /home/cephadm/.ssh/id_rsa.pub. The key fingerprint is: 9e:b2:bd:31:6f:32:10:b6:7e:84:77:33:79:86:a3:e6 [MD5] cephadm@ses-admin The key's randomart image is: +--[ RSA 2048]----+ | | | | | | | o | | . +S o | | +.o.B o | | ..+=o * | | .+*+. | | .+E=. | +--[MD5]----------+ cephadm@ses-admin:~&gt; ssh-copy-id cephadm@ses-node1 The authenticity of host 'ses-node1 (192.168.100.11)' can't be established. ECDSA key fingerprint is 33:4d:5a:db:e7:69:26:2b:90:11:91:ad:ab:3d:49:eb [MD5]. Are you sure you want to continue connecting (yes/no)? yes /usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed /usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys Password: Number of key(s) added: 1 Now try logging into the machine, with: &#034;ssh 'cephadm@ses-node1'&#034; and check to make sure that only the key(s) you wanted were added. cephadm@ses-admin:~&gt; ssh-copy-id cephadm@ses-node2 The authenticity of host 'ses-node2 (192.168.100.12)' can't be established. ECDSA key fingerprint is 33:4d:5a:db:e7:69:26:2b:90:11:91:ad:ab:3d:49:eb [MD5]. Are you sure you want to continue connecting (yes/no)? yes /usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed /usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys Password: Number of key(s) added: 1 Now try logging into the machine, with: &#034;ssh 'cephadm@ses-node2'&#034; and check to make sure that only the key(s) you wanted were added. cephadm@ses-admin:~&gt; ssh-copy-id cephadm@ses-node3 The authenticity of host 'ses-node3 (192.168.100.13)' can't be established. ECDSA key fingerprint is 33:4d:5a:db:e7:69:26:2b:90:11:91:ad:ab:3d:49:eb [MD5]. Are you sure you want to continue connecting (yes/no)? yes /usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed /usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys Password: Number of key(s) added: 1 Now try logging into the machine, with: &#034;ssh 'cephadm@ses-node3'&#034; and check to make sure that only the key(s) you wanted were added. cephadm@ses-admin:~&gt; ssh ses-node3 id uid=1001(cephadm) gid=100(users) groups=100(users) cephadm@ses-admin:~&gt; exit logout ses-admin:~ # zypper in ceph ceph-deploy Loading repository data... Reading installed packages... Resolving package dependencies... The following 42 NEW packages are going to be installed: FastCGI babeltrace ceph ceph-base ceph-common ceph-deploy ceph-mds ceph-mon ceph-osd gperftools libboost_iostreams1_54_0 libboost_program_options1_54_0 libboost_random1_54_0 libcephfs1 libibverbs1 libleveldb1 librados2 libradosstriper1 librbd1 librdmacm1 librgw2 liburcu0 libxio lttng-ust python-Flask python-Jinja2 python-MarkupSafe python-Werkzeug python-apipkg python-argparse python-cephfs python-ecdsa python-execnet python-itsdangerous python-paramiko python-pushy python-pycrypto python-rados python-rbd python-remoto python-requests supportutils-plugin-ses The following package is not supported by its vendor: libxio 42 new packages to install. Overall download size: 48.7 MiB. Already cached: 0 B. After the operation, additional 211.7 MiB will be used. Continue? [y/n/? shows all options] (y): y Retrieving package python-Werkzeug-0.9.6-5.2.noarch (1/42), 483.9 KiB ( 2.2 MiB unpacked) Retrieving package python-apipkg-1.2-1.2.noarch (2/42), 9.2 KiB ( 18.2 KiB unpacked) Retrieving package python-ecdsa-0.13-2.1.noarch (3/42), 77.4 KiB (261.8 KiB unpacked) Retrieving package python-itsdangerous-0.24-2.1.noarch (4/42), 20.2 KiB ( 69.1 KiB unpacked) Retrieving package supportutils-plugin-ses-1.0+git.1463485157.269428c-4.1.noarch (5/42), 13.7 KiB ( 26.0 KiB unpacked) Retrieving package FastCGI-2.4.0-167.1.x86_64 (6/42), 184.8 KiB (587.6 KiB unpacked) Retrieving package libboost_random1_54_0-1.54.0-13.1.x86_64 (7/42), 20.0 KiB ( 10.3 KiB unpacked) Retrieving package libleveldb1-1.18-1.3.x86_64 (8/42), 132.8 KiB (361.3 KiB unpacked) Retrieving package python-MarkupSafe-0.18-7.1.x86_64 (9/42), 24.6 KiB ( 66.0 KiB unpacked) Retrieving package python-pycrypto-2.6.1-4.1.x86_64 (10/42), 371.5 KiB ( 2.0 MiB unpacked) Retrieving package python-execnet-1.4.1-1.3.noarch (11/42), 73.7 KiB (249.5 KiB unpacked) Retrieving package python-Jinja2-2.7.3-17.1.noarch (12/42), 278.5 KiB ( 1.7 MiB unpacked) Retrieving package python-paramiko-1.15.2-1.1.noarch (13/42), 860.0 KiB ( 5.1 MiB unpacked) Retrieving package python-remoto-0.0.27-1.1.noarch (14/42), 80.6 KiB (298.2 KiB unpacked) Retrieving package python-Flask-0.10.1-2.1.noarch (15/42), 178.0 KiB (827.7 KiB unpacked) Retrieving package python-pushy-0.5.3-1.5.noarch (16/42), 58.3 KiB (238.5 KiB unpacked) Retrieving package python-argparse-1.2.1-15.8.noarch (17/42), 248.6 KiB (490.1 KiB unpacked) Retrieving package python-requests-2.3.0-6.5.2.noarch (18/42), 334.6 KiB ( 1.7 MiB unpacked) Retrieving package babeltrace-1.2.4-3.2.x86_64 (19/42), 159.0 KiB (463.9 KiB unpacked) Retrieving package gperftools-2.2-2.2.x86_64 (20/42), 554.3 KiB ( 2.2 MiB unpacked) Retrieving package libboost_iostreams1_54_0-1.54.0-13.1.x86_64 (21/42), 39.8 KiB (103.1 KiB unpacked) Retrieving package libboost_program_options1_54_0-1.54.0-13.1.x86_64 (22/42), 125.5 KiB (456.7 KiB unpacked) Retrieving package libibverbs1-1.1.7-12.2.x86_64 (23/42), 34.1 KiB ( 71.4 KiB unpacked) Retrieving package liburcu0-0.8.8-1.2.x86_64 (24/42), 49.4 KiB (182.6 KiB unpacked) Retrieving package librdmacm1-1.0.18.1-1.14.x86_64 (25/42), 53.4 KiB (129.1 KiB unpacked) Retrieving package lttng-ust-2.7.0-1.2.x86_64 (26/42), 171.4 KiB (754.7 KiB unpacked) Retrieving package ceph-deploy-1.5.32+git.1464082518.5aab689-1.1.noarch (27/42), 174.7 KiB (740.3 KiB unpacked) Retrieving package libxio-1.6+git.1461071064.e0ed264-2.1.x86_64 (28/42), 242.5 KiB (885.9 KiB unpacked) Retrieving package librados2-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (29/42), 1.7 MiB ( 6.3 MiB unpacked) Retrieving package libcephfs1-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (30/42), 1.8 MiB ( 6.0 MiB unpacked) Retrieving package python-rados-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (31/42), 209.0 KiB (493.4 KiB unpacked) Retrieving package librgw2-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (32/42), 2.7 MiB ( 10.3 MiB unpacked) Retrieving package librbd1-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (33/42), 2.1 MiB ( 7.5 MiB unpacked) Retrieving package libradosstriper1-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (34/42), 1.8 MiB ( 6.9 MiB unpacked) Retrieving package python-cephfs-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (35/42), 138.1 KiB (227.4 KiB unpacked) Retrieving package python-rbd-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (36/42), 133.1 KiB (184.9 KiB unpacked) Retrieving package ceph-common-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (37/42), 14.9 MiB ( 67.1 MiB unpacked) Retrieving package ceph-base-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (38/42), 3.9 MiB ( 33.1 MiB unpacked) Retrieving package ceph-osd-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (39/42), 9.0 MiB ( 33.2 MiB unpacked) Retrieving package ceph-mon-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (40/42), 2.7 MiB ( 9.3 MiB unpacked) Retrieving package ceph-mds-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (41/42), 2.7 MiB ( 9.3 MiB unpacked) Retrieving package ceph-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (42/42), 79.1 KiB ( 0 B unpacked) Checking for file conflicts: .............................................................................[done] ( 1/42) Installing: python-Werkzeug-0.9.6-5.2 ............................................................[done] ( 2/42) Installing: python-apipkg-1.2-1.2 ................................................................[done] ( 3/42) Installing: python-ecdsa-0.13-2.1 ................................................................[done] ( 4/42) Installing: python-itsdangerous-0.24-2.1 .........................................................[done] ( 5/42) Installing: supportutils-plugin-ses-1.0+git.1463485157.269428c-4.1 ...............................[done] ( 6/42) Installing: FastCGI-2.4.0-167.1 ..................................................................[done] ( 7/42) Installing: libboost_random1_54_0-1.54.0-13.1 ....................................................[done] ( 8/42) Installing: libleveldb1-1.18-1.3 .................................................................[done] ( 9/42) Installing: python-MarkupSafe-0.18-7.1 ...........................................................[done] (10/42) Installing: python-pycrypto-2.6.1-4.1 ............................................................[done] (11/42) Installing: python-execnet-1.4.1-1.3 .............................................................[done] (12/42) Installing: python-Jinja2-2.7.3-17.1 .............................................................[done] (13/42) Installing: python-paramiko-1.15.2-1.1 ...........................................................[done] (14/42) Installing: python-remoto-0.0.27-1.1 .............................................................[done] (15/42) Installing: python-Flask-0.10.1-2.1 ..............................................................[done] (16/42) Installing: python-pushy-0.5.3-1.5 ...............................................................[done] (17/42) Installing: python-argparse-1.2.1-15.8 ...........................................................[done] (18/42) Installing: python-requests-2.3.0-6.5.2 ..........................................................[done] (19/42) Installing: babeltrace-1.2.4-3.2 .................................................................[done] (20/42) Installing: gperftools-2.2-2.2 ...................................................................[done] (21/42) Installing: libboost_iostreams1_54_0-1.54.0-13.1 .................................................[done] (22/42) Installing: libboost_program_options1_54_0-1.54.0-13.1 ...........................................[done] (23/42) Installing: libibverbs1-1.1.7-12.2 ...............................................................[done] (24/42) Installing: liburcu0-0.8.8-1.2 ...................................................................[done] (25/42) Installing: librdmacm1-1.0.18.1-1.14 .............................................................[done] (26/42) Installing: lttng-ust-2.7.0-1.2 ..................................................................[done] (27/42) Installing: ceph-deploy-1.5.32+git.1464082518.5aab689-1.1 ........................................[done] (28/42) Installing: libxio-1.6+git.1461071064.e0ed264-2.1 ................................................[done] (29/42) Installing: librados2-10.2.1+git.1464009581.b8ee9e4-1.1 ..........................................[done] (30/42) Installing: libcephfs1-10.2.1+git.1464009581.b8ee9e4-1.1 .........................................[done] (31/42) Installing: python-rados-10.2.1+git.1464009581.b8ee9e4-1.1 .......................................[done] (32/42) Installing: librgw2-10.2.1+git.1464009581.b8ee9e4-1.1 ............................................[done] (33/42) Installing: librbd1-10.2.1+git.1464009581.b8ee9e4-1.1 ............................................[done] (34/42) Installing: libradosstriper1-10.2.1+git.1464009581.b8ee9e4-1.1 ...................................[done] (35/42) Installing: python-cephfs-10.2.1+git.1464009581.b8ee9e4-1.1 ......................................[done] (36/42) Installing: python-rbd-10.2.1+git.1464009581.b8ee9e4-1.1 .........................................[done] (37/42) Installing: ceph-common-10.2.1+git.1464009581.b8ee9e4-1.1 ........................................[done] (38/42) Installing: ceph-base-10.2.1+git.1464009581.b8ee9e4-1.1 ..........................................[done] Additional rpm output: Updating /etc/sysconfig/ceph... (39/42) Installing: ceph-osd-10.2.1+git.1464009581.b8ee9e4-1.1 ...........................................[done] (40/42) Installing: ceph-mon-10.2.1+git.1464009581.b8ee9e4-1.1 ...........................................[done] (41/42) Installing: ceph-mds-10.2.1+git.1464009581.b8ee9e4-1.1 ...........................................[done] (42/42) Installing: ceph-10.2.1+git.1464009581.b8ee9e4-1.1 ...............................................[done] ses-admin:~ # su &#8211; cephadm su: user &#8211; does not exist ses-admin:~ # su - cephadm cephadm@ses-admin:~&gt; ls bin public_html cephadm@ses-admin:~&gt; ceph-deploy install ses-node1 ses-node2 ses-node3 [ceph_deploy.conf][DEBUG ] found configuration file at: /home/cephadm/.cephdeploy.conf [ceph_deploy.cli][INFO ] Invoked (1.5.32): /usr/bin/ceph-deploy install ses-node1 ses-node2 ses-node3 [ceph_deploy.cli][INFO ] ceph-deploy options: [ceph_deploy.cli][INFO ] verbose : False [ceph_deploy.cli][INFO ] testing : None [ceph_deploy.cli][INFO ] cd_conf : &lt;ceph_deploy.conf.cephdeploy.Conf instance at 0x7f12cbf6cef0&gt; [ceph_deploy.cli][INFO ] cluster : ceph [ceph_deploy.cli][INFO ] dev_commit : None [ceph_deploy.cli][INFO ] install_mds : False [ceph_deploy.cli][INFO ] stable : None [ceph_deploy.cli][INFO ] default_release : False [ceph_deploy.cli][INFO ] username : None [ceph_deploy.cli][INFO ] adjust_repos : True [ceph_deploy.cli][INFO ] func : &lt;function install at 0x7f12cc1b0668&gt; [ceph_deploy.cli][INFO ] install_all : False [ceph_deploy.cli][INFO ] repo : False [ceph_deploy.cli][INFO ] host : ['ses-node1', 'ses-node2', 'ses-node3'] [ceph_deploy.cli][INFO ] install_rgw : False [ceph_deploy.cli][INFO ] install_tests : False [ceph_deploy.cli][INFO ] repo_url : None [ceph_deploy.cli][INFO ] ceph_conf : None [ceph_deploy.cli][INFO ] install_osd : False [ceph_deploy.cli][INFO ] version_kind : stable [ceph_deploy.cli][INFO ] install_common : False [ceph_deploy.cli][INFO ] overwrite_conf : False [ceph_deploy.cli][INFO ] quiet : False [ceph_deploy.cli][INFO ] dev : master [ceph_deploy.cli][INFO ] local_mirror : None [ceph_deploy.cli][INFO ] release : None [ceph_deploy.cli][INFO ] install_mon : False [ceph_deploy.cli][INFO ] gpg_url : None [ceph_deploy.install][DEBUG ] Installing stable version infernalis on cluster ceph hosts ses-node1 ses-node2 ses-node3 [ceph_deploy.install][DEBUG ] Detecting platform for host ses-node1 ... [ses-node1][DEBUG ] connection detected need for sudo [ses-node1][DEBUG ] connected to host: ses-node1 [ses-node1][DEBUG ] detect platform information from remote host [ses-node1][DEBUG ] detect machine type [ceph_deploy.install][INFO ] Distro info: SUSE Linux Enterprise Server 12 x86_64 [ses-node1][INFO ] installing Ceph on ses-node1 [ses-node1][INFO ] Running command: sudo zypper --non-interactive --quiet refresh [ses-node1][INFO ] Running command: sudo zypper --non-interactive --quiet install ceph ceph-radosgw [ses-node1][DEBUG ] [ses-node1][DEBUG ] The following 35 NEW packages are going to be installed: [ses-node1][DEBUG ] babeltrace ceph ceph-base ceph-common ceph-mds ceph-mon ceph-osd ceph-radosgw FastCGI gperftools libboost_iostreams1_54_0 libboost_program_options1_54_0 libboost_random1_54_0 libcephfs1 libibverbs1 libleveldb1 librados2 libradosstriper1 librbd1 librdmacm1 librgw2 liburcu0 libxio lttng-ust python-cephfs python-Flask python-itsdangerous python-Jinja2 python-MarkupSafe python-rados python-rbd python-requests python-setuptools python-Werkzeug supportutils-plugin-ses [ses-node1][DEBUG ] [ses-node1][DEBUG ] The following package is not supported by its vendor: [ses-node1][DEBUG ] libxio [ses-node1][DEBUG ] [ses-node1][DEBUG ] 35 new packages to install. [ses-node1][DEBUG ] Overall download size: 47.3 MiB. Already cached: 0 B. After the operation, additional 204.1 MiB will be used. [ses-node1][DEBUG ] Continue? [y/n/? shows all options] (y): y [ses-node1][INFO ] Running command: sudo ceph --version [ses-node1][DEBUG ] ceph version 10.2.1-112-gb8ee9e4 (b8ee9e4007f0443ef50deb1a691c3ea8bd0a11fe) [ceph_deploy.install][DEBUG ] Detecting platform for host ses-node2 ... [ses-node2][DEBUG ] connection detected need for sudo [ses-node2][DEBUG ] connected to host: ses-node2 [ses-node2][DEBUG ] detect platform information from remote host [ses-node2][DEBUG ] detect machine type [ceph_deploy.install][INFO ] Distro info: SUSE Linux Enterprise Server 12 x86_64 [ses-node2][INFO ] installing Ceph on ses-node2 [ses-node2][INFO ] Running command: sudo zypper --non-interactive --quiet refresh [ses-node2][INFO ] Running command: sudo zypper --non-interactive --quiet install ceph ceph-radosgw [ses-node2][DEBUG ] [ses-node2][DEBUG ] The following 35 NEW packages are going to be installed: [ses-node2][DEBUG ] babeltrace ceph ceph-base ceph-common ceph-mds ceph-mon ceph-osd ceph-radosgw FastCGI gperftools libboost_iostreams1_54_0 libboost_program_options1_54_0 libboost_random1_54_0 libcephfs1 libibverbs1 libleveldb1 librados2 libradosstriper1 librbd1 librdmacm1 librgw2 liburcu0 libxio lttng-ust python-cephfs python-Flask python-itsdangerous python-Jinja2 python-MarkupSafe python-rados python-rbd python-requests python-setuptools python-Werkzeug supportutils-plugin-ses [ses-node2][DEBUG ] [ses-node2][DEBUG ] The following package is not supported by its vendor: [ses-node2][DEBUG ] libxio [ses-node2][DEBUG ] [ses-node2][DEBUG ] 35 new packages to install. [ses-node2][DEBUG ] Overall download size: 47.3 MiB. Already cached: 0 B. After the operation, additional 204.1 MiB will be used. [ses-node2][DEBUG ] Continue? [y/n/? shows all options] (y): y [ses-node2][INFO ] Running command: sudo ceph --version [ses-node2][DEBUG ] ceph version 10.2.1-112-gb8ee9e4 (b8ee9e4007f0443ef50deb1a691c3ea8bd0a11fe) [ceph_deploy.install][DEBUG ] Detecting platform for host ses-node3 ... [ses-node3][DEBUG ] connection detected need for sudo [ses-node3][DEBUG ] connected to host: ses-node3 [ses-node3][DEBUG ] detect platform information from remote host [ses-node3][DEBUG ] detect machine type [ceph_deploy.install][INFO ] Distro info: SUSE Linux Enterprise Server 12 x86_64 [ses-node3][INFO ] installing Ceph on ses-node3 [ses-node3][INFO ] Running command: sudo zypper --non-interactive --quiet refresh [ses-node3][INFO ] Running command: sudo zypper --non-interactive --quiet install ceph ceph-radosgw [ses-node3][DEBUG ] [ses-node3][DEBUG ] The following 35 NEW packages are going to be installed: [ses-node3][DEBUG ] babeltrace ceph ceph-base ceph-common ceph-mds ceph-mon ceph-osd ceph-radosgw FastCGI gperftools libboost_iostreams1_54_0 libboost_program_options1_54_0 libboost_random1_54_0 libcephfs1 libibverbs1 libleveldb1 librados2 libradosstriper1 librbd1 librdmacm1 librgw2 liburcu0 libxio lttng-ust python-cephfs python-Flask python-itsdangerous python-Jinja2 python-MarkupSafe python-rados python-rbd python-requests python-setuptools python-Werkzeug supportutils-plugin-ses [ses-node3][DEBUG ] [ses-node3][DEBUG ] The following package is not supported by its vendor: [ses-node3][DEBUG ] libxio [ses-node3][DEBUG ] [ses-node3][DEBUG ] 35 new packages to install. [ses-node3][DEBUG ] Overall download size: 47.3 MiB. Already cached: 0 B. After the operation, additional 204.1 MiB will be used. [ses-node3][DEBUG ] Continue? [y/n/? shows all options] (y): y [ses-node3][INFO ] Running command: sudo ceph --version [ses-node3][DEBUG ] ceph version 10.2.1-112-gb8ee9e4 (b8ee9e4007f0443ef50deb1a691c3ea8bd0a11fe) cephadm@ses-admin:~&gt; ls bin ceph-deploy-ceph.log public_html cephadm@ses-admin:~&gt; cat ceph-deploy-ceph.log [2016-11-07 11:37:32,854][ceph_deploy.conf][DEBUG ] found configuration file at: /home/cephadm/.cephdeploy.conf [2016-11-07 11:37:32,854][ceph_deploy.cli][INFO ] Invoked (1.5.32): /usr/bin/ceph-deploy install ses-node1 ses-node2 ses-node3 [2016-11-07 11:37:32,854][ceph_deploy.cli][INFO ] ceph-deploy options: [2016-11-07 11:37:32,854][ceph_deploy.cli][INFO ] verbose : False [2016-11-07 11:37:32,854][ceph_deploy.cli][INFO ] testing : None [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] cd_conf : &lt;ceph_deploy.conf.cephdeploy.Conf instance at 0x7f12cbf6cef0&gt; [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] cluster : ceph [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] dev_commit : None [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] install_mds : False [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] stable : None [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] default_release : False [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] username : None [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] adjust_repos : True [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] func : &lt;function install at 0x7f12cc1b0668&gt; [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] install_all : False [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] repo : False [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] host : ['ses-node1', 'ses-node2', 'ses-node3'] [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] install_rgw : False [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] install_tests : False [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] repo_url : None [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] ceph_conf : None [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] install_osd : False [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] version_kind : stable [2016-11-07 11:37:32,856][ceph_deploy.cli][INFO ] install_common : False [2016-11-07 11:37:32,856][ceph_deploy.cli][INFO ] overwrite_conf : False [2016-11-07 11:37:32,856][ceph_deploy.cli][INFO ] quiet : False [2016-11-07 11:37:32,856][ceph_deploy.cli][INFO ] dev : master [2016-11-07 11:37:32,856][ceph_deploy.cli][INFO ] local_mirror : None [2016-11-07 11:37:32,856][ceph_deploy.cli][INFO ] release : None [2016-11-07 11:37:32,856][ceph_deploy.cli][INFO ] install_mon : False [2016-11-07 11:37:32,856][ceph_deploy.cli][INFO ] gpg_url : None [2016-11-07 11:37:32,856][ceph_deploy.install][DEBUG ] Installing stable version infernalis on cluster ceph hosts ses-node1 ses-node2 ses-node3 [2016-11-07 11:37:32,856][ceph_deploy.install][DEBUG ] Detecting platform for host ses-node1 ... [2016-11-07 11:37:33,075][ses-node1][DEBUG ] connection detected need for sudo [2016-11-07 11:37:33,221][ses-node1][DEBUG ] connected to host: ses-node1 [2016-11-07 11:37:33,221][ses-node1][DEBUG ] detect platform information from remote host [2016-11-07 11:37:33,256][ses-node1][DEBUG ] detect machine type [2016-11-07 11:37:33,260][ceph_deploy.install][INFO ] Distro info: SUSE Linux Enterprise Server 12 x86_64 [2016-11-07 11:37:33,260][ses-node1][INFO ] installing Ceph on ses-node1 [2016-11-07 11:37:33,263][ses-node1][INFO ] Running command: sudo zypper --non-interactive --quiet refresh [2016-11-07 11:37:33,491][ses-node1][INFO ] Running command: sudo zypper --non-interactive --quiet install ceph ceph-radosgw [2016-11-07 11:37:33,758][ses-node1][DEBUG ] [2016-11-07 11:37:33,758][ses-node1][DEBUG ] The following 35 NEW packages are going to be installed: [2016-11-07 11:37:33,758][ses-node1][DEBUG ] babeltrace ceph ceph-base ceph-common ceph-mds ceph-mon ceph-osd ceph-radosgw FastCGI gperftools libboost_iostreams1_54_0 libboost_program_options1_54_0 libboost_random1_54_0 libcephfs1 libibverbs1 libleveldb1 librados2 libradosstriper1 librbd1 librdmacm1 librgw2 liburcu0 libxio lttng-ust python-cephfs python-Flask python-itsdangerous python-Jinja2 python-MarkupSafe python-rados python-rbd python-requests python-setuptools python-Werkzeug supportutils-plugin-ses [2016-11-07 11:37:33,758][ses-node1][DEBUG ] [2016-11-07 11:37:33,758][ses-node1][DEBUG ] The following package is not supported by its vendor: [2016-11-07 11:37:33,758][ses-node1][DEBUG ] libxio [2016-11-07 11:37:33,758][ses-node1][DEBUG ] [2016-11-07 11:37:33,759][ses-node1][DEBUG ] 35 new packages to install. [2016-11-07 11:37:33,759][ses-node1][DEBUG ] Overall download size: 47.3 MiB. Already cached: 0 B. After the operation, additional 204.1 MiB will be used. [2016-11-07 11:37:33,759][ses-node1][DEBUG ] Continue? [y/n/? shows all options] (y): y [2016-11-07 11:37:44,565][ses-node1][INFO ] Running command: sudo ceph --version [2016-11-07 11:37:44,683][ses-node1][DEBUG ] ceph version 10.2.1-112-gb8ee9e4 (b8ee9e4007f0443ef50deb1a691c3ea8bd0a11fe) [2016-11-07 11:37:44,683][ceph_deploy.install][DEBUG ] Detecting platform for host ses-node2 ... [2016-11-07 11:37:44,876][ses-node2][DEBUG ] connection detected need for sudo [2016-11-07 11:37:45,016][ses-node2][DEBUG ] connected to host: ses-node2 [2016-11-07 11:37:45,017][ses-node2][DEBUG ] detect platform information from remote host [2016-11-07 11:37:45,055][ses-node2][DEBUG ] detect machine type [2016-11-07 11:37:45,060][ceph_deploy.install][INFO ] Distro info: SUSE Linux Enterprise Server 12 x86_64 [2016-11-07 11:37:45,060][ses-node2][INFO ] installing Ceph on ses-node2 [2016-11-07 11:37:45,062][ses-node2][INFO ] Running command: sudo zypper --non-interactive --quiet refresh [2016-11-07 11:37:45,335][ses-node2][INFO ] Running command: sudo zypper --non-interactive --quiet install ceph ceph-radosgw [2016-11-07 11:37:45,602][ses-node2][DEBUG ] [2016-11-07 11:37:45,602][ses-node2][DEBUG ] The following 35 NEW packages are going to be installed: [2016-11-07 11:37:45,602][ses-node2][DEBUG ] babeltrace ceph ceph-base ceph-common ceph-mds ceph-mon ceph-osd ceph-radosgw FastCGI gperftools libboost_iostreams1_54_0 libboost_program_options1_54_0 libboost_random1_54_0 libcephfs1 libibverbs1 libleveldb1 librados2 libradosstriper1 librbd1 librdmacm1 librgw2 liburcu0 libxio lttng-ust python-cephfs python-Flask python-itsdangerous python-Jinja2 python-MarkupSafe python-rados python-rbd python-requests python-setuptools python-Werkzeug supportutils-plugin-ses [2016-11-07 11:37:45,602][ses-node2][DEBUG ] [2016-11-07 11:37:45,603][ses-node2][DEBUG ] The following package is not supported by its vendor: [2016-11-07 11:37:45,603][ses-node2][DEBUG ] libxio [2016-11-07 11:37:45,603][ses-node2][DEBUG ] [2016-11-07 11:37:45,603][ses-node2][DEBUG ] 35 new packages to install. [2016-11-07 11:37:45,603][ses-node2][DEBUG ] Overall download size: 47.3 MiB. Already cached: 0 B. After the operation, additional 204.1 MiB will be used. [2016-11-07 11:37:45,603][ses-node2][DEBUG ] Continue? [y/n/? shows all options] (y): y [2016-11-07 11:37:56,699][ses-node2][INFO ] Running command: sudo ceph --version [2016-11-07 11:37:56,819][ses-node2][DEBUG ] ceph version 10.2.1-112-gb8ee9e4 (b8ee9e4007f0443ef50deb1a691c3ea8bd0a11fe) [2016-11-07 11:37:56,820][ceph_deploy.install][DEBUG ] Detecting platform for host ses-node3 ... [2016-11-07 11:37:57,028][ses-node3][DEBUG ] connection detected need for sudo [2016-11-07 11:37:57,173][ses-node3][DEBUG ] connected to host: ses-node3 [2016-11-07 11:37:57,173][ses-node3][DEBUG ] detect platform information from remote host [2016-11-07 11:37:57,210][ses-node3][DEBUG ] detect machine type [2016-11-07 11:37:57,215][ceph_deploy.install][INFO ] Distro info: SUSE Linux Enterprise Server 12 x86_64 [2016-11-07 11:37:57,216][ses-node3][INFO ] installing Ceph on ses-node3 [2016-11-07 11:37:57,218][ses-node3][INFO ] Running command: sudo zypper --non-interactive --quiet refresh [2016-11-07 11:37:57,494][ses-node3][INFO ] Running command: sudo zypper --non-interactive --quiet install ceph ceph-radosgw [2016-11-07 11:37:57,762][ses-node3][DEBUG ] [2016-11-07 11:37:57,762][ses-node3][DEBUG ] The following 35 NEW packages are going to be installed: [2016-11-07 11:37:57,762][ses-node3][DEBUG ] babeltrace ceph ceph-base ceph-common ceph-mds ceph-mon ceph-osd ceph-radosgw FastCGI gperftools libboost_iostreams1_54_0 libboost_program_options1_54_0 libboost_random1_54_0 libcephfs1 libibverbs1 libleveldb1 librados2 libradosstriper1 librbd1 librdmacm1 librgw2 liburcu0 libxio lttng-ust python-cephfs python-Flask python-itsdangerous python-Jinja2 python-MarkupSafe python-rados python-rbd python-requests python-setuptools python-Werkzeug supportutils-plugin-ses [2016-11-07 11:37:57,762][ses-node3][DEBUG ] [2016-11-07 11:37:57,762][ses-node3][DEBUG ] The following package is not supported by its vendor: [2016-11-07 11:37:57,762][ses-node3][DEBUG ] libxio [2016-11-07 11:37:57,762][ses-node3][DEBUG ] [2016-11-07 11:37:57,762][ses-node3][DEBUG ] 35 new packages to install. [2016-11-07 11:37:57,762][ses-node3][DEBUG ] Overall download size: 47.3 MiB. Already cached: 0 B. After the operation, additional 204.1 MiB will be used. [2016-11-07 11:37:57,762][ses-node3][DEBUG ] Continue? [y/n/? shows all options] (y): y [2016-11-07 11:38:08,867][ses-node3][INFO ] Running command: sudo ceph --version [2016-11-07 11:38:08,987][ses-node3][DEBUG ] ceph version 10.2.1-112-gb8ee9e4 (b8ee9e4007f0443ef50deb1a691c3ea8bd0a11fe) cephadm@ses-admin:~&gt; ceph -v ceph version 10.2.1-112-gb8ee9e4 (b8ee9e4007f0443ef50deb1a691c3ea8bd0a11fe) cephadm@ses-admin:~&gt; ceph-deploy new ses-node1 [ceph_deploy.conf][DEBUG ] found configuration file at: /home/cephadm/.cephdeploy.conf [ceph_deploy.cli][INFO ] Invoked (1.5.32): /usr/bin/ceph-deploy new ses-node1 [ceph_deploy.cli][INFO ] ceph-deploy options: [ceph_deploy.cli][INFO ] username : None [ceph_deploy.cli][INFO ] verbose : False [ceph_deploy.cli][INFO ] overwrite_conf : False [ceph_deploy.cli][INFO ] quiet : False [ceph_deploy.cli][INFO ] cd_conf : &lt;ceph_deploy.conf.cephdeploy.Conf instance at 0x7fbd48a4df80&gt; [ceph_deploy.cli][INFO ] cluster : ceph [ceph_deploy.cli][INFO ] ssh_copykey : True [ceph_deploy.cli][INFO ] mon : ['ses-node1'] [ceph_deploy.cli][INFO ] func : &lt;function new at 0x7fbd48a285f0&gt; [ceph_deploy.cli][INFO ] public_network : None [ceph_deploy.cli][INFO ] ceph_conf : None [ceph_deploy.cli][INFO ] cluster_network : None [ceph_deploy.cli][INFO ] default_release : False [ceph_deploy.cli][INFO ] fsid : None [ceph_deploy.new][DEBUG ] Creating new cluster named ceph [ceph_deploy.new][INFO ] making sure passwordless SSH succeeds [ses-node1][DEBUG ] connected to host: ses-admin [ses-node1][INFO ] Running command: ssh -CT -o BatchMode=yes ses-node1 [ses-node1][DEBUG ] connection detected need for sudo [ses-node1][DEBUG ] connected to host: ses-node1 [ses-node1][DEBUG ] detect platform information from remote host [ses-node1][DEBUG ] detect machine type [ses-node1][DEBUG ] find the location of an executable [ses-node1][INFO ] Running command: sudo /bin/ip link show [ses-node1][INFO ] Running command: sudo /bin/ip addr show [ses-node1][DEBUG ] IP addresses found: ['192.168.100.11', '192.168.200.11'] [ceph_deploy.new][DEBUG ] Resolving host ses-node1 [ceph_deploy.new][DEBUG ] Monitor ses-node1 at 192.168.100.11 [ceph_deploy.new][DEBUG ] Monitor initial members are ['ses-node1'] [ceph_deploy.new][DEBUG ] Monitor addrs are ['192.168.100.11'] [ceph_deploy.new][DEBUG ] Creating a random mon key... [ceph_deploy.new][DEBUG ] Writing monitor keyring to ceph.mon.keyring... [ceph_deploy.new][DEBUG ] Writing initial config to ceph.conf... cephadm@ses-admin:~&gt; Creation de pool pool name number of placement groups : (nber of OSD * 100 ) / nber of replicas pool size : 2,10 g take 20 g of storage and 20 g of netw transfert pool size : 3,10 g take 30 g of storage and 30 g of netw transfert =&gt; il vaut ;ieux bcp de petits data pool plutot qu un gros rados attaque en direct le pool sans passer par la couche osd default, replicate all datas =&gt; full replication, 3x stockage et bande passante RDB Storage pour avoir du block storage, il faut creer une image d abord puis ;appe en block device format1 or 2 =&gt; 2 support snapshots rbd create, puis map pour connect si besoin, faire le pool avant rbd create -p poolname rdbimagename --size xxx --image format 2 size en mb par defaut rbd list cephadm@ses-admin:~&gt; ceph osd map test myobj osdmap e23 pool 'test' (1) object 'myobj' -&gt; pg 1.c3ca3d86 (1.6) -&gt; up ([2,1], p2) acting ([2,1], p2) cephadm@ses-admin:~&gt; ceph osd tree ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY -1 0.04376 root default -2 0.01459 host ses-node1 0 0.01459 osd.0 up 1.00000 1.00000 -3 0.01459 host ses-node2 1 0.01459 osd.1 up 1.00000 1.00000 -4 0.01459 host ses-node3 2 0.01459 osd.2 up 1.00000 1.00000 cephadm@ses-admin:~&gt; ceph osd pool set test size 3 set pool 1 size to 3 cephadm@ses-admin:~&gt; ceph osd tree ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY -1 0.04376 root default -2 0.01459 host ses-node1 0 0.01459 osd.0 up 1.00000 1.00000 -3 0.01459 host ses-node2 1 0.01459 osd.1 up 1.00000 1.00000 -4 0.01459 host ses-node3 2 0.01459 osd.2 up 1.00000 1.00000 Mapping pour utilisation en direct persistence de mapping se fait dans fstab cephadm@ses-admin:~&gt; rbd create -p block-pool block-storage --size 1024 cephadm@ses-admin:~&gt; rbd -p block-pool info block-storage rbd image 'block-storage': size 1024 MB in 256 objects order 22 (4096 kB objects) block_name_prefix: rbd_data.108f238e1f29 format: 2 features: layering flags: cephadm@ses-admin:~&gt; sudo su - ses-admin:~ # cat /etc/fstab UUID=a8cecc6a-ed55-45ec-9092-08cccd1d1fa5 swap swap defaults 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb / btrfs defaults 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /boot/grub2/i386-pc btrfs subvol=@/boot/grub2/i386-pc 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /boot/grub2/x86_64-efi btrfs subvol=@/boot/grub2/x86_64-efi 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /home btrfs subvol=@/home 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /opt btrfs subvol=@/opt 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /srv btrfs subvol=@/srv 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /tmp btrfs subvol=@/tmp 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /usr/local btrfs subvol=@/usr/local 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/crash btrfs subvol=@/var/crash 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/lib/libvirt/images btrfs subvol=@/var/lib/libvirt/images 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/lib/mailman btrfs subvol=@/var/lib/mailman 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/lib/mariadb btrfs subvol=@/var/lib/mariadb 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/lib/mysql btrfs subvol=@/var/lib/mysql 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/lib/named btrfs subvol=@/var/lib/named 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/lib/pgsql btrfs subvol=@/var/lib/pgsql 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/log btrfs subvol=@/var/log 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/opt btrfs subvol=@/var/opt 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/spool btrfs subvol=@/var/spool 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/tmp btrfs subvol=@/var/tmp 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /.snapshots btrfs subvol=@/.snapshots 0 0 ses-admin:~ # rbd map -p block-pool --image block-storage /dev/rbd0 ses-admin:~ # rbd showmapped id pool image snap device 0 block-pool block-storage - /dev/rbd0 ses-admin:~ # ls /dev/rbd* /dev/rbd0 /dev/rbd: block-pool Snapshot sans overhead rbd snap (etc) Copy on write snapshot layering, i;age au for;at 2 obligatoirement mais les snapshots sont alors indispensables, i faut les proteger avec la fonction lock rfc3720 for iscsi json configurqtion quthenticqtion to iscsi authentication https://www.suse.com/docrep/documents/kgu61iyowz/suse_enterprise_storage_3_and_iscsi.pdf ses-node3:~ # targetcli ls o- / ..................................................................................................... [...] o- backstores .......................................................................................... [...] | o- fileio ............................................................................... [0 Storage Object] | o- iblock ............................................................................... [1 Storage Object] | | o- iscsi .................................................................. [/dev/rbd/rbd/iscsi activated] | o- pscsi ................................................................................ [0 Storage Object] | o- rbd .................................................................................. [0 Storage Object] | o- rd_mcp ............................................................................... [0 Storage Object] o- ib_srpt ....................................................................................... [0 Targets] o- iscsi .......................................................................................... [1 Target] | o- iqn.2003-01.org.linux-iscsi.ses-node3.x8664:sn.76494aa74ebc ..................................... [1 TPG] | o- tpg1 ........................................................................................ [enabled] | o- acls ....................................................................................... [0 ACLs] | o- luns ........................................................................................ [1 LUN] | | o- lun0 .......................................................... [iblock/iscsi (/dev/rbd/rbd/iscsi)] | o- portals .................................................................................. [1 Portal] | o- 192.168.100.13:3260 ........................................................... [OK, iser disabled] o- loopback ...................................................................................... [0 Targets] o- qla2xxx ....................................................................................... [0 Targets] o- tcm_fc ........................................................................................ [0 Targets] o- vhost ......................................................................................... [0 Targets] erasure code profile une sorte de qos pour econo;iser du reseau pour limiter les controles d integrite chaque erreur part dans une sorte de poubelle cephadm@ses-admin:~&gt; ceph osd erasure-code-profile get default k=2 m=1 plugin=jerasure technique=reed_sol_van exemple k+m (10+6), on peut perdre 6 sur 16 disks (totalite des disques) 10 disks requis prend 60% de capacite attention aux perf, se rapproche d un raid6 si erasure profile fixe, ne peut pas etre change utile sur des donnes chaudes/donnees froides/cout de stockage ceph status : look at placement group ex : recovering en bas de page monitor : health, mon quorum, osd status, pg status, full disk, nodes status =&gt; ceph health =&gt; ceph status cephadm@ses-admin:~&gt; ceph -w cluster 9a5b2edf-4d00-4b46-a010-3420d96450e5 health HEALTH_WARN too many PGs per OSD (408 &gt; max 300) monmap e3: 3 mons at {ses-node1=192.168.100.11:6789/0,ses-node2=192.168.100.12:6789/0,ses-node3=192.168.100.13:6789/0} election epoch 6, quorum 0,1,2 ses-node1,ses-node2,ses-node3 osdmap e57: 3 osds: 3 up, 3 in flags sortbitwise pgmap v3256: 408 pgs, 15 pools, 70949 kB data, 505 objects 322 MB used, 45724 MB / 46046 MB avail 408 active+clean ceph calamari backend, romana frontend inclus avec suse enterprise storage install calamari puis deploy --master monitoring-mode alaister@suse.com&lt;/textarea&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>
<item xml:lang="fr">
		<title>Notes Sysadmin Days #6 - Paris</title>
		<link>https://www.coincoin.fr.eu.org/?Notes-Sysadmin-Days-6-Paris</link>
		<guid isPermaLink="true">https://www.coincoin.fr.eu.org/?Notes-Sysadmin-Days-6-Paris</guid>
		<dc:date>2016-02-18T14:20:00Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>


		<dc:subject>linux</dc:subject>
		<dc:subject>bigdata</dc:subject>

		<description>
&lt;p&gt;*on est pas l&#224; pour vendre de la magie, 8 ans de conf* &lt;br class='autobr' /&gt;
# sysadmin de combat (FRED DE VILLAMIL) attention au budget divergence de priorit&#233; =&gt; &#034;redonner confiance dans l'infrastructure&#034; 50/50 scrum+run, planif ve pm, daily standup mach. caf&#233; astreinte tournante, toujours donner une date pour le delivery les dev font la MEP via jenkins+ansible (=&gt; java / go) monte une &#233;quipe s&#233;nior (pour ne pas faire de micromanagement, mont&#233;e en comp&#233;tence rapide) profil cher entre 50/90 attention (&#8230;)&lt;/p&gt;


-
&lt;a href="https://www.coincoin.fr.eu.org/?-Au-boulot-" rel="directory"&gt;Au boulot&lt;/a&gt;

/ 
&lt;a href="https://www.coincoin.fr.eu.org/?+-linux-+" rel="tag"&gt;linux&lt;/a&gt;, 
&lt;a href="https://www.coincoin.fr.eu.org/?+-bigdata-+" rel="tag"&gt;bigdata&lt;/a&gt;

		</description>


 <content:encoded>&lt;div class='rss_texte'&gt;&lt;textarea readonly='readonly' cols='40' rows='586' class='spip_cadre spip_cadre_block' dir='ltr'&gt;*on est pas l&#224; pour vendre de la magie, 8 ans de conf* # sysadmin de combat (FRED DE VILLAMIL) attention au budget divergence de priorit&#233; =&gt; &#034;redonner confiance dans l'infrastructure&#034; 50/50 scrum+run, planif ve pm, daily standup mach. caf&#233; astreinte tournante, toujours donner une date pour le delivery les dev font la MEP via jenkins+ansible (=&gt; java / go) monte une &#233;quipe s&#233;nior (pour ne pas faire de micromanagement, mont&#233;e en comp&#233;tence rapide) profil cher entre 50/90 attention communication =&gt; slack incidents (uniqt chef du support, transparence, sans alaramant, ETA pr&#233;cis si possible) reporting hebdo de 3/4 slides (contexte d'une p&#233;riode de crise d'un an pour remonter un cluster galera), nb incidents, heures d'inter, .... et ETA projets d&#233;couverte : monitoring, nmap+ssh+facter &#034;pour voir&#034; dans un CSV / tcpdump sur des fw/ansible , attention puppet/ansible d&#233;but: rester humble, laisser ce qui marche et ceux qui savent faire, test de red&#233;marrage de services &#034;pour voir&#034;, &#034;se concerter sur ce qu'on ne connait pas et qui marche plut&#244;t que sur ce qu'on connait mais qui ne marche pas&#034; Documentation (interne Zabbix) Attention aux env. non ma&#238;tris&#233;s Dificult&#233; de reprises d'unfra mont&#233;e par des dev qui &#034;pensent&#034; diff&#233;remment : un mach/un service pas de vhost/ .... ## questions confluence, gitlab (markdown) essayer de d&#233;l&#233;guer SAS au possible &#034;tu bosses le week-end&#034; pour tenir tes ETA besoin d'&#234;tre capable de dire &#034;non *plus tard*&#034; jira pour sprints (redmine abandonn&#233;), &#034;pager duty&#034; &#224; venir Gandi =&gt; Trello pour daily meeting revue de doc/code review par gitflow troll AWS : utilisation d'autoscaling pour les machines qui tombent toute seule troll OVH : couche ethernet revue et corrig&#233;e # Grid 5000, Lucas Nussbaum, a hpc, big data, INRIA, universit&#233; de Lorraine Debian Project Leader de 2013,15 Licence Pro Adm. Sys R&#233;seaux App. Logiciels Libres Recherche sur exp&#233;rimentation scientifiques essaie de fournir une infra de qualit&#233; comparable aux autres composants de recherche (biologie, physique, ....) renater 10g 10 sites, 25 cluster, 1000 nodes, 8000 cores 550 personnes difficult&#233; de cloud public (difficult&#233; de monitoring, placement, perf) utilisation de BonFIRE (infra dedi&#233; observation) bare metal as a service, reconfigurable &#224; la demande desc. env. en json avec archivage de conf utilisation outil maison g5-checks pour comparer desc stock&#233;e avec desc g&#233;n&#233;r&#233;e (appel OHAO, ethtool, ....) besoin GPU, wattmetter, software, garder stable cr&#233;ation de kadeploy (bare metal, hardware as a service), boot en PXE, 200 nodes en 5 min(car deux reboots hardw) KaVLAN pour tagguer les r&#233;seaux sur les &#233;quipements r&#233;seau http://kamaleon.imag.fr : generation d'appliance (avec utilisation de cache des images &#233;talonn&#233; / archiv&#233;es) http://distem.gforge.nria.fr : utilisation de LXC pour quotas de CPU/Core Utilisation Charm++ lb HPC avec distem &#034;Ralentir le temps pour que le CPU et le r&#233;seau aille plus vite&#034; : Time Keeper (facteur de dilatation du temps de LXC) sous Linux ou dilatation du temps (DieCast sous Xen) time shifting en roadmap monitoring en mode d&#233;couverte avec Ganglia + sondes r&#233;seau/DPU/... utilisateurs = doctorants, &#233;tudiants M2, ...., =&gt; shell =&gt; cr&#233;ation d'une API d'orchestration XPFLOW env. unique au monde de support d'exp&#233;rimentations ## questions pas de pb sur mesure 1/sec sur switchs Ironic (OpenStack) vs Kadeploy (plus vieux, plus de fonctions) criu.org =&gt; checkpointing de jobs =&gt; appeler Master I2L pour reorienter AsminSys si possible # ElasticSearch chez Synthesio par Fred De Villamil Synthesio: parcours de site social, enrichissement de donn&#233;es 271To de cluster, 7 To de RAM, 3 cluster, 116 serveurs, 60 milliards de doc index&#233;s Elasticsearch : moteur de rechcerche distribu&#233; bas&#233; sur Lucene, base sur &#034;Solr on steroid&#034;, ancien nom Comment : 1 index, 512 chards avec un routage au mois (au lieu de la semaine nitialement), 47 deian en java 1.8 =&gt; dashboard1GC / GCPausIntervalMillis=1000 / InitiatingHeapOccupancyPercent=35 =&gt; plus d'out of the world =&gt; tuning field data : limit ) 80% sur breaker, 30% de cache size sur la heap, expire 1 minute : options deprecated dans le futur D&#233;conseill&#233; par la doc ES, pas vu de pb de perf, plus de perte du cluster step2, 1 index par dashbpoard pour 10 milliards de documents 2 clusters iso en ES 1.7.5 (1.7.4 bug de memoire grave) 2 VM ) 64 G de RAM 3 master, 3 de RAM 0 nodes&#224; 32 G RAM 1 inde par dashboard, 1 shared =&gt; versionning du mapping possible grace &#224; Baldur Baldur = proxy nginx en LUA (r&#233;cup cluster + id de mapping en base MySQL) =&gt; modification de mapping se fait dans la base mysql alors que les data sont en cours de traitement cot&#233; cluster et donc cr&#233;ation de milliers de segments lucene cr&#233;ation de plus de seglents que de suppression, donc les index peinaient &#224; &#234;tre construit =&gt; otpim en continu sur ordre deleted + sur index x-1 =&gt; utilisation de &#034;rack awareness&#034; ES : blocage d'allocation pendant un A/R par rack Nouveau cluster : 70 serveurs 36 index 50 milliards de documents 120 T de donn&#233;es, 160 T de capa, 1 idx/mois, 30 shards 2 query nodes 31 G 62 data node en Xeo D, 64 G RAM, 3,2 T RAM 3 cluster galera et un cluster ES dans un kafka indexer en Go sur 8 machine et doit r&#233;cup&#233;rer une queue par an sur le data node pour l'idexation sans passer par le query pas de replicat pendant l'indexation pour diminuer les ressources ES tente de mettre les requetes en cace sur les requettes en lectures (pb de cache si range , utilisation de YourKit pour debugger la heap au crash dump (&#224; cette epoque 1.7.4 =&gt; passer en 1.7.5 !) =&gt; d&#233;sactivation des caches + parall&#233;lisation des requetes par index next : 50 millions de doc/jour (plus de sphynx, maintenant utilisation de percolation = indexation invers&#233;e dans ES) 35000 rq &#224; tester, en percolation on a une estimation de 1700 milliards de req =&gt; routage sur la langue des documents , objectif 100 000 req/sec ## questions ES en 2 ? pb de r&#233;&#233;criture de query (DSL de sphynx vers ES d&#233;j&#224; fait, &#224; refaire pour passer en ES2) pas d'&#233;tude d'autre soft par comp&#233;tence monotiring ; marvelpour le temps r&#233;el (marvel pour monitorer + cluster de monitoring de marvel lui-m&#234;me) ; le reste est graff&#233; par Zabbix sauvegarde / archivage ? non car toute la donn&#233;e brute est dans mysql (25 To dans un Galera), ES n'est pas pr&#233;vu pour stocker, ce n'est pas MongoDB snapshot ? S3 ou N/Z/.../FS : 10 To trop gros pour g&#233;rer des snapshots Utilisation de plugin d'analyse linguistique tels stemmer chiffrement inter noeud : non =&gt; &#233;tude FS chiffr&#233; pas d'ACL sur ES unicast conso de disques SSD de plu sen plus importante OVH ; coupure &#233;lectrique ou r&#233;seau : systeme de maitre / quorum =&gt; donc pas de soucis sur ES. plus de corruptions de donn&#233;es depuis la 1.0 # Puppet at Gandi, Aur&#233;lien Rouhemont, Arthur Gautier Equipe de 15 personnes puppet = QUE un gest de conf = framework, pas grand chose out of the box pas un orchestrateur, pas la &#034;silver bullet&#034;, ce n'est pas l&#233;ger Gandi, pourquoi ? pull model (se fait pas viol&#233; par un SSH de l'externe) ; promise theory (mark de cfengine), en 2009 pas grand chose, utilisation master , DSL simple, pas besoin de conna&#238;tre le ruby, descriptif pour aller vers un &#233;tat final (si d&#233;claration de d&#233;pendances), populaire Configuration Management chez Gandi : avant 2009 : Makefile, package, Awk, 2009 : premier repo puppet SVN alors que personne ne faisait de ruby 2010 : pas de module, un site.pp 2011 : r&#233;flexions hiera et template (module + conf. ext&#233;rieure) 2013 : pas d'upgrade puppet 3.x possible 2014 : g&#233;n&#233;ration de monitoring dans puppet (il g&#233;n&#232;re la conf pour la pf de monitoring : nagios, thrunk) 2015 : en 10 jours, r&#233;&#233;criture de 250 modules puppet en 3.7 2016 : orchestration Ouverture aux d&#233;veloppeurs, merge request, depuis 2013 Comment ENC : MySQL + insertions + Perl =&gt; utilisation d'un YAML &#224; partir de 2015 Facts Matters : meta comm eun autre pour d&#233;finir des groupes de serveurs, ce n'est pas natif, il faut penser &#224; la faire, ,notion de flavor = sous groupe de farm savoir si un module est utilis&#233; =&gt; au d&#233;but pas de forge puppet (coup d'entr&#233;e assez cher pour du non ruby fluent), exemple42 pas dispoi &#224; l'&#233;poque, cr&#233;ation d'un templae de module : init.pp, install.pp (packages uniq), config.pp, files.pp, cron.pp, service.pp : conv. de nommage de variable depuis hiera dans l'init.pp (cron.pp : gestion de cron au lien symbolique) un rep temlate par flavor coding style human readable !, code portable, utilisation de best practices, ex files = collection d'object, pas un objet 20 &#224; 60% de perf mieux sur gros catalogues de file sjusqu'en 2.7 hiera as datasource nodes / farm, datasource, room, etc ... puppet vanishment history &#224; voir sur puppetlabas dynamic variaable scoping sad panda =&gt; tig (arbre git) =&gt; 250 branches git : taken.owner, taken.done pour ne pas se marcher dessus datatypes mieux cod&#233;es avec stdlib hiera merging policy =&gt; le change est devenu merge (ex sur acl) gitlab pour repo coupl&#233; &#224; un jenkins puppet linting + rule du gandi module layout + syntax validation + yaml validation + erb syntax validation passage 3.7 a uniformis&#233; le niveau d'admin puppet puppet environment=&#034;mergerequest&#034; utilisation d'un git merge --no-comit jenkins appelle le puppet-lint erb -P -x -T file.rb pupeet-db =&gt; json =&gt; jinja =&gt; nagios mcollective fait le puppet run mcollective joli mais fragile version web de hiera =&gt; hieraviz pour lire la base hiera : id&#233;e &#233;crire depuis hieraviz https://github.com/gandi/hieracles Etude d'impact en cours alias puppet status, puppet lock + motif + Conclusion puppet n'est pas un orchestrateur =&gt; ansible ? abandonner le tas de yaml avec une API / CMDB ## question reporting : foreman, mais pas plus que &#231;&#224; envisag&#233; : consul ? hitop (en php) ? modules fait maison uniquement pour l'instant puppet4 : pb des modules tout fait puppet enterprise : idem, pas de forge dump d'inventaire &#224; partir du DNS, attention aux alias itop trop gros par rapport aux besoins un puppet master de production, utilisation des environnements plusieurs run pour passage OK parfois et tol&#233;r&#233; =&gt; voir le &#034;puppet virtual nodes&#034; pour le test de code puppet # Blocage dynamique de pages web (Fr&#233;d&#233;ric Vanni&#232;re, planet-work.com) NGINX/LUA 400 machines, virtu, Freebsd pour les backup 10000 sites, 30% wordpress =&gt; spam, phishing stockage sur Netapp en NFSv3 Archi NGINX en front reverse proxy (apache tient peu la charge sur ce besoin), statiques h&#233;berg&#233;es en front Solution OpenResty = module NGINX + LUA Cl&#233; valeur de blacklist via DNSBL blaclist.conf : conf dnsbl g&#232;re le blocage + deblocage par mot de passe pour l'acc&#232;s client D&#233;tection : gestion des logs via rsyslog centralis&#233; (en rfs5424) - stack ELK : (logstash 1.4 fragile aux caract&#232;res mal encod&#233;s) - tests HekaD (projet Mozilla, en go, multithreads, sandbox LUA) (&#233;crit dans un elasticsearch) : attention une fois le msg trait&#233;, plus d'alt&#233;ration possible. Pr&#233;vu pour la m&#233;trologie : collectd-&gt;aggreg-&gt;influxd =&gt; cr&#233;ation d'un flitre sandbox LUA =&gt; openresty &lt; 3 avec validation auto Let's Encrypt : script python tiers (cloudflare) pour v&#233;rifier les expiation http://pw.fr recrute sur Paris / Rennes (l'an prochain) 5 techos &#034;on est pas l&#224; pour vendre de la magie, 8 ans de conf&#034; ## questions Quid de la rotation : perte possible mais NGNINX, permi Pas de pb de perf sauf sur ES # Gestion des services par Gandi (Fabrice Daroussin) pr&#233;sentation,attention aux m&#233;langes watchman launchd systemd openrc upstart (tous vivant) init historique : petit, process pere de tous les processus, ne gere pas la gestion des services (inittab ou ttys de freebsd) puis d&#233;l&#232;gue &#224; sysvinit, rcng (freebsd), rc (openbsd) Mais pas de cycle de vie, pas de moyen que le service est rendu, difficile d'assurer la coh&#233;rence entre les scripts d'init, pas de gestion de ressources (RAM, CPU, sandbox de l'OS, ....) supervision par un pid uniquement (souvent loup&#233; pour lemonitoring si double fork) gestion des d&#233;pendances faibles framework, souvent en shell (posix, bash, zsh) ex: Dabian Dash gestion d'erreur en shell pas simple car trap etc .... complexe &#224; isoler (/etc/init.d/truc start) (mais pb sur les variables d'enrionnement) =&gt; comman de service pour contr&#244;ler variables d'environnement (pr&#233;sente sous Linux, FreeBSD, systemd) complexe pour coh&#233;rence multi OS (m&#234;me multi Linux) pas de gestion de performances ni de surveillance de processus fiabilit&#233; al&#233;atoire du status (souvent que le p&#232;re) pas de gestion d'&#233;v&#232;nementielle (ex cupsd uniquement si printer) ex : inetd evenement =&gt; udev =&gt; script de service =&gt; latence pas de fault management (ex les workers apaches en failed) difficile de faire un d&#233;mon : user non privil&#233;gi&#233;, attention au chroot sans chdir, refaire un setrlimit (mais chacun veut le faire) (s attention aux parents laxistes qui abandonnent leurs enfants (apache et fiston) peu de parall&#232;le de service, trous dans les logs Solutions : PID via process descriptor FreeBSD 10.0, Linux 4.1 : polling de race reapers (garder les trace des fils) : Linux 3.4 (dbus), Solaris 10 (contracts), FreeBSD10.2, Dragonfly 4.0 : un service pour d&#233;marrer les services apache Services : G&#233;nerer les services via sandboxing R&#233;activit&#233; : devd envoi sans parser tous les scripts Format pas important ; description yaml, json, ini, ....mais la description est importante Gestion des sockets pour s&#233;paration de privil&#232;ges, ex bufferisation de logs si syslog cass&#233; Utiliser un IPC (s&#233;parer les taches) =&gt; remplacer init ? pas utile, aucun service actuel ne g&#232;re toutes les demandes vues ici ? SMF (Solaris) g&#232;re le monitoring (mais Over engineer) a conserv&#233; init, cron, ...., fault management R&#233;f&#233;rences : do_command.c de Paul Vixie Solaris Service Management Facility Modern System Startup ## questions systemd : approche, manquant &#224; SMF : le pid pere est encore crucial, pas encore de tracabilit&#233; de fils car utilise les cgroups # Linux Crashdump analysis - Adrien Mahieux, github.com/Saruspete Kernel Recipes 2015 crashdump / kdump : snapshot de la m&#233;moire en cours, principalement Linux, sysadmin se fait via kexec &amp; panic 64 &#224; 512 M de RAM vmware : suspend , vmss2core libvirt : virsh dump guest Get : kernel config KEXEC=y .... bootoption : crashlernel=auto (auto = X@Y r&#233;&#233;cri) indiquer un masque sur pages priv&#233;es, userland, .... dump entre 100M et 2G si utilisation intensive impi power diag (NMI via IPMI) virsh inject-nmi guest attention au kernel.unknown_nmi_panic=1 =&gt; car le code NMI n'est pas le m&#234;me pour tous les constructeurs mais peut etre en conflit avec ooprofile OOM : vm.panic_on_oom=1 Analysis : crash via Dave Anderson de RedHat (gdb) RedHat : debuginfo-install kernel Debian : apt-get install linux-image-$'uname -r)_dbg m&#234;me commandes que dans gdb (bt ....) Live kretprobes : CONFIG_STRICT_DEVMEM savoir si on sait lie sur /dev/mem OpenGrok fast code source browser voir makedumpfile sur chitranshi fence kdump sur ovirt.org ## questions un red&#233;marrage via kexec, puis un red&#233;marrage normal # Performance Analysis, fro msilicon to algorithm (microsecund hunter) sysadmin : utiliser des algo pour contourner des pb hardware, tuning d'appli, .... besoin de bien conna&#238;tre le client, protocoles, .... attention au ratio gain / co&#251;t Souvent regarder c&#244;t&#233; application pour optim' Comment &#231;a marche ? balance d'&#233;l&#233;ments storage lent : ajout redahead ou RAM network : offload, DMA RAM slower than CPU, add L1/L2/L3 cache video : utilisation GPU .... memory management : m&#233;chanismes de segmentation MMU : @locique : segmentation =&gt; virtual pagination =&gt; physical allocation kernel linux overcommit (resident 100m versus allocation 17 Go) =&gt; overcommit attention OOMKiller qui lib&#232;re dec RAM (algo plu sou moins heureux), score tunable via /proc/&lt;PID&gt;/oom_score/adj buddy allocator : ex plusieurs giga lobres mais mem fragment&#233;e, car meme pas utilisable si pas contigue =&gt; utilisation du SLAB cache pour limite la fragmentation : CPU : kernel scheduler, via la variable HZ ticks gene&#232;re les jobs : context switch userland =&gt; syscall =&gt; libc (wrappers) open,malloc,mmap =&gt; gates : possible d'acc&#233;l&#233;er via VDSO (gettimeofday, ....) R&#233;seau : ethtool -g &lt;int&gt; : taille du ring buffer (DMA) en RAM et gn&#232;re une interruotion optim harware (plusieurs queue sur carte 10 G), voir le blog de Claude Feder Storage IO sont en syscall, scheduler d'IO &#224; observer coherence en terme de cohrence ZFS et BTRFS pas de VFS, ext/xfs/ oui .... puis elevator donne request queue : cfq defaut), deadline : garanti le wait (databases) , noop (SSD) mmap : bcp overhead mais rapide Mesurer 'Use method) : Brendan Gregg Netflix (auteur de netflix) utilization actuelle, quelle est la saturation, quelles sont les erreur sampling : ps, top, perf tracing : auditd, ktrace, systemtap, gdb conter : intel pcm, numastat, user feedback rappel des slides netflix Quoi faire rapide, robuste, pas cher, jamais possible d'avoir les 3 * latence : tps de traitement de signal : isolcpu, ou nohz_full (desactiv les tick, attention &#224; irqbalance =&gt; attention &#224; la dacdrer ou le d&#233;sactiver , / d&#233;sactiver le coalescing / attention au readahead, penser &#224; le d&#233;sactiver, compression (ZFS: cout een CPU mais &#233;conomise en stockage) fibre optique c'est lent : sniperinmahwah.wordpress.com (hyperthreading haute fr&#233;quence) =&gt; la lumi&#232;re est rapid dans le vide uniquement * d&#233;bit : difficile car li&#233; &#224; chaque comppsant disk, r&#233;seau, aute (ex: chunk size, jumbo fram, en gros plus il y a de RAM, mieux &#231;a marche) * jitter : industriel, realtime, moteur carburant / air, pr&#233;cis et fiable, ex un thread kernel au lieu d'un thread kernel par CPU : isolcpu, nohz_full, ... A la recherche des probl&#232;mes perf et les flamegraph version de pagefault ou diff flamegraph systemtap : utilise les debuginfo comme crashdump : g&#233;n&#232;re du code C et injecte dans le kernel Et le hardware * CPU Interl PCM (performance counter monitor) intel.com/ peformance ... MSR : Model Specific Register: module msr pour la RAM, trop tard, maintenant c'est le CPU qu ig&#232;re on peut avoir les erreurs ECC avec dmidecode * NIC : DPDK OpenFabric : kernel bypass; Infinibands &#233;crit dans la RAM des voisins ## questions moyen de voir si c-state activ&#233; ou pas : cpufreq (cpupower monitor) i7z : lit les donn&#233;es relatives &#224; la freq du CPU powertop : applis qui g&#233;n&#233;r&#233; interruptions, wakeup tuned : fait le job, mais fait trop de chose qu'o ne veut pas forc&#233;ment si processeur change de socket, pas forc&#233;ment besoin de RAM en RAID, mais pb sur m&#233;morie cache CPU, donc int&#233;r&#234;t &#224; garder les proces sur le m&#234;me coeur (isolcpu) FreeBSD : &#233;quivalences ? voir la map de Brendan Greg existe aussi pour Solaris ## Retour d'exp&#233;rience sur un scan de d&#233;tection de malware sur une infrastructure h&#233;bergeur, par Julien Reveret, NBS Systems Projet d'actualit&#233; : nettoyage du canal saint-martin (pneus, matelas, ....), =&gt; machines clients idem Dev. internes : Julien Voisin, PHP-malware-finder bas&#233; sur yara (d&#233;tecter les malwares les plus courants uniquement) ex. beaucoup de bruit, puis analyse par un humain, un seul fichier avec malware autres faux positifs =&gt; identification par hash cryptographique : liste blanche &#224; partir des faux positifs =&gt; pouss&#233; sur github.com/nbs-system/php-malware-finder R&#233;sultats : machines avec infections dormantes (une dizaine), des faux positifs ; du faux positif, de la whitelist et finalement trouv&#233; un webshell alors qu'il &#233;tait PCI-DSS ! ; un module tiers magento ressemblant &#224; un malware ; divers webshell Beaucoup de craptographie chez les d&#233;veloppeurs PHP :-) Temps de traitement : 7 heures pour 100 machines en NFS ## questions A t'on le droit d'ouvrir les fichiers des clients =&gt; ici oui, audit de code d&#233;j&#224; pr&#233;vue Netapp : utilsation de fpolicy sur fichiers modifi&#233;s ? =&gt; &#224; voir supervision ? pas encore # Nouveaut&#233;s de FreeBSD 11 Baptsite Daroussin (probablement inclut en 10.3 beta) fin ia64, ajout arm64 et risc-V ; improve ARM : dtrace &amp; more CloudABI = format binaire cross OS sandbox&#233; mais d&#233;pendant de l'arch, enregistr&#233; au niveau de posix pour avoir le num&#233;ro elf associ&#233;, toolchain : lldb par d&#233;faut amd64 migration binutils vers Elftoolchain (sauf ld network : plus de support IPX et appletalk, new version netmap (&#233;mulation de n'importe quel driver r&#233;seau), modularisation stack TCP, et ajout de TCP fastpath (possibilit&#233; de swither) storage : am&#233;liorations perfs NFS et &#034;cable control layer, iSCSI), am&#233;liorations ZFS, I/O throttling dans des jails maintenant possible + HA en iSCSI (actif-passif) ; module sendfile r&#233;&#233;crit par Netflix Virtu : Xen dom0 (support domU) , bhyve (hyperviseur natif issus de Netapp) : peut booter du Linux et m&#234;me Windows, Illumos ou Dragonfly via &#233;mulation UEFI ; HyperV guest tr&#232;s am&#233;lior&#233; ; jails : ajout d'arg. CARP sur ip4/ip6.addr si vnet uniquement, top et ps &#233;mul&#233; Nouveaut&#233;s : fstyp, devctl, uefisign, sesutils (equiv sg3-utils), numactl, autofs (automontage d disque dans les VM BSD chez Gandi en cas d'ajout de volume), casperd (sandboxing capxicon), mprutils/mpsutils (utiliataires LSI equiv megacli) divers : support UEFI et GELI sur loader, support de Boot Environment dans le loader, groff remplac&#233; par mandoc ; m&#234;mes bases de locales que Linux ; maintenant linux64 ; ajout de Dragonfly Mail Agent (sendmail off) Kernel crash dump chiffr&#233;s package de la base Arriv&#233;e 27/07/2016 ## questions support multi-&#233;cran : en court # Du syst&#232;me au r&#233;seau, histoire d'un coming-out Pourquoi ? bankable datacenter L2 vlan firewall core (backbone, bgp) acess (collecte, CPE) monde network assez ferm&#233; =&gt; peu de doc, peu de partage de connaissance, beaucoup de matos proprio et os proprio &#233;volutions parfois publiques plus de r&#233;seau humain (peering, op&#233;rateurs, aide DDOS, aller aux FRNOG) A venir automatisation : norme netconf =&gt; ansible, pyez, napalm SDN : pose questions de design L2less routeur opensource : DPDK, ou packet journey de Gandi , bird (un quagga like) switch open en cours de dev : OS open, chipset proprio (Broadcomm, Marvell, ....) JunOS ou pas =&gt; Cumulus (Debian modifi&#233;e), implem OpenSwitch &#224; venir&lt;/textarea&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>
<item xml:lang="fr">
		<title>Notes Suse Expert Day 2016 Paris</title>
		<link>https://www.coincoin.fr.eu.org/?Notes-Suse-Expert-Day-2016-Paris</link>
		<guid isPermaLink="true">https://www.coincoin.fr.eu.org/?Notes-Suse-Expert-Day-2016-Paris</guid>
		<dc:date>2016-02-03T14:04:00Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>


		<dc:subject>linux</dc:subject>
		<dc:subject>virtualisation</dc:subject>

		<description>
&lt;p&gt;rappel uber =&gt; moins de soustraitance shadow factu =&gt; shadow it &#034;docker, vous n'y &#233;chapperaez pas&#034; &lt;br class='autobr' /&gt;
SLES 12 SP1 Rappel cathedrale et le basard assurer stabilit&#233; et support6SP attendus + extended support = 13 ans find SLES 12 GA = 2016-06-27 presentation en mindmap maintenances systemd + wicked Ajouts : yast2-journal (journalctl de de systemd), SMT dans zypper now, SSO shibboleth teamd remplace bonding - &lt;br class='autobr' /&gt;
SP migration chang&#233;e pour Suse manger3 migration possible de 11SP3 &#224; 12SP1 gestion des (&#8230;)&lt;/p&gt;


-
&lt;a href="https://www.coincoin.fr.eu.org/?-Au-boulot-" rel="directory"&gt;Au boulot&lt;/a&gt;

/ 
&lt;a href="https://www.coincoin.fr.eu.org/?+-linux-+" rel="tag"&gt;linux&lt;/a&gt;, 
&lt;a href="https://www.coincoin.fr.eu.org/?+-virtualisation-+" rel="tag"&gt;virtualisation&lt;/a&gt;

		</description>


 <content:encoded>&lt;div class='rss_texte'&gt;&lt;textarea readonly='readonly' cols='40' rows='128' class='spip_cadre spip_cadre_block' dir='ltr'&gt;rappel uber =&gt; moins de soustraitance shadow factu =&gt; shadow it &#034;docker, vous n'y &#233;chapperaez pas&#034; SLES 12 SP1 Rappel cathedrale et le basard - assurer stabilit&#233; et support6SP attendus + extended support = 13 ans find SLES 12 GA = 2016-06-27 presentation en mindmap maintenances systemd + wicked Ajouts : yast2-journal (journalctl de de systemd), SMT dans zypper now, SSO shibboleth teamd remplace bonding - SP migration chang&#233;e pour Suse manger3 migration possible de 11SP3 &#224; 12SP1 gestion des extensions (cloud etc ....) migration possible et rrollback si pb (btrfs &amp; snapper) Note e, SP12SP1 : xend a &#233;t&#233; abandonn&#233; par la comminaut&#233; , pousse &#224; migrer vers libvirt possibilit&#233; via guestfs de passer de xen &#224; kvm OpenQA = clickodrome pour jenkins &amp; co , exemple - valider syst de fichiers, - pacjages, - benchs =&gt; GUI sur &#233;tat des test r&#233;alis&#233;, &#233;chou&#233;, autre .... JeOS = SLE pour virtu : 300 M (pas encore docker &#224; 25 M) Docker / SUSE &#034;facile de faire n'importe quoi&#034; pb de registtry docker io =&gt; prthus : rechereche authenticifaction Canal module docker de Suse pour avoir les images docker (12SP1 en mars) comparaison avec pulse u rutiliser portus, bien faire le docker login avant sinon part vers docker io par d&#233;faut destination &#224; pr&#233;ciser pendant le docker tag puis docker push virt-builder = gestion de cache d'image et personnalisation durant le download , &#224; venir image jeos en Suse SP2 \_&gt; ex modifier les password, format d'image disk, taille du disk, etc .... =&gt; faire du docker 2 libvirt Suse Manager 2016 Antoine Pierre Suses support RedHat, CentOS, SLES, provisionning VM, bare metal package management via channels et patchs \_&gt; ajout de configuration en plus des patchs, gestion des CVE, openscap \_&gt; en SM3 : ajout de gestion de configurations via SaltStack + souscriptions + monitoring (icinga int&#233;gr&#233; : deploiement auto des sondes en activant le monitoring depuis suse manager puis le push vers Nagios) Commandes via SALT? sans passer par OSAD Ex : gestion des LVM, v&#233;rifier des ports, firewall, etc ... salt-key -L = puppet cert list Besoin d'un d&#233;mon sur le client =&gt; besoin d'accepter les minions depuis suse manager monitoring avec des test d'hdparm par exemple Ajout d'un &#034;Remote command&#034; execution de coimma des via le serveur saltmaster jeux d ecommandes peuvent etre brid&#233;es via spacewalk =&gt; sorit mi 2016 Bonne spratiques en cours de travail (script de migration suse manager 2.1 vers suse manager 3, ) CEPH &#034;je vosu regarde droit dans les yeux, oui, vous pouvez mettre vos donn&#233;es l&#224; dedans&#034; Attention, pas de VM prod encore, pas assez d'IO pour cela stockage froid essentiellement A venir bient&#244;t : compression &#224; chaud, dedup, cluster FS, &#034; lopen source est farceur sur les noms, surtout ils prennent beaucoup de lsd&#034; A OSD / disk storage node = serveur x86 algorithme crosh pour CEPH 3 monitor / CEPH =&gt; trosis reference fichier SES2 : iSCSI + objet SES3 : asynchrone?, CEPH FS, NFS =&gt; Pierre ; CEPH et r&#233;plication dans espace de travail Owncloud Blog OS David Byte Suse =&gt; 10g de preference, bonding sur 5 cates rx OpenStack Suse Cloud 6 IAAS )&gt; PAAS )&gt; CAAS (container) software defined ravio release update &#224; partir de Suse CLoud 6 !!! HA syr EC Dept auto HA via OCF? Pacemaker HAWK2 admin pacemaker attention &#224; ne pas subir les contraintes des etudes openstack permet catalogue de services rapprochement de Pivotal (cloundfoundry) nova : EC2 pour instancier des VM dont l'image vient de Glance noca-docker : EC2 pour instancier des images dockers dans un Glance (au format adapt&#233;) pivotal &#233;marr&#233;es depuis nova Heat : orchestrateur OpenStack, c'est lui qu iorchestrera les container sur les les VM via kubernets ou swarns plugin magnum : baies kubernetes, baie rocketOS, .... et eat orchestre via nova =&gt; pas production ready crawbar = projet Dell initiallement, voir Fuel comme alternatove &#224; crawbar&lt;/textarea&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>
<item xml:lang="fr">
		<title>Notes Configuration Management Camp 2016</title>
		<link>https://www.coincoin.fr.eu.org/?Configuration-Management-Camp-2016</link>
		<guid isPermaLink="true">https://www.coincoin.fr.eu.org/?Configuration-Management-Camp-2016</guid>
		<dc:date>2016-02-02T14:02:00Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>



		<description>
&lt;p&gt;# Ouverture 600 personnes, complet HoGent = univ. management &lt;br class='autobr' /&gt;
# Mark Shuttleworth, Canonical Magic if application modeling =&gt; stop cfgmgmt !, juste &#233;crire des logiciels &#034;on ne compile plus&#034; on ne manage plus sa collection, on cherche de la musique, =&gt; cfg / &#034;big software&#034; Besoin d'un liant comme apt-get/rpm le fait pour les soft c++ &amp; co =&gt; secr pour lier les briques openstack ? Beosin de d&#233;finir un mod&#232;le de &#034;liant&#034; pas les machines, ni les configuration, mais le logiciel lui m&#234;me Une (&#8230;)&lt;/p&gt;


-
&lt;a href="https://www.coincoin.fr.eu.org/?-Au-boulot-" rel="directory"&gt;Au boulot&lt;/a&gt;


		</description>


 <content:encoded>&lt;div class='rss_texte'&gt;&lt;textarea readonly='readonly' cols='40' rows='269' class='spip_cadre spip_cadre_block' dir='ltr'&gt;# Ouverture
600 personnes, complet
HoGent = univ. management # Mark Shuttleworth, Canonical
Magic if application modeling =&gt; stop cfgmgmt !, juste &#233;crire des logiciels
&#034;on ne compile plus&#034;
on ne manage plus sa collection, on cherche de la musique, =&gt; cfg / &#034;big software&#034;
Besoin d'un liant comme apt-get/rpm le fait pour les soft c++ &amp; co =&gt; secr pour lier les briques openstack ? Beosin de d&#233;finir un mod&#232;le de &#034;liant&#034;
pas les machines, ni les configuration, mais le logiciel lui m&#234;me
Une appli = instal, config, scale, .... monito .... bench .... &lt;= TOSCA ?
il ne reste qu'&#224; configuerer des interfaces avec des relations entre besoin logitiels
juju encapsule les logiciels de cfg # Vault, security, secret management, hachicorp
secret vs sensitive
credential, password vs DC location, social engineering, ...
gestion des revocation et type d'encryptions
config mgmt : no access control, no auditign no revocation, no key rolling
pourquoi pas de consul ou zookeeper , pas pour des secrets, pas de chiffrement des donn&#233;es, pas d'audit
when, where, what compromised password
openssl commandline pour les cert (pas les CA, ni les CRL)
Now, Vault
dynamic secret (on demand password sur root par exemple), renew et CRL, autit, rich ACL(read,write,deny),
256bits AES in GCMm mode accessible par REST
TLS 1?2 sans HSM
ex : vault read secret/foo
every secret has a lease
backend audit et logging
authent possible via token, githubn certificats, .....
haute dispo via consul (++), etcd, zookeeper,
vault demande la cl&#233; d'encryption &#224; chaque red&#233;marrage
protect encrypt key with master key puis split master key
quorum de cl&#233;
default N:5 T:3
Vault dans la vraie vie
http+tls, CLI + consul
vault client support : libs en go, ruby, etc ....
gestion des informations sensibles (CC, eault.
mail, ...) PII en transit via Vault
2 facter , versionnning
&#034;developpers don't need to understand security&#034;pb de perf peut- etre
CA, Vault peut faire CA, store CA, genere TLS keys =&gt; le cert est stock&#233; DANS Vault
Un Cert peut etre revoqu&#233; si la CRL est stock&#233;e &#224; cot&#233; DANS Vault
possibilot&#233; de CA interm&#233;diaires
hashicorp/vault
vaultproject.io # Moving to puppet4, spotify
Or how to get your act together : &gt;10k nodes
au d&#233;but, un simple plugin cfengine, puis puppet 2.7, d&#233;couverte
puppet3 : nouveaux jouets,
puppet4 : specifique orient&#233; system
1. besoin de se poser vraiment pour imaginer les nouvelles r&#232;gles
2. passer en 3.8 le code pour rendre compatible l'existant, puis mise &#224; jour des modules (Vox Populli)
3. configurer le parser &#224; ne pas faire avant 3.7.4
Attention aux parenth&#232;ses dans les facts par exemple
4. Alors la mise &#224; jour est possible en puppet4 (attention &#224; la version de ruby)
Deux moyens :
- partir d'un nouveau master
- utiliser des comparateurs de catalogue comme &#034;puppet catalogu differ&#034;, iis.gdcatalog_diff_viewer
Deux semaines de pr&#233;paration
3 jours de m&#233;nage, 0 incidents de production
1 an de revue de code pr&#233;paratoire
Vox Populli :60 modules, 50 admins # Securing Puppet
Peter Souter
La base : show_sdiff = false
voir le provider openstack puppetlabs pour une d&#233;finition de type &#034;maison&#034; pour les passwords
Nettoyer et factoriser le code, ne pas mettre de donn&#233;es en dur
encoder les passwords
trusted facts : http://docs.puppetlabs.com/puppet/3.7/reference/lang_facts_and_builtin_vars.html#trusted-facts
policy based autosigning : https://docs.puppetlabs.com/puppet/latest/reference/ssl_autosign.html#policy-based-autosigning https://puppetlabs.com/security # WINRM pour Ansible sous Windows # Ansible VM Lifecycle Management on Fedora
Toshaan Bharvani, System Orechstration Tool
VanTosh.com
utilisation de virt-install avec les param&#232;tres &#034;qui vont bien&#034; et le playbook final
yaml OK pour Linux (sauf ubuntu) et *BSD # Foreman &amp; remote execution
bas&#233; sur des templates
surtout pour provisionner
possibiliter d'ordonnancer les t&#226;ches (deadline)
A venir les notifications email, d'autres providers tels playbook ansible # Security &amp; Compliance, automation with Foreman and OpenSCAP
probl&#232;me de prononciation opeunesscap
set of rules security compliance, by NIST
open = impl&#233;mentation
https://www.youtube.com/watch?v=caSIW4-yhUk
derni&#232;re version openscap proxy pour foreman
possibilit&#233; d'uploader une policy &#034;d'entreprise&#034;
possibilit&#233; de lancer un run de fa&#231;on p&#233;riodique (weekly, ....)
foreman et proxy : 1.11 avec 0.5x plugin openscap # PXELess discovery and foreman
create hosts and baremetal
application d'un template de hosts
avec un template kexec (RHEL, CentOS, ...) # Managing Container Configuration with Metadata
Ganeth Rushgrove
manifest pour d&#233;crire un dockerfile
ajout de label par layer (vendor, date de release, lien, ...)
acessible via des filtres de docker images, visible dans un inspect du container ou encore le slabels de kuberntes
possibilit&#233; de g&#233;rer d udirectory listing ou documentation dans des metadatas
attention aux noms des cl&#233;s utilis&#233;es par le cli, correection de label via dli (docker label inspector sur github) # Choregraphy
Il existe des orchestrateurs tels HPOO, VMWare, ...
L'orchestration est un code informatique
vente d'un ordonnanceur hashicorp (atlas)
*Voir Theory of Promises*
Notion d'&#233;tat d'arriv&#233;e et de d&#233;part, pr&#233;voir des &#034;interfaces&#034; pour les &#233;valuer, et pr&#233;voir les &#233;checs d'autre composants # Apified Monitoring with Icinga2
monitoring depuis 7 ans
=&gt; pres de &#034;revente&#034; de icinga
multithread&#233; et modlaire, en mode agent, pas de lien Nagios
connexion &#224; graphite pour les m&#233;triques sous forme de metadata (enable_send_metadata)
graphing via TCP
Attention ne pas migrer de Icinga vers Icinga2, mieux from scratch
Notion de configuration language : assign, apply, if ....
Demo : icinga2 daemon -x
icinga console --connection...... =&gt; gen&#232;re un get client
Voir Icinga Studio : clickodrome pour configurer Icinga2
Mais accessibles via API en REST, authent. en certif ou login/pass
api-users.conf : authent et r&#244;les
avec des filttreres sur les object (regexLinux par exemple
Possibilit&#233; d'inscription d'objets &#224; des &#233;v&#232;nements : utilisation de icinga-director
Config API pour le configuration mgmt
json avec export CSV, OK en PHP 5.3 connectable sur LDAP, kerberos # Better Together: Puppet and Ansible
Spencer Krum, IBM
@nibalizer
Bosse sur OpenStack chez IBM
ask.openstack.org , zanata, elk ....
OpenStack chez Bluebox, OVH ...
Puppet pour config, ansible pour orchestration
cacti pour les m&#233;triques
puppetboard
Start puppet 2.7 en passanger, Un seul repo puppet pour les modules
Puis upgrae puppet 3 , openstack / apply-test.sh ....
control repo indirector, utilisation de hiera
=&gt; besoin do'rchestration &#224; partir du provi pour passer du puppetmaster au host nouvellement cr&#233;&#233;
cet acc&#232;s a &#233;t&#233; permis par ansible
puppet cert list -&gt; ansible -&gt; puppet agent --test
puis inventaire openstack plut&#244;t qu'un puppet cert list : utilisation de groupes ansible
c'est ansible qui g&#232;re les mises &#224; jour logicielles et ex&#233;cute puppet run
ansible checkout le git, r&#233;cup&#232;re hiera puis run puppet
=&gt; modification du facter_basename possible ainsi que puppet_environment
Next steps : disable puppetmaster # SaltStack integration with Foreman
Stephen Benjamin @stbenjam
rappel : provisionning, configuration, monitoring (dashboard, ABRT, OpenSCAP)
possibilit&#233; de smart proxy
salt via smart_proxy_salt ou foreman_salt
gestion des minions, key management
pillars via &#034;external pillars&#034;, utilisation des external nodes pour fournir un YAML
bouton &#034;RUN SALT&#034; depuis foreman
r&#233;cup&#233;ration de foreman fact via des grains
hammer salt-state list
puppet inclus dans foreman initialement, on peut ne pas l'utiliser m&#234;me si on est encore oblig&#233; de l'installer.
New Host : Attention, notion d'environment pour puppet + de Salt environment
DNS sous Bind, FreeIPA, etc ...
v&#233;rifier la notion de &#034;job cache&#034; dans salt
possible de mettre une notification &#034;salt error&#034; en cochant puppet notification avec pour sujet &#034;puppet&#034; :-)
Ecriture de facts dans foreman : fact_short_name:os_family (salt) fascts.os_family (puppet)
C'est upload_salt_report qui envoie dans foreman
Comme dans SuseManager, possibilit&#233; d'ex&#233;cuter des commandes arbitraires depuis Foreman # Hosts Lifecycle with Ansbile and Foreman - Daniel Lobato
G&#233;n&#233;ration de rapport as usual
Cr&#233;ation d'un host depuis la GUI pour le provisionning
Comprendre : LA METHODE de provi, c'est foreman et pas l'inscription auto dans foreman. C'est lui qui g&#232;re le cycle de vie, quel que soit le cfg mgmt en backend.
http://theforeman.org/manuals/1.10/index.html#4.4.8.3Windows
Aper&#231;u des &#034;Discovery Rules&#034;
Comme pour Salt, les fonctions Ansible sont accessibles via la GUI, on parle de &#034;Jobs&#034;.
Smart Variable parameter de foreman pas encore dispo dans Ansible # rkt and Kubernetes: What's new with Container Runtimes and Orchestration - Jonathan Boulle
regarder etcd
CoreOS
common : unsigned images , insecure images, PID1 =&gt; &#224; ne pas faire cependant
avec rkt, on a une alternatrive container : https://github.com/coreos/rkt
pas de d&#233;mon, pas d'API, juste un process
une appli = 1 process d&#233;coup&#233; en stages
il existe un service en API donc expos&#233;, en utilisateur non-root
usage de rkt avec kubernetes =&gt; rktnetes # Remarques
Beaucoup de monde =&gt; besoin de faire de la &#034;d&#233;fragmentation de salle&#034;
Devops Unicorn&lt;/textarea&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>
<item xml:lang="fr">
		<title>Notes pr&#233;sentation RedHat Satellite 6</title>
		<link>https://www.coincoin.fr.eu.org/?Notes-presentation-RedHat-21555</link>
		<guid isPermaLink="true">https://www.coincoin.fr.eu.org/?Notes-presentation-RedHat-21555</guid>
		<dc:date>2016-01-14T13:52:00Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>


		<dc:subject>linux</dc:subject>

		<description>
&lt;p&gt;Notion de content view au lieu des canaux Utilisation de la GUI Katello =&gt; surtout des API et hammer (foreman) Foreman = GUI Puppet, GUI Ansible undef Puppet2 ? Notion de manifest satellite =&gt; souscription via candlepin Agent katello + agent puppet Capsule (=proxy) peut aussi faire tftp + provisionning Organisation / m&#233;tier Renault Airbus 5000 serveurs sur 2 capsules (32 Go de RAM par satellite) Mise &#224; jour de 6.1 vers 6.2 =&gt; mise &#224; jour &#034;streamline&#034; &#224; condition de suivre les guidlines (ex : (&#8230;)&lt;/p&gt;


-
&lt;a href="https://www.coincoin.fr.eu.org/?-Au-boulot-" rel="directory"&gt;Au boulot&lt;/a&gt;

/ 
&lt;a href="https://www.coincoin.fr.eu.org/?+-linux-+" rel="tag"&gt;linux&lt;/a&gt;

		</description>


 <content:encoded>&lt;div class='rss_texte'&gt;&lt;textarea readonly='readonly' cols='40' rows='44' class='spip_cadre spip_cadre_block' dir='ltr'&gt;Notion de content view au lieu des canaux Utilisation de la GUI Katello =&gt; surtout des API et hammer (foreman) Foreman = GUI Puppet, GUI Ansible undef Puppet2 ? Notion de manifest satellite =&gt; souscription via candlepin Agent katello + agent puppet Capsule (=proxy) peut aussi faire tftp + provisionning Organisation / m&#233;tier Renault Airbus 5000 serveurs sur 2 capsules (32 Go de RAM par satellite) Mise &#224; jour de 6.1 vers 6.2 =&gt; mise &#224; jour &#034;streamline&#034; &#224; condition de suivre les guidlines (ex: Marcadona 6000 caisse sous Satellite) Canaux + git + fichiers =&gt; Satellite Notions de content view par dev/qa/prod =&gt; 1 capsule par env. Ex: une content view par classe, une composite contient n content view D&#233;mon policyd en plus (dashboard ?) Cloudforms pour le cashback et le monitoring IDM = freeipa, support&#233; dans RHEL en standard Satellite 6.1 = Katello GUI = Foreman 1 souscription smart unlimited / DC OK RedHat 5/6/7/SAP .... Notion de promotion de content view (rpm+conf puppet) Notion de canal fig&#233; en pulp sur release mineure possible, dans une content view CentOS est une version downstream de RedHat. 6/7 des salari&#233;s sont RedHat =&gt; RDO (OpenStack communautaire) CentOS est utilis&#233; pour &#231;a Plus d'erratas r&#233;guliers sauf pour ceux d'OpenStack Plus de support CentOS l&#224; o&#249; RedHat en faisait CentOS ne sera plus identique &#224; RHEL. Orchestrateur RedHat =&gt; CMP&lt;/textarea&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>
<item xml:lang="fr">
		<title>Notes pr&#233;sentation RedHat OpenShift</title>
		<link>https://www.coincoin.fr.eu.org/?Notes-presentation-RedHat</link>
		<guid isPermaLink="true">https://www.coincoin.fr.eu.org/?Notes-presentation-RedHat</guid>
		<dc:date>2016-01-14T13:50:00Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>


		<dc:subject>linux</dc:subject>
		<dc:subject>virtualisation</dc:subject>

		<description>
&lt;p&gt;OpenShift Origin Kubernates (Google) Docker Cloudforms =&gt; catalogue de service, chargeback, souscription &#224; pr&#233;voir pour g&#233;rer cloud public ex : d&#233;marre une instance openstack pour le provi openshift Participation &#224; l'Open Container &lt;br class='autobr' /&gt;
Connecteur pour SAP HANA Service ESB Param&#233;trage pour persistence du container ELK inclus dans OpenShift Filebit par d&#233;faut Plus aggr&#233;gation de m&#233;triques &lt;br class='autobr' /&gt;
Jenkins possible mais pas de base (ex un jenkins par projet) &lt;br class='autobr' /&gt;
Docker image =&gt; container =&gt; pod =&gt; (&#8230;)&lt;/p&gt;


-
&lt;a href="https://www.coincoin.fr.eu.org/?-Au-boulot-" rel="directory"&gt;Au boulot&lt;/a&gt;

/ 
&lt;a href="https://www.coincoin.fr.eu.org/?+-linux-+" rel="tag"&gt;linux&lt;/a&gt;, 
&lt;a href="https://www.coincoin.fr.eu.org/?+-virtualisation-+" rel="tag"&gt;virtualisation&lt;/a&gt;

		</description>


 <content:encoded>&lt;div class='rss_texte'&gt;&lt;textarea readonly='readonly' cols='40' rows='45' class='spip_cadre spip_cadre_block' dir='ltr'&gt;OpenShift Origin Kubernates (Google) Docker Cloudforms =&gt; catalogue de service, chargeback, souscription &#224; pr&#233;voir pour g&#233;rer cloud public ex : d&#233;marre une instance openstack pour le provi openshift Participation &#224; l'Open Container Connecteur pour SAP HANA Service ESB Param&#233;trage pour persistence du container ELK inclus dans OpenShift Filebit par d&#233;faut Plus aggr&#233;gation de m&#233;triques Jenkins possible mais pas de base (ex un jenkins par projet) Docker image =&gt; container =&gt; pod =&gt; node &lt;= registry policy par tag c'est kubernetes qui g&#232;re les expositions ex la BDD via TCP_3306 pour une appli de la registry interne, puis un autre pod si besoin juste ne faisant le lien vers le nom dui pod de la bdd (sous r&#233;serve qu'elle soit taggu&#233;e) haproxy en front pour faire du routage de nodes projet = namespace openshift (all in one dans origin) container build construit, DNS en wildcard g&#233;r&#233; par le bind interne sur la haproxy Versions d'&#233;valuations possibles sur 30/60/90j Openshift dans une VM (KVM jusqu'&#224; 40 container sur une VM de 8 Go de RAM) https://www.openshift.org/vm/ Cas clients La Banque Postale : kill ESX Amadeus amazon roadshow Exemple API oc login oc&gt;oc delete all --all&lt;/textarea&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>



</channel>

</rss>
