Une page dans votre Wiki a été ajoutée ou modifiée. Voici les
détails :
Date : 2010/07/02 19:25
Navigateur : Mozilla/5.0 (Macintosh; U; Intel Mac OS X 10.6; fr; rv:1.9.2.6) Gecko/20100625 Firefox/3.6.6
Adresse IP : 92.61.163.195
Nom d'hôte : rev-163-195.rtl.fr
Ancienne révision : http://cli.asyd.net/home/outils/reseaux/socat?rev=1278091072
Nouvelle révision : http://cli.asyd.net/home/outils/reseaux/socat
Résumé :
Utilisateur : asyd
@@ -39,11 +39,11 @@
socat READLINE OPEN:/dev/ttyS1,ispeed=9600,ospeed=9600,crnl,sane,echo=false,raw
</code>
==== S'abonner à un groupe multicast ====
+ Permet de s'abonner au groupe multicast 225.226.1.4 via l'interface réseau eth1, et d'afficher les données (attention pour ma part je n'ai eu que le premier paquet d'affiché). Dans tous les cas, cela permet de faire un tcpdump/snoop
<code>
- socat STDOUT UDP4-DATAGRAM:225.226.1.4:1234,ip-add-membership=225.226.1.4:eth1
+ socat UDP4-RECVFROM:1234,ip-add-membership=225.226.1.4:eth1,fork,reuseaddr STDOUT
</code>
- Permet de s'abonner au groupe multicast 225.226.1.4 via l'interface réseau eth1. Attention, je ne sais pas pourquoi, mais cela n'affiche par les données sur STDOUT, par contre ça permet de recevoir le flux multicast, et donc de faire tcpdump/snoop
--
Ce message a été généré par DokuWiki
http://cli.asyd.net/home/
Une page dans votre Wiki a été ajoutée ou modifiée. Voici les
détails :
Date : 2010/07/02 19:17
Navigateur : Mozilla/5.0 (Macintosh; U; Intel Mac OS X 10.6; fr; rv:1.9.2.6) Gecko/20100625 Firefox/3.6.6
Adresse IP : 92.61.163.195
Nom d'hôte : rev-163-195.rtl.fr
Ancienne révision : http://cli.asyd.net/home/outils/reseaux/socat?rev=1161856696
Nouvelle révision : http://cli.asyd.net/home/outils/reseaux/socat
Résumé :
Utilisateur : asyd
@@ -37,4 +37,13 @@
<code>
socat READLINE OPEN:/dev/ttyS1,ispeed=9600,ospeed=9600,crnl,sane,echo=false,raw
</code>
+
+ ==== S'abonner à un groupe multicast ====
+
+ <code>
+ socat STDOUT UDP4-DATAGRAM:225.226.1.4:1234,ip-add-membership=225.226.1.4:eth1
+ </code>
+
+ Permet de s'abonner au groupe multicast 225.226.1.4 via l'interface réseau eth1. Attention, je ne sais pas pourquoi, mais cela n'affiche par les données sur STDOUT, par contre ça permet de recevoir le flux multicast, et donc de faire tcpdump/snoop
+
--
Ce message a été généré par DokuWiki
http://cli.asyd.net/home/
Une page dans votre Wiki a été ajoutée ou modifiée. Voici les
détails :
Date : 2010/07/01 11:31
Navigateur : Mozilla/5.0 (Macintosh; U; Intel Mac OS X 10.6; fr; rv:1.9.2.6) Gecko/20100625 Firefox/3.6.6
Adresse IP : 92.61.163.195
Nom d'hôte : rev-163-195.rtl.fr
Ancienne révision : http://cli.asyd.net/home/racine?rev=1277976466
Nouvelle révision : http://cli.asyd.net/home/racine
Résumé :
Utilisateur : asyd
@@ -1,7 +1,7 @@
Bienvenue sur le Wiki de ceux qui aiment la ligne de commande. Vous y trouverez de nombreux aides mémoire sur les shells (notamment zsh) mais aussi les nombreuses commandes telles que awk, sed, etc. Bonne lecture, et n'hésitez pas à participer !
- Ce wiki est le résultat du travail collaboratif des membres de la liste [[shell(a)asyd.net]] ([[https://lists.asyd.net/mailman/listinfo.cgi/shell|inscription]])
+ Ce wiki est le résultat du travail collaboratif des membres de la liste [[shell(a)asyd.net]] ([[http://lists.asyd.net/mailman/listinfo/shell|inscription]])
====== Les shells ======
* [[shell:Comparatif]]
--
Ce message a été généré par DokuWiki
http://cli.asyd.net/home/
Une page dans votre Wiki a été ajoutée ou modifiée. Voici les
détails :
Date : 2010/07/01 10:00
Navigateur : Mozilla/5.0 (X11; U; Linux i686; en-US) AppleWebKit/533.4 (KHTML, like Gecko) Chrome/5.0.375.55 Safari/533.4
Adresse IP : 82.224.249.154
Nom d'hôte : toulouse.jfg-networks.net
Ancienne révision : http://cli.asyd.net/home/filtre/hadooppig?rev=1277971227
Nouvelle révision : http://cli.asyd.net/home/filtre/hadooppig
Résumé :
Utilisateur : ker2x
@@ -5,9 +5,9 @@
===== Pourquoi ? Et à quoi ca sert =====
=== Pourquoi Hadoop Pig sur ce wiki ===
- * Parce qu'il y a une page sur awk, et que Hadoop Pig fonctionne sur le même principe et le même type de fichier que awk. Sauf qu'il est faut pour des très gros volumes de données. Des lignes (records), des données tabulées (csv, etc). La syntaxe est très differente, mais sysadmin-friendly.
+ * Parce qu'il y a une page sur awk, et que Hadoop Pig fonctionne sur le même principe et le même type de fichier que awk. Sauf qu'il est fait pour des très gros volumes de données. Des lignes (records), des données tabulées (csv, etc). La syntaxe est très differente, mais sysadmin-friendly.
* Il peut etre utilisé de la même manière que awk, en ligne de commande. Par ex : pix -x local toto.pig
* Il peut être utilisé en local (-x local) , en utilisant le FS local (ce qu'on fera dans cette doc) ou en utilisant un cluster hadoop (-x mapreduce), avec un filesystem distribué (ce qu'on ne fera pas ici).
* Simple d'utilisation, simple à installer, moins gourmand que awk dès qu'on traite des gros volumes (on peut traiter des To de data avec peu de Ram).
--
Ce message a été généré par DokuWiki
http://cli.asyd.net/home/
Une page dans votre Wiki a été ajoutée ou modifiée. Voici les
détails :
Date : 2010/07/01 10:00
Navigateur : Mozilla/5.0 (X11; U; Linux i686; en-US) AppleWebKit/533.4 (KHTML, like Gecko) Chrome/5.0.375.55 Safari/533.4
Adresse IP : 82.224.249.154
Nom d'hôte : toulouse.jfg-networks.net
Ancienne révision : http://cli.asyd.net/home/filtre/hadooppig?rev=1277971200
Nouvelle révision : http://cli.asyd.net/home/filtre/hadooppig
Résumé :
Utilisateur : ker2x
@@ -5,15 +5,12 @@
===== Pourquoi ? Et à quoi ca sert =====
=== Pourquoi Hadoop Pig sur ce wiki ===
- Parce qu'il y a une page sur awk, et que Hadoop Pig fonctionne sur le même principe et le même type de fichier que awk. Sauf qu'il est faut pour des très gros volumes de données. Des lignes (records), des données tabulées (csv, etc). La syntaxe est très differente, mais sysadmin-friendly.
-
- Il peut etre utilisé de la même manière que awk, en ligne de commande. Par ex : pix -x local toto.pig
-
- Il peut être utilisé en local (-x local) , en utilisant le FS local (ce qu'on fera dans cette doc) ou en utilisant un cluster hadoop (-x mapreduce), avec un filesystem distribué (ce qu'on ne fera pas ici).
-
- Simple d'utilisation, simple à installer, moins gourmand que awk dès qu'on traite des gros volumes (on peut traiter des To de data avec peu de Ram).
+ * Parce qu'il y a une page sur awk, et que Hadoop Pig fonctionne sur le même principe et le même type de fichier que awk. Sauf qu'il est faut pour des très gros volumes de données. Des lignes (records), des données tabulées (csv, etc). La syntaxe est très differente, mais sysadmin-friendly.
+ * Il peut etre utilisé de la même manière que awk, en ligne de commande. Par ex : pix -x local toto.pig
+ * Il peut être utilisé en local (-x local) , en utilisant le FS local (ce qu'on fera dans cette doc) ou en utilisant un cluster hadoop (-x mapreduce), avec un filesystem distribué (ce qu'on ne fera pas ici).
+ * Simple d'utilisation, simple à installer, moins gourmand que awk dès qu'on traite des gros volumes (on peut traiter des To de data avec peu de Ram).
===== Installation pas à pas =====
* Pour la démo, je prend un mCloud chez OVH, une debian 5.0 64bits avec 256Mo de ram (mais si, ca suffit), a 0.01€/h
--
Ce message a été généré par DokuWiki
http://cli.asyd.net/home/
Une page dans votre Wiki a été ajoutée ou modifiée. Voici les
détails :
Date : 2010/07/01 10:00
Navigateur : Mozilla/5.0 (X11; U; Linux i686; en-US) AppleWebKit/533.4 (KHTML, like Gecko) Chrome/5.0.375.55 Safari/533.4
Adresse IP : 82.224.249.154
Nom d'hôte : toulouse.jfg-networks.net
Ancienne révision : http://cli.asyd.net/home/filtre/hadooppig?rev=1277970633
Nouvelle révision : http://cli.asyd.net/home/filtre/hadooppig
Résumé :
Utilisateur : ker2x
@@ -1,11 +1,19 @@
====== Tutorial Hadoop Pig ======
Le awk taille adulte.
- ===== A quoi ca sert =====
+ ===== Pourquoi ? Et à quoi ca sert =====
- ** A venir **
+ === Pourquoi Hadoop Pig sur ce wiki ===
+
+ Parce qu'il y a une page sur awk, et que Hadoop Pig fonctionne sur le même principe et le même type de fichier que awk. Sauf qu'il est faut pour des très gros volumes de données. Des lignes (records), des données tabulées (csv, etc). La syntaxe est très differente, mais sysadmin-friendly.
+
+ Il peut etre utilisé de la même manière que awk, en ligne de commande. Par ex : pix -x local toto.pig
+
+ Il peut être utilisé en local (-x local) , en utilisant le FS local (ce qu'on fera dans cette doc) ou en utilisant un cluster hadoop (-x mapreduce), avec un filesystem distribué (ce qu'on ne fera pas ici).
+
+ Simple d'utilisation, simple à installer, moins gourmand que awk dès qu'on traite des gros volumes (on peut traiter des To de data avec peu de Ram).
===== Installation pas à pas =====
* Pour la démo, je prend un mCloud chez OVH, une debian 5.0 64bits avec 256Mo de ram (mais si, ca suffit), a 0.01€/h
--
Ce message a été généré par DokuWiki
http://cli.asyd.net/home/
Une page dans votre Wiki a été ajoutée ou modifiée. Voici les
détails :
Date : 2010/07/01 09:50
Navigateur : Mozilla/5.0 (X11; U; Linux i686; en-US) AppleWebKit/533.4 (KHTML, like Gecko) Chrome/5.0.375.55 Safari/533.4
Adresse IP : 82.224.249.154
Nom d'hôte : toulouse.jfg-networks.net
Ancienne révision : http://cli.asyd.net/home/filtre/hadooppig?rev=1277912270
Nouvelle révision : http://cli.asyd.net/home/filtre/hadooppig
Résumé :
Utilisateur : ker2x
@@ -1,7 +1,7 @@
====== Tutorial Hadoop Pig ======
- Le awk pour adulte.
+ Le awk taille adulte.
===== A quoi ca sert =====
** A venir **
--
Ce message a été généré par DokuWiki
http://cli.asyd.net/home/