Secondary NameNode in Hadoop 2


This is a frequent asked question:

In hadoop 2, Secondary Name Node can be implemented in two ways:

1. With HA (High Availability Cluster): if you are setting up HA cluster then you may not need to use Secondary namenode because standby namenode keep its state synchronized with the Active namenode.

The HDFS NameNode High Availability feature enables you to run redundant NameNodes in the same cluster in an Active/Passive configuration with a hot standby.Both NameNode require the same type of hardware configuration.In HA hadoop cluster Active NameNode reads and write metadata information in Separate JournalNode.

In the event of failover, standby NameNode will ensure that its namespace is completely updated according to edit logs before it is changes to active state. So there is no need of Secondary NameNode in this Cluster Setup.

2. Without HA: you can have a hadoop setup without standby node. Then the secondary NameNode will act as you already mentioned in Hadoop 1.x

 

Source: https://stackoverflow.com/questions/37830777/use-of-secondary-namenode-in-hadoop-in-2-x

Publicado en Uncategorized | Etiquetado , , , | Deja un comentario

Paella de Mariscos


paella_de_mariscos

Ingredientes:

  • Aceite de oliva
  • Sal fina
  • Pimienta negra molida
  • Cebollas
  • Morrones de tres colores 3
  • Ajos 1
  • Tomates 3
  • Tubos de calamar 1/2 kilo
  • Arroz doble carolina 1/2 kilo
  • Azafrán 3 cápsulas
  • Caldo de verduras o pollo 2 litros
  • Berberechos 1/2 kilo
  • Mejillones 1/2 kilo
  • Cayos de vieyras 1/2 kilo
  • Langostinos crudos 1/2 kilo
  • Camarones crudos 1/2 kilo
  • Perejil picado 1 tazas
  • Arvejas 2 tazas
  • Limones 1

 

Cortar los tubos de calamar limpios y secos en cuadrados y marcar cuadros en su superficie.

Saltarlos en la paellera con aceite de oliva y ajo, hasta que esten cocidos (cuando están retorcidos como un cubanito). Retirar y reservar.

En la misma paellera con de oliva, transparentar cebolla, morrones, tomate rallado. Salpimentar.

Agregar el arroz y saltearlo hasta que este translúcido. Agregar el azafrán y el caldo de verduras (o de pollo). Reservar para ir rectificando el nivel de caldo de acuerdo al punto del arroz.

Bajar el fuego y evitar mover demasiado el arroz para evitar que se libere el almidón.

Agregar al arroz, los berberechos, mejillones, vieyras, langostinos y los calamares que estaban reservados.

Al probar el arroz y encontrarlo todavía “al dente”, agregar las arvejas, apagar el fuego, tapar la sartén y dejar reposar unos minutos.
Espolvorear con el perejil picado. Cortar los limones en rodajas y distribuirlos en el borde de la paellera. Servir.

 

Publicado en Cooking, Uncategorized | Deja un comentario

Adding a mount point to HDFS


Before proceeding:

This procedure considers that you don’t have any current useful data on HDFS. All the data will be lost after adding mount points with this method.

This procedure should be applied to every datanode in the cluster. No intervention in the master node is needed if the framework is configured properly.

#checking available block devices:
[ec2-user@ip-10-0-15-76 media]$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
nvme2n1 259:4 0 2.5T 0 disk
nvme1n1 259:3 0 2.5T 0 disk /media/ebs0
nvme4n1 259:6 0 2.5T 0 disk
nvme0n1 259:0 0 2G 0 disk
├─nvme0n1p1 259:1 0 2G 0 part /
└─nvme0n1p128 259:2 0 1M 0 part
nvme3n1 259:5 0 2.5T 0 disk

#checking formatted filesystem:
[ec2-user@ip-10-0-15-76 media]$ sudo file -s /dev/nvme2n1
/dev/nvme2n1: data

(this filesystem is not formatted)

#formatting to ext4:
[ec2-user@ip-10-0-15-76 media]$ sudo mkfs -t ext4 /dev/nvme2n1
mke2fs 1.42.12 (29-Aug-2014)
Creating filesystem with 655360000 4k blocks and 163840000 inodes
Filesystem UUID: 6d9c997f-d47b-4529-85c8-e56e8ef47a1d
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
102400000, 214990848, 512000000, 550731776, 644972544

Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done

#mounting
[ec2-user@ip-10-0-15-76 media]$ sudo mkdir /media/ebs1
[ec2-user@ip-10-0-15-76 media]$ sudo mount /dev/nvme2n1 /media/ebs1
[ec2-user@ip-10-0-15-76 media]$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
nvme2n1 259:4 0 2.5T 0 disk /media/ebs1
nvme1n1 259:3 0 2.5T 0 disk /media/ebs0
nvme4n1 259:6 0 2.5T 0 disk
nvme0n1 259:0 0 2G 0 disk
├─nvme0n1p1 259:1 0 2G 0 part /
└─nvme0n1p128 259:2 0 1M 0 part
nvme3n1 259:5 0 2.5T 0 disk

#final mount result
[ec2-user@ip-10-0-60-46 ~]$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
nvme2n1 259:4 0 2.5T 0 disk /media/ebs1
nvme1n1 259:3 0 2.5T 0 disk /media/ebs0
nvme4n1 259:6 0 2.5T 0 disk /media/ebs3
nvme0n1 259:0 0 2G 0 disk
├─nvme0n1p1 259:1 0 2G 0 part /
└─nvme0n1p128 259:2 0 1M 0 part
nvme3n1 259:5 0 2.5T 0 disk /media/ebs2

#checking mount points in hdfs-site.xml
[ec2-user@ip-10-0-60-46 media]$ cat /opt/hadoop-2.7.3/etc/hadoop/hdfs-site.xml |grep -A1 dfs.datanode.data.dir
<name>dfs.datanode.data.dir</name>
<value>/media/ebs0/hadoop/datanodes,/media/ebs1/hadoop/datanodes,/media/ebs2/hadoop/datanodes,/media/ebs3/hadoop/datanodes</value>

# create defined directory structure on mount point (for each mount point):
sudo mkdir -p /media/ebs1/hadoop/datanodes

# modify owner to the user that will start DFS (for each mount point):
sudo chown -R ec2-user:ec2-user /media/ebs1/hadoop/datanodes

#format namenode:
hadoop namenode -format

# stop/start DFS:
/opt/hadoop-2.7.3/sbin/stop-dfs.sh
/opt/hadoop-2.7.3/sbin/start-dfs.sh

# check service start status
tail -f /var/log/hadoop/hadoop-ec2-user-datanode-ip-10-0-15-76.log

 

**some ENV variables I usually use on these environments:

export HADOOP_SSH_OPTS="-i /home/ec2-user/.ssh/mykey -o StrictHostKeyChecking=no -o UserKnownHostsFile=/dev/null"
export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.151.x86_64/jre
Publicado en Uncategorized | Etiquetado , , , | Deja un comentario

Muffins de Banana


Ingredientes:

  • 100 g de harina
  • 1 cucharada de polvo para hornear
  • 100 g de banana madura
  • 3 huevos
  • 50 g de azúcar blanca
  • 1 cucharada de vainilla
  • 60 ml de leche

Preparacion:

Precalienta el horno a 170°C.

Mezcla en un recipiente pequeño los huevos y el azúcar. Luego añade la banana pisada, la vainilla y la leche. Mezcla todo bien hasta incorporar.

En otro recipiente más grande, mezcla la harina y el polvo para hornear.

Añade los ingredientes húmedos en este recipiente y mezcla hasta integrar bien. No sobrebatir.

Llena los pirotines y hornea por unos 25 minutos o hasta que salga un cuchillo limpio desde el centro y estén ligeramente dorados por encima.

2017-10-29 21.09.59_preview

Publicado en Cooking, Uncategorized | Deja un comentario

AWS EMR – Big Data in Strata New York


Will you be in New York next week (Sept 25th – Sept 28th)?

aws_sponsor                   strata_data

Come meet the AWS Big Data team at Strata Data Conference, where we’ll be happy to answer your questions, hear about your requirements, and help you with your big data initiatives.

See you there!

 

 

 

 

Publicado en Uncategorized | Etiquetado , , , , , | Deja un comentario

Cruz asador casera sobre disco/ Homemade Argentine asado cross on fire pit


Cuando cocinamos al asador en otros paises, tenemos que tener cuidado con ciertas medidas de seguridad. Es muy probable que si hicieramos asado o lechon (suckling pig) al asador con la cruz clavada al piso, algun vecino llame a los bomberos.

Por esa razon, donde no hay mucho lugar para cocinar a la cruz o asador, podemos usar un disco (fire pit) adaptandole la cruz.

En este caso, encontre en Home Depot un disco de 31″ que me vino bien para adaptarle la cruz arriba. Este fire pit/disco viene tambien con algunos hierros, espiedo y parrilla additionales que podemos usar para adaptar la cruz.

Con unas barras de acero de 1/4 pasante sobre las manijas del borde, podemos darle angulo de inclinacion a la cruz. Con algunos de los complementos que vienen con el fire pit podemos regular la altura.

vc3kd9pt.jpeg

Aqui las cruces presentadas sobre el disco/fire pit

nPiCFa_4

 

Aqui lo estamos probando con un buen asado argentino:

lehnKfb9

 

Y por supuesto que podemos hacer un lechon (suckling pig) o cordero (lamb):

-8fPIOqU

yjY8N0i_HjaX-zmF

 

Aqui con Eduardo (el picho) Divito, checkeando que todo funcione como debe ser…

62373833_2657675790912521_9027880926725537792_n

Saludos!

 

 

 

 

 

Publicado en Cooking, Uncategorized | 1 Comentario

s3:// vs s3n:// vs s3a:// vs EMRFS


s3://

Apache Hadoop implementation of a block-based filesystem backed by S3. Apache Hadoop has deprecated use of this filesystem as of May 2016.

s3n://

A native filesystem for reading and writing regular files on S3. S3N allows Hadoop to access files on S3 that were written with other tools, and conversely, other tools can access files written to S3N using Hadoop. S3N is stable and widely used, but it is not being updated with any new features. S3N requires a suitable version of the jets3t JAR on the classpath.

  • Uses jets3t

s3a://

Hadoop’s successor to the S3N filesystem. S3A uses Amazon’s libraries to interact with S3. S3A supports accessing files larger than 5 GB, and it provides performance enhancements and other improvements. For Apache Hadoop, S3A is the successor to S3N and is backward compatible with S3N. Using Apache Hadoop, all objects accessible from s3n:// URLs should also be accessible from S3A by replacing the URL scheme.

  • Uses AWS SDK.
  • Amazon EMR does not currently support use of the Apache Hadoop S3A file system.

EMRFS:

On Amazon EMR, both the s3:// and s3n:// URIs are associated with the EMR filesystem and are functionally interchangeable in the context of Amazon EMR. For consistency sake, however, it is recommended to use the s3:// URI in the context of Amazon EMR.

EMRFS can be used by invoking the prefix s3n:// or s3:// or s3a:// depending on the client application implementation.

Source: https://aws.amazon.com/premiumsupport/knowledge-center/emr-file-system-s3/
Publicado en Uncategorized | Etiquetado , , , , | Deja un comentario