- Esse repositório é uma extensão do repositório cluster_base
- A intenção é configurar um ecossistema baseado em hadoop para projetos de big data
- Cada passo vai ser feito de forma linear para facilitar a reprodção
- O servidor base desse projeto vai ser um centOS-8 stream, que pode ser baixado aqui
- O ambiente de virtualização utilizado foi o virtual-box
- As configurações do servidor foram:
-> Nome: Hadoop_Ecosystem
-> Tipo: Linux
-> Versão: Red Hat (64 bits)
-> Quantidade de memória: 3072 mb
-> Tipo de disco: VDI dinamicamente alocado
-> Tamanho do disco: 100 gb
-> Quantidade de núcleos de processador: 3 -> Memoria de vídeo: 128 mb -> Audio: desabilitado -> Rede: placa em modo bridge - A instalação teve os seguintes parâmetros:
-> Lingua utilizada: Português (Brasil)
-> Kdump: Desativado
-> Destino instalação: VirtualBox Hard_Disk com configurações de armazenamento personalizada + criar automaticamente
-> Seleção de programas: Instalação minima + Padrão + Ferramenta de desenvolvimento + Ferramentas de desenvolvimento RPM
-> Usuario root: Desabilitado
-> Criar usuario: Hadoop com permissão de administrador - Com a instalação feita procure o ip da máquina para poder fazer um gerenciamento com ssh
ip addr show
- Use o gerenciador da sua escolha para fazer o acesso com SSh
- Para instalar o python 3 + pip faça:
sudo yum install python3
- Para instalar o virtualenv:
sudo pip3 install virtualenv
- Crie uma pasta para os projetos
virtualenv -p python3 projetos
- Para acessar o ambiente virtual
source projetos/bin/activate
- Instalar a biblioteca pandas
pip3 install pandas
- Instalar o jupyter
pip install jupyter
ipython kernel install --name projetos --user
- Para executar o jupyter e acessar ele pela máquina mãe
jupyter notebook
- Instalar a biblioteca para acessar o redis
pip install redis
- Instalar a biblioteca pyspark
pip install pyspark
- Instalar o conector kafka-python
pip install kafka-python
- Instalar o Flask api
pip install flask-restful
- O java é base de funcionamento do ecossistema hadoop, por isso, vou instalar a versão mais estável dele que é a 8
- Para atualizar o gerenciador de pacote
sudo yum update
- Para instalar o java 8
sudo yum install java-1.8.0-openjdk
- Para ver onde estão os executaveis java
update-alternatives --config java
- OBS: Guarde apenas até a versão java, nesse caso, está em /usr/lib/jvm/java-1.8.0-openjdk-1.8.0.322.b06-11.el8.x86_64/jre
- Baixar o hadoop
sudo wget https://dlcdn.apache.org/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz
- Crie uma pasta onde os arquivos vão ficar
mkdir hadoop_ecosystem
- Descompacte o arquivo
tar xvzf hadoop-3.3.4.tar.gz -C hadoop_ecosystem/
- Mude o nome da pasta
mv hadoop-3.3.4/ hadoop/
- Configure o arquivo hadoop_ecosysten/hadoop/etc/hadoop/hadoop-env.sh
vim hadoop_ecosystem/hadoop/etc/hadoop/hadoop-env.sh
- Com o arquivo hadoop_ecosysten/hadoop/etc/hadoop/hadoop-env.sh aberto no vim, escreva e salve: -> export JAVA_HOME =/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.322.b06-11.el8.x86_64/jre
- Teste o hadoop
hadoop_ecosystem/hadoop/bin/hadoop
- Edite hadoop_ecosystem/hadoop/etc/hadoop/core-site.xml com vim e adicione:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
9 Edite hadoop_ecosystem/hadoop/etc/hadoop/hdfs-site.xml com vim e adicione:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
- O servidor não permite ssh em localhost sem senha, portanto faça:
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys
- Formatar o sistema de arquivos:
hadoop_ecosystem/hadoop/bin/hdfs namenode -format
- Iniciar namenode:
hadoop_ecosystem/hadoop/sbin/start-dfs.sh
- Crie pasta e usuario no hdfs:
hadoop_ecosystem/hadoop/bin/hdfs dfs -mkdir /user
hadoop_ecosystem/hadoop/bin/hdfs dfs -mkdir /user/HADOOP
- Adicione em .baschrc
export PATH="$PATH:$HOME/bin:/bin:/usr/bin:/sbin:/usr/sbin:/usr/local/bin"
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.322.b06-11.el8.x86_64/jre/
export HADOOP_HOME=/home/hadoop/hadoop_ecosystem/hadoop/
export PATH=$PATH:$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
source .baschrc
- Edite hadoop_ecosystem/hadoop/etc/hadoop/mapred-site.xml com vim e adicione:
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.application.classpath</name>
<value>$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*:$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*</value>
</property>
</configuration>
- Edite hadoop_ecosystem/hadoop/etc/hadoop/yarn-site.xml com vim e adicione:
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.env-whitelist</name>
<value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_HOME,PATH,LANG,TZ,HADOOP_MAPRED_HOME</value>
</property>
</configuration>
- Para startar o hadoop e o yarn, respectivamente:
start-dfs.sh
start-yarn.sh
- Para parar basta colocar stop no lugar do start
- Baixe o zookeeper
wget https://dlcdn.apache.org/zookeeper/zookeeper-3.7.1/apache-zookeeper-3.7.1-bin.tar.gz
- Extraia para dentro da pasta hadoop_ecosystem
tar xvzf apache-zookeeper-3.7.1-bin.tar.gz -C hadoop_ecosystem/
- Mude o nome apenas para zookeeper
mv hadoop_ecosystem/apache-zookeeper-3.7.1-bin/ hadoop_ecosystem/zookeeper
- Crie um diretorio vazio para acesso de memória do zookeeper
mkdir /home/hadoop/hadoop_ecosystem/zookeeper/dir_bd
- crie um arquivo com vim em /home/hadoop/hadoop_ecosystem/zookeeper/conf/ com nome de zoo.cfg
vim /home/hadoop/hadoop_ecosystem/zookeeper/conf/zoo.cfg
- Edite /home/hadoop/hadoop_ecosystem/zookeeper/conf/zoo.cfg com vim e adicione:
tickTime=2000
dataDir=/home/hadoop/hadoop_ecosystem/zookeeper/dir_bd/
clientPort=2181
- Edite .baschrc para adicionar a variavel de ambiente do zookeeper
export ZOOKEPER_HOME=/home/hadoop/hadoop_ecosystem/zookeeper/
export PATH=$PATH:$ZOOKEPER_HOME
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEPER_HOME/bin
- Para iniciar o zookeeper:
zkServer.sh start
10 Para pausar basta trocar o start pelo stop
- Baixar o kafka
wget https://dlcdn.apache.org/kafka/3.3.1/kafka_2.13-3.3.1.tgz
- Extraia para dentro da pasta hadoop_ecosystem
tar xvzf kafka_2.13-3.3.1.tgz -C hadoop_ecosystem/
- Mude o nome apenas para kafka
mv hadoop_ecosystem/kafka_2.13-3.3.1/ hadoop_ecosystem/kafka
- Edite .baschrc para adicionar a variavel de ambiente do kafka
export KAFKA_HOME=/home/hadoop/hadoop_ecosystem/kafka/
export PATH=$PATH:$KAFKA_HOME
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEPER_HOME/bin:$KAFKA_HOME/bin:KAFKA_HOME/config
- Atualize o .baschrc
source .baschrc
- Inicialize o zookeeper-server
zkServer.sh start
- Em outro terminal start o kafka
kafka-server-start.sh /home/hadoop/hadoop_ecosystem/kafka/config/server.properties
- Para parar os processos, abre-se um novo terminal e digita os mesmos comandos mas em vez de start, coloque stop e sem os caminhos de config
zkServer.sh stop
kafka-server-stop.sh
- Por ser um comando grande, vou criar um alias para a inicialização do servidor kafka, editando .baschrc
alias kafka_start="kafka-server-start.sh /home/hadoop/hadoop_ecosystem/kafka/config/server.properties"
source .baschrc
- Baixar o scala e instalar
curl -fL https://github.com/coursier/launchers/raw/master/cs-x86_64-pc-linux.gz | gzip -d > cs && chmod +x cs && ./cs setup
- Baixar o spark
wget https://dlcdn.apache.org/spark/spark-3.3.1/spark-3.3.1-bin-hadoop3.tgz
- Extrair para dentro da pasta hadoop_ecosystem
tar xvzf spark-3.3.1-bin-hadoop3.tgz -C hadoop_ecosystem/
- Mudar o nome para apenas spark
mv hadoop_ecosystem/spark-3.3.1-bin-hadoop3/ hadoop_ecosystem/spark
- Edite as variaveis de ambiente e adicione em .baschrc:
export SPARK_HOME=/home/hadoop/hadoop_ecosystem/spark/
export PATH=$PATH=$SPARK_HOME
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEPER_HOME/bin:$KAFKA_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin
source .baschrc
- Entre na pasta do spark e crie o diretorio conectores, ele é quem vai receber os conectores que vão ser implementados futuramente, como o jar de acesso ao mysql dentre outros.
mkdir hadoop_ecosystem/spark/Conectores
- Vou por nessa pasta o conector do mysql que pode ser baixado aqui
- Baixar o redis
wget https://download.redis.io/redis-stable.tar.gz
- Extrair o redis para a pasta hadoop_ecosystem
tar xvzf redis-stable.tar.gz -C hadoop_ecosystem/
- Mudar de nome apenas para redis
mv hadoop_ecosystem/redis-stable/ hadoop_ecosystem/redis
- Entrar na pasta do redis
cd hadoop_ecosystem/redis
- Compilar o redis
make
- Instalar o redis (ainda na mesma pasta)
make install
- Para executar o servidor (não é preciso configurar como variavel de ambiente)
redis-server
- Para entrar na linha de comando
redis-cli
- Para sair do redis-server apert cntrl+c, e para sair do redis-cli use exit
- Da um update no gerenciador de pacotes dnf
dnf update -y
- Baixar o mariadb, o servidor http e o php
dnf install httpd mariadb-server php php-cli php-json php-mbstring php-pdo php-pecl-zip php-mysqlnd -y
- Startar o mariadb
systemctl start mariadb
- Permitir a execução do mariadb
systemctl enable mariadb
- Acessar o mysql com permissão root
sudo mysql -u root
- Setar uma senha para o usuario root do mysql
SET PASSWORD FOR 'root'@'localhost' = PASSWORD('123456789');
- Iniciar uma instalação segura e colocar a senha setada no passo 6.
sudo mysql_secure_installation
- Colocar tudo y na instalação segura
- Entre na pasta de instalação do apache
cd /var/www/html/
- Baixe o phpmyadmin
sudo wget https://files.phpmyadmin.net/phpMyAdmin/5.2.0/phpMyAdmin-5.2.0-all-languages.zip
- Extraia
sudo unzip phpMyAdmin-5.2.0-all-languages.zip
- Renomeie
sudo mv phpMyAdmin-5.2.0-all-languages phpmyadmin
- Edite para o usuario apache
sudo chown -R apache:apache /var/www/html/phpmyadmin
- Renomeie e edite o arquivo de conf
sudo mv phpmyadmin/config.sample.inc.php phpmyadmin/config.inc.php
- Abra com vim
sudo vim phpmyadmin/config.inc.php
- Adicione
cfg['blowfish_secret'] = '123456789';
- Insira no mysql as tabelas do phpmyadmin
mysql < /var/www/html/phpmyadmin/sql/create_tables.sql -u root -p
- Configure o apache para o phpmyadmin
sudo vim /etc/httpd/conf.d/phpmyadmin.conf
- Adicione
Alias /phpmyadmin /var/www/html/phpmyadmin
<Directory /var/www/html/phpmyadmin/>
AddDefaultCharset UTF-8
<IfModule mod_authz_core.c>
# Apache 2.4
<RequireAny>
Require all granted
</RequireAny>
</IfModule>
<IfModule !mod_authz_core.c>
# Apache 2.2
Order Deny,Allow
Deny from All
Allow from 127.0.0.1
Allow from ::1
</IfModule>
</Directory>
<Directory /var/www/html/phpmyadmin/setup/>
<IfModule mod_authz_core.c>
# Apache 2.4
<RequireAny>
Require all granted
</RequireAny>
</IfModule>
<IfModule !mod_authz_core.c>
# Apache 2.2
Order Deny,Allow
Deny from All
Allow from 127.0.0.1
Allow from ::1
</IfModule>
</Directory>
- Start o apache
systemctl start httpd
- habilite o apache
systemctl enable httpd
- Para entrar no phpmyadmin, entre com a porta do apache no ssh
ssh -L 4040:localhost:80 hadoop@<IP>
- Acesse na máquina
localhosto:4040/phpmyadmin
- Baixar a versão estavel do Hive
wget https://dlcdn.apache.org/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz
- Extrair o hive
tar -xzvf apache-hive-3.1.3-bin.tar.gz -C hadoop_ecosystem/
- Renomear apenas para hive
mv hadoop_ecosystem/apache-hive-3.1.3-bin/ hadoop_ecosystem/hive/
- Insira o jar de conexão do mysql na pasta /home/hadoop/hadoop_ecosystem/hive/lib/
- Edite o arquivo .baschrc e adicione
export HIVE_HOME=/home/hadoop/hadoop_ecosystem/hive/
export PATH=$PATH:$HIVE_HOME
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEPER_HOME/bin:$KAFKA_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin:$HIVE_HOME/bin
- Atualize o arquivo
source .baschrc
- Start o hadoop caso ele esteja desligado
start-dfs.sh
- Start o yarn caso ele esteja desligado
start-yarn.sh
- O hive precisa de algumas pastas dentro do HDFS para funcionar, vamos criar primeiro a pasta /tmp
hdfs dfs -mkdir /tmp
- Configure as permissões da pasta /tmp
hdfs dfs -chmod g+w /tmp
- Crie a pasta do usuario warehouse hive
hdfs dfs -mkdir /user/hive
hdfs dfs -mkdir /user/hive/warehouse
- Configure as permissões da pasta
hdfs dfs -chmod g+w /user/hive/warehouse
- Crie o arquivo /home/hadoop/hadoop_ecosystem/hive/conf/hive-site.xml
vim /home/hadoop/hadoop_ecosystem/hive/conf/hive-site.xml
- Adicione a hive-site.xml
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>hive.server2.enable.doAs</name>
<value>false</value>
<description>
Setting this property to true will have HiveServer2 execute
Hive operations as the user making the calls to it.
</description>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/metastore?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456789</value>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
<property>
<name>hive.cli.print.header</name>
<value>true</value>
</property>
</configuration>
- Inicie o Hive utilizando um bd base, no meu caso utilizei o mysql
schematool -dbType mysql -initSchema --verbose
- Ative a metastore
hive --service metastore
- Ligue o HiveServer2
hiveserver2
- Se conecte com o beeline
beeline -u jdbc:hive2://localhost:10000
19 Integrando o hive ao spark
cp hadoop_ecosystem/hive/conf/hive-site.xml hadoop_ecosystem/spark/conf/
- Baixar a versão mais estável do druid
wget https://dlcdn.apache.org/druid/24.0.0/apache-druid-24.0.0-bin.tar.gz
- Descompactar o druid na pasta hadoop_ecosystem
tar -xzf apache-druid-24.0.0-bin.tar.gz -C hadoop_ecosystem/
- Mudar o nome apenas para druid
mv /home/hadoop/hadoop_ecosystem/apache-druid-24.0.0/ /home/hadoop/hadoop_ecosystem/druid
- Inserir no arquivo .bashrc
export DRUID_HOME=/home/hadoop/hadoop_ecosystem/druid/
export PATH=$PATH:$DRUID_HOME
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEPER_HOME/bin:$KAFKA_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin:$HIVE_HOME/bin:$DRUID_HOME/bin
- Atualizar o arquivo
source .bashrc
- Para que o druid funcione com o zookeper já instalado, vá em /home/hadoop/hadoop_ecosystem/druid/conf/supervise/single-server/micro-quickstart.conf e comente
#!p10 zk bin/run-zk conf
- Agora e só ligar o servidor Druid e colocar a porta 8888 na conexão com ssh, algo como, -L 8002:localhost:8888
start-micro-quickstart
OBS 1 -> CASO EXISTA ALGUM ERRO REFERENTE AO PERL, BASTA VOCE BAIXAR
sudo dnf install perl
OBS 2 -> CASO O ERRO EM RELAÇÃO AO ZOOKEPER EM FUNCIONAMENTO CONTINUE, USE.
export DRUID_SKIP_PORT_CHECK=1
- Baixe a versão estável do NiFi
wget https://downloads.apache.org/nifi/1.18.0/nifi-1.18.0-bin.zip
- Extrair o nifi
unzip nifi-1.18.0-bin.zip
- Mover para a pasta
mv nifi-1.18.0 /home/hadoop/hadoop_ecosystem/nifi
- Adicionar a .baschrc
export NIFI_HOME=/home/hadoop/hadoop_ecosystem/nifi/
export PATH=$PATH:$NIFI_HOME
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEPER_HOME/bin:$KAFKA_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin:$HIVE_HOME/bin:$DRUID_HOME/bin:$NIFI_HOME/bin
source .bashrc
- Executar o NiFi
nifi.sh run
- Pare o nife
nifi.sh stop
- Crie credenciais
nifi.sh set-single-user-credentials hadoop 123456789101112
- A porta de acesso para o nifi é 8443
- Caso esteja usando o MobaXterm, precisa se conectar utilizando a mesma porta, para a validação do cabeçalho. Use algo como
ssh -L 8443:localhost:8443 hadoop@<ip_MV>
- Para ligar o hadoop
start-dfs.sh
start-yarn.sh
- Para ligar o zookeper
zkServer.sh start
- Para ligar o kafka
kafka_start > /dev/null &
- Para ligar o redis
redis-server > /dev/null &
- Para acessar o jupyter
source /home/hadoop/projetos/bin/activate
jupyter notebook --port 9789
- Para se conectar ao Hive
hive --service metastore
hiveserver2
beeline -u jdbc:hive2://localhost:10000
- Caso queira startar o druid (Por compatibilidade, o druid e o jupyter não podem startar ao mesmo tempo, caso seja necessário, mude a porta de funcionamento do jupyter como em 5.)
start-micro-quickstart
start_druid
- Caso queira startar o NiFi
nifi.sh run
- Caso queira startar o jupyter a partir do alias: start_jupyter="source /home/hadoop/projetos/bin/activate && jupyter notebook --port 9789"
start_jupyter