Paano Mag-set up ng Hadoop Cluster na may HDFS Mataas na Kakayahang magamit

Nagbibigay ang blog na ito ng isang pangkalahatang ideya ng HDFS Mataas na arkitektura ng arkitektura at kung paano i-set up at i-configure ang isang HDFS Mataas na Pagiging magagamit na kumpol sa mga simpleng hakbang.

HDFS 2.x Mataas na Arkitektura ng Cluster na Magagamit

Sa blog na ito, pag-uusapan ko ang tungkol sa HDFS 2.x Mataas na Arkitektura ng Cluster ng Pagkuha at ang pamamaraan upang mag-set up ng isang HDFS Mataas na Klaster ng Pagkakaroon.Ito ay isang mahalagang bahagi ng . Ang pagkakasunud-sunod kung saan ang mga paksa ay natakpan sa blog na ito ay ang mga sumusunod:

  • HDFS HA ​​Arkitektura
    • Panimula
    • Pagkakaroon ng NameNode
    • Arkitektura ng HA
    • Pagpapatupad ng HA (JournalNode at Ibinahaging imbakan)
  • Paano i-set up ang HA (Mga Korum ng Journal Journal) sa isang kumpol ng Hadoop?

Panimula:

Ang konsepto ng Mataas na kakayahang magamit na kumpol ay ipinakilala sa Hadoop 2.x upang malutas ang solong punto ng problema sa kabiguan sa Hadoop 1.x. Tulad ng iyong pagkakaalam mula sa dati kong blog na ang sumusunod sa Master / Slave Topology kung saan kumikilos ang NameNode bilang isang master daemon at responsable para sa pamamahala ng iba pang mga node ng alipin na tinatawag na DataNodes. Ang solong Master Daemon o NameNode ay nagiging isang bottleneck. Bagaman, ang pagpapakilala ng Secondary NameNode ay pumigil sa amin mula sa pagkawala ng data at pag-offload ng ilang mga pasanin ng NameNode ngunit, hindi nito nalutas ang isyu ng kakayahang magamit ng NameNode.





Pagkakamit ng NameNode:

Kung isasaalang-alang mo ang karaniwang pagsasaayos ng HDFS cluster, ang NameNode ay magiging isang solong punto ng kabiguan . Nangyayari ito dahil sa sandaling maging hindi magagamit ang NameNode, magiging hindi magagamit ang buong kumpol hanggang sa i-restart ng isang tao ang NameNode o magdala ng bago.

Ang mga dahilan para sa hindi magagamit ng NameNode ay maaaring:



  • Ang isang nakaplanong kaganapan tulad ng pagpapanatili ng trabaho tulad ay may pag-upgrade ng software o hardware.
  • Maaari rin itong sanhi ng isang hindi nakaplanong kaganapan kung saan nag-crash ang NameNode dahil sa ilang kadahilanan.

Sa alinman sa mga kaso sa itaas, mayroon kaming isang downtime kung saan hindi namin magawang gamitin ang HDFS cluster na nagiging isang hamon.

HDFS HA ​​Arkitektura:

Ipaunawa sa amin na kung paano nalutas ng HDFS HA ​​Architecture ang kritikal na problemang ito ng pagkakaroon ng NameNode:

Nalutas ng arkitektura ng HA ang problemang ito ng pagkakaroon ng NameNode sa pamamagitan ng pagpapahintulot sa amin na magkaroon ng dalawang NameNode sa isang aktibo / passive config. Kaya, mayroon kaming dalawang tumatakbo na mga NameNode nang sabay-sabay sa isang Mataas na kluster na Magagamit:



  • Aktibong NameNode
  • Standby / Passive NameNode.

HDFS HA ​​Architecture - Mataas na Cluster ng Pagkakaroon - Edureka

Kung ang isang NameNode ay bumaba, ang iba pang NameNode ay maaaring tumagal ng responsibilidad at samakatuwid, bawasan ang oras ng cluster down. Naghahain ang standby NameNode sa layunin ng isang backup na NameNode (hindi katulad ng Pangalawang Pangalan ngNode) na nagsasama ng mga kakayahan ng failover sa kumpol ng Hadoop. Samakatuwid, sa StandbyNode, maaari kaming magkaroon ng awtomatikong failover tuwing nag-crash ang isang NameNode (hindi planadong kaganapan) o maaari kaming magkaroon ng isang kaaya-aya (manu-manong pinasimulan) na failover sa panahon ng pagpapanatili.

Mayroong dalawang mga isyu sa pagpapanatili ng pagkakapare-pareho sa HDFS Mataas na Pagiging magagamit na kumpol:

  • Ang Aktibo at Standby na NameNode ay dapat na laging naka-sync sa bawat isa, ibig sabihin Dapat silang magkaroon ng parehong metadata. Papayagan kaming ibalik ang kumpol ng Hadoop sa parehong estado ng namespace kung saan ito nag-crash at samakatuwid, ay magbibigay sa amin upang magkaroon ng mabilis na failover.
  • Dapat ay mayroon lamang isang aktibong NameNode nang sabay-sabay dahil ang dalawang aktibong NameNode ay hahantong sa katiwalian ng data. Ang uri ng senaryong ito ay tinatawag na isang split-utak na sitwasyon kung saan ang isang kumpol ay nahahati sa mas maliit na kumpol, bawat isa ay naniniwala na ito lamang ang aktibong kumpol. Upang maiwasan ang mga nasabing senaryo ay tapos na ang bakod. Ang fencing ay isang proseso ng pagtiyak na ang isang NameNode lamang ang mananatiling aktibo sa isang partikular na oras.

Pagpapatupad ng HA Architecture:

Ngayon, alam mo na sa HDFS HA ​​Architecture, mayroon kaming dalawang mga NameNode na tumatakbo nang sabay. Kaya, maaari naming ipatupad ang pagsasaayos ng Aktibo at Standby NameNode sa pagsunod sa dalawang paraan:

  1. Paggamit ng Mga Node ng Korum ng Journal
  2. Ibinahaging Storage gamit ang NFS

Ipaunawa sa amin ang dalawang paraan ng pagpapatupad ng pagkuha nang paisa-isa:

1. Paggamit ng Mga Node ng Korum ng Journal:

  • Ang standby NameNode at ang aktibong NameNode ay mananatiling naka-sync sa bawat isa sa pamamagitan ng isang hiwalay na pangkat ng mga node o daemons -called Mga JournalNode .Sinusundan ng JournalNodes ang ring topology kung saan ang mga node ay konektado sa bawat isa upang bumuo ng isang singsing.Naghahatid ang JournalNode ng kahilingan na darating dito at kinopya ang impormasyon sa iba pang mga node sa ring.Nagbibigay ito ng pagpapaubaya sa kasalanan sa kaso ng kabiguan ng JournalNode.
  • Ang aktibong NameNode ay responsable para sa pag-update ng EditLogs (impormasyon ng metadata) na naroroon sa JournalNodes.
  • Binabasa ng StandbyNode ang mga pagbabagong ginawa sa EditLogs sa JournalNode at inilalapat ito sa sarili nitong namespace sa isang pare-pareho.
  • Sa panahon ng failover, tinitiyak ng StandbyNode na na-update nito ang impormasyon ng meta data mula sa JournalNodes bago naging bagong Aktibong NameNode. Ginagawa nitong kasalukuyang naka-synchronize ang kasalukuyang estado ng namespace sa estado bago mag-failover.
  • Ang mga IP Address ng parehong mga NameNode ay magagamit sa lahat ng mga DataNode at ipinapadala nila ang kanilang mga tibok ng puso at hinaharangan ang impormasyon ng lokasyon sa parehong NameNode. Nagbibigay ito ng isang mabilis na failover (mas kaunting oras sa pag-down) dahil ang StandbyNode ay may na-update na impormasyon tungkol sa lokasyon ng block sa kumpol.

Fencing ng NameNode:

Ngayon, tulad ng tinalakay nang mas maaga, napakahalaga upang matiyak na mayroon lamang isang Aktibo na NameNode nang paisa-isa. Kaya, ang fencing ay isang proseso upang matiyak ang mismong pag-aari na ito sa isang kumpol.

  • Ginagawa ng JournalNodes ang fencing na ito sa pamamagitan ng pagpapahintulot sa isang NameNode lamang na maging manunulat nang paisa-isa.
  • Ang Standby NameNode ay tumatagal ng responsibilidad ng pagsusulat sa JournalNodes at ipinagbabawal ang anumang iba pang NameNode na manatiling aktibo.
  • Panghuli, ang bagong Aktibong NameNode ay maaaring maisagawa ang mga aktibidad nito nang ligtas.

2. Paggamit ng Ibinahaging Imbakan:

  • Ang StandbyNode at ang aktibong NameNode ay mananatiling naka-sync sa bawat isa sa pamamagitan ng paggamit ng a nakabahaging storage device .Ang aktibong NameNode ay nag-log ng tala ng anumang pagbabago na ginawa sa namespace nito sa isang EditLog na naroroon sa nakabahaging imbakan na ito.Binabasa ng StandbyNode ang mga pagbabagong ginawa sa EditLogs sa nakabahaging imbakan na ito at inilalapat ito sa sarili nitong namespace.
  • Ngayon, sa kaso ng failover, ina-update ng StandbyNode ang impormasyon ng metadata nito gamit ang mga EditLog sa nakabahaging imbakan sa una. Pagkatapos, aako ng responsibilidad ng Aktibong NameNode. Ginagawa nitong kasalukuyang naka-synchronize ang kasalukuyang estado ng namespace sa estado bago mag-failover.
  • Dapat i-configure ng administrator ang hindi bababa sa isang paraan ng fencing upang maiwasan ang isang senaryong split-utak.
  • Ang system ay maaaring gumamit ng isang hanay ng mga mekanismo ng fencing. Maaaring isama rito ang pagpatay sa proseso ng NameNode at pagbawi sa pag-access nito sa nakabahaging direktoryo ng imbakan.
  • Bilang isang huling paraan, maaari naming bakod ang dating aktibong NameNode na may diskarteng kilala bilang STONITH, o 'shoot ang iba pang node sa ulo'. Gumagamit ang STONITH ng isang dalubhasang yunit ng pamamahagi ng kuryente upang sapilitang mapalakas ang makina ng NameNode.

Awtomatikong Failover:

Ang Failover ay isang pamamaraan kung saan awtomatikong inililipat ng isang system ang kontrol sa pangalawang sistema kapag nakita nito ang isang pagkakamali o pagkabigo. Mayroong dalawang uri ng failover:

Graceful Failover: Sa kasong ito, manu-mano naming pinasimulan ang failover para sa regular na pagpapanatili.

Awtomatikong Failover: Sa kasong ito, ang failover ay awtomatikong pinasimulan sa kaso ng kabiguan ng NameNode (hindi planadong kaganapan).

Ang Apache Zookeeper ay isang serbisyo na nagbibigay ng awtomatikong kakayahan ng failover sa HDFS High Cluster na cluster. Pinapanatili nito ang kaunting data ng koordinasyon, ipinapaalam sa mga kliyente ang mga pagbabago sa data na iyon, at sinusubaybayan ang mga kliyente para sa mga pagkabigo. Nagpapanatili ang Zookeeper ng isang sesyon kasama ang mga NameNode. Sa kaso ng kabiguan, mag-e-expire ang sesyon at ipaalam ng Zookeeper ang iba pang mga NameNode upang simulan ang proseso ng failover. Sa kaso ng kabiguan ng NameNode, ang iba pang passive NameNode ay maaaring kumuha ng isang lock sa Zookeeper na nagsasaad na nais nitong maging susunod na Aktibong NameNode.

Ang ZookeerFailoverController (ZKFC) ay isang kliyente ng Zookeeper na sinusubaybayan din at pinamamahalaan ang katayuan ng NameNode. Ang bawat isa sa NameNode ay nagpapatakbo din ng isang ZKFC. Responsable ang ZKFC para sa pagsubaybay sa kalusugan ng mga NameNode pana-panahon.

Ngayon na naintindihan mo kung ano ang Mataas na Pagiging Magagamit sa isang kumpol ng Hadoop, oras na upang i-set up ito. Upang i-set up ang Mataas na Pagiging Magagamit sa Hadoop cluster kailangan mong gamitin ang Zookeeper sa lahat ng mga node.

Ang mga daemon sa Active NameNode ay:

  • Zookeeper
  • Zookeeper Fail Over controller
  • JournalNode
  • NameNode

Ang mga daemon sa Standby NameNode ay:

  • Zookeeper
  • Zookeeper Fail Over controller
  • JournalNode
  • NameNode

Ang mga daemon sa DataNode ay:

  • Zookeeper
  • JournalNode
  • DataNode

Kung nais mong makabisado sa HDFS at Hadoop, suriin ang espesyal na na-curate na Big Data at Hadoop na kurso ni Edureka. Mag-click sa pindutan sa ibaba upang makapagsimula.

Pag-set up at Pag-configure ng Mataas na Cluster na Magagamit sa Hadoop:

Kailangan mo munang i-set up ang Java at mag-host ng mga pangalan ng bawat node.

Virtual machine IP address Pangalan ng host
Aktibong NameNode192.168.1.81nn1.cluster.com o nn1
Standby NameNode192.168.1.58nn2.cluster.com o nn2
DataNode192.168.1.82dn1.cluster.com o dn1

I-download ang Hadoop at Zookeeper binary tar file, kunin ang mga file upang mai-edit ang mga file ng pagsasaayos.

Utos: wget https://archive.apache.org/dist/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz

Ikalat ang zookeeper-3.4.6.tar.gz

Utos : tar –xvf zookeeper-3.4.6.tar.gz

I-download ang matatag na Hadoop binary tar mula sa Apache Hadoop site.

Utos : wget https://archive.apache.org/dist/hadoop/core/hadoop-2.6.0/hadoop-2.6.0.tar.gz

I-extract ang Hadoop tar ball.

Utos : tar –xvf hadoop-2.6.0.tar.gz

Ikalat ang hadoop binary.

Idagdag ang Hadoop, Zookeeper at mga landas sa .bashrc file.

Buksan ang .bashrc file.

Utos : sudo gedit ~ / .bashrc

Idagdag ang mga landas sa ibaba:

export HADOOP_HOME = export HADOOP_MAPRED_HOME = $ HADOOP_HOME export HADOOP_COMMON_HOME = $ HADOOP_HOME export HADOOP_HDFS_HOME = $ HADOOP_HOME export YARN_HOME = $ HADOOP_HOME export HADOOP_CONF_DIR = $ HADOOP_HOME / etc / hadoop export YARN_CONF_DIR = $ HADOOP_HOME / etc / hadoop export JAVA_HOME = export ZOOKEEPER_HOME = export PATH = $ PATH: $ JAVA_HOME / basahan: $ HADOOP_HOME / basahan: $ HADOOP_HOME / sbin: $ ZOOKEEPER_HOME / bin

I-edit ang .bashrc file.

Paganahin ang SSH sa lahat ng node.

Bumuo ng SSH key sa lahat ng mga node.

Utos : ssh-keygen –t rsa (Hakbang na Ito sa lahat ng mga Node)

I-set up ang SSH key sa lahat ng mga node.

Huwag magbigay ng anumang landas sa file na Enter upang mai-save ang key at huwag magbigay ng anumang passphrase. Pindutin ang enter button.

kung paano mag-compile ng java program

Bumuo ng ssh key na proseso sa lahat ng mga node.

Kapag nabuo ang ssh key, makukuha mo ang pampublikong key at pribadong key.

Ang .ssh key Directory ay dapat maglaman ng Pahintulot 700 at lahat ng mga susi sa loob ng .ssh direktoryo ay dapat maglaman ng mga pahintulot 600.

Baguhin ang pahintulot sa direktoryo ng SSH.

Baguhin ang direktoryo sa .ssh at baguhin ang pahintulot ng mga file sa 600

Baguhin ang publiko at pribadong pahintulot sa key.

Kailangan mong kopyahin ang Pangalan ng mga node ssh pampublikong key sa lahat ng mga node.

Sa Aktibong Namenode, kopyahin ang id_rsa.pub gamit ang utos ng pusa.

Utos : cat ~ / .ssh / id_rsa.pub >> ~ / .ssh /uthor_keys

Kopyahin ang Namenode ssh key sa mga pinahintulutang key nito.

Kopyahin ang pampublikong key ng NameNode sa lahat ng mga node na ginagamit ssh-copy-id utos

Utos : ssh-copy-id –i .ssh / id_rsa.pub edureka@nn2.cluster.com

Kopyahin ang susi ng layunin sa Standby NameNode.

Kopyahin ang pampublikong pangalan ngNode ng node ng data node.

Utos : ssh-copy-id –i .ssh / id_rsa.pub edureka@dn1.cluster.com

Kopyahin ang pampublikong key ng Namenode sa node ng data.

I-restart ang serbisyo ng sshd sa lahat ng mga node.

Utos : sudo service sshd restart (Gawin sa lahat ng mga node)

I-restart ang serbisyo ng SSH.

Ngayon ay maaari kang mag-login sa anumang node mula sa Namenode nang walang anumang pagpapatotoo.

Buksan ang core-site.xml file mula sa node ng Aktibo na Pangalan at idagdag ang mga katangiang nasa ibaba.

I-edit ang core-site.xml mula sa Aktibong namenode

Buksan ang hdfs-site.xml file sa Aktibong Namenode. Idagdag ang nasa ibaba Mga Katangian.

dfs.namenode.name.dir / home / edureka / HA / data / namenode dfs.replication 1 dfs.permissions false dfs.nameservices ha-cluster dfs.ha.namenodes.ha-cluster nn1, nn2 dfs.namenode.rpc-address .ha-cluster.nn1 nn1.cluster.com:9000 dfs.namenode.rpc-address.ha-cluster.nn2 nn2.cluster.com:9000 dfs.namenode.http-address.ha-cluster.nn1 nn1.cluster. com: 50070 dfs.namenode.http-address.ha-cluster.nn2 nn2.cluster.com Oktubre0070 dfs.namenode.shared.edits.dir qjournal: //nn1.cluster.com: 8485nn2.cluster.com: 8485dn1. cluster.com:8485/ha-cluster dfs.client.failover.proxy.provider.ha-cluster org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider dfs.ha.automatic-failover.enified true ha.zookeeper .quorum nn1.cluster.com Spin181,nn2.cluster.comitrato181,dn1.cluster.com Gord181 dfs.ha.fencing.methods sshfence dfs.ha.fencing.ssh.private-key-files / home / edureka /.ssh/id_rsa

Baguhin ang direktoryo sa direktoryo ng conf ng zookeeper.

Utos : cd zookeeper-3.4.6 / conf

Direktoryo ng Zookeeper Conf.

Sa isang direktoryo ng conf mayroon kang zoo_sample.cfg file, likhain ang zoo.cfg gamit ang zoo_sample.cfg file.

Utos : cp zoo_sample.cfg zoo.cfg

Lumikha ng zoo.cfg file.

Lumikha ng direktoryo sa anumang lokasyon at gamitin ang direktoryo na ito upang maiimbak ang data ng zookeeper.

Utos : mkdir

Lumikha ng isang direktoryo upang mag-imbak ng data ng zookeeper.

Buksan ang zoo.cfg file.

Utos : gedit zoo.cfg

Idagdag ang path ng direktoryo na nilikha sa itaas na hakbang sa pag-aari ng dataDir at idagdag ang mga detalye sa ibaba tungkol sa natitirang node, sa zoo.cfg file.

Server.1 = nn1.cluster.com: 2888: 3888

Server.2 = nn2.cluster.com: 2888: 3888

Server.3 = dn1.cluster.com: 2888: 3888

I-edit ang zoo.cfg file.

Kopyahin ngayon ang mga direktoryo ng Java at Hadoop-2.6.0, zookeeper-3.4.6, at .bashrc file sa lahat ng mga node (Standby name node, Data node) gamit ang scp command.

Utos : scp –r edureka @:

Kopyahin ang Hadoop, Zookeeper at .bashrc file sa lahat ng mga node.

Katulad nito, kopyahin ang .bashrc file at direktoryo ng zookeeper sa lahat ng mga node at baguhin ang mga variable ng kapaligiran sa bawat isa ayon sa kani-kanilang node.

Sa isang data node, lumikha ng anumang direktoryo kung saan kailangan mong itabi ang mga bloke ng HDFS.

Sa isang data node, kailangan mong idagdag ang mga katangian ng dfs.datanode.data.dir.

Sa aking kaso, lumikha ako datanode direktoryo upang maiimbak ang mga bloke.

Lumikha ng direktoryo ng Datanode.

Baguhin ang pahintulot sa direktoryo ng node ng data.

Baguhin ang pahintulot sa direktoryo ng Datanode.

Buksan ang HDFS-site.xml file, idagdag ang path ng direktoryo ng Datanode na ito sa pag-aari ng dfs.datanode.data.dir.

Tandaan: Panatilihin ang lahat ng mga pag-aari na nakopya mula sa Aktibong namenode magdagdag ng dfs.datanode.data.dir isang katas ng pag-extract sa namenode.

dfs.datanode.data.dir / home / edureka / HA / data / datanode

Sa Active namenode, baguhin ang direktoryo kung saan mo nais na iimbak ang file ng pagsasaayos ng zookeeper (dataDir land path).

Lumikha ng myid file sa loob ng direktoryo at magdagdag ng numerong 1 sa file at i-save ang file.

Utos : vi myid

Lumikha ng myid file.

Sa isang standby namenode baguhin ang direktoryo kung saan mo nais na iimbak ang file ng pagsasaayos ng zookeeper (dataDir land path).

Lumikha ng myid file sa loob ng direktoryo at magdagdag ng numeric 2 sa file at i-save ang file.

Sa isang data node, baguhin ang direktoryo kung saan mo nais na iimbak ang file ng pagsasaayos ng zookeeper (dataDir landas ng pag-aari).

Lumikha ng myid file sa loob ng direktoryo at idagdag ang numeric 3 sa file at i-save ang file.

Simulan ang Journalnode sa lahat ng tatlong mga node.

Utos : hadoop-daemon.sh simulan ang journalnode

Simulan ang Journalnode.

Kapag ipinasok mo ang utos ng jps, makikita mo ang JournalNode daemon sa lahat ng mga node.

I-format angAktibong layunin.

Utos : Inilaan ng HDFS -format

Format ng Aktibong NameNode.

Simulan ang Namenode daemon at Aktibong Namedode.

Utos : hadoop-daemon.sh simulan ang layunin

Simulan ang Namenode.

Kopyahin ang data ng HDFS Meta mula sa aktibong name node patungo sa standby namenode.

Utos : Inilaan ng HDFS -bootstrapStandby

Kopyahin ang data ng HDFS Meta mula sa Aktibong node ng pangalan sa Standby Namenode.

Kapag naipatakbo mo ang utos na ito, makukuha mo ang impormasyon mula sa kung aling node at lokasyon ang kinokopya ng data ng meta at kung matagumpay ba itong kumopya o hindi.

Impormasyon ng mga detalye ng layunin ng Aktibo.

Kapag ang data ng Meta ay nakopya mula sa Aktibong namenode patungo sa standby namenode, makukuha mo ang mensahe na ipinakita sa ibaba sa screenshot.

Ang impormasyon tungkol sa HDFS sa Standby Namenode.

Simulan ang namenode daemon sa Standby namenode machine.

Utos : hadoop-daemon.sh simulan ang layunin

Simulan ngayon ang serbisyo ng Zookeeper sa lahat ng tatlong mga node.

Utos : zkServer.sh start (Patakbuhin ang utos na ito sa lahat ng mga node)

Sa Aktibong Pakay:

Simulan ang zookeeper sa Active NameNode.

Sa Standby Namenode:

Simulan ang zookeeper sa standby na NameNode.

Sa Data node:

Simulan ang zookeeper sa DataNode.

Matapos patakbuhin ang server ng Zookeeper, ipasok ang utos ng JPS. Sa lahat ng mga node makikita mo ang serbisyo ng KorumPeerMain.

Simulan ang Data node daemon sa Data node machine.

Utos : hadoop-daemon.sh simulan ang datanode

Simulan ang pagkabigo ng Zookeeper sa controller sa Active name node at standby name node.

Nabigo ang zookeeper sa paglipas ng controller sa Active namenode.

Utos: HDFS zkfc –formatZK

I-format ang ZKFC.

Simulan ang ZKFC sa Active namenode.

Utos : hadoop-daemon.sh simulan ang zkfc

Ipasok ang utos ng jps upang suriin ang mga daemon ng DFSZkFailoverController.

Simulan ang ZKFC.

Nabigo ang format ng zookeeper over controller sa Standby namenode.

Utos : hdfs zkfc –formatZK

Simulan ang ZKFC sa Standby namenode.

Utos : hadoop-daemon.sh simulan ang zkfc

Ipasok ang utos ng jps upang suriin ang mga daemon ng DFSZkFailoverController.

Ngayon suriin ang katayuan ng bawat Namenode, kung aling node ang Aktibo o kung aling node ang nasa Standby sa pamamagitan ng paggamit ng utos sa ibaba.

Utos : hdfs haadmin –getServiceState nn1

Suriin ang katayuan ng bawat NameNode.

Ngayon suriin ang katayuan ng bawat Namenode gamit ang web browser.

Buksan ang Web browser at ipasok ang nasa ibaba URL.

kung paano gamitin ang atom para sa sawa

: 50070

Ipapakita nito kung ang pangalan ng node ay Aktibo o naka-standby.

Aktibong NameNode.

Magbukas ng ibang mga detalye ng node ng pangalan gamit ang web browser.

Standby NameNode.

Sa Active namenode, pumatay ng namenode daemon upang mabago ang Standby na node ng pangalan sa aktibong namenode.

Ipasok ang jps sa Aktibong namenode at patayin ang daemon.

Utos: sudo pumatay -9

Daemons Process ID.

Ang ID ng proseso ng Namenode ay 7606, patayin ang namenode.

Utos : Sudo pumatay -9 7606

Patayin ang proseso ng Name Node

Buksan ang dalawang mga node sa pamamagitan ng web browser at suriin ang katayuan.

Mga detalye ng Namenode.

Katayuan ng NameNode.

Binabati kita, matagumpay mong na-set up ang isang HDFS Mataas na Klaster ng Pagkakaroon sa Hadoop.

Ngayon na naintindihan mo na ang Hadoop Mataas na Pagkuha ng Cluster Architecture, tingnan ang ni Edureka, isang pinagkakatiwalaang kumpanya sa pag-aaral sa online na may isang network na higit sa 250,000 nasiyahan na mga nag-aaral na kumalat sa buong mundo. Ang kurso sa Edureka Big Data Hadoop Certification Training ay tumutulong sa mga nag-aaral na maging dalubhasa sa HDFS, Yarn, MapReduce, Pig, Hive, HBase, Oozie, Flume at Sqoop na gumagamit ng mga kaso ng paggamit ng real-time sa Retail, Social Media, Aviation, Turismo, Pananalapi domain.

May tanong ba sa amin? Mangyaring banggitin ito sa seksyon ng mga komento at babalikan ka namin.

window._LQ_ = window._LQ_ || {}

lqQuizModal (window, dokumento, {quizId: 'XAIVp8 ′, baseUrl:' https: //quiz.leadquizzes.com/',trigger: 'exit'}, _LQ_)