Kapaki-pakinabang na Mga Utos ng Shell ng Hadoop



Inilalarawan ng blog na ito ang tungkol sa lahat ng mga kapaki-pakinabang na Hadoop Shell Command. Kasama ng mga Hadoop Shell Command, mayroon din itong mga screenshot upang gawing simple ang pag-aaral. Basahin mo!

Ang HDFS ay nangangahulugang ‘ H adoop D itinuro F kasama S ystem ’. Ang HDFS ay isang sub-proyekto ng proyekto ng Apache Hadoop. Ang proyekto ng Apache Software Foundation na ito ay dinisenyo upang magbigay ng isang file ng file na mapagparaya sa kasalanan na dinisenyo upang tumakbo sa hardware ng kalakal. Ang HDFS ay na-access sa pamamagitan ng isang hanay ng mga shell command na tatalakayin sa post na ito.





Isang maikling tala bago magsimula: Ang lahat ng mga utos ng Hadoop Shell ay tinawag ng script ng bin / hadoop.

Mga Utos ng Gumagamit:

  • Patakbuhin ang system ng file ng DFS:

Paggamit: hadoop fsck - /



Run-DFS-file-system (1)

Progress bar sa html gamit ang javascript
  • C ano ba bersyon ng Hadoop :

Paggamit: Hadoop na bersyon



Mga Utos ng FS Shell:

Ang utos ng Hadoop fs ay nagpapatakbo ng isang pangkaraniwang client ng gumagamit ng filesystem na nakikipag-ugnay sa MapR filesystem (MapR-FS).

  • Tingnan ang mga listahan ng file:

Paggamit: hadoop fs -ls hdfs: /

  • Suriin ang katayuan sa memorya:

Paggamit: hadoop fs -df hdfs: /

  • Bilang ng Mga Direktoryo, Mga File at Byte sa tinukoy na pattern ng path at file:

Paggamit: hadoop fs -count hdfs: /

  • Ilipat ang file mula sa isang lokasyon patungo sa isa pa:

Paggamit: -mv

  • Kopyahin ang file mula sa mapagkukunan patungo sa patutunguhan :

Paggamit: -cp

  • Burahin ang file:

Paggamit: -rm

  • Ilagay ang file mula sa Local file system sa Hadoop Distraced File System:

Paggamit: -put…

  • Kopyahin ang file mula sa Lokal patungo sa HDFS:

Paggamit: -copyFromLocal…

  • Tingnan ang file sa Hadoop Distribution File system :

Paggamit: -cat

Mga Utos ng Pangangasiwa:

  • I-format ang layunin :

Paggamit: hadoop layunin -format

  • Simula sa Mga layunin ng Pangalawang:

Paggamit: hadoop secondrynamenode

  • Tumatakbo ng sadya :

Paggamit: layunin ng hadoop

  • Takbo node ng data :

Paggamit: hadoop datanode

  • Pagbabalanse ng Cluster :

Paggamit: hadoop balancer

  • Patakbuhin ang MapReduce job tracker node:

Paggamit: hadoop job tracker

  • Patakbuhin ang MapReduce task tracker node:

Paggamit: hadoop tasktracker

May tanong ba sa amin? Mangyaring banggitin ang mga ito sa seksyon ng mga komento at babalikan ka namin.

ano ang isinstance sa sawa

Mga Kaugnay na Post:

Ang mga operator sa Apache Pig