Mga Utos ng HDFS: Nag-uutos ang Hadoop Shell na Pamahalaan ang HDFS

Pinag-uusapan ng blog ang tungkol sa iba't ibang mga utos ng HDFS tulad ng fsck, copyFromLocal, expunge, cat atbp na ginagamit upang pamahalaan ang Hadoop File System.

Mga Utos ng HDFS

Sa aking mga nakaraang blog , Tinalakay ko na kung ano ang HDFS, mga tampok nito, at arkitektura. Ang unang hakbang patungo sa paglalakbay sa ay nagpapatupad ng mga utos ng HDFS at tuklasin kung paano gumagana ang HDFS. Sa blog na ito, pag-uusapan ko ang tungkol sa mga utos ng HDFS na ginagamit kung saan maaari mong ma-access ang Hadoop File System.

Kaya, hayaan mong sabihin ko sa iyo ang mahalagang mga utos ng HDFS at ang kanilang pagtatrabaho na ginagamit nang madalas kapag nagtatrabaho sa Hadoop File System.



  • fsck

HDFS Command upang suriin ang kalusugan ng Hadoop file system.

Utos: hdfs fsck /

Kalusugan sa HDFS Filesystem - Mga Utos ng HDFS - Edureka

  • ls

HDFS Command upang ipakita ang listahan ng Mga File at Direktoryo sa HDFS.

Utos: mga hdfsdfs –Ls /

  • mkdir

HDFS Command upang likhain ang direktoryo sa HDFS.

Paggamit: hdfs dfs –mkdir / Directory_name

Utos: hdfs dfs –mkdir / new_edureka

Tandaan: Sinusubukan naming lumikha ng isang direktoryo na pinangalanang 'new_edureka' sa HDFS.

ay isang has java
  • hawakan

HDFS Command upang lumikha ng isang file sa HDFS na may sukat ng file na 0 bytes.

Paggamit: hdfs dfs –touchz / direktoryo / filename

Utos: hdfs dfs –touchz / new_edureka / sample

Tandaan: Sinusubukan naming lumikha ng isang file na pinangalanang 'sample' sa direktoryo na 'new_edureka' ng mga HDMI na may sukat ng file na 0 bytes.

  • ng

HDFS Command upang suriin ang laki ng file.

Paggamit: hdfs dfs –du –s / Directory / filename

Utos: hdfs dfs –du –s / new_edureka / sample

  • pusa

Ang HDFS Command na nagbabasa ng isang file sa HDFS at naka-print ang nilalaman ng file na iyon sa karaniwang output.

Paggamit: hdfs dfs –cat / path / to / file_in_hdfs

Utos: hdfs dfs –cat / new_edureka / test

  • text

Ang HDFS Command na tumatagal ng isang mapagkukunang file at nagpapalabas ng file sa format na teksto.

Paggamit: hdfs dfs –text / direktoryo / filename

Utos: hdfs dfs –text / new_edureka / test

  • kopyaFromLocal

HDFS Command upang kopyahin ang file mula sa isang Local file system patungong HDFS.

Paggamit: hdfs dfs -copyFromLocal

Utos: hdfs dfs –copyFromLocal / home / edureka / test / new_edureka

Tandaan: Narito ang pagsubok ay ang file na naroroon sa lokal na direktoryo / bahay / edureka at pagkatapos na maipatupad ang utos ang test file ay makopya sa / new_edureka direktoryo ng HDFS.

  • kopyaToLocal

HDFS Command upang kopyahin ang file mula sa HDFS patungo sa Local File System.

Paggamit: hdfs dfs -copyToLocal

Utos: hdfs dfs –copyToLocal / new_edureka / test / home / edureka

Tandaan: Narito ang pagsubok ay isang file na naroroon sa direktoryo ng new_edureka ng HDFS at pagkatapos na maipatupad ang utos ang test file ay makopya sa lokal na direktoryo / tahanan / edureka

  • ilagay

HDFS Command upang kopyahin ang solong mapagkukunan o maraming mapagkukunan mula sa lokal na file system patungo sa patutunguhan ng file system.

Paggamit: hdfs dfs -put

Utos: hdfs dfs –put / home / edureka / test / user

Tandaan: Ang command copyFromLocal ay katulad upang maglagay ng utos, maliban na ang mapagkukunan ay pinaghihigpitan sa isang lokal na sanggunian ng file.

  • kumuha ka

HDFS Command upang kopyahin ang mga file mula sa mga hdfs patungo sa lokal na file system.

Paggamit: hdfs dfs -get

Utos: hdfs dfs –get / user / test / home / edureka

Tandaan: Ang command copyToLocal ay katulad upang makakuha ng utos, maliban na ang patutunguhan ay limitado sa isang lokal na sanggunian ng file.

  • bilangin

Ang HDFS Command ay bilangin ang bilang ng mga direktoryo, file, at byte sa ilalim ng mga landas na tumutugma sa tinukoy na pattern ng file.

Paggamit: hdfsdfs -count

Utos: hdfs dfs –count / user

  • rm

HDFS Command upang alisin ang file mula sa HDFS.

Paggamit: hdfs dfs –rm

Utos: hdfs dfs –rm / new_edureka / test

  • rm -r

HDFS Command upang alisin ang buong direktoryo at lahat ng nilalaman nito mula sa HDFS.

Paggamit: hdfs dfs -rm -r

Utos: hdfs dfs -rm -r / new_edureka

  • cp

HDFS Command upang kopyahin ang mga file mula sa mapagkukunan patungo sa patutunguhan. Pinapayagan din ng utos na ito ang maraming mapagkukunan, kung saan ang patutunguhan ay dapat na isang direktoryo.

Paggamit: mga hdfs dfs -cp

Utos: hdfs dfs -cp / user / hadoop / file1 / user / hadoop / file2

Utos: hdfs dfs -cp / user / hadoop / file1 / user / hadoop / file2 / user / hadoop / dir

  • mv

HDFS Command upang ilipat ang mga file mula sa mapagkukunan patungo sa patutunguhan. Pinapayagan din ng utos na ito ang maraming mga mapagkukunan, kung saan ang patutunguhan ay kailangang maging isang direktoryo.

Paggamit: hdfs dfs -mv

Utos: hdfs dfs -mv / user / hadoop / file1 / user / hadoop / file2

  • patalsikin

HDFS Command na ginagawang walang laman ang basurahan.

Utos: mga hdfsdfs-expunge

  • rmdir

HDFS Command upang alisin ang direktoryo.

Paggamit: hdfs dfs -rmdir

ano ang ibig sabihin ng __init__ sa sawa

Utos: hdfs dfs –rmdir / user / hadoop

  • paggamit

HDFS Command na nagbabalik ng tulong para sa isang indibidwal na utos.

Paggamit: hdfs dfs -usage

Utos: hdfs dfs -usage mkdir

Tandaan: Sa pamamagitan ng paggamit ng utos ng paggamit maaari kang makakuha ng impormasyon tungkol sa anumang utos.

  • tulungan

Ang HDFS Command na nagpapakita ng tulong para sa naibigay na utos o lahat ng mga utos kung wala ay tinukoy.

Utos: hdfs dfs -help

Ito ang pagtatapos ng blog ng HDFS Commands, sana ay ito ay kaalaman at nagawang isagawa ang lahat ng mga utos. Para sa higit pang Mga Utos ng HDFS, maaari kang mag-refer sa Apache Hadoopdokumentasyon dito

Ngayon na naisakatuparan mo ang mga utos ng HDFS sa itaas, tingnan ang ni Edureka, isang pinagkakatiwalaang kumpanya sa pag-aaral sa online na may isang network na higit sa 250,000 nasiyahan na mga nag-aaral na kumalat sa buong mundo. Ang kurso sa Edureka Big Data Hadoop Certification Training ay tumutulong sa mga nag-aaral na maging dalubhasa sa HDFS, Yarn, MapReduce, Pig, Hive, HBase, Oozie, Flume at Sqoop gumagamit ng mga real-time na kaso ng paggamit sa domain ng Retail, Social Media, Aviation, Turismo, Pananalapi.

May tanong ba sa amin? Mangyaring banggitin ito sa seksyon ng mga komento at babalikan ka namin.