Sissejuhatus Hadoopi administraatori intervjuu küsimustele ja vastustele

Nii et olete lõpuks leidnud oma unistuste töökoha Hadoopi administraatoris, kuid mõtlete, kuidas Hadoopi administraatori intervjuud murda ja millised võiksid olla Hadoopi administraatori intervjuu tõenäolised küsimused. Iga vestlus on erinev ja ka töö ulatus. Seda meeles pidades oleme välja töötanud Hadoopi administraatori kõige tavalisemad intervjuu küsimused ja vastused, mis aitavad teil intervjuus edu saavutada.

Järgnevalt on toodud Hadoopi administraatori intervjuuküsimused, mis aitavad teil Hadoopi intervjuust aru saada.

1. Mis on rackiteadlikkus? Ja miks see vajalik on?

Vastus:
Racki teadlikkus seisneb andmesõlmede jaotamises mitmele rackile.HDFS järgib andmeplokkide paigutamiseks rackiteadlikkuse algoritmi. Rack mahutab mitut serverit. Ja klastri jaoks võiks olla mitu püstikut. Ütleme, et Hadoopi klaster on üles seatud 12 sõlmega. Seal võiks olla 3 nagi, kus mõlemal oleks 4 serverit. Kõik 3 nagi on ühendatud nii, et kõik 12 sõlme on ühendatud ja moodustavad klastri. Riiulite arvu üle otsustamisel on oluline arvestada replikatsiooniteguriga. Kui on 100 GB andmeid, mis hakkavad voolama iga päev koos kordusteguriga 3. Siis peavad klastris olema 300 GB andmeid. See on parem variant, kui soovite, et andmeid korratakse kogu nagis. Isegi kui mõni sõlm alla läheb, on koopia teises rackis.

2. Mis on vaikimisi ploki suurus ja kuidas see on määratletud?

Vastus:
128 MB ja see on määratletud hdfs-site.xml ning ka see on kohandatav sõltuvalt andmete mahust ja juurdepääsu tasemest. Ütleme nii, et päevas voolab 100 GB andmeid, andmed eraldatakse ja salvestatakse klastrisse. Kui palju faile on? 800 faili. (1024 * 100/128) (1024 à teisendas GB MB-ks.) Andmeploki suuruse kohandamiseks on kaks võimalust.

  1. hadoop fs -D fs.local.block.size = 134217728 (bittides)
  2. Lisage hdfs-site.xml see atribuut à block.size koos bittide suurusega.

Kui muudate vaikesuuruseks 512 MB, kuna andmemaht on tohutu, genereeritakse failide arv 200. (1024 * 100/512)

3. Kuidas saada hdfs-failisüsteemi aruanne? Ketta saadavuse ja aktiivsete sõlmede arvu kohta?

Vastus:
Käsk: sudo -u hdfs dfsadmin –report

See on kuvatava teabe loetelu,

  1. Konfigureeritud maht - kogu saadaolev maht hdfs-is
  2. Praegune maht - see on kogu ruumi summa, mis eraldatakse ressursside jaoks, et elada metastore ja fsimage ruumi kasutamise kõrval.
  3. Järelejäänud DFS - see on HDFS-i jaoks veel saadaolev salvestusruum, et salvestada rohkem faile
  4. DFS kasutatud - see on salvestusruum, mille HDFS on ära kasutanud.
  5. DFS kasutatud% - protsentides
  6. Kordatavate plokkide all - plokkide arv
  7. Plokid koos rikutud repliikidega - kui rikutud plokid on olemas
  8. Puuduvad klotsid
  9. Puuduvad plokid (kordusteguriga 1)

4. Mis on Hadoopi tasakaalustaja ja miks see on vajalik?

Vastus:
Sõlmede vahel levinud andmed ei jagune õiges proportsioonis, mis tähendab, et iga sõlme kasutamine ei pruugi olla tasakaalus. Üks sõlm võib olla liiga ära kasutatud ja teine ​​- alakasutatud. Selle tulemuseks on ükskõik millise protsessi käitamisel kõrge kuluefekt ja see võib lõppeda nende sõlmede suure kasutamisega. Selle lahendamiseks kasutatakse Hadoopi tasakaalustajat, mis tasakaalustab andmete kasutamist sõlmedes. Nii et kui tasakaalustaja käivitatakse, liigutatakse andmed üle ala, kus alakasutatud sõlmed saavad täidetud ja ülekasutatud sõlmed vabastatakse.

5. Cloudera ja Ambari erinevus?

Vastus:

Cloudera mänedžerAmbari
Cloudera haldustööriistHortoni administreerimisriist töötab
Jälgib ja haldab kogu klastrit ning annab aru kasutamisest ja probleemidestJälgib ja haldab kogu klastrit ning annab aru kasutamisest ja probleemidest
Kaasas Cloudera tasuline teenusAvatud lähtekoodiga

6. Mis on Hadoopi administraatori peamised toimingud?

Vastus:
Klastri tervise jälgimine - on palju rakenduse lehti, mida tuleb jälgida, kui mõni protsess töötab. (Tööajaloo server, YARNi ressursihaldur, Cloudera haldur / ambary sõltuvalt jaotusest)

lülitage turbe sisse - SSL või Kerberos

Häälestamine - Hadoopi tasakaalustaja

Lisage vajadusel uusi andmesõlmi - infrastruktuuri muudatused ja konfiguratsioonid

MapReduce tööajaloo jälgimisserveri sisselülitamine valikuline à Mõnikord aitab teenuste taaskäivitamine vahemälu vabastada. See on siis, kui klaster on tühi.

7. Mis on Kerberos?

Vastus:
See on iga teenuse sünkroonimiseks protsessi autentimiseks vajalik autentimine. Kerberos on soovitatav lubada. Kuna tegemist on hajutatud andmetöötlusega, on alati hea tava krüptimine andmetele juurdepääsu ja nende töötlemise ajal. Kuna kõik sõlmed on ühendatud ja igasugune infokäik on üle võrgu. Kuna Hadoop kasutab Kerberost, ei saadeta paroole võrkude kaudu. Selle asemel kasutatakse krüpteerimisvõtmete arvutamiseks paroole. Sõnumeid vahetatakse kliendi ja serveri vahel. Lihtsamalt öeldes pakub Kerberos krüptimisega turvaliselt üksteisele (sõlmedele) identiteeti.

Seadistamine saidil core-site.xml
Hadoop.security.authentication: Kerberos

8. Mis on hdfs-käskude oluline loend?

Vastus:

KäsudEesmärk
hdfs dfs –lsHdfs-failisüsteemis olevate failide loetlemiseks.
Hdfs dfs –putKopeerige fail kohalikust süsteemist hdfs-failisüsteemi
Hdfs dfs –chmod 777Andke failile lugemis-, kirjutamis- ja täitmisluba
Hdfs dfs –getKopeerige fail hdfs-failisüsteemist kohalikku failisüsteemi
Hdfs dfs –catVaadake failisisu hdfs-failisüsteemist
Hdfs dfs –rmEemaldage fail hdfs-failisüsteemist. Kuid see teisaldatakse prügikasti faili teele (see on nagu akende prügikast)
Hdfs dfs –rm –skipTrashEemaldab faili jäädavalt klastrist.
Hdfs dfs –touchzLooge fail hdfs-failisüsteemis

9. Kuidas kontrollida klastris esitatud Hadoopi töö logisid ja kuidas lõpetada juba töötav protsess?

Vastus:
lõnga logid –applicationId - rakenduse ülem genereerib logid oma konteinerisse ja see lisatakse loodud ID-ga. See on abiks protsessi käitamise oleku ja logiteabe jälgimisel.

lõngarakendus –kill - kui klastris töötav protsess tuleb lõpetada, kasutatakse tapmiskäsku, kus klastri töö lõpetamiseks kasutatakse rakenduse id.

Soovitatav artikkel

See on olnud Hadoopi administraatori intervjuu küsimuste ja vastuste loendi juhend, et kandidaat saaks hõlpsalt neid Hadoopi administraatori intervjuu küsimusi lahendada. Lisateabe saamiseks võite vaadata ka järgmisi artikleid

  1. Hadoopi klastri intervjuu küsimused ja vastused - kümme kõige kasulikumat
  2. Küsimused andmete modelleerimise kohta - 10 olulist küsimust
  3. SASi süsteemiintervjuu küsimused - kümme parimat küsimust