10 olulist andmeanalüüsi intervjuu küsimust (värskendatud 2019 jaoks)

Lang L: none (table-of-contents):

Anonim

Sissejuhatus andmeanalüüsi intervjuu küsimustesse ja vastustesse

Nii olete lõpuks leidnud Data Analyticsis oma unistuste töö, kuid mõtlete, kuidas 2019. aasta Data Analyticsi intervjuud lõhestada ja millised võiksid olla tõenäolised Data Analyticsi intervjuuküsimused. Iga andmeanalüüsi intervjuu on erinev ja ka töö ulatus. Seda meeles pidades oleme välja töötanud kõige levinumad Data Analyticsi intervjuu küsimused ja vastused, mis aitavad teil oma Data Analyticsi intervjuul edu saavutada.

Allpool on toodud 2019. aasta populaarsemad andmeanalüüsi intervjuu küsimused, mida enamasti küsitakse intervjuus

1. Mis vahe on andmete kaevandamisel ja andmete analüüsil?

Vastus:

Andmete kaevandamineAndmete analüüs
Data Mining jaoks pole hüpoteesi vajaAndmete analüüs algab hüpoteesiga.
Data Mining nõuab puhtaid ja hästi dokumenteeritud andmeid.Andmete analüüs hõlmab andmete puhastamist.
Andmete kaevandamise tulemusi pole alati kerge tõlgendada.Andmeanalüütikud tõlgendavad tulemusi ja tutvustavad neid sidusrühmadele.
Andmete kaevandamise algoritmid töötavad automaatselt välja võrrandid.Andmeanalüütikud peavad välja töötama oma võrrandid.

2. Mis on analüüsi projekti erinevad sammud?

Vastus:
Andmeanalüütika tegeleb andmete kogumise, puhastamise, muundamise ja modelleerimisega, et saada väärtuslikku teavet ja toetada organisatsiooni paremate otsuste tegemist. Andmeanalüüsiprotsessis osalevad järgmised sammud -

Andmete uurimine - uurides äriprobleeme, peab andmeanalüütik analüüsima probleemi algpõhjust.
Andmete ettevalmistamine - selles andmete analüüsiprotsessi etapis leiame andmeanomaaliaid, näiteks puuduvad andmetes olevad väärtused.
Andmete modelleerimine - modelleerimisetapp algab pärast andmete ettevalmistamist. Modelleerimine on iteratiivne protsess, kus paranduste tegemiseks juhitakse mudelit korduvalt. Andmete modelleerimine tagab äriprobleemi parima võimaliku tulemuse.
Valideerimine - selles etapis valideeritakse kliendi pakutav mudel ja andmeanalüütiku väljatöötatud mudel üksteise suhtes, et teada saada, kas väljatöötatud mudel vastab ärinõuetele.
Mudeli rakendamine ja jälgimine - kas andmeanalüüsi viimases etapis toimub mudeli juurutamine ja pärast seda jälgitakse, et tagada mudeli õige rakendamine või mitte?

3.Mis vastutab andmeanalüütik?

Vastus:
• Lahendage klientide jaoks ettevõtlusega seotud probleemid ja viige läbi andmeauditi toiminguid.
• Tõlgendage andmeid statistiliste meetodite abil.
• Selgitage välja parendusvõimaluste valdkonnad.
• Analüüsida, tuvastada ja tõlgendada keerukate andmekogumite trende või mustreid.
• Andmete hankimine esmastest või sekundaarsetest andmeallikatest.
• Hooldage andmebaase / andmesüsteeme.
• Otsige ja parandage koodiprobleeme jõudlusnäitajate abil.
• Andmebaasi turvamine juurdepääsu süsteemi arendamise kaudu.

4.Mis on hashi tabeli kokkupõrked? Kuidas seda välditakse?

Vastus:
Räsitabeli kokkupõrge toimub siis, kui kahel erineval võtmel on sama väärtus. Räsitabeli kokkupõrke vältimiseks on palju tehnikaid, loetleme siin kaks:
Eraldi aheldamine: see kasutab sama pessa räsitavat andmestruktuuri mitme üksuse salvestamiseks.
Avatud adresseerimine: see otsib teist funktsiooni kasutades teist funktsiooni ja salvestab üksuse esimesse tühja pesa.

5. Loetelu parimatest tööriistadest, mis võivad andmete analüüsimisel olla kasulikud?

Vastus:
• Tableau
• RapidMiner
• OpenRefine
• RÕNGAD
• Google'i otsinguoperaatorid
• Lahendaja
• NodeXL
• io
• Wolfram Alpha
• Google Fusion Tables

6.Mis erineb andmekaevandamine ja andmete profileerimine?

Vastus:
Erinevus andmete kaevandamise ja andmete profileerimise vahel on järgmine -
• Andmete profileerimine: see on suunatud üksikute atribuutide (nt hind varieerumine, erinev hind ja nende sagedus), nullväärtuste esinemissageduse, andmetüübi, pikkuse jne viivitamatule analüüsile.
• Andmete kaevandamine: see keskendub sõltuvustele, jadade tuvastamisele, seose hoidmisele mitme atribuudi vahel, klastrianalüüsile, ebaharilike kirjete tuvastamisele jne.

7. Selgitage K-keskmise algoritmi ja hierarhilise rühmituse algoritmi?

Vastus:
K-mean algoritm - K-keskmine on kuulus jaotamismeetod. K-keskmise algoritmi puhul on klastrid sfäärilised, st klastri andmepunktid on selle klastri keskel. Samuti on klastrite dispersioon sarnane, st iga andmepunkt kuulub lähimasse klastrisse
Hierarhiline klasterdamisalgoritm - hierarhiline klasterdamisalgoritm ühendab ja jagab olemasolevad rühmad ning loob neile hierarhilise struktuuri, et näidata rühmade jagamise järjekorda.

8.Mis on andmete puhastamine? Kas mainida mõnda parimat tava, mida peate andmete puhastamise ajal järgima?

Vastus:
Antud andmekogumist on äärmiselt oluline sorteerida andmete analüüsimiseks vajalik teave. Andmete puhastamine on oluline samm, kus andmeid kontrollitakse võimalike kõrvalekallete leidmiseks, korduva ja ebaõige teabe eemaldamiseks jne. Andmete puhastamine ei hõlma olemasoleva teabe eemaldamist andmebaasist, see lihtsalt parandab andmete kvaliteeti, nii et neid saab kasutada analüüsimiseks .
Andmete puhastamise parimate tavade hulka kuuluvad -
• Andmekvaliteedikava väljatöötamine maksimaalsete andmete kvaliteedivigade tuvastamiseks, et saaksite hinnata algpõhjust ja vastavalt sellele kavandada.
• Enne teabe sisestamist järgige tavalist meetodit vajaliku teabe põhjendamiseks.
• Tuvastage kõik duplikaatide andmed ja kinnitage andmete õigsus, kuna see säästab analüüsi ajal palju aega.
• Kõigi teabe abil tehtud täiustamistoimingute jälgimine on uskumatult vajalik, et vajadusel toiminguid korrata või ära võtta.

9.Millised on statistikaanalüütikutele kasulikud statistilised meetodid?

Vastus:
Andmeteadlasele kasulikud statistilised meetodid on
• Bayesi meetod
• Markovi protsess
• Ruumilised ja klastriprotsessid
• Asetuse statistika, protsentiil, kõrvalnäitajate tuvastamine
• imputeerimise tehnikad jne.
• Simplex algoritm
• Matemaatiline optimeerimine

10. Selgitage, mis on imputeerimine? Loetlege erinevad imputeerimise tehnikad? Milline imputeerimise meetod on soodsam?

Vastus:
Imputeerimise ajal kipume puuduvat teavet asendama asendatud väärtustega. Kaasamise tehnikad hõlmavad järgmist:
• Üksik imputeerimine: ühekordne imputeerimine tähistab puuduva väärtuse asendamist väärtusega. Selle meetodi korral saadakse valimi suurus.
• Kuumteki imputeerimine: puuduva väärtuse arvatakse juhuslikult valitud sarnasest kirjest perfokaardi abil
• Külma teki imputeerimine: see toimib samamoodi nagu kuuma teki imputeerimine, kuid pisut keerukam ja valib doonorid teistest andmekogumitest
• Keskmine imputeerimine: see hõlmab puuduva väärtuse asendamist teiste muutujate ennustatud väärtustega.
• Regressioonimääramine: see hõlmab puuduva väärtuse asendamist teatud väärtuse ennustatud väärtustega, sõltuvalt muudest muutujatest.
• Stohhastiline regressioon: see on sama mis regressioonimääramine, kuid lisab regressioonimääramisele tavalise regressioonivariandi.
• Mitu imputeerimist: erinevalt ühekordsest imputeerimisest hindab mitu imputeerimist väärtusi mitu korda

Ehkki üksikut imputeerimist kasutatakse laialdaselt, ei kajasta see juhuslikult puuduvate andmete tekitatud ebakindlust. Niisiis, mitu imputatsiooni on juhusliku puudumise korral soodsamad kui üksikud imputeerimised.

Soovitatavad artiklid

See on olnud andmeanalüüsi intervjuuküsimuste ja vastuste põhjalik juhend, et kandidaat saaks hõlpsalt neid Data Analyticsi intervjuuküsimusi lahendada. Lisateabe saamiseks võite vaadata ka järgmisi artikleid -

  1. 10 kasuliku vilgas intervjuu küsimust ja vastust
  2. 8 vinge algoritmiga intervjuu küsimust
  3. 25 kõige olulisemat infotehnoloogiaintervjuu küsimust
  4. 10 hämmastavat andmeinseneri intervjuu küsimust ja vastust