Sissejuhatus gradiendi suurendamise algoritmi
Nädala õppijate tugevaks õppijaks muutmise tehnikat nimetatakse tugevdamiseks. Gradiendi suurendamise algoritmi protsess töötab sellel teostusteoorial. Ada võimendamise algoritmi saab kirjeldada, et selgitada ja hõlpsalt mõista protsessi, mille kaudu turgutamisele andmekogudesse sisestatakse.
Otsustuspuu
Otsustuspuu on kohtuotsuse tugivahend, mis määrab otsused, puudetaolisi ja nende tõenäolisi tagajärgi vihjates, koos võimalike sündmuste tulemuste, ressursikuludega jne. See meetod võimaldab neil kuvada tingimuslahendustega töötavaid kontrollavaldusi.
Uurimistöös kasutatakse neid otsustuspuid laialdaselt just otsuste analüüsimisel. See võimaldab neil ka eesmärgi saavutada ja on ka masinaõppes imetletud tööriist.
AdaBoosti algoritm
AdaBoosti algoritm algab otsusepuu koostamisega, milles igale vaatlusele omistatakse samaväärne kaal. Pärast primaarpuu hindamist suurendame selle tõlgenduse raskusi, mida on keeruline kategoriseerida ja allutada raskustele nende jaoks, mida on raske liigitada. Selle puu põhjal on välja töötatud teine puu. Selle eesmärk on paremini mõista primaarpuu ettekuulutust.
Seejärel arvutage selle uuendusliku 2-puude kogumismudeli järgi liigitusviga ja kasvatage kolmas puu, et näha muudetud jääke. Ülaltoodud protseduuri korratakse mõnel juhul. Vaatlused, mis eelnevates puudes pole täpselt määratletud, määratakse järgmiste puude abil. Kokkuvõtliku monteerimismudeli ennustused on järelikult varasemate puude mudelitega lõppenud ennustuste eelarvamuslik kuju.
Treening GBM mudel
G-vormingus mudeli juhendamiseks R-keeles tuleb installida GBM-teek ja kõneprogrammi kaudu sellele installitud GBM-i teegile helistada. Samuti tuleb täpsustada vajalikud argumendid, peamised argumendid on loetletud allpool,
1. Valem
2. Vastuse muutujate jaotus
3. Ennustaja muutuja
4. Vastuse muutuja
Tavalised GBM-i mudelites kasutatavad jaotused on Bernoulli, Poisson jne.
Lõpuks loodetakse täpsustada andmed ja argumendid n.trees. Vaikimisi võtab gbm-mudel 100 puud iseenesestmõistetavaks, mis võib pakkuda meie gbm-kontserdi hea kvaliteediga lähendit.
Näidiskood nr 1
install.packages ("gbm")
library(gbm)
GBM <- gbm( formula = response,
distribution = " bernoulli ",
data = train
n.trees = 3000)
Järgmine samm on tegelik andmestik jagatud rongi ja testi andmestiku jagamiseks ning see saavutatakse funktsiooni createDataPartition () abil. Selline tükeldamine on hilisemas osas suureks abiks koolituse ettevalmistamisel, kasutades väljaõppitud rongikomplekti, mille alguses määratakse kindlaks tegelikud ennustused algandmete jaoks.
Näidiskood nr 2
TRAIN <- read.csv("Train_dd.csv")
set.seed(77820)
intrain <- createDataPartition( y = Train$survived,
list = false )
Train <- Train(inTrain) Train <- Train(-inTrain)
Järgmine samm on gbm-mudeli juhendamine meie treenimisprofiili abil. Ehkki kõik täiendavad argumendid vastavad täpselt eelmistes jaotistes teatatule. mainitakse veel kahte täiendavat argumenti - koosmõju, sügavus ja kokkutõmbumine.
1. Interaktsiooni sügavus täpsustab iga puu suurima sügavuse
2. Intellekti kiiruse mõõtmiseks kasutatakse kokkutõmbumist. siin vähendatakse selle kokkutõmbumise abil kõiki õppijapuude lisaväärtusi.
Veelgi enam, see tehnika võimaldab kuvada kontrollkäske, mis töötavad tingimuslikel tulemustel. Uurimistöödes kasutatakse neid otsustuspuid laialdaselt just otsuste analüüsimisel. See võimaldab meil ka eesmärgi saavutada ja on ka masinaõppes imetletud tööriist.
GBM mudeli väljund
GBM-mudeli väljund sisaldab üksikasju täitmiseks ette nähtud puude koguarvu kohta. See aitab ennustada ennustava muutuja mõju mudelis, samuti saab muutuja tähtsuse tabeli ja mudeli graafiku tuletada GBM-i väljundi kokkuvõtlikust funktsioonist.
Ennusta () meetodit kasutades GBM-i mudelit
Nii et GBM-mudeli jaoks ennustuste tegemiseks põhiandmete ülaosas kasutatakse ka ennustusmeetodit, nagu ka teiste mudelite puhul. Samuti tuleb meetodi argumentide osas käsitsi mainida kasutatavate otsustuspuude koguarvu arvestamist.
Näidiskood
predictions <- predict( object = simpleGBMmodel,
newdata = test,
n.trees = 1)
GBM mudeli täiustused
Puude piirangud
- On oluline, et nõrgad õppijad hõlmavad oskusi, kuid jäävad nõrgaks.
Kaalutud värskendused
- Lisamine rakendatakse järjestikku iga puu ennustuste põhjal
- Iga puu annetamine selle summa jaoks peab olema mass, et algoritmi õppimist aeglustada. see protsess on kõne kokkutõmbumine.
Stohhastiline gradiendi suurendamise algoritm
Seda samaväärset kasumit saab kasutada puude külgneva seose vähendamiseks.
Karistatud gradiendi suurendamise algoritm
Parameetristatud puid saab täita täiendavate piirangutega, klassikalist otsustuspuud ei saa kasutada nõrkade õppijatena. Selle asemel kasutatakse kohandatud tüüpi, mida nimetatakse regressioonipuksiks ja mille lehesõlmedes on arvväärtused.
Soovitatavad artiklid
See on olnud juhend gradiendi suurendamise algoritmile. Siin käsitleme sissejuhatust, otsustuspuud, AdaBoosti algoritmi, GBM-i koolituse mudelit, GBM-i mudeli täiustusi koos mõne näidiskoodiga. Lisateavet leiate ka meie muudest soovitatud artiklitest -- Otsustuspuu algoritm
- Masinõppe algoritmid
- XGBoost algoritm
- Andmeteaduse algoritmid
- C ++ algoritm | C ++ algoritmi näited
- Poissoni regressiooni rakendamine R - s