Birêkûpêkkirin di çarçoweya fêrbûna makîneyê de teknîkek girîng e ku ji bo zêdekirina performansa giştîkirina modelan tê bikar anîn, nemaze dema ku bi daneyên pir-dimensîyonî an modelên tevlihev ên ku meyla zêde guncan in re mijûl dibin. Zêdebûn çêdibe dema ku modelek ne tenê şêwazên bingehîn di daneyên perwerdehiyê de lê di heman demê de deng jî fêr dibe, di encamê de performansa nebaş a li ser daneyên nedîtî çêdibe. Birêkûpêkkirin agahdarî an sînorkirinên zêde dide modelekê da ku bi cezakirina modelên pir tevlihev rê li ber zêde guncan bigire.
Fikra bingehîn a li pişt rêkûpêkkirinê ev e ku meriv termek cezakirinê di fonksiyona windabûnê ya ku model hewl dide kêm bike têxe nav xwe. Ev termê cezakirinê modelê ji berhevkirina dengê di daneyên perwerdehiyê de bi sepandina lêçûnek li ser tevliheviyê, bi gelemperî ji hêla mezinahiya pîvanên modelê ve tê pîvandin, dihêle. Bi vî rengî, birêkûpêkkirin di bidestxistina hevsengiyek di navbera başkirina daneyên perwerdehiyê û domandina kapasîteya modelê ya giştîkirina daneyên nû de dibe alîkar.
Gelek celeb teknîkên birêkûpêkkirinê hene ku bi gelemperî di fêrbûna makîneyê de têne bikar anîn, ku yên herî berbelav birêkûpêkkirina L1, rêkûpêkkirina L2, û avêtinê ne. Her yek ji van teknîkan taybetmendî û sepanên xwe hene.
1. Birêkûpêkkirina L1 (Parastina Lasso): Birêkûpêkkirina L1 cezayek bi qasî nirxa bêkêmasî ya mezinahiya hevberan li fonksiyona windabûnê zêde dike. Ji hêla matematîkî ve, ew dikare wekî:
ko fonksiyona windabûna orjînal e,
pîvana rêkûpêkkirinê ye, û
Parametreyên modelê ne. Bandora birêkûpêkkirina L1 ev e ku ew meyla hilberîna modelên sparse dike, tê vê wateyê ku ew hin kêşeyan ber bi sifirê ve dihêle, bi bandor hilbijartina taybetmendiyê pêk tîne. Ev dikare bi taybetî bikêr be dema ku meriv bi daneyên pir-dimensîyonî re mijûl dibe ku dibe ku gelek taybetmendî negirêdayî bin.
2. Birêkûpêkkirina L2 (Rêveberiya Ridge): Birêkûpêkkirina L2 cezayek bi qasî çargoşeya mezinahiya hevberan li fonksiyona windabûnê zêde dike. Ew ji hêla matematîkî ve weha tête diyar kirin:
Birêkûpêkkirina L2, bi cezakirina nirxên wan ên çargoşeyî, hevberên mezin dişewitîne, ku rê li ber komek giranî ya ku bi rengek wekhev belav dibe. Berevajî L1, birêkûpêkkirina L2 modelên zirav çênake, ji ber ku ew zorê nake ku hevberan tam sifir bin, lê berevajî wan piçûk digire. Dema ku hemî taybetmendî hin têkildar in ev bi taybetî ji bo nehiştina zêde bikêr e.
3. Birêkûpêkkirina tora elastîk: Elastic Net her du rêkûpêkkirina L1 û L2 bi hev re dike. Ew bi taybetî di rewşên ku gelek taybetmendiyên têkildar hene bikêr e. Cezayê Elastic Net berhevokek rêzik a cezayên L1 û L2 ye:
Bi guheztina pîvanan û
, Elastic Net dikare feydeyên birêkûpêkkirina L1 û L2 hevseng bike.
4. Xizmetên mişterîyan: Dropout teknîkek rêkûpêkkirinê ye ku bi taybetî ji bo torên neuralî hatî çêkirin. Di dema perwerdehiyê de, dev jê berdide, di her dubarekirinê de beşek ji girêkan (neronan) di qatekê de datîne sifirê. Ev rê nade ku torê pir bi giranî xwe bispêre her girêkek yekane û torê teşwîq dike ku taybetmendiyên bihêztir fêr bibe. Dropout bi taybetî di modelên fêrbûna kûr de bi bandor e ku ji ber hejmareke mezin a parameteran ve zêdebûn pirsgirêkek hevpar e.
5. Rawestandina Destpêkê: Her çend di wateya kevneşopî de ne teknîkek rêkûpêkkirinê be jî, rawestana zû stratejiyek e ku pêşî li zêdeperedanê bigire bi rawestandina pêvajoya perwerdehiyê gava ku performansa li ser komek pejirandinê dest bi kêmbûnê bike. Ev bi taybetî di rêbazên dubarekirî yên wekî daketina gradient de ku model bi domdarî tê nûve kirin bikêr e.
Birêkûpêkkirin di fêrbûna makîneyê de pêdivî ye ji ber ku ew dihêle ku model bi kontrolkirina tevliheviya xwe li ser daneyên nedîtî baş bixebitin. Hilbijartina teknîka rêkûpêkkirinê û birêkûpêkkirina pîvanên wê ( ji bo L1 û L2, rêjeya avêtinê ya ji bo berdanê) girîng in û bi gelemperî ji bo bidestxistina encamên çêtirîn hewceyê ceribandin û pejirandina xaçerê ne.
Mînakî, modelek regresyonê ya xêzîkî ya ku li ser danûstendinek bi gelek taybetmendiyan hatî perwerde kirin bifikirin. Bê birêkûpêkkirin, dibe ku model ji hin taybetmendiyan re giraniyên mezin veqetîne, daneyên perwerdehiyê ji nêz ve bi cih bike lê ji ber zêde guncan li ser daneyên ceribandinê kêm performans bike. Bi sepandina birêkûpêkkirina L2, model tê teşwîq kirin ku giranan bi rengek wekhev belav bike, ku dibe sedema gelemperîkirina çêtir li ser daneyên nû.
Di senaryoyek din de, torgilokek neuralî ya ku li ser daneyên wêneyê hatî perwerde kirin dibe ku bi bibîranîna qalibên taybetî yên di wêneyên perwerdehiyê de zêde bibe. Bi serîlêdana derxistinê, torê neçar e ku bêtir taybetmendiyên gelemperî yên ku di nav wêneyên cihêreng de bikêr in fêr bibe, performansa xwe li ser daneyên nedîtî baştir dike.
Birêkûpêkkirin di fêrbûna makîneyê de têgehek bingehîn e ku bi zêdekirina cezayek ji bo tevliheviyê li fonksiyona windakirina modelê dibe alîkar ku pêşî lê zêde were girtin. Bi kontrolkirina tevliheviya modelê, teknîkên rêkûpêkkirinê yên wekî L1, L2, Elastic Net, vekişîn, û rawestana zû rê dide giştîkirina çêtir daneyên nû, ku wan di amûra bijîjkî ya fêrbûna makîneyê de amûrên domdar dike.
Pirs û bersivên din ên vê dawiyê di derbarê EITC/AI/GCML Fêrbûna Makîna Ewr a Google:
- Whawt zimanê bernamekirinê ye ji bo fêrbûna makîneyê ew tenê Python e
- Fêrbûna makîneyê çawa li cîhana zanistî tê sepandin?
- Hûn çawa biryar didin ka kîjan algorîtmaya fêrbûna makîneyê bikar bînin û hûn wê çawa bibînin?
- Cûdahiyên di navbera Fêrbûna Federal, Hesabkirina Edge û Fêrbûna Makîneya Ser-Device de çi ne?
- Meriv çawa berî perwerdehiyê daneyan amade dike û paqij dike?
- Di projeyek fêrbûna makîneyê de kar û çalakiyên destpêkê yên taybetî çi ne?
- Ji bo pejirandina stratejî û modelek fêrbûna makîneyê ya taybetî qaîdeyên guncan çi ne?
- Kîjan parametre destnîşan dikin ku ew dem e ku meriv ji modelek xêzikî berbi fêrbûna kûr ve bibe?
- Kîjan guhertoya Python dê ji bo sazkirina TensorFlow çêtirîn be da ku ji pirsgirêkên ku bi belavkirina TF-ê re tune nebin?
- Tora neuralî ya kûr çi ye?
Pirs û bersivan bêtir li EITC/AI/GCML Fêrbûna Makîneya Cloud Google-ê bibînin