Ji bo ku meriv nas bike ka modelek zede ye, pêdivî ye ku meriv têgîna zêdebarkirinê û encamên wê di fêrbûna makîneyê de fam bike. Zêdebûn çêdibe dema ku modelek bi taybetî li ser daneyên perwerdehiyê baş tevdigere lê nekare daneyên nû, nedîtî giştî bike. Ev diyarde ji şiyana pêşbîniya modelê re zirardar e û dikare di senaryoyên cîhana rastîn de bibe sedema performansa nebaş. Di çarçoweya torên neuralî yên kûr û texmînkeran de di nav Google Cloud Machine Learning de, gelek nîşan hene ku dikarin ji bo naskirina zêdebarkirinê bibin alîkar.
Yek nîşanek hevpar a zêdebûnê cûdahiyek girîng di navbera performansa modelê ya li ser daneyên perwerdehiyê û performansa wê ya li ser pejirandin an daneyên ceribandinê de ye. Dema ku modelek zêde tê çespandin, ew li şûna fêrbûna şêwazên bingehîn, mînakên perwerdehiyê "bîr dike". Wekî encamek, dibe ku ew di berhevoka perwerdehiyê de rastiyek bilind bi dest bixe, lê têkoşîn dike ku li ser daneyên nû pêşbîniyên rast bike. Bi nirxandina performansa modelê li ser verastkirin an komek ceribandinê ya cihêreng, mirov dikare binirxîne ka zêde guncan çêbûye.
Nîşanek din a zêdebarkirinê cûdahiyek mezin di navbera rêjeyên xeletiya perwerdehiyê û pejirandina modelê de ye. Di pêvajoya perwerdehiyê de, model hewl dide ku xeletiya xwe bi rêkûpêkkirina pîvanên xwe kêm bike. Lêbelê, heke model pir tevlihev bibe an jî pir dirêj were perwerde kirin, dibe ku ew dest pê bike ku deng di daneyên perwerdehiyê de ne ji şêwazên bingehîn bicîh bike. Ev dikare bibe sedema rêjeyek xeletiya perwerdehiyê ya nizm lê rêjeyek xeletiya pejirandinê ya girîng. Çavdêriya meyla van rêjeyên xeletiyê dikare alîkariya naskirina zêdebûnê bike.
Wekî din, çavdêriya tevgera fonksiyona windakirina modelê dikare di derheqê zêdebarkirinê de têgihiştinê peyda bike. Fonksiyona windabûnê nakokiya di navbera encamên pêşbînkirî yên modelê û armancên rastîn de dipîve. Di modelek zêdekirî de, fonksiyona windabûnê ya li ser daneyên perwerdehiyê dibe ku kêm bibe dema ku windabûna li ser daneyên pejirandinê dest pê dike ku zêde bibe. Ev nîşan dide ku model her ku diçe pisportir dibe ji bo nimûneyên perwerdehiyê û şiyana xwe ya giştîkirinê winda dike.
Teknîkên birêkûpêkkirinê jî dikarin werin bikar anîn da ku pêşî li zêdebûnê bigirin. Birêkûpêkkirin termek cezakirinê dide fonksiyona windakirinê, ku modela pir tevlihev nebe. Teknîkên wekî birêkûpêkkirina L1 an L2, dev jê berdan, an rawestana zû dikare bi zêdekirina astengiyan li pêvajoya fêrbûna modelê bibe alîkar ku zexmkirina zêde kêm bike.
Girîng e ku bala xwe bidinê ku zêdebûn dikare ji hêla faktorên cihêreng ve were bandor kirin, di nav de mezinahî û kalîteya daneyên perwerdehiyê, tevliheviya mîmariya modelê, û hîperparametreyên bijartî. Ji ber vê yekê, girîng e ku meriv van faktoran bi baldarî binirxîne dema ku meriv perwerde dike û modelan dinirxîne da ku ji zêdebûnê dûr nekevin.
Naskirina zêdebarkirina di torên neuralî û texmînkerên kûr de analîzkirina performansa li ser pejirandin an daneyên ceribandinê, şopandina cûdahiya di navbera rêjeyên xeletiya perwerdehiyê û pejirandinê de, çavdêriya tevgera fonksiyona windabûnê, û karanîna teknîkên rêkûpêkkirinê vedihewîne. Bi têgihiştina van nîşanan û girtina tedbîrên guncav, meriv dikare bandorên xiraptir ên zêde guncan kêm bike û modelên bihêztir û gelemperî ava bike.
Pirs û bersivên din ên vê dawiyê di derbarê Torgilokên kûr û texmînker ên kûr:
- Ma fêrbûna kûr dikare wekî pênasekirin û perwerdekirina modelek li ser bingeha tora neuralî ya kûr (DNN) were şîrove kirin?
- Ma çarçoweya TensorFlow ya Google dihêle ku di pêşkeftina modelên fêrbûna makîneyê de asta abstraksiyonê zêde bike (mînak bi guheztina kodkirinê bi veavakirinê)?
- Ma rast e ku heke databas mezin be pêdivî bi nirxandina hindik heye, ev tê vê wateyê ku perçeya daneya ku ji bo nirxandinê tê bikar anîn dikare bi mezinbûna danezanê were kêm kirin?
- Ma meriv dikare bi guheztina rêzika ku wekî argumana veşartî ya tora neuralî ya kûr (DNN) hatî peyda kirin, bi hêsanî kontrol bike (bi zêdekirin û rakirina) hejmara qat û hejmara girêkan di qatên takekesî de?
- Tora neuralî û torên neuralî yên kûr çi ne?
- Çima ji torên neuralî yên kûr re kûr tê gotin?
- Awantaj û dezawantajên zêdekirina girêkên din li DNN çi ne?
- Pirsgirêka gradientê ya windabûnê çi ye?
- Hin kêmasiyên karanîna torên neuralî yên kûr li gorî modelên xêzik çi ne?
- Kîjan parametreyên pêvek dikarin di dabeşkera DNN-ê de bêne xweş kirin, û ew çawa beşdarî başkirina tora neuralî ya kûr dibin?
Di torên neuralî û texmînkeran de bêtir pirs û bersivan bibînin