Mezinahiya komê, serdem, û mezinahiya danezanê bi rastî di fêrbûna makîneyê de aliyên girîng in û bi gelemperî wekî hîperparametre têne binav kirin. Ji bo têgihîştina vê têgehê, bila em li ser her têgehek ferdî hûr bibin.
Mezinahiya komê:
Mezinahiya hevîrê hîperparameterek e ku hêjmara nimûneyên hatine pêvajo kirin berî ku giraniya modelê di dema perwerdehiyê de were nûve kirin diyar dike. Ew di destnîşankirina bilez û aramiya pêvajoya fêrbûnê de rolek girîng dilîze. Mezinahiyek piçûktir dihêle ku bêtir nûvekirinên giraniya modelê, rê lihevhatina zûtir digire. Lêbelê, ev di heman demê de dikare deng di pêvajoya fêrbûnê de jî bike. Ji aliyek din ve, mezinahiyek mezin a berhevokê texmînek domdartir a gradientê peyda dike lê dikare pêvajoya perwerdehiyê hêdî bike.
Mînakî, di daketina gradientê ya stokastîk (SGD) de, mezinahiya hevrika 1 wekî SGD-ya paqij tê zanîn, ku modêl piştî hilgirtina her nimûneyek kesane giraniya xwe nûve dike. Berevajî vê, mezinahiyek hevîrê ku bi mezinahiya daneya perwerdehiyê re wekhev e wekî daketina gradientê ya hevîrê tê zanîn, ku model her serdemê carekê giraniya xwe nû dike.
Dîrok:
Serdemek hîperparameterek din e ku di dema perwerdehiyê de çend caran ku tevahiya databasê bi pêş û paş ve di nav tora neuralî de derbas dibe diyar dike. Perwerdehiya modelek ji bo gelek serdeman dihêle ku ew di daneyê de bi sererastkirina giraniya xwe bi dubarekirina qalibên tevlihev fêr bibe. Lêbelê, perwerdehiya ji bo gelek serdeman dikare bibe sedema zêdebûnê, li cihê ku model li ser daneyên perwerdehiyê baş tevdigere lê nekare daneyên nedîtî giştî bike.
Mînakî, heke danehevek ji 1,000 nimûneyan pêk were û model ji bo 10 serdeman were perwerde kirin, ev tê vê wateyê ku modelê di pêvajoya perwerdehiyê de 10 caran tevahiya databasê dîtiye.
Mezinahiya berhevoka daneyan:
Mezinahiya databasê hejmara nimûneyên ku ji bo perwerdekirina modela fêrbûna makîneyê peyda dibin vedibêje. Ew faktorek krîtîk e ku rasterast bandorê li performansa modelê û şiyana giştîkirinê dike. Mezinahiya databasê ya mezin bi gelemperî dibe sedema performansa modela çêtir ji ber ku ew mînakên cihêrengtir ji modelê re peyda dike ku jê fêr bibe. Lêbelê, xebata bi daneyên mezin re jî dikare çavkaniyên hesabkerî û dema ku ji bo perwerdehiyê hewce dike zêde bike.
Di pratîkê de, pêdivî ye ku meriv hevsengiyek di navbera mezinahiya databasê û tevliheviya modelê de çêbike da ku pêşî li zêdebûn an kêmbûn were girtin. Teknîkên wekî zêdekirina daneyan û birêkûpêkkirina daneyan dikarin werin bikar anîn da ku herî zêde ji danehevên tixûbdar bikar bînin.
Mezinahiya hevîrê, serdem, û mezinahiya databasê hemî di fêrbûna makîneyê de hîperparametre ne ku bi girîngî bandorê li pêvajoya perwerdehiyê û performansa paşîn a modelê dikin. Fêmkirina meriv çawa van hîperparametran bi bandor eyar dike ji bo avakirina modelên fêrbûna makîneyê ya zexm û rast girîng e.
Pirs û bersivên din ên vê dawiyê di derbarê EITC/AI/GCML Fêrbûna Makîna Ewr a Google:
- Nivîsar bi axaftinê (TTS) çi ye û ew çawa bi AI-ê re dixebite?
- Di fêrbûna makîneyê de di xebata bi daneyên mezin de çi sînor hene?
- Ma fêrbûna makîneyê dikare hin arîkariya diyalogê bike?
- Qada lîstikê ya TensorFlow çi ye?
- Di rastiyê de danûstendinek mezintir tê çi wateyê?
- Hin mînakên hîperparametreyên algorîtmê çi ne?
- Fêrbûna ensambleyê çi ye?
- Ger algorîtmayek fêrbûna makîneya bijartî ne guncan be û meriv çawa dikare piştrast bike ku ya rast hilbijêrin?
- Ma modelek fêrbûna makîneyê di dema perwerdehiya xwe de hewceyê çavdêriyê ye?
- Parametreyên sereke yên ku di algorîtmayên bingeha tora neuralî de têne bikar anîn çi ne?
Pirs û bersivan bêtir li EITC/AI/GCML Fêrbûna Makîneya Cloud Google-ê bibînin