Di warê fêrbûna makîneyê de, hîperparametre di destnîşankirina performans û tevgera algorîtmayek de rolek girîng dilîzin. Hîperparametre parameterên ku berî destpêkirina pêvajoya fêrbûnê têne danîn. Di dema perwerdehiyê de hîn nabin; di şûna wê de, ew pêvajoya fêrbûnê bixwe kontrol dikin. Berevajî vê, pîvanên modelê di dema perwerdehiyê de têne fêr kirin, wekî giraniya di tora neuralî de.
Werin em li hin mînakên hîperparametreyên ku bi gelemperî di algorîtmayên fêrbûna makîneyê de têne dîtin de bigerin:
1. Rêjeya Fêrbûnê (α): Rêjeya fêrbûnê hîperparameterek e ku kontrol dike ka em çiqasî giraniya tora xwe bi rêzgirtina gradienta windabûnê eyar dikin. Rêjeyek fêrbûnê ya bilind dikare bibe sedema zêdebûnê, li cihê ku parametreyên modelê bi hovîtî diguhezin, di heman demê de rêjeyek fêrbûnê ya kêm dikare bibe sedema lihevhatina hêdî.
2. Hejmara Yekînên Veşartî/Qat: Di torên neuralî de, hejmara yekîneyên veşartî û qatan hîperparametre ne ku tevliheviya modelê diyar dikin. Zêdetir yekîneyên veşartî an qat dikarin qalibên tevlihevtir bigirin lê di heman demê de dikarin bibin sedema zêdeperedanê.
3. Fonksiyona Çalakkirinê: Hilbijartina fonksiyona aktîfkirinê, wekî ReLU (Yekîneya Rêzika Rastkirî) an Sigmoid, hîperparameterek e ku bandorê li ne-xêziya modelê dike. Fonksiyonên cihêreng ên aktîfkirinê xwedan taybetmendiyên cihêreng in û dikarin bandorê li leza fêrbûnê û performansa modelê bikin.
4. Mezinahiya Batch: Mezinahiya komê hejmara nimûneyên perwerdehiyê ye ku di yek dubarekirinê de têne bikar anîn. Ew hîperparameterek e ku bandorê li lez û aramiya perwerdehiyê dike. Pîvana komê ya mezin dikare perwerdehiyê bilez bike lê dibe ku bibe sedema nûvekirinên kêm rast, dema ku pîvanên piçûktir dikarin nûvekirinên rasttir peyda bikin lê bi perwerdehiya hêdîtir.
5. Hêza birêkûpêkkirinê: Birêkûpêkkirin teknîkek e ku ji bo pêşîlêgirtina zêde guncan bi zêdekirina termek cezayê li fonksiyona windakirinê tê bikar anîn. Hêza birêkûpêkkirinê, wekî λ di rêkûpêkkirina L2 de, hîperparameterek e ku bandora termê rêkûpêkkirinê li ser windabûna giştî kontrol dike.
6. Rêjeya Dropout: Dropout teknîkek rêkûpêkkirinê ye ku di dema perwerdehiyê de neronên ku bi rasthatinî hatine hilbijartin têne paşguh kirin. Rêjeya avêtinê hîperparameterek e ku îhtîmala derxistina neuronek diyar dike. Ew bi danasîna deng di dema perwerdehiyê de dibe alîkar ku pêşî li zêdebûnê bigire.
7. Mezinahiya Kernel: Di torên neuralî yên hevgirtî (CNN) de, mezinahiya kernelê hîperparametrek e ku mezinahiya parzûna ku li ser daneya têketinê tê sepandin diyar dike. Mezinahiyên kernel ên cihêreng di daneya têketinê de astên cûda yên hûrguliyê digirin.
8. Hejmara Daran (li Daristana Rasthatî): Di rêbazên ensembleyê de mîna Daristana Random, hejmara daran hîperparameterek e ku hejmara darên biryarê yên li daristanê diyar dike. Zêdekirina hejmara daran dikare performansê baştir bike lê di heman demê de lêçûna hesabkirinê jî zêde bike.
9. C di Makîneyên Vektora Piştgiriyê de (SVM): Di SVM de, C hîperparameterek e ku danûstandina di navbera hebûna sînorê biryarek hêsan û dabeşkirina xalên perwerdehiyê de rast kontrol dike. Nirxek C-ya bilind dibe sedema sînorê biryarek tevlihevtir.
10. Hejmara Koman (bi K-Means): Di komkirina algorîtmayên mîna K-Means de, hejmara koman hîperparameterek e ku hejmara koman diyar dike ku divê algorîtma di daneyê de destnîşan bike. Hilbijartina hejmara rast a koman ji bo encamên kombûnê yên watedar girîng e.
Van mînakan cewhera cihêreng a hîperparametreyên di algorîtmayên fêrbûna makîneyê de diyar dikin. Rêzkirina hîperparametreyan di xebata fêrbûna makîneyê de ji bo xweşbînkirina performansa modelê û gelemperîkirin gavek girîng e. Lêgerîna torê, lêgerîna rasthatî, û xweşbîniya Bayesian teknîkên hevpar in ku ji bo dîtina çêtirîn komek hîperparametreyan ji bo pirsgirêkek diyar têne bikar anîn.
Hîperparametre di algorîtmayên fêrbûna makîneyê de hêmanên bingehîn in ku bandorê li tevger û performansa modelê dikin. Fêmkirina rola hîperparametran û meriv çawa wan bi bandor çêdike ji bo pêşkeftina modelên fêrbûna makîneyê ya serfiraz girîng e.
Pirs û bersivên din ên vê dawiyê di derbarê EITC/AI/GCML Fêrbûna Makîna Ewr a Google:
- Nivîsar bi axaftinê (TTS) çi ye û ew çawa bi AI-ê re dixebite?
- Di fêrbûna makîneyê de di xebata bi daneyên mezin de çi sînor hene?
- Ma fêrbûna makîneyê dikare hin arîkariya diyalogê bike?
- Qada lîstikê ya TensorFlow çi ye?
- Di rastiyê de danûstendinek mezintir tê çi wateyê?
- Fêrbûna ensambleyê çi ye?
- Ger algorîtmayek fêrbûna makîneya bijartî ne guncan be û meriv çawa dikare piştrast bike ku ya rast hilbijêrin?
- Ma modelek fêrbûna makîneyê di dema perwerdehiya xwe de hewceyê çavdêriyê ye?
- Parametreyên sereke yên ku di algorîtmayên bingeha tora neuralî de têne bikar anîn çi ne?
- TensorBoard çi ye?
Pirs û bersivan bêtir li EITC/AI/GCML Fêrbûna Makîneya Cloud Google-ê bibînin