Fonksiyonên aktîvkirinê di modelên tora neuralî de bi danasîna ne-xêzikî bi torê re rolek girîng dileyzin, ku ew dihêle ku di daneyê de têkiliyên tevlihev fêr bibe û model bike. Di vê bersivê de, em ê girîngiya fonksiyonên aktîfkirinê di modelên fêrbûna kûr de, taybetmendiyên wan, û mînakan peyda bikin da ku bandora wan li ser performansa torê destnîşan bikin.
Fonksiyona aktîvkirinê fonksiyonek matematîkî ye ku giraniya têketinê digihîne neuronek û îşaretek derketinê çêdike. Ev sînyala derketinê diyar dike ka neuron divê were çalak kirin an na, û ta çi radeyê. Bê fonksiyonên aktîvkirinê, tora neuralî dê bi tenê modelek regresyonê ya xêz be, ku nikaribe di daneyan de şêwazên tevlihev û têkiliyên ne-xêz fêr bibe.
Yek ji mebestên bingehîn ên fonksiyonên aktîfkirinê ev e ku meriv ne-xêziyê bike nav torê. Operasyonên xêzkirî, wek zêdekirin û pirkirin, tenê dikarin têkiliyên xêzikî model bikin. Lêbelê, gelek pirsgirêkên cîhana rastîn qalibên ne-xêz nîşan didin, û fonksiyonên çalakkirinê dihêle ku torê van têkiliyên ne-xêzik bigire û temsîl bike. Bi sepandina veguheztinên ne-hêlî li daneyên têketinê, fonksiyonên aktîfkirinê dihêle ku torê nexşeyên tevlihev di navbera ketin û derketinan de fêr bibe.
Taybetmendiyek din a girîng a fonksiyonên çalakkirinê şiyana wan a normalîzekirina hilberîna her neuronê ye. Normalîzasyon piştrast dike ku derketina neuronan di nav rêzek diyarkirî de ye, bi gelemperî di navbera 0 û 1 an -1 û 1 de. Ev normalîzekirin di aramkirina pêvajoya fêrbûnê de dibe alîkar û nahêle ku derketina noyron biteqe an jî winda bibe her ku tora kûrtir dibe. Fonksiyonên aktîfkirinê yên wekî sigmoid, tanh, û softmax bi gelemperî ji bo vê armancê têne bikar anîn.
Fonksiyonên cihêreng ên aktîfkirinê xwedan taybetmendiyên cihê ne, ku wan ji bo senaryoyên cihêreng maqûl dike. Hin fonksiyonên çalakkirinê yên bi gelemperî têne bikar anîn ev in:
1. Sigmoîd: Fonksiyona sigmoîdê têketinê bi nirxek di navbera 0 û 1-ê de nexşe dike. Ew bi berfirehî di pirsgirêkên dabeşkirina binaryê de tê bikar anîn, ku armanc ew e ku têketinan li yek ji du çînan dabeş bikin. Lêbelê, fonksiyonên sigmoîd ji pirsgirêka gradientê ya windabûnê dikişînin, ku dikare pêvajoya perwerdehiyê di torên kûr de asteng bike.
2. Tanh: Fonksiyona tangentê ya hîperbolîk, an jî tanh, têketinê bi nirxek di navbera -1 û 1-ê de nexşe dike. Ew ji fonksiyona sigmoîdê çêtirbûnek e ku ew sifir-navend e, fêrbûna torê hêsantir dike. Tanh bi gelemperî di torên neuralî yên dûbare (RNN) û torên neuralî yên hevgirtî (CNN) de tê bikar anîn.
3. ReLU: Yekîneya xêzikî ya rastkirî (ReLU) fonksiyonek aktîvkirina populer e ku ketina negatîf dike sifir û têketinên erênî neguhezîne. ReLU ji ber sadebûn û şiyana xwe ya kêmkirina pirsgirêka gradientê ya windabûyî bi berfirehî hate pejirandin. Lêbelê, ReLU dikare ji pirsgirêka "ReLU dimire" cefayê bikişîne, ku neuron neçalak dibin û fêrbûnê rawestînin.
4. Leaky ReLU: Leaky ReLU pirsgirêka ReLU ya dimire bi danasîna xelekek piçûk ji bo têketinên neyînî vedigire. Ev dihêle ku gradient ji bo têketinên neyînî jî biherikin, pêşî li neçalakbûna neuron digire. Leaky ReLU di salên dawî de populerbûnek bi dest xistiye û bi gelemperî wekî şûna ReLU tê bikar anîn.
5. Softmax: Fonksiyona softmax bi gelemperî di pirsgirêkên dabeşkirina pir-polan de tê bikar anîn. Ew derketinên torgilokek neuralî vediguhezîne belavokek îhtîmalê, ku her derketinek îhtîmala têketina aîdî çînek taybetî temsîl dike. Softmax piştrast dike ku berhevoka îhtîmalên ji bo hemî çînan bi 1 re zêde dibe.
Fonksiyonên aktîfkirinê hêmanên bingehîn ên modelên tora neuralî ne. Ew ne-xêziyê destnîşan dikin, ku torgilokê dihêle ku di daneyan de şêwaz û têkiliyên tevlihev fêr bibe. Fonksiyonên aktîfkirinê di heman demê de hilberîna neuronan jî normalîze dike, rê nade ku torê bi pirsgirêkên mîna teqandin an windabûna gradientan re rû bi rû bimîne. Fonksiyonên cihêreng ên çalakkirinê xwedan taybetmendiyên cihêreng in û ji bo senaryoyên cihêreng maqûl in, û hilbijartina wan bi xwezaya pirsgirêka di dest de ve girêdayî ye.
Pirs û bersivên din ên vê dawiyê di derbarê EITC/AI/DLTF Fêrbûna Kûr a bi TensorFlow:
- Ma Keras ji TFlearn pirtûkxaneyek fêrbûna kûr a TensorFlow çêtir e?
- Di TensorFlow 2.0 û paşê de, danişîn êdî rasterast nayên bikar anîn. Ma sedemek ji bo karanîna wan heye?
- Yek kodkirina germ çi ye?
- Armanca damezrandina pêwendiyek bi databasa SQLite û afirandina hêmanek kursor çi ye?
- Ji bo afirandina avahiyek databasê ya chatbot-ê kîjan modul di perçeya koda Python a peydakirî de têne şandin?
- Hin cotên nirx-kilît çi ne ku dikarin ji daneyan werin derxistin dema ku ew di databasek ji bo chatbotê de hilînin?
- Meriv çawa agahdariya têkildar di databasê de hilanîn di rêvebirina mîqdarên mezin ên daneyê de dibe alîkar?
- Armanca afirandina databasek ji bo chatbot çi ye?
- Dema hilbijartina nuqteyên kontrolê û sererastkirina firehiya tîrêjê û hejmara wergeran li ser têketinê di pêvajoya encamdana chatbotê de hin hûrgulî çi ne?
- Çima girîng e ku meriv bi domdarî qelsiyên di performansa chatbotê de ceribandin û nas bike?
Pir pirs û bersivan li EITC/AI/DLTF Fêrbûna Kûr bi TensorFlow re bibînin