Fonksiyonên aktîvkirinê di torên neuralî yên çêkirî de rolek girîng dileyzin, ku di destnîşankirina ka neuronek divê were çalak kirin an na de wekî hêmanek bingehîn xizmet dike. Têgeha fonksiyonên çalakkirinê bi rastî dikare bi şewitandina neuronan di mejiyê mirovan de were hesibandin. Mîna ku neuronek di mêjî de li ser bingeha têketina ku distîne dişewite an neçalak dimîne, fonksiyona aktîvkirina neuronek çêkirî diyar dike ka divê noyron were aktîfkirin an na li ser bingeha giraniya têketinan.
Di çarçoweya torên neuralî yên çêkirî de, fonksiyona aktîvkirinê ne-xêzbûnê bi modelê re destnîşan dike, ku rê dide torê ku di daneyan de şêwaz û têkiliyên tevlihev fêr bibe. Ev ne-xêzikî ji bo torê pêdivî ye ku fonksiyonên tevlihev bi bandor nêzik bike.
Yek ji fonksiyonên çalakkirinê yên ku di fêrbûna kûr de herî gelemperî tê bikar anîn fonksiyona sigmoîd e. Fonksiyona sigmoîdê têketinekê digire û wê di nav rêzek di navbera 0 û 1-ê de dihejîne. Ev tevger dişibihe gulebarana neuronek biyolojîkî, ku li wir noyron an dişewite (derketina nêzîkê 1) an jî neçalak dimîne (hilberîna nêzîkê 0). li ser têketina ku distîne.
Fonksiyona din a aktîvkirinê ya ku bi berfirehî tê bikar anîn yekîneya xêzkirî ya rastkirî (ReLU) ye. Fonksîyona ReLU ne-xêzbûnê destnîşan dike bi derxistina rasterast heke ew erênî be, û wekî din sifir dike. Ev tevger teqlîda gulebarana neuronek di mejî de dike, li cihê ku noyron dişewite heke sînyala têketinê ji bendek diyar derbas bibe.
Berevajî vê, fonksiyonên aktîvkirinê yên mîna fonksiyona tangenta hîperbolîk (tanh) jî hene, ku têketinê di nav rêzek di navbera -1 û 1-ê de dihejîne. Fonksiyona tanh dikare wekî guhertoyek pîvandî ya fonksiyona sigmoîd were dîtin, ku gradientên bihêztir peyda dike ku dikare alîkarî di perwerdekirina torên neuralî yên kûr de bi bandortir.
Fonksiyona aktîvkirinê di torên neuralî yên çêkirî de dikare wekî abstrakasyonek hêsan a tevgera neuronên biyolojîkî yên di mejî de were hesibandin. Digel ku analogî ne bêkêmasî ye, ew çarçoveyek têgehî ji bo têgihîştina rola fonksiyonên çalakkirinê di modelên fêrbûna kûr de peyda dike.
Fonksiyonên aktîvkirinê di torên neuralî yên çêkirî de bi danasîna ne-xêzbûnê û destnîşankirina ka neuronek li ser bingeha têketina ku werdigire were çalak kirin rolek girîng dileyze. Analojiya teqlîdkirina gulebarana neuronan di mejî de di têgihîştina fonksiyon û girîngiya fonksiyonên çalakkirinê de di modelên fêrbûna kûr de dibe alîkar.
Pirs û bersivên din ên vê dawiyê di derbarê Eytc/AI/DLPP Fêrbûna Kûr a bi Python û PyTorch:
- Ger meriv bixwaze wêneyên rengîn li ser tora neuralî ya hevgirtî nas bike, gelo pêdivî ye ku meriv ji dema nasandina wêneyên pîvana gewr pîvanek din lê zêde bike?
- Ma PyTorch dikare bi NumPy-ê ku li ser GPU-yê bi hin fonksiyonên din ve tê xebitandin re were berhev kirin?
- Ma windabûna derveyî nimûne windakirina pejirandinê ye?
- Ma pêdivî ye ku meriv ji bo analîzkirina pratîkî ya modela tora neuralî ya PyTorch an matplotlib-ê tabloyek tensor bikar bîne?
- Ma dikare PyTorch bi NumPy-ê ku li ser GPU-yê bi hin fonksiyonên din ve tê xebitandin were berhev kirin?
- Gelo ev pêşniyar rast e an xelet e "Ji bo tora neuralî ya dabeşkirinê divê encam di navbera çînan de dabeşkirina îhtimalê be."
- Ma meşandina modelek tora neuralî ya fêrbûna kûr a li ser gelek GPU-yên li PyTorch pêvajoyek pir hêsan e?
- Ma tora neuralî ya birêkûpêk dikare bi fonksiyonek nêzî 30 mîlyar guhêrbar re were berhev kirin?
- Tora neuralî ya herî mezin a konvolutional ku hatî çêkirin çi ye?
- Ger têketin navnîşa rêzikên numpy e ku nexşeya germahiyê hildibijêre ku derketina ViTPose ye û şeklê her pelê numpy [1, 17, 64, 48] bi 17 xalên sereke yên laş re têkildar e, kîjan algorîtma dikare were bikar anîn?
Di EITC/AI/DLPP Fêrbûna Kûr bi Python û PyTorch de bêtir pirs û bersivan bibînin