Tora neuralî ya kûr (DNN) celebek tora neuralî ya çêkirî ye (ANN) ku ji hêla pir tebeqeyên girêk, an jî neuronan ve tête taybetmend kirin, ku modela nimûneyên tevlihev di daneyê de dihêle. Ew têgehek bingehîn e di warê îstîxbarata sûnî û fêrbûna makîneyê de, nemaze di pêşkeftina modelên sofîstîke de ku dikarin peywirên wekî naskirina wêneyê, pêvajokirina zimanê xwezayî, û hêj bêtir pêk bînin. Fêmkirina torên neuralî yên kûr ji bo karanîna amûrên mîna TensorBoard ji bo dîtina modelê girîng e, ji ber ku ew di karên hundurîn ên van modelan de têgihiştinê peyda dike.
Mîmariya Tora Neuralî ya Kûr
Mîmariya tora neuralî ya kûr ji qatek têketinê, gelek qatên veşartî, û qatek derketinê pêk tê. Her qatek ji girêk, an jî neuronan pêk tê, ku bi giranan bi hev ve girêdayî ne. Kûrahiya torgilokê hejmara qatên veşartî yên ku tê de hene vedibêje. Qatên di navbera qatên ketin û derketinê de berpirsiyar in ku daneya têketinê veguherînin formek ku qata derketinê dikare bikar bîne da ku pêşbînan an dabeşkirinê bike.
- Layera Input: Ev qata yekem a torê ye, ku dane li modelê tê vedan. Hejmara noyronên di vê qatê de bi hejmara taybetmendiyên di daneya têketinê re têkildar e.
- Qatên Veşartî: Ev qat hesaban li ser daneya têketinê dikin. Her neuronek di qatek veşartî de ji noyronên di qata berê de têketinan distîne, wan pêvajo dike û derencamê ji noyronên di qata paşîn re derbas dike. Tevliheviya qalibên ku tora neuralî dikare fêr bibe bi hejmara qatên veşartî zêde dibe.
- Layer Output: Ev qata dawîn a torê ye, ku encamên hesaban lê derdikevin. Hejmara noyronên di vê qatê de bi hejmara derketinên xwestî re têkildar e. Mînakî, di peywirek dabeşkirina binaryê de, dibe ku yek neuronek bi fonksiyonek çalakkirina sigmoîd hebe ku îhtîmalek derxîne.
Fonksiyonên Çalakkirinê
Fonksiyonên aktîvkirinê ne-xêzikan di nav torê de vedihewîne, dihêle ku ew fêrî şêwazên tevlihev bibe. Fonksiyonên aktîfkirina hevpar ev in:
- Fonksiyona Sigmoîdê: Nirxên têketina nexşeyê di nav rêzek di navbera 0 û 1 de çêdike, û wê ji bo karên dabeşkirina binaryê guncan dike. Lêbelê, ew dikare ji pirsgirêka gradientê ya windabûnê cefayê bigire.
- ReLU (Yekîneya Rêzika Rastkirî): Weke pênase kirin , ew ji ber sadebûn û şiyana xwe ya kêmkirina pirsgirêka gradientê ya windabûnê bi berfirehî tê bikar anîn. Guhertoyên mîna Leaky ReLU û Parametrîk ReLU hin sînorên ReLU-ya standard destnîşan dikin.
- Tanh Fonksiyon: Nirxên têketina nexşeyê di navbera -1 û 1-ê de çêdike. Bi gelemperî di qatên veşartî de tê bikar anîn ji ber ku ji fonksiyona sigmoîdê gradientên bihêztir peyda dike.
Perwerdehiya Tora Neuralî ya Kûr
Perwerdehiya torgilokek neuralî ya kûr xweşbînkirina giraniya girêdanên di navbera neuronan de vedihewîne da ku cûdahiya di navbera derketinên pêşbînîkirî û rastîn de kêm bike. Ev pêvajo bi gelemperî bi navgîniya paşnav û daketina gradientê tê bidestxistin.
- Backpropagation: Ev algorîtmayek e ji bo hesabkirina gradienta fonksiyona windabûnê li gorî her giraniyek ji hêla qaîdeya zincîrê ve, ku dihêle torê ji xeletiya ku dike fêr bibe.
- Gradient Descent: Ev algorîtmaya optimîzasyonê giraniyan dubare dike da ku fonksiyona windabûnê kêm bike. Guhertoyên wekî Stochastic Gradient Descent (SGD), Adam, û RMSprop ji bo nûvekirina giranan li ser bingeha mezinahî û arastekirina pileyê nêzîkatiyên cihêreng pêşkêş dikin.
Zehmetiyên di Torên Neuralî yên Kûr de
Tora neuralî ya kûr ji ber mijarên wekî zêde guncan, windabûn/teqandina gradient, û hewcedariya mîqdarên mezin ên daneya binavkirî dikare ji bo perwerdekirinê dijwar be.
- Overfitting: Diqewime dema ku modelek daneyên perwerdehiyê pir baş fêr dibe, deng û derûdora xwe digire, ku performansa wê li ser daneyên nedîtî kêm dike. Teknîkên wekî dev jê berdan, rawestana zû, û rêkûpêkkirin ji bo şerkirina zêdebarkirinê têne bikar anîn.
- Gerdûnên winda/teqandin: Ev pirsgirêk dema ku gradient pir piçûk an pir mezin dibin, pêvajoya hînbûnê asteng dikin derdikevin holê. Teknîkên wekî qutkirina gradient, normalîzekirina hevîrê, û destpêkirina baldar a giranan alîkariya kêmkirina van pirsgirêkan dikin.
- Pêdiviyên Daneyên: Torên neuralî yên kûr bi gelemperî ji danehevên mezin hewce dikin ku baş giştî bikin. Zêdekirina daneyan û fêrbûna veguheztinê stratejiyên ku ji bo zêdekirina performansa modelê dema ku dane sînorkirî têne bikar anîn têne bikar anîn.
TensorBoard ji bo Dîtina Modelê
TensorBoard ji bo TensorFlow, çarçoveyek fêrbûna kûr a populer, amûrek dîtbarî ye. Ew komek amûrên dîtbariyê peyda dike da ku alîkariya têgihîştinê, debugkirin û xweşbînkirina torên neuralî yên kûr bike.
- Scalars: Bi demê re nirxên skalar ên wekî windabûn û rastbûnê bişopînin û xuyang bikin, ku di şopandina pêvajoya perwerdehiyê de dibe alîkar.
- Grafik: Grafika hesabkerî ya modelê xuyang bikin, di nav torê de li ser mîmarî û herikîna daneyan têgihiştinê peyda bikin.
- Histograms: Dabeşkirina giranî, berteng, û tensorên din nîşan bidin, ku di têgihiştina van nirxan de di dema perwerdehiyê de çawa diguhezin dibe alîkar.
- Embedding Visualizer: Daneyên mezin-dimensî yên wekî bicîkirina peyvan li cîhek piçûktir, ku dikare di daneyan de qalib û têkiliyên xwe eşkere bike, xuya bike.
- images: Wêneyên ku di nav torê re derbas dibin, ku bi taybetî di karên ku daneyên wêneyê têkildar dikin de bikêr e.
Mînaka Pratîk
Tora neuralî ya kûr ku ji bo dabeşkirina wêneyê bi karanîna daneya CIFAR-10 hatî çêkirin, ku ji 60,000 wêneyên rengîn ên 32×32 di 10 çînên cûda de pêk tê, bihesibînin. Dibe ku torgilok xwedan mîmariyek bi qatek têketinê ya 3072 neuronan (32×32 pixel x 3 kanalên rengîn), çend qatên hevedudanî yên ji bo derxistina taybetmendiyê, li dû wan qatên bi tevahî ve girêdayî, û qatek derketinê ya bi 10 neuronên ku bi 10 çînan re têkildar in, hebe.
Di dema perwerdehiyê de, TensorBoard dikare were bikar anîn da ku metrîkên winda û rastbûnê bişopîne, mîmariya torê dîtbar bike, û belavkirina giranî û nerîtan teftîş bike. Ev agahdarî ji bo teşhîskirina mijarên wekî zêdeperedanê, li cihê ku rastbûna perwerdehiyê zêde ye, lê rastbûna pejirandinê kêm e, diyar dike ku model baş nayê gelemperî kirin.
Tora neuralî ya kûr di amûra fêrbûna makîneyê de amûrên hêzdar in, ku dikarin di daneyan de nimûneyên tevlihev model bikin. Pêkanîna wan a serketî têgihiştinek bêkêmasî ya mîmariya wan, pêvajoyên perwerdehiyê, û pirsgirêkên potansiyel hewce dike. Amûrên mîna TensorBoard di perwerdehî û performansa van modelan de nihêrînên bingehîn peyda dikin, rê dide bijîjkan ku sêwiranên xwe bi bandor safî bikin û xweşbîn bikin.
Pirs û bersivên din ên vê dawiyê di derbarê EITC/AI/GCML Fêrbûna Makîna Ewr a Google:
- Whawt zimanê bernamekirinê ye ji bo fêrbûna makîneyê ew tenê Python e
- Fêrbûna makîneyê çawa li cîhana zanistî tê sepandin?
- Hûn çawa biryar didin ka kîjan algorîtmaya fêrbûna makîneyê bikar bînin û hûn wê çawa bibînin?
- Cûdahiyên di navbera Fêrbûna Federal, Hesabkirina Edge û Fêrbûna Makîneya Ser-Device de çi ne?
- Meriv çawa berî perwerdehiyê daneyan amade dike û paqij dike?
- Di projeyek fêrbûna makîneyê de kar û çalakiyên destpêkê yên taybetî çi ne?
- Ji bo pejirandina stratejî û modelek fêrbûna makîneyê ya taybetî qaîdeyên guncan çi ne?
- Kîjan parametre destnîşan dikin ku ew dem e ku meriv ji modelek xêzikî berbi fêrbûna kûr ve bibe?
- Kîjan guhertoya Python dê ji bo sazkirina TensorFlow çêtirîn be da ku ji pirsgirêkên ku bi belavkirina TF-ê re tune nebin?
- Bi gelemperî ew çend dem digire ku meriv bingehên fêrbûna makîneyê fêr bibe?
Pirs û bersivan bêtir li EITC/AI/GCML Fêrbûna Makîneya Cloud Google-ê bibînin