Dema ku bi TensorFlow re dixebitin, çarçoveyek fêrbûna makîneyê ya populer a ku ji hêla Google ve hatî pêşve xistin, girîng e ku meriv têgîna "girêkek çapê ya daliqandî" di grafîkê de fam bike. Di TensorFlow de, grafiyek hesabker tê çêkirin ku di modelek fêrbûna makîneyê de herikîna daneyan û operasyonan temsîl bike. Girêkên di grafîkê de operasyonan nîşan didin, û qerax girêdanên daneyê yên di navbera van operasyonan de destnîşan dikin.
Nodek çapkirinê, ku wekî operasyona "tf.print" jî tê zanîn, ji bo derxistina nirxa tensorê di dema pêkanîna grafîkê de tê bikar anîn. Ew bi gelemperî ji bo mebestên xeletkirinê tê bikar anîn, ku destûrê dide pêşdebiran ku nirxên navîn teftîş bikin û pêşkeftina modelê bişopînin.
Girêk çapkirinê ya dangdar vedibêje girêka çapê ya ku di grafikê de bi nodek din ve ne girêdayî ye. Ev tê wê wateyê ku derketina girêka çapê ji hêla ti operasyonên paşîn ve nayê bikar anîn. Di rewşên weha de, daxuyaniya çapkirinê dê were darve kirin, lê hilberîna wê dê bandorek li ser pêkanîna giştî ya grafîkê neke.
Hebûna girêkek çapê ya daliqandî di grafîkê de di TensorFlow de dibe sedema ti xeletî an pirsgirêkan. Lêbelê, ew dikare bandorek li ser performansa modelê di dema perwerdehiyê an encamnameyê de hebe. Dema ku girêkek çapkirinê tê darve kirin, ew di warê bîranîn û hesabkirinê de sermayek zêde dide. Ev dikare pêkanîna grafîkê hêdî bike, nemaze dema ku bi modelên mezin û daneyên danûstendinê re mijûl dibe.
Ji bo kêmkirina bandora girêkên çapê yên daliqandî li ser performansê, tê pêşniyar kirin ku wan bi girêkên din ên di grafîkê de rakin an rast girêdin. Ev piştrast dike ku daxuyaniyên çapkirinê tenê dema ku hewce be têne darve kirin û ku hilberîna wan ji hêla operasyonên paşîn ve tê bikar anîn. Bi kirina vê yekê, hesabkirinên nepêwist û karanîna bîranînê dikarin werin dûr kirin, ku rê li ber karîgerî û leza çêtir dibe.
Li vir mînakek heye ku têgeha girêkek çapê ya dangdar ronî bike:
python import tensorflow as tf # Create a simple graph with a dangling print node a = tf.constant(5) b = tf.constant(10) c = tf.add(a, b) print_node = tf.print(c) # Execute the graph with tf.Session() as sess: sess.run(print_node)
Di vê nimûneyê de, girêka çapkirinê bi karekî din ê di grafîkê de ne girêdayî ye. Ji ber vê yekê, cîbicîkirina grafîkê dê encam bide ku danezana çapkirinê were darve kirin, lê ew ê bandorê li nirxa `c` an operasyonên paşê neke.
Di TensorFlow de girêkek çapkirinê ya daliqandî behsa xebatek çapkirinê dike ku di grafika hesabkerî de bi nodek din ve ne girêdayî ye. Digel ku ew xeletiyan nake, ew dikare bandorê li performansa modelê bike bi danasîna sermayên nehewce di warê bîranîn û hesabkirinê de. Tête pêşniyar kirin ku hûn girêkên çapê yên daleqandî rakin an bi rêkûpêk ve girêbidin da ku bicîhkirina bikêrhatî ya grafîkê piştrast bikin.
Pirs û bersivên din ên vê dawiyê di derbarê EITC/AI/GCML Fêrbûna Makîna Ewr a Google:
- Nivîsar bi axaftinê (TTS) çi ye û ew çawa bi AI-ê re dixebite?
- Di fêrbûna makîneyê de di xebata bi daneyên mezin de çi sînor hene?
- Ma fêrbûna makîneyê dikare hin arîkariya diyalogê bike?
- Qada lîstikê ya TensorFlow çi ye?
- Di rastiyê de danûstendinek mezintir tê çi wateyê?
- Hin mînakên hîperparametreyên algorîtmê çi ne?
- Fêrbûna ensambleyê çi ye?
- Ger algorîtmayek fêrbûna makîneya bijartî ne guncan be û meriv çawa dikare piştrast bike ku ya rast hilbijêrin?
- Ma modelek fêrbûna makîneyê di dema perwerdehiya xwe de hewceyê çavdêriyê ye?
- Parametreyên sereke yên ku di algorîtmayên bingeha tora neuralî de têne bikar anîn çi ne?
Pirs û bersivan bêtir li EITC/AI/GCML Fêrbûna Makîneya Cloud Google-ê bibînin