Di çarçoveya paşveçûna xêzikê de, pîvan (bi gelemperî wekî y-navbera xêza herî baş tê binav kirin) pêkhateyek girîng a hevkêşana xêzik e.
, ku
hêlîna xetê temsîl dike. Pirsa we bi têkiliya di navbera y-navberê de ye
, wateya guherbara girêdayî
û guherbara serbixwe
, û çolê
.
Ji bo çareserkirina pirsê, pêdivî ye ku em derxistina hevkêşeya regresyona xêzikî bihesibînin. Regression linear armanc dike ku têkiliya di navbera guhêrbarek girêdayî de model bike û yek an çend guherbarên serbixwe
bi danîna hevkêşeyek xêzikî li ser daneyên çavdêrîkirî. Di regresyona xêzikî ya hêsan de, ku guhêrbarek pêşbînkerê yekane vedihewîne, têkilî ji hêla hevokê ve tê model kirin:
Vir, (pêl) û
(Y-navbera) pîvanên ku divê bêne destnîşankirin in. The slope
guhertinê nîşan dide
ji bo guhertina yek yekînek tê de
, dema ku y-navdêr
nirxê temsîl dike
heke
sifir e.
Ji bo dîtina van pîvanan, em bi gelemperî rêbaza çargoşeyên herî kêm bikar tînin, ku berhevoka cûdahiyên çargoşe yên di navbera nirxên çavdêrîkirî û nirxên ku ji hêla modelê ve hatine pêşbînîkirin kêm dike. Ev rêbaz di formûlên jêrîn de ji bo tîrêjê encam dide û y-navdêr
:
Vir, û
navgînên ji
û
nirxan, bi rêzê ve. The term
covariance ya temsîl dike
û
, dema ku
cudahiya ji
.
Formula y-navberê dikare bi vî awayî were fêm kirin: carekê slope
tê diyarkirin, y-navdêr
bi girtina navgîniya ya tê hesibandin
nirxan û jêkirina berhema lûleyê
û wateya ji
nirxên. Ev piştrast dike ku xeta regresyonê di xalê re derbas dibe
, ku navenda xalên daneyê ye.
Ji bo ronîkirina vê bi mînakek, databasek bi nirxên jêrîn bifikirin:
Pêşîn, em navgîniya hesab dikin û
:
Piştre, em slopê hesab dikin :
Di dawiyê de, em y-navberê hesab dikin :
Ji ber vê yekê, hevkêşeya regresyona xêzkirî ya vê databasê ev e:
Ev mînak nîşan dide ku y-navdêr bi rastî jî bi wateya hemûyan re wekhev e
nirxan ji hilbera hilberê
û wateya hemûyan
nirxên, ku bi formulê re li hev dike
.
Girîng e ku were zanîn ku y-navdêr ne tenê wateya hemûyan e
nirxan plus berhema slope
û wateya hemûyan
nirxên. Di şûna wê de, ew hilbera hilberê kêm dike
û wateya hemûyan
nirxên ji wateya hemû
nirxên.
Fêmkirina derbirîn û wateya van pîvanan ji bo şîrovekirina encamên analîzek regresyonê ya xêzek bingehîn e. The y-navdêr di derbarê asta bingehîn a guhêrbar a girêdayî de agahdariya hêja peyda dike
dema guherbara serbixwe
sifir e. The slope
, ji aliyê din ve, rê û hêza têkiliya di navbera nîşan dide
û
.
Di serîlêdanên pratîkî de, regresyona xêzkirî bi berfirehî ji bo modela pêşbînîker û analîzkirina daneyan tê bikar anîn. Ew wekî teknîkek bingehîn di warên cihêreng de, di nav de aborî, darayî, biyolojî, û zanistên civakî de kar dike. Bi danîna modelek xêzikî li ser daneyên çavdêrîkirî, lêkolîner û vekoler dikarin pêşbîniyan bikin, meyldaran nas bikin, û têkiliyên di navbera guhêrbaran de derxin holê.
Python, zimanek bernamesaziya populer a ji bo zanistiya daneyê û fêrbûna makîneyê, gelek pirtûkxane û amûran peyda dike ji bo pêkanîna paşveçûna xêzik. Mînakî, pirtûkxaneya `scikit-learn` bi çîna xwe ya `LinearRegression` pêkanîna rasterast a paşvekêşana xêzikî pêşkêşî dike. Li vir mînakek e ku meriv çawa bi karanîna `scikit-learn` di Python de regresyona xêz dike:
python import numpy as np from sklearn.linear_model import LinearRegression # Sample data x = np.array([1, 2, 3, 4, 5]).reshape((-1, 1)) y = np.array([2, 3, 5, 4, 6]) # Create and fit the model model = LinearRegression() model.fit(x, y) # Get the slope (m) and y-intercept (b) m = model.coef_[0] b = model.intercept_ print(f"Slope (m): {m}") print(f"Y-intercept (b): {b}")
Di vê nimûneyê de, çîna `LinearRegression` ji bo afirandina modela regresyonê ya xêz tê bikar anîn. Rêbaza `fit` ji bo perwerdekirina modelê li ser daneyên nimûneyê tê gotin, û taybetmendiyên `coef_` û `navber_` têne bikar anîn ku bi rêzê ve slope û y-interceptê bistînin.
The y-navdêr di paşveçûna xêzikî de ne bi nirxa hemûyan re ye
nirxan plus berhema slope
û wateya hemûyan
nirxên. Di şûna wê de, ew bi navgîniya hemîyan re wekhev e
nirxan ji hilbera hilberê
û wateya hemûyan
nirx, wekî ku ji hêla formula ve hatî dayîn
.
Pirs û bersivên din ên vê dawiyê di derbarê Eytc/AI/MLP Fêrbûna Makîneyê bi Python:
- Vektorên piştgirî di diyarkirina sînorê biryarê ya SVM de çi rola dilîze, û ew di pêvajoya perwerdehiyê de çawa têne nas kirin?
- Di çarçoveya xweşbîniya SVM de, girîngiya vektora giraniya `w` û bias `b` çi ye, û ew çawa têne destnîşankirin?
- Armanca rêbaza `visualize` di pêkanîna SVM de çi ye, û ew çawa di têgihîştina performansa modelê de dibe alîkar?
- Di pêkanîna SVM de rêbaza `pêşbînîkirin` çawa dabeşkirina xalek daneya nû diyar dike?
- Armanca bingehîn a Makîneyek Vektora Piştgiriyê (SVM) di çarçoveya fêrbûna makîneyê de çi ye?
- Çawa dikarin pirtûkxaneyên wekî scikit-learn bikar bînin da ku dabeşkirina SVM-ê li Python bicîh bikin, û fonksiyonên sereke yên têkildar çi ne?
- Girîngiya astengiyê (y_i (mathbf{x}_i cdot mathbf{w} + b) geq 1) di xweşbîniya SVM de rave bike.
- Armanca pirsgirêka xweşbîniya SVM çi ye û ew bi matematîkî çawa tête formule kirin?
- Tesnîfkirina komek taybetmendiyek di SVM de çawa bi nîşana fonksiyona biryarê ve girêdayî ye (nivîs{nîşan}(mathbf{x}_i cdot mathbf{w} + b))?
- Rola hevkêşeya hîperplane (mathbf{x} cdot mathbf{w} + b = 0) di çarçoveya Makîneyên Vektora Piştgiriyê (SVM) de çi ye?
Pir pirs û bersivan di Fêrbûna Makîneya EITC/AI/MLP de bi Python re bibînin