خنډ د ملاتړ ویکتور ماشینونو (SVMs) د اصلاح کولو پروسې کې بنسټیز برخه ده، د طبقه بندي دندو لپاره د ماشین زده کړې په برخه کې یو مشهور او پیاوړی میتود دی. دا خنډ د دې ډاډ ترلاسه کولو کې مهم رول لوبوي چې د SVM ماډل په سمه توګه د روزنې ډیټا ټکي طبقه بندي کوي پداسې حال کې چې د مختلف ټولګیو تر مینځ حد اعظمي کوي. د دې محدودیت اهمیت په بشپړه توګه تعریفولو لپاره، دا اړینه ده چې د SVMs میکانیکونه، د محدودیت جیومیټریک تفسیر، او د اصلاح کولو ستونزې لپاره د هغې اغیزې په پام کې ونیول شي.
د ملاتړ ویکتور ماشینونه هدف د مطلوب هایپرپلین موندل دي چې د مختلف ټولګیو ډیټا پوائنټونه د اعظمي حاشیې سره جلا کوي. هایپرپلین په n-dimensional ځای کې د معادلې لخوا تعریف شوی ، چې د
د هایپرپلین لپاره د وزن ویکتور نورمال دی،
د ننوت فیچر ویکتور دی، او
د تعصب اصطلاح ده. هدف دا دی چې د ډیټا پوائنټونه طبقه بندي کړي لکه د یوې ټولګي ټکي د هایپرپلین په یوه اړخ کې پراته دي ، او د بلې ټولګي ټکي په مخالف اړخ کې دي.
خنډ ډاډ ترلاسه کوي چې هر ډیټا ټکی
په سمه توګه طبقه بندي شوی او د حاشیې په سم لوري کې پروت دی. دلته،
د i-th ډیټا ټکي د ټولګي لیبل استازیتوب کوي، سره
د یوې ټولګي لپاره او
د بل ټولګي لپاره. اصطلاح
د پریکړې فعالیت دی چې د هایپرپلین په پرتله د ډیټا نقطې موقعیت ټاکي.
د جیومیټریک تفسیر د پوهیدو لپاره، لاندې په پام کې ونیسئ:
1. د مثبت او منفي ټولګي جلا کول: د معلوماتو ټکي لپاره د مثبت ټولګي پورې اړه لري (
)، خنډ
ته ساده کوي
. دا پدې مانا ده چې د معلوماتو نقطه
باید د حاشیوي حد څخه بهر یا د هغې څخه بهر پروت وي
. په ورته ډول، د معلوماتو ټکي لپاره
د منفي طبقې پورې اړه لري (
)، محدودیت ته ساده کوي
، ډاډ ترلاسه کول چې د معلوماتو نقطه د حاشیې حد څخه بهر یا د هغې لخوا تعریف شوي
.
2. د حاشیې اعظمي کول: حاشیه د هایپرپلین او د هر ټولګي څخه د نږدې ډیټا نقطو ترمینځ فاصله ده. خنډونه دا یقیني کوي چې حاشیه د ډیټا پوائنټونو ته د امکان تر حده د هایپرپلین څخه لرې کولو سره اعظمي کیږي پداسې حال کې چې لاهم سم طبقه بندي ساتل کیږي. له یوې نقطې څخه واټن د هایپرپلین لخوا ورکول کیږي
. د خنډونو په پلي کولو سره
، د SVM الګوریتم په مؤثره توګه دا فاصله اعظمي کوي ، د لوی حاشیې او غوره عمومي کولو فعالیت لامل کیږي.
3. د ویکتورونو ملاتړ کول: د معلوماتو ټکي چې د حاشیې په حدودو کې واقع دي او
د ملاتړ ویکتورونو په نوم یادیږي. دا ټکي د مطلوب هایپرپلین په تعریف کې خورا مهم دي ، ځکه چې دا هایپرپلین ته نږدې ټکي دي او مستقیم د هغې موقعیت او سمت اغیزه کوي. خنډونه دا یقیني کوي چې دا ملاتړ ویکتورونه په سمه توګه طبقه بندي شوي او د حاشیې په حدودو کې پراته دي، په دې توګه د اصلاح کولو په ستونزه کې مهم رول لوبوي.
د SVMs لپاره د اصلاح کولو ستونزه د محدق اصلاح کولو ستونزې په توګه رامینځته کیدی شي ، چیرې چې هدف د وزن ویکتور نورم کمول دي (کوم چې د حاشیې د اعظمي کولو سره برابر دی) د محدودیتونو تابع دي
د ټولو روزنیزو معلوماتو نقطو لپاره. په ریاضي کې، دا په لاندې ډول بیان کیدی شي:
د عامل د ریاضیاتي اسانتیا لپاره شامل دی کله چې د اصلاح کولو پرمهال مشتق اخلي. دا فورمول د SVM اصلاح کولو ستونزې لومړنۍ بڼه بلل کیږي.
د دې اصلاح کولو ستونزې حل کولو لپاره، یو په عموم ډول د محدب اصلاح کولو تخنیکونه کاروي، لکه Lagrange multipliers. د Lagrange multipliers په معرفي کولو سره د هر خنډ لپاره، د اصلاح کولو ستونزه په دوه اړخیزه بڼه بدلیدلی شي، کوم چې ډیری وختونه د حل کولو لپاره اسانه وي، په ځانګړې توګه کله چې د لوړ ابعادي معلوماتو سره معامله کیږي. د SVM اصلاح کولو ستونزې دوه اړخیزه بڼه د دې لخوا ورکړل شوې ده:
هلته د روزنې د معلوماتو نقطو شمیر دی، او
د منظم کولو پیرامیټر دی چې د روزنې ډیټا کې د حاالتو اعظمي کولو او د ډلبندۍ تېروتنې کمولو ترمینځ تجارت کنټرولوي.
دوه ګونی فارمولیشن د کرنل چال څخه ګټه پورته کوي، SVMs ته اجازه ورکوي چې د ان پټ ډیټا نقشه کولو سره د غیر خطي جلا کیدونکي ډیټا اداره کړي د لوړې ابعادي ځانګړتیا ځای ته چیرې چې خطي جلا کول ممکن وي. دا د کرنل افعالو له لارې ترلاسه کیږي، لکه د پولینومیل کرنل، د ریډیل بیسس فنکشن (RBF) کرنل، او سیګمایډ کرنل، کوم چې په واضح ډول د بدلون ترسره کولو پرته په لوړ ابعادي ځای کې د ډاټ محصول محاسبه کوي.
د دوه ګوني اصلاح کولو ستونزې په حل کولو سره، یو څوک د لاګرینج غوره ضربان ترلاسه کوي ، کوم چې د مطلوب وزن ویکتور ټاکلو لپاره کارول کیدی شي
او تعصب اصطلاح
. د ملاتړ ویکتورونه د ډیټا پوائنټونو سره مطابقت لري د غیر صفر Lagrange ضرب کونکو سره ، او د نوي ډیټا پوائنټونو طبقه بندي کولو لپاره د پریکړې فعالیت
لخوا ورکول کیږي:
خنډ په دې توګه د SVM د اصلاح کولو پروسې لپاره ضمیمه ده، ډاډ ترلاسه کوي چې ماډل د روزنې ډیټا په سمه توګه طبقه بندي کولو او د حاشیې اعظمي کولو تر مینځ توازن ترلاسه کوي، چې د نه لیدل شوي معلوماتو ښه عمومي کولو المل کیږي.
د دې محدودیت اهمیت د مثال په توګه روښانه کولو لپاره، د دوه اړخیز ډیټا پوائنټونو سره د بائنری طبقه بندي ساده ستونزه په پام کې ونیسئ. فرض کړئ چې موږ د روزنې لاندې معلومات لرو:
هدف د مطلوب هایپرپلین موندل دي چې مثبت ټولګي جلا کوي (د منفي ټولګي څخه (
). د دې ستونزې لپاره خنډونه په لاندې ډول لیکل کیدی شي:
د دې خنډونو سره د SVM اصلاح کولو ستونزې په حل کولو سره، موږ د مطلوب وزن ویکتور ترلاسه کوو او تعصب اصطلاح
کوم چې هایپرپلین تعریفوي چې دوه ټولګي د اعظمي حد سره جلا کوي.
خنډ د SVM اصلاح کولو پروسې لپاره مهم دی ځکه چې دا د روزنې ډیټا پوائنټونو سمه طبقه بندي یقیني کوي پداسې حال کې چې د مختلف ټولګیو ترمینځ حد اعظمي کوي. دا د SVM ماډل غوره عمومي کولو فعالیت او پیاوړتیا لامل کیږي.
په اړه نورې وروستۍ پوښتنې او ځوابونه د پیتان سره د EITC/AI/MLP ماشین زده کړه:
- په خطي ریګریشن کې د b پیرامیټر څنګه محاسبه کیږي (د غوره مناسب لاین y-مداخله)؟
- مالتړ ویکتورونه د SVM د پریکړې حد په ټاکلو کې څه رول لوبوي، او د روزنې پروسې په جریان کې دوی څنګه پیژندل کیږي؟
- د SVM اصلاح کولو په شرایطو کې، د وزن ویکتور 'w' او تعصب 'b' اهمیت څه دی، او دوی څنګه ټاکل کیږي؟
- د SVM پلي کولو کې د `visualize` میتود هدف څه دی، او دا څنګه د ماډل فعالیت په پوهیدو کې مرسته کوي؟
- د SVM پلي کولو کې د وړاندوینې میتود څنګه د نوي ډیټا نقطې طبقه بندي ټاکي؟
- د ماشین زده کړې په شرایطو کې د ملاتړ ویکتور ماشین (SVM) لومړنۍ موخه څه ده؟
- څنګه کولی شي کتابتونونه لکه scikit-learn په Python کې د SVM طبقه بندي پلي کولو لپاره وکارول شي، او کلیدي دندې څه دي؟
- د SVM اصلاح کولو ستونزې هدف څه دی او دا څنګه په ریاضي ډول جوړ شوی؟
- په SVM کې د ټاکل شوي فیچر طبقه بندي څنګه د پریکړې فنکشن په نښه پورې اړه لري (متن{sign}(mathbf{x}_i cdot mathbf{w} + b))؟
- د سپورټ ویکتور ماشینونو (SVM) په شرایطو کې د هایپرپلین مساوات (mathbf{x} cdot mathbf{w} + b = 0) رول څه دی؟
نورې پوښتنې او ځوابونه په EITC/AI/MLP ماشین زده کړه کې د Python سره وګورئ