د ماشین زده کړې په ساحه کې، هایپرپرامیټرونه د الګوریتم فعالیت او چلند په ټاکلو کې مهم رول لوبوي. Hyperparameters هغه پیرامیټونه دي چې د زده کړې پروسې له پیل څخه مخکې ټاکل کیږي. دوی د روزنې په جریان کې نه زده کیږي؛ پرځای یې، دوی پخپله د زده کړې پروسه کنټرولوي. برعکس، د ماډل پیرامیټونه د روزنې په جریان کې زده شوي، لکه په عصبي شبکه کې وزن.
راځئ چې د هایپرپرامیټرونو ځینې مثالونو ته پام وکړو چې معمولا د ماشین زده کړې الګوریتمونو کې موندل کیږي:
1. د زده کړې کچه (α): د زده کړې کچه یو هایپر پارامیټر دی چې دا کنټرولوي چې څومره موږ د زیان د درجې په پام کې نیولو سره زموږ د شبکې وزن تنظیم کوو. د زده کړې لوړه کچه کولی شي د ډیر شوټینګ لامل شي، چیرې چې د ماډل پیرامیټونه په وحشي ډول بدلیږي، پداسې حال کې چې د زده کړې ټیټ نرخ کولی شي د ورو همغږۍ لامل شي.
2. د پټو واحدونو/پرتونو شمیر: په عصبي شبکو کې، د پټو واحدونو او پرتونو شمیر هایپر پارامیټرونه دي چې د ماډل پیچلتیا ټاکي. ډیر پټ واحدونه یا پرتونه کولی شي ډیر پیچلي نمونې ونیسي مګر د ډیر فټینګ لامل کیدی شي.
3. د فعالیت فعالیت: د فعالولو فعالیت انتخاب، لکه ReLU (Rectified Linear Unit) یا Sigmoid، یو هایپر پارامیټر دی چې د ماډل غیر خطي اغیزه کوي. د فعالیت مختلف فعالیتونه مختلف ملکیتونه لري او کولی شي د زده کړې سرعت او ماډل فعالیت اغیزه وکړي.
4. د بست اندازه: د بیچ اندازه د روزنې مثالونو شمیر دی چې په یو تکرار کې کارول کیږي. دا یو هایپرپرامیټر دی چې د روزنې سرعت او ثبات اغیزه کوي. د لوی بیچ اندازې کولی شي روزنه ګړندۍ کړي مګر ممکن د لږ دقیق تازه معلوماتو پایله ولري ، پداسې حال کې چې کوچنۍ بستې اندازه کولی شي ډیر دقیق تازه معلومات چمتو کړي مګر د ورو روزنې سره.
5. د منظم کولو ځواک: منظم کول یو تخنیک دی چې د ضایع کولو فعالیت ته د جزا اصطلاح اضافه کولو سره د ډیر فټینګ مخنیوي لپاره کارول کیږي. د منظم کولو ځواک، لکه په L2 منظم کولو کې λ، یو هایپرپرامیټر دی چې د ټولیز زیان په اړه د منظم کولو اصطلاح اغیزه کنټرولوي.
6. د وتلو کچه: پریښودل د منظم کولو تخنیک دی چیرې چې په تصادفي ډول غوره شوي نیورونونه د روزنې پرمهال له پامه غورځول کیږي. د وتلو کچه یو هایپرپرامیټر دی چې د نیورون د وتلو احتمال ټاکي. دا د روزنې پرمهال د شور په معرفي کولو سره د ډیر فټینګ مخنیوي کې مرسته کوي.
7. د کرنل اندازه: په convolutional عصبي شبکو (CNNs) کې، د کرنل اندازه یو هایپرپرامیټر دی چې د ان پټ ډیټا لپاره پلي شوي فلټر اندازه ټاکي. د کرنل مختلف اندازې د ان پټ ډیټا کې د توضیحاتو مختلف کچې نیسي.
8. د ونو شمیر (په تصادفي ځنګل کې): په ګډو میتودونو لکه Random Forest کې، د ونو شمیر یو هایپر پارامیټر دی چې په ځنګل کې د پریکړې ونو شمیر ټاکي. د ونو د شمیر زیاتول کولی شي فعالیت ښه کړي مګر د کمپیوټري لګښت هم ډیر کړي.
9. C په ملاتړ ویکتور ماشینونو (SVM): په SVM کې، C یو هایپر پارامیټر دی چې د اسانه پریکړې حد درلودلو او د روزنې ټکي په سمه توګه طبقه بندي کولو ترمینځ تجارت کنټرولوي. د C لوړ ارزښت د یوې پیچلې پریکړې حد ته لار هواروي.
10. د کلسترونو شمیر (په K-Manes کې): د کلستر کولو په الګوریتمونو کې لکه K-Means، د کلسترونو شمیر یو هایپرپرامیټر دی چې د کلسترونو شمیر ټاکي چې الګوریتم باید په ډاټا کې وپیژني. د کلسترونو د سم شمیر غوره کول د معنی کلستر کولو پایلو لپاره خورا مهم دي.
دا مثالونه د ماشین زده کړې الګوریتمونو کې د هایپرپرامیټرونو متنوع طبیعت څرګندوي. د هایپر پارامیټرونو ټون کول د ماډل فعالیت او عمومي کولو لپاره د ماشین زده کړې کاري فلو کې یو مهم ګام دی. د ګریډ لټون، تصادفي لټون، او د بایسیان اصلاح کول عام تخنیکونه دي چې د ورکړل شوې ستونزې لپاره د هایپرپرامیټرونو غوره سیټ موندلو لپاره کارول کیږي.
Hyperparameters د ماشین زده کړې الګوریتمونو کې اړین برخې دي چې د ماډل چلند او فعالیت اغیزه کوي. د هایپر پارامیټرونو رول پوهیدل او څنګه یې په مؤثره توګه تنظیم کول د ماشین زده کړې بریالي ماډلونو رامینځته کولو لپاره خورا مهم دي.
په اړه نورې وروستۍ پوښتنې او ځوابونه EITC/AI/GCML د ګوګل بادل ماشین زده کړه:
- متن ته وینا (TTS) څه شی دی او دا څنګه د AI سره کار کوي؟
- د ماشین زده کړې کې د لوی ډیټاسیټونو سره کار کولو محدودیتونه څه دي؟
- ایا د ماشین زده کړه یو څه ډیالوژیکي مرسته کولی شي؟
- د TensorFlow د لوبې ډګر څه شی دی؟
- لوی ډیټاسیټ واقعیا څه معنی لري؟
- د انسابل زده کړه څه ده؟
- څه که چیرې د ماشین زده کړې الګوریتم غوره نه وي او څنګه کولی شي ډاډ ترلاسه کړي چې سم انتخاب کړئ؟
- ایا د ماشین زده کړې ماډل د روزنې پرمهال څارنې ته اړتیا لري؟
- د عصبي شبکې پر بنسټ الګوریتم کې کارول شوي کلیدي پیرامیټونه کوم دي؟
- TensorBoard څه شی دی؟
نورې پوښتنې او ځوابونه په EITC/AI/GCML د ګوګل کلاوډ ماشین زده کړې کې وګورئ