د ماشین زده کړې په برخه کې، په ځانګړې توګه کله چې د ګوګل کلاوډ ماشین زده کړې په څیر پلیټ فارمونو څخه کار اخیستل کیږي، د هایپر پیرامیټرونو پوهیدل د ماډلونو پراختیا او اصلاح لپاره مهم دي. هایپر پیرامیټرونه د ماډل څخه بهر ترتیبات یا ترتیبونه دي چې د زده کړې پروسې حکم کوي او د ماشین زده کړې الګوریتمونو فعالیت اغیزه کوي. د ماډل پیرامیټرونو برعکس، کوم چې د روزنې پروسې په جریان کې د معلوماتو څخه زده کیږي، هایپر پیرامیټرونه د روزنې له پیل څخه دمخه تنظیم شوي او په ټوله کې ثابت پاتې کیږي.
هایپر پیرامیټرونه په پراخه کچه د ماشین زده کړې پایپ لاین کې د دوی د رول او فعالیت پراساس په څو ډولونو ویشل کیدی شي. پدې کټګوریو کې ماډل هایپر پیرامیټرونه، د اصلاح کولو هایپر پیرامیټرونه، او د معلوماتو پروسس کولو هایپر پیرامیټرونه شامل دي. هر ډول د دې په جوړولو کې ځانګړی رول لوبوي چې څنګه یو ماډل له معلوماتو څخه زده کړه کوي او نوي، نه لیدل شوي معلوماتو ته عمومي کوي.
ماډل Hyperparameters
1. د معمارۍ هایپر پیرامیټرونه: دا د ماډل جوړښت تعریفوي. د مثال په توګه، په عصبي شبکو کې، د معمارۍ هایپرپیرامیټرونه د پرتونو شمیر، په هر پرت کې د نوډونو شمیر، او د کارول شوي فعالولو دندو ډول شامل دي. د مثال په توګه، یو ژور عصبي شبکه ممکن هایپرپیرامیټرونه ولري چې په ترتیب سره د 128، 64، او 32 نوډونو سره درې پټ پرتونه مشخص کوي، او ReLU (Rectified Linear Unit) د فعالولو دندو په توګه.
2. د منظم کولو هایپر پیرامیټرونه: د تنظیم کولو تخنیکونه د ډیر فټینګ مخنیوي لپاره کارول کیږي، کوم چې هغه وخت رامینځته کیږي کله چې یو ماډل د روزنې معلوماتو کې د اصلي نمونې پرځای شور زده کوي. د تنظیم کولو عام هایپرپیرامیټرونو کې L1 او L2 تنظیم کولو کوفیشینټونه شامل دي. دا کوفیشینټونه په ماډل کې د لوی وزنونو لپاره پلي شوي جریمې کنټرولوي. د مثال په توګه، د لوړ L2 تنظیم کولو کوفیشینټ تنظیم کول به لوی وزنونه ډیر جریمه کړي، پدې توګه ماډل هڅوي چې کوچني وزنونه وساتي او په بالقوه توګه عمومي کولو ته وده ورکړي.
3. د وتلو کچه: په عصبي شبکو کې، د وتلو یو منظم کولو تخنیک دی چیرې چې په ناڅاپي ډول غوره شوي نیورونونه د روزنې پرمهال له پامه غورځول کیږي. د پریښودو کچه یو هایپرپیرامیټر دی چې د هر روزنې تکرار په جریان کې د پریښودو لپاره د نیورونونو برخه مشخص کوي. د 0.5 د پریښودو کچه پدې معنی ده چې 50٪ نیورونونه په ناڅاپي ډول په هر تکرار کې غورځول کیږي، کوم چې د ډیر فټینګ کمولو کې مرسته کوي.
د اصلاح هایپر پیرامیټرونه
1. د زده کړې کچه: دا شاید د عصبي شبکو د روزنې په برخه کې یو له خورا مهمو هایپر پیرامیټرونو څخه وي. د زده کړې کچه د ضایع کیدو فعالیت لږترلږه کولو لپاره د اخیستل شوي ګامونو اندازه ټاکي. د زده کړې لوړه کچه ممکن د دې لامل شي چې ماډل ډیر ژر یو فرعي غوره حل ته واړوي، پداسې حال کې چې د زده کړې ټیټه کچه ممکن د روزنې پروسه خورا ورو کړي یا په محلي لږترلږه کې بند پاتې شي.
2. د بست اندازه: دا هایپر پیرامیټر د روزنې د پروسې په یوه تکرار کې کارول شوي د روزنې نمونو شمیر تعریفوي. د کوچنیو بیچ اندازې کولی شي د ګریډینټ ډیر دقیق اټکل ته لار هواره کړي مګر کولی شي د یو دور بشپړولو لپاره اړین وخت زیات کړي. برعکس، د لوی بیچ اندازې کولی شي روزنه ګړندۍ کړي مګر ممکن لږ دقیق ماډلونو ته لار هواره کړي.
3. تحرک: د اصلاح کولو الګوریتمونو کې کارول کیږي لکه د سټوکاسټیک ګریډینټ ډیسنټ د حرکت سره، دا هایپرپیرامیټر د ګریډینټ ویکتورونو په سم لوري کې ګړندي کولو کې مرسته کوي، په دې توګه د ګړندي همغږۍ لامل کیږي. دا د اصلاح کولو په لاره کې د oscillations په نرمولو کې مرسته کوي.
4. د Epochs شمیر: دا هایپرپیرامیټر د روزنې ډیټاسیټ له لارې د بشپړو پاسونو شمیر تعریفوي. د دورې لوړه شمیره معمولا ماډل ته د معلوماتو څخه د زده کړې لپاره ډیر فرصت ورکوي، مګر دا کولی شي د ډیر فټینګ خطر هم زیات کړي.
د معلوماتو پروسس کولو هایپر پیرامیټرونه
1. د فیچر اندازه کول: د ماډل د روزنې دمخه، ډیری وختونه ځانګړتیاوې اندازه کولو ته اړتیا وي. د ځانګړتیا اندازه کولو پورې اړوند هایپر پیرامیټرونه د اندازه کولو میتود انتخاب شامل دي، لکه د لږترلږه اعظمي اندازه کول یا معیاري کول. دا انتخاب کولی شي د ماډل فعالیت باندې د پام وړ اغیزه وکړي، په ځانګړي توګه د الګوریتمونو لپاره چې د ځانګړتیا اندازه کولو سره حساس دي لکه د ملاتړ ویکتور ماشینونه او K-Means کلستر کول.
2. د معلوماتو د لوړولو پیرامیټرې: د انځور پروسس کولو په دندو کې، د معلوماتو زیاتوالی د ډیټاسیټ کې د انځورونو د تعدیل شوي نسخو په رامینځته کولو سره د روزنې ډیټاسیټ اندازه مصنوعي توګه پراخه کولو لپاره کارول کیږي. دلته هایپر پیرامیټرونه د پلي شوي بدلونونو ډولونه شامل دي، لکه گردش، ژباړه، فلپ کول، او زوم کول، او د هر بدلون د پلي کیدو احتمال.
3. د نمونې کولو طریقې: په هغه حالتونو کې چې معلومات متوازن نه وي، د اقلیت طبقې د ډیر نمونې اخیستلو یا د اکثریت طبقې د کم نمونې اخیستلو په څیر تخنیکونه کارول کیدی شي. دلته هایپر پیرامیټرونه د اکثریت طبقې نمونو سره د اقلیت تناسب شامل دي.
Hyperparameter Tuning
د غوره هایپر پیرامیټرونو د غوره کولو پروسه د هایپر پیرامیټر ټونینګ په نوم پیژندل کیږي. دا یو مهم ګام دی ځکه چې د هایپر پیرامیټرونو انتخاب کولی شي د ماډل فعالیت باندې د پام وړ اغیزه وکړي. د هایپر پیرامیټر ټونینګ لپاره عام میتودونه پدې کې شامل دي:
1. د ګریډ لټون: پدې طریقه کې د هایپر پیرامیټر ارزښتونو د ګریډ تعریف کول او په بشپړ ډول د هر ترکیب هڅه کول شامل دي. که څه هم ساده ده، د ګریډ لټون کولی شي په محاسبه کې ګران وي، په ځانګړي توګه د ډیرو هایپر پیرامیټرونو سره.
2. تصادفي لټون: د هر ممکنه ترکیب هڅه کولو پرځای، تصادفي لټون د هایپر پیرامیټرونو تصادفي ترکیبونه غوره کوي. دا طریقه ډیری وختونه د ګریډ لټون په پرتله ډیره اغیزمنه وي او کولی شي غوره پایلې رامینځته کړي، په ځانګړې توګه کله چې یوازې یو څو هایپر پیرامیټرونه اغیزمن وي.
3. د بایسیان اصلاح کول: دا یو ډیر پیچلی چلند دی چې د هایپر پیرامیټرونو فعالیت د احتمالي فعالیت په توګه ماډل کوي او د اکتشاف او استخراج متوازن کولو سره د هایپر پیرامیټرونو غوره سیټ موندلو هڅه کوي.
4. د اتوماتیک ماشین زده کړه (AutoML): د ګوګل کلاوډ آټو ایم ایل په څیر پلیټ فارمونه پرمختللي الګوریتمونه کاروي ترڅو په اتوماتيک ډول د غوره هایپر پیرامیټرونو لټون وکړي. دا کولی شي وخت او سرچینې خوندي کړي، په ځانګړې توګه د هغو متخصصینو لپاره چې ممکن د ماشین زده کړې کې ژوره تخصص ونه لري.
عملي مثالونه
د یوې سناریو په اړه فکر وکړئ چیرې چې یو څوک د ګوګل کلاوډ ماشین زده کړې په کارولو سره د عکس طبقه بندي لپاره د کنولوشنل عصبي شبکې (CNN) روزنه ورکوي. هایپر پیرامیټرونه ممکن پدې کې شامل وي:
- د کنولوشنل پرتونو شمیر او د هغوی اړوند فلټر اندازې، کوم چې د معمارۍ هایپر پیرامیټرونه دي.
- د زده کړې کچه او د بیچ اندازه، کوم چې د اصلاح کولو هایپر پیرامیټرونه دي.
- د معلوماتو د لوړولو تخنیکونه لکه گردش او فلپ کول، کوم چې د معلوماتو پروسس کولو هایپر پیرامیټرونه دي.
د دې هایپر پیرامیټرونو په سیستماتیک ډول تنظیم کولو سره، یو څوک کولی شي د ماډل دقت او عمومي کولو وړتیاوې د پام وړ ښه کړي.
په بل مثال کې، کله چې د پریکړې ونې طبقه بندي کاروئ، هایپر پیرامیټرونه ممکن د ونې اعظمي ژوروالی، د نوډ ویشلو لپاره اړین نمونو لږترلږه شمیر، او د ویشلو لپاره کارول شوي معیارونه شامل وي. د دې هایپر پیرامیټرونو څخه هر یو کولی شي د ماډل پیچلتیا او د هغې د عمومي کولو وړتیا اغیزه وکړي.
په اصل کې، هایپر پیرامیټرونه د ماشین زده کړې پروسې لپاره بنسټیز دي، چې د ماډل روزنې موثریت او اغیزمنتوب دواړه اغیزمن کوي. د دوی محتاط انتخاب او ټونینګ کولی شي داسې ماډلونه رامینځته کړي چې نه یوازې د روزنې معلوماتو کې ښه فعالیت کوي بلکه په مؤثره توګه نوي، نه لیدل شوي معلوماتو ته عمومي کوي.
په اړه نورې وروستۍ پوښتنې او ځوابونه EITC/AI/GCML د ګوګل بادل ماشین زده کړه:
- د یوې ځانګړې ستونزې لپاره د سم الګوریتم غوره کولو معیارونه کوم دي؟
- که څوک د ګوګل ماډل کاروي او په خپل مثال یې روزنه ورکوي ایا ګوګل د روزنې معلوماتو څخه رامینځته شوي پرمختګونه ساتي؟
- څنګه یو څوک پوهیږي چې د ML کوم ماډل باید وکارول شي، مخکې له دې چې روزنه ورکړل شي؟
- د بیرته راګرځولو دنده څه ده؟
- څنګه یو څوک کولی شي د ورټیکس AI او آټو ایم ایل جدولونو ترمنځ لیږد وکړي؟
- آیا دا ممکنه ده چې د Kaggle په کارولو سره د مالي معلوماتو اپلوډ کول او د R-squared، ARIMA یا GARCH په څیر اقتصادي ماډلونو په کارولو سره احصایوي تحلیل او وړاندوینې ترسره کړئ؟
- ایا د زړه د ناروغۍ د خطر وړاندوینې لپاره د ماشین زده کړې کارول کیدی شي؟
- د ګوګل کلاوډ ماشین لرننګ د ورټیکس AI په نوم د بیا نومولو له امله اصلي بدلونونه کوم دي؟
- د ماډل د فعالیت ارزونې معیارونه څه دي؟
- خطي رجعت څه شی دی؟
نورې پوښتنې او ځوابونه په EITC/AI/GCML د ګوګل کلاوډ ماشین زده کړې کې وګورئ