په ژورو عصبي شبکو کې د پټو واحدونو استدلال د شبکې د اندازې او شکل د تخصیص په اجازه ورکولو کې مهم رول لوبوي. ژور عصبي شبکې د څو پرتونو څخه جوړ شوي دي، هر یو د پټو واحدونو سیټ لري. دا پټ واحدونه د ننوتلو او محصول معلوماتو تر مینځ پیچلي اړیکو نیولو او نمایندګي مسؤلیت لري.
د دې لپاره چې پوه شي چې څنګه د پټو واحدونو دلیل دودیز کولو ته اجازه ورکوي، موږ باید د ژورو عصبي شبکو جوړښت او فعالیت ته پام وکړو. په یوه عادي ژوره عصبي شبکه کې، د انپټ پرت خام ان پټ ډیټا ترلاسه کوي، چې بیا د محصول پرت ته د رسیدو دمخه د پټو پرتونو له لړۍ څخه تیریږي. هر پټ پرت د څو پټو واحدونو څخه جوړ دی، او دا واحدونه په پخوانیو او راتلونکو پرتونو کې د واحدونو سره وصل دي.
په هر پرت کې د پټو واحدونو شمیر، او همدارنګه په شبکه کې د پرتونو شمیر، په لاس کې د ځانګړي ستونزې پراساس تنظیم کیدی شي. په یوه پرت کې د پټو واحدونو شمیر زیاتول شبکې ته اجازه ورکوي چې په ډیټا کې ډیر پیچلي نمونې او اړیکې ونیسي. دا په ځانګړي ډول ګټور کیدی شي کله چې د لوی او پیچلي ډیټاسیټونو سره معامله وشي.
سربیره پردې ، د شبکې شکل هم د پرتونو شمیر تنظیم کولو سره تنظیم کیدی شي. شبکې ته د نورو پرتونو اضافه کول دا وړتیا ورکوي چې د ډیټا درجه بندي نمایندګي زده کړي، چیرې چې هر پرت د خلاصون مختلف کچې نیسي. دا درجه بندي نمایش په دندو کې ګټور کیدی شي لکه د عکس پیژندنه، چیرې چې شیان د ټیټې کچې ځانګړتیاو (د بیلګې په توګه، څنډې) او د لوړې کچې مفکورې (د بیلګې په توګه، شکلونه) د ترکیب لخوا تشریح کیدی شي.
د مثال په توګه، د انځور طبقه بندي لپاره کارول شوي ژور عصبي شبکه په پام کې ونیسئ. د ننوت پرت د عکس د پکسل ارزښتونه ترلاسه کوي، او ورپسې پټ پرتونه په زیاتیدونکي ډول پیچلي نمونې لکه څنډې، جوړښت، او شکلونه نیسي. وروستی پټ پرت دا نمونې سره یوځای کوي ترڅو د انځور ټولګي په اړه وړاندوینه وکړي. د پټو واحدونو او پرتونو د شمیر په دودیز کولو سره، موږ کولی شو د شبکې ظرفیت کنټرول کړو ترڅو په انځورونو کې د مختلفو کچو توضیحات او پیچلتیا ترلاسه کړو.
د اندازې او شکل دودیز کولو سربیره، د پټو واحدونو دلیل هم د فعالولو دندو دودیز کولو ته اجازه ورکوي. د فعالیت فعالیت د پټ شوي واحد محصول د هغې د ننوتلو پراساس ټاکي. د فعالولو مختلف فعالیتونه په شبکه کې د غیر خطي ځانګړتیاو معرفي کولو لپاره کارول کیدی شي، دا توان ورکوي چې زده کړي او په ډیټا کې پیچلي اړیکو استازیتوب وکړي. د عامو فعالولو دندو کې sigmoid، tanh، او rectified linear unit (ReLU) شامل دي.
په ژورو عصبي شبکو کې د پټو واحدونو استدلال د شبکې د اندازې او شکل په تنظیمولو کې انعطاف برابروي. د پټو واحدونو او پرتونو د شمیر په تنظیم کولو سره، او همدارنګه د فعالولو دندو غوره کول، موږ کولی شو د شبکې ظرفیت په ډیټا کې د اصلي نمونو او اړیکو د نیولو او نمایندګۍ لپاره تنظیم کړو.
په اړه نورې وروستۍ پوښتنې او ځوابونه ژور عصبي شبکې او اټکلونکي:
- ایا ژوره زده کړه د ژور عصبي شبکې (DNN) پراساس د ماډل تعریف او روزنې په توګه تشریح کیدی شي؟
- ایا د ګوګل د TensorFlow چوکاټ د ماشین زده کړې ماډلونو په پراختیا کې د خلاصون کچه لوړه کوي (د مثال په توګه د ترتیب سره د کوډ کولو ځای په ځای کول)؟
- ایا دا سمه ده چې که ډیټاسیټ لوی وي یو لږ ارزونې ته اړتیا لري ، پدې معنی چې د ارزونې لپاره کارول شوي ډیټاسیټ برخه د ډیټاسیټ اندازې زیاتوالي سره کم کیدی شي؟
- ایا یو څوک کولی شي په اسانۍ سره د ژور عصبي شبکې (DNN) پټ دلیل په توګه چمتو شوي سرې بدلولو سره په انفرادي پرتونو کې د پرتونو او نوډونو شمیر (زیاتولو او لرې کولو) کنټرول کړي؟
- څنګه وپیژندل شي چې دا ماډل ډیر مناسب دی؟
- عصبي شبکې او ژورې عصبي شبکې څه دي؟
- ولې ژورې عصبي شبکې ژورې بلل کیږي؟
- DNN ته د نورو نوډونو اضافه کولو ګټې او زیانونه څه دي؟
- د ورکیدو تدریجي ستونزه څه ده؟
- د خطي ماډلونو په پرتله د ژورو عصبي شبکو کارولو ځینې نیمګړتیاوې څه دي؟
نورې پوښتنې او ځوابونه په ژور عصبي شبکو او اټکل کونکو کې وګورئ