د مصنوعي عصبي شبکې پرت کې د نیورونونو شمیر ډیرول واقعیا د حافظې لوړ خطر رامینځته کولی شي ، په بالقوه توګه د ډیر فټینګ لامل کیږي. اوور فټینګ هغه وخت رامینځته کیږي کله چې یو ماډل د روزنې ډیټا کې توضیحات او شور تر هغه حده زده کړي چې دا په نه لیدل شوي ډیټا کې د ماډل فعالیت باندې منفي اغیزه کوي. دا د ماشین زده کړې کې یوه عامه ستونزه ده، په شمول د عصبي شبکو په شمول، او کولی شي د ماډل عمومي کولو وړتیاوې د پام وړ کم کړي.
کله چې یو عصبي شبکه په یوه ځانګړي پرت کې ډیری نیورونونه ولري، دا د روزنې ډیټا کې موجود پیچلي نمونو زده کولو لپاره د ماډل ظرفیت لوړوي. د دې لوړ ظرفیت په پایله کې شبکه کولی شي د روزنې مثالونه یاد کړي د دې پرځای چې اصلي نمونې زده کړي چې نه لیدل شوي معلوماتو ته ښه عمومي کوي. د پایلې په توګه، ماډل ممکن د روزنې ډیټا کې په استثنایی ډول ښه ترسره کړي مګر نوي، نه لیدل شوي ډیټا ته په عمومي کولو کې پاتې راغلي، چې د ریښتینې نړۍ غوښتنلیکونو کې د خراب فعالیت لامل کیږي.
د دې مفکورې د ښه پوهیدو لپاره، یو مثال په پام کې ونیسئ چیرې چې یو عصبي شبکه روزل کیږي ترڅو د پیشو او سپي انځورونو طبقه بندي کړي. که چیرې شبکه په یو ځانګړي پرت کې د نیورونونو ډیر شمیر ولري، دا ممکن د روزنې انځورونو ځانګړي ځانګړتیاوې په یادولو پیل وکړي، لکه شالید یا د رڼا شرایط، د دې پر ځای چې د پیشو او سپي ترمنځ توپیرونو تمرکز وکړي. دا کولی شي د ډیر فټینګ لامل شي ، چیرې چې ماډل خراب فعالیت کوي کله چې د عکسونو سره وړاندې کیږي چې مخکې یې نه و لیدلی ، ځکه چې دا هغه اړین ځانګړتیاوې ندي زده کړي چې د دوه ټولګیو ترمینځ توپیر کوي.
د عصبي شبکې پرت کې د نیورونونو شمیر زیاتولو په وخت کې د ډیر فټینګ خطر کمولو لپاره یوه عامه لاره د منظم کولو تخنیکونو له لارې ده. د تنظیم کولو میتودونه، لکه L1 او L2 منظم کول، پریښودل، او ژر ودرول، د دې لپاره کارول کیږي چې شبکه د خورا پیچلي کیدو مخه ونیسي او د روزنې ډیټا ډیر کړي. دا تخنیکونه د روزنې پروسې په جریان کې خنډونه معرفي کوي، ماډل هڅوي چې د ځانګړو مثالونو د یادولو پر ځای په ډیټا کې د اړینو نمونو زده کولو تمرکز وکړي.
پداسې حال کې چې د مصنوعي عصبي شبکې پرت کې د نیورونونو شمیر ډیرول کولی شي د پیچلي نمونو زده کولو لپاره د ماډل ظرفیت لوړ کړي ، دا د حافظې او ډیر فټینګ خطر هم لوړوي. د مناسب منظم کولو تخنیکونو ګمارل خورا مهم دي ترڅو د ماډل پیچلتیا او عمومي کولو فعالیت تر مینځ توازن رامینځته کړي ، دا ډاډ ترلاسه کوي چې عصبي شبکه کولی شي په مؤثره توګه د ډیټا څخه د ډیر فټینګ پرته زده کړي.
په اړه نورې وروستۍ پوښتنې او ځوابونه EITC/AI/TFF TensorFlow اساسات:
- څنګه کولای شو چی د ویکتورونو په توګه د کلمو د نمایندګۍ د پلاټ لپاره مناسب محورونه په اتوماتيک ډول وټاکو لپاره د سرایت کولو پرت وکاروو؟
- په CNN کې د اعظمي پولینګ هدف څه دی؟
- د عکس پیژندنې لپاره په کنولوشنال عصبي شبکه (CNN) کې د فیچر استخراج پروسه څنګه پلي کیږي؟
- ایا دا اړینه ده چې په TensorFlow.js کې د ماشین زده کړې ماډلونو لپاره د غیر متناسب زده کړې فعالیت وکاروئ؟
- د TensorFlow Keras Tokenizer API د کلمو پیرامیټر اعظمي شمیر څه دی؟
- ایا TensorFlow Keras Tokenizer API د ډیری مکرر کلمو موندلو لپاره کارول کیدی شي؟
- TOCO څه شی دی؟
- د ماشین زده کړې ماډل کې د یو شمیر دورونو او د ماډل چلولو څخه د وړاندوینې دقت ترمنځ اړیکه څه ده؟
- ایا د TensorFlow په عصبي جوړښت شوي زده کړې کې د پیک ګاونډی API د طبیعي ګراف ډیټا پراساس د روزنې ډیټاسیټ وده کوي؟
- د TensorFlow په عصبي ساختماني زده کړې کې د پیک ګاونډی API څه شی دی؟
نورې پوښتنې او ځوابونه په EITC/AI/TFF TensorFlow Fundamentals کې وګورئ