د ژورې زده کړې ساحه، په ځانګړې توګه د قناعت وړ عصبي شبکې (CNNs)، په وروستیو کلونو کې د پام وړ پرمختګونه لیدلي، چې د لوی او پیچلي عصبي شبکې جوړښتونو پراختیا لامل کیږي. دا شبکې د انځور پیژندنې، طبیعي ژبې پروسس کولو، او نورو ډومینونو کې ننګونې دندې ترسره کولو لپاره ډیزاین شوي. کله چې د رامینځته شوي ترټولو لوی عصبي عصبي شبکې په اړه بحث کول ، نو اړینه ده چې مختلف اړخونه په پام کې ونیسو لکه د پرتونو شمیر ، پیرامیټرې ، کمپیوټري اړتیاوې ، او ځانګړي غوښتنلیک د کوم لپاره چې شبکه ډیزاین شوې.
د لوی قانع کونکي عصبي شبکې ترټولو د پام وړ مثالونه د VGG-16 ماډل دی. د VGG-16 شبکه، چې د اکسفورډ په پوهنتون کې د بصري جیومیټري ګروپ لخوا رامینځته شوې، د 16 وزن لرونکې پرتونه لري، په شمول د 13 قانع کونکي پرتونه او 3 په بشپړه توګه تړل شوي پرتونه. دې شبکې د انځور پیژندنې په دندو کې د هغې سادگي او اغیزمنتوب لپاره شهرت ترلاسه کړ. د VGG-16 ماډل نږدې 138 ملیون پیرامیټونه لري، چې دا د پراختیا په وخت کې یو له سترو عصبي شبکو څخه جوړوي.
بله د پام وړ عصبي عصبي شبکه د ResNet (د پاتې کیدو شبکه) جوړښت دی. ResNet په 2015 کې د مایکروسافټ ریسرچ لخوا معرفي شو او د ژور جوړښت لپاره پیژندل شوی، ځینې نسخې لري چې له 100 څخه ډیر پرتونه لري. په ResNet کې کلیدي نوښت د پاتې بلاکونو کارول دي، کوم چې د ورکېدونکي تدریجي ستونزې په حل کولو سره د خورا ژورو شبکو روزنې ته اجازه ورکوي. د مثال په توګه د ResNet-152 ماډل 152 پرتونه لري او شاوخوا 60 ملیون پارامترونه لري، د ژورو عصبي شبکو د توزیع وړتیا ښیې.
د طبیعي ژبې پروسس کولو په ساحه کې، د BERT (د ټرانسفارمر څخه دوه اړخیزه کوډونکي نمایندګۍ) ماډل د پام وړ پرمختګ په توګه ولاړ دی. پداسې حال کې چې BERT دودیز CNN نه دی، دا د ټرانسفارمر پر بنسټ ماډل دی چې د NLP په ساحه کې یې انقلاب راوستی دی. BERT-base، د ماډل کوچنۍ نسخه، 110 ملیون پارامترونه لري، پداسې حال کې چې BERT-لوی 340 ملیون پیرامیټونه لري. د BERT ماډلونو لویه اندازه دوی ته دا وړتیا ورکوي چې پیچلي ژبني نمونې ونیسي او د NLP په مختلفو دندو کې عصري فعالیت ترلاسه کړي.
برسېره پردې، د GPT-3 (د تولید څخه مخکې روزل شوي ټرانسفارمر 3) ماډل چې د OpenAI لخوا رامینځته شوی د ژورې زده کړې یو بل مهم پړاو څرګندوي. GPT-3 د 175 ملیارد پیرامیټونو سره د ژبې ماډل دی، چې دا تر نن نیټې پورې یو له سترو عصبي شبکو څخه جوړوي. دا لویه پیمانه GPT-3 ته اجازه ورکوي چې د انسان په څیر متن تولید کړي او د ژبې پورې اړوند پراخه دندې ترسره کړي، د لوی پیمانه ژورې زده کړې ماډلونو ځواک څرګندوي.
دا مهمه ده چې په یاد ولرئ چې د قانع کونکي عصبي شبکو اندازه او پیچلتیا په دوامداره توګه وده کوي ځکه چې څیړونکي د ننګونو په کارونو کې د فعالیت ښه کولو لپاره نوي جوړښتونه او میتودونه لټوي. پداسې حال کې چې لویې شبکې ډیری وختونه د روزنې او تحلیل لپاره د پام وړ کمپیوټري سرچینو ته اړتیا لري، دوی په مختلفو ډومینونو کې د پام وړ پرمختګونه ښودلي، پشمول د کمپیوټر لید، د طبیعي ژبې پروسس کول، او د پیاوړتیا زده کړه.
د لویو عصبي عصبي شبکو پراختیا د ژورې زده کړې په برخه کې د پام وړ تمایل څرګندوي، د پیچلو دندو لپاره د لا پیاوړي او پیچلي ماډلونو رامینځته کولو توان ورکوي. ماډلونه لکه VGG-16، ResNet، BERT، او GPT-3 په مختلفو ډومینونو کې د مختلفو ننګونو په اداره کولو کې د عصبي شبکو اندازه او اغیزمنتوب ښیې.
په اړه نورې وروستۍ پوښتنې او ځوابونه د لیږد عصبي شبکه (CNN):
- د تولید چینلونه څه دي؟
- د ان پټ چینلونو د شمیر معنی څه ده (د nn.Conv1d لومړی پیرامیټر)؟
- د روزنې په جریان کې د CNN فعالیت ښه کولو لپاره ځینې عام تخنیکونه کوم دي؟
- د CNN په روزنه کې د بیچ اندازې اهمیت څه دی؟ دا څنګه د روزنې بهیر اغیزه کوي؟
- ولې دا مهمه ده چې معلومات د روزنې او اعتبار په سیټونو ویشل شي؟ څومره معلومات په عموم ډول د اعتبار لپاره تخصیص شوي؟
- موږ څنګه د CNN لپاره د روزنې معلومات چمتو کوو؟ هغه ګامونه تشریح کړئ چې پکې شامل دي.
- د عصبي عصبي شبکې (CNN) په روزنه کې د اصلاح کونکي او زیان فعالیت هدف څه دی؟
- ولې دا مهمه ده چې د CNN روزنې پرمهال په بیلابیلو مرحلو کې د ان پټ ډیټا شکل وڅارئ؟
- ایا د عکسونو پرته د نورو معلوماتو لپاره د قناعت وړ پرتونه کارول کیدی شي؟ یو مثال وړاندې کړئ.
- تاسو څنګه کولی شئ په CNN کې د خطي پرتونو لپاره مناسب اندازه وټاکئ؟
نورې پوښتنې او ځوابونه په Convolution neural network (CNN) کې وګورئ