د فعالیت فعالیت د عصبي شبکې ماډلونو کې مهم رول لوبوي چې شبکې ته غیر خطي معرفي کوي ، دا وړتیا ورکوي چې په ډیټا کې پیچلي اړیکې زده کړي او ماډل کړي. په دې ځواب کې، موږ به د ژورې زده کړې موډلونو کې د فعالولو دندو اهمیت وپلټئ، د هغوی ملکیتونه، او د شبکې په فعالیت باندې د دوی اغیزې روښانه کولو لپاره مثالونه وړاندې کوو.
د فعالولو فنکشن یو ریاضیاتی فنکشن دی چې نیورون ته د معلوماتو وزن لرونکی مقدار لیږدوي او د محصول سیګنال تولیدوي. دا د محصول سیګنال ټاکي چې ایا نیورون باید فعال شي یا نه، او تر کومې کچې. د فعالولو دندو پرته، عصبي شبکه به په ساده ډول د خطي ریګریشن ماډل وي، په ډیټا کې د پیچلو نمونو او غیر خطي اړیکو زده کولو توان نلري.
د فعالولو دندو یو له لومړنیو موخو څخه په شبکه کې د غیر خطي بڼه معرفي کول دي. خطي عملیات، لکه اضافه او ضرب، یوازې د خطي اړیکو ماډل کولی شي. په هرصورت، ډیری ریښتینې نړۍ ستونزې غیر خطي نمونې نندارې ته وړاندې کوي، او د فعالیت فعالیت شبکې ته اجازه ورکوي چې دا غیر خطي اړیکې ونیسي او استازیتوب وکړي. د ان پټ ډیټا ته د غیر خطي بدلونونو پلي کولو سره، د فعالولو فعالیتونه شبکه توانوي چې د آخذو او محصولاتو ترمنځ پیچلي نقشه زده کړي.
د فعالیت د فعالیتونو بل مهم ملکیت د دوی وړتیا ده چې د هر نیورون تولید نورمال کړي. نورمال کول دا یقیني کوي چې د نیورون تولید په یو ټاکلي حد کې راځي، په ځانګړي ډول د 0 او 1 یا -1 او 1 ترمنځ. دا نورمال کول د زده کړې پروسې په ثبات کې مرسته کوي او د نیورونونو تولید د چاودیدو یا ورکیدو مخه نیسي ځکه چې شبکه ژوره کیږي. د فعالولو فعالیتونه لکه سیګمایډ، تانه، او نرم میکس معمولا د دې هدف لپاره کارول کیږي.
د فعالیت مختلف فعالیتونه جلا ځانګړتیاوې لري، دوی د مختلفو سناریوګانو لپاره مناسب کوي. ځینې عامه کارول شوي د فعالولو دندې عبارت دي له:
1. Sigmoid: د sigmoid فنکشن د 0 او 1 ترمنځ ارزښت ته د انپټ نقشه کوي. دا په پراخه کچه د بائنری طبقه بندي ستونزو کې کارول کیږي، چیرته چې هدف د دوو ټولګیو څخه په یوه کې د معلوماتو طبقه بندي کول دي. په هرصورت، د سیګمایډ فعالیتونه د ورک شوي تدریجي ستونزې سره مخ دي، کوم چې کولی شي په ژورو شبکو کې د روزنې بهیر خنډ کړي.
2. تانه: د هایپربولیک ټینګینټ فنکشن، یا تانه، د -1 او 1 ترمنځ ارزښت ته ان پټ نقشه کوي. دا د سیګمایډ فعالیت په پرتله یو ښه والی دی ځکه چې دا په صفر متمرکز دی، د شبکې لپاره زده کړه اسانه کوي. تانه اکثرا په تکراري عصبي شبکو (RNNs) او convolutional عصبي شبکو (CNNs) کې کارول کیږي.
3. ReLU: د اصالح شوي خطي واحد (ReLU) د فعالولو یو مشهور فعالیت دی چې منفي آخذې صفر ته ټاکي او مثبت آخذې بې بدله پریږدي. ReLU په پراخه کچه د دې سادگي او وړتیا له امله د ورکیدو تدریجي ستونزې کمولو لپاره منل شوی. په هرصورت، ReLU کولی شي د "مړ کیدو ReLU" ستونزې سره مخ شي، چیرې چې نیورون غیر فعال کیږي او زده کړه بندوي.
4. Leaky ReLU: Leaky ReLU د منفي آخذونو لپاره د یوې کوچنۍ سلیپ په معرفي کولو سره د مړه شوي ReLU ستونزه حل کوي. دا ګریډینټ ته اجازه ورکوي حتی د منفي آداتو لپاره جریان وکړي ، د نیورونونو د غیر فعال کیدو مخه نیسي. Leaky ReLU په وروستیو کلونو کې شهرت ترلاسه کړی او ډیری وختونه د ReLU د بدیل په توګه کارول کیږي.
5. Softmax: د softmax فعالیت عموما د څو درجې طبقه بندي ستونزو کې کارول کیږي. دا د عصبي شبکې محصولات په احتمالي توزیع بدلوي ، چیرې چې هر محصول د یوې ځانګړې ټولګي پورې اړوند د ننوتلو احتمال څرګندوي. Softmax ډاډ ورکوي چې د ټولو ټولګیو لپاره د احتمالاتو مجموعه تر 1 پورې اضافه کوي.
د فعالولو دندې د عصبي شبکې ماډلونو لازمي برخې دي. دوی غیر خطي معرفي کوي، شبکه توانوي چې په ډیټا کې پیچلې نمونې او اړیکې زده کړي. د فعالولو فعالیتونه هم د نیورون تولید نورمال کوي، د شبکې مخه نیسي د مسلو تجربه کولو څخه لکه د انفجار یا ورکیدو درجه بندي. د فعالیت مختلف فعالیتونه جلا ځانګړتیاوې لري او د مختلف سناریوګانو لپاره مناسب دي، او د دوی انتخاب په لاس کې د ستونزې په نوعیت پورې اړه لري.
په اړه نورې وروستۍ پوښتنې او ځوابونه EITC/AI/DLTF ژور زده کړه د TensorFlow سره:
- ایا کیراس د TFlearn په پرتله د ژورې زده کړې TensorFlow کتابتون دی؟
- په TensorFlow 2.0 او وروسته کې، ناستې نور په مستقیم ډول نه کارول کیږي. ایا د دوی کارولو لپاره کوم دلیل شتون لري؟
- یو ګرم کوډ کول څه شی دی؟
- د SQLite ډیټابیس سره د پیوستون رامینځته کولو او د کرسر څیز رامینځته کولو هدف څه دی؟
- د چیټ بوټ ډیټابیس جوړښت رامینځته کولو لپاره چمتو شوي پایتون کوډ سنیپټ کې کوم ماډلونه وارد شوي؟
- ځینې کلیدي ارزښت لرونکي جوړه کوم دي چې د ډیټا څخه ایستل کیدی شي کله چې دا د چیټ بوټ لپاره په ډیټابیس کې ذخیره کوي؟
- په ډیټابیس کې د اړونده معلوماتو ذخیره کول څنګه د لوی مقدار ډیټا اداره کولو کې مرسته کوي؟
- د چیټ بوټ لپاره د ډیټابیس رامینځته کولو هدف څه دی؟
- ځینې ملاحظات څه دي کله چې د پوستې غوره کول او د بیم چوکۍ تنظیم کول او د چیټ بوټ د انفرنس پروسې کې د هر انپټ ژباړې شمیر؟
- ولې دا مهمه ده چې په دوامداره توګه د چیټ بوټ فعالیت کې ضعفونه و ازموئ او وپیژنئ؟
د TensorFlow سره په EITC/AI/DLTF ژورې زده کړې کې نورې پوښتنې او ځوابونه وګورئ