د مصنوعي استخباراتو په برخه کې د کیراس ماډل په ورکړل شوي مثال کې، په پرتونو کې د فعالولو ډیری فعالیتونه کارول کیږي. د فعالولو فعالیتونه په عصبي شبکو کې مهم رول لوبوي ځکه چې دوی غیر خطي معرفي کوي، شبکې ته وړتیا ورکوي چې پیچلې نمونې زده کړي او دقیق وړاندوینې وکړي. په کیراس کې، د فعالولو فعالیتونه د ماډل هرې پرت لپاره مشخص کیدی شي، د شبکې جوړښت ډیزاین کولو کې انعطاف ته اجازه ورکوي.
په مثال کې د Keras ماډل په پرتونو کې کارول شوي د فعالیت فعالیتونه په لاندې ډول دي:
1. ReLU (Rectified Linear Unit): ReLU د ژورې زده کړې په برخه کې د فعالولو یو له خورا عامو کارونو څخه دی. دا د f(x) = max(0, x) په توګه تعریف شوی، چیرته چې x د فنکشن لپاره داخل دی. ReLU ټول منفي ارزښتونه صفر ته ټاکي او مثبت ارزښتونه نه بدلوي. د فعالولو دا فعالیت د کمپیوټري پلوه اغیزمن دی او د ورکیدو تدریجي ستونزې کمولو کې مرسته کوي.
2. Softmax: Softmax اکثرا د څو اړخیزه طبقه بندي ستونزې په وروستي پرت کې کارول کیږي. دا د تیرو پرت محصول په ټولګیو کې احتمالي توزیع بدلوي. Softmax د f(x) = exp(x[i])/sum(exp(x[j])) په توګه تعریف شوی، چیرته چې x[i] د ټولګي i لپاره فنکشن ته داخلیږي، او مجموعه د ټولو څخه اخیستل کیږي. ټولګي د softmax فعالیت د محصول ارزښتونه تر 1 پورې راټولیږي، دا د احتمالي تشریحاتو لپاره مناسب کوي.
3. Sigmoid: Sigmoid یو مشهور فعال فعالیت دی چې د بائنری طبقه بندي ستونزو کې کارول کیږي. دا آخذه د 0 او 1 تر مینځ ارزښت ته نقشه کوي، د مثبت ټولګي پورې اړوند د ننوتلو احتمال استازیتوب کوي. سیګمایډ د f(x) = 1/(1 + exp(-x)) په توګه تعریف شوی. دا نرم او د توپیر وړ دی، دا د تدریجي پر بنسټ د اصلاح کولو الګوریتمونو لپاره مناسب کوي.
4. Tanh (Hyperbolic tangent): تانه د سیګمایډ فنکشن ته ورته دی مګر ان پټ د -1 او 1 ترمنځ ارزښت ته نقشه کوي. دا د f(x) = (exp(x) – exp(-x))/په توګه تعریف شوی. (exp(x) + Exp(-x)). تانه اکثرا د عصبي شبکو په پټو پرتونو کې کارول کیږي ځکه چې دا غیر خطي معرفي کوي او د پیچلو نمونو په نیولو کې مرسته کوي.
دا د فعالیت فعالیت په پراخه کچه د مختلف عصبي شبکې جوړښتونو کې کارول کیږي او د ماشین زده کړې مختلف کارونو کې اغیزمن ثابت شوي. دا مهمه ده چې د مناسب فعالیت فعالیت په لاس کې د ستونزې او د معلوماتو ځانګړتیاو پراساس غوره کړئ.
د دې فعالولو دندو د کارولو روښانه کولو لپاره، د عکس ډلبندۍ لپاره د عصبي شبکې ساده مثال په پام کې ونیسئ. د انپټ پرت د عکس د پکسل ارزښتونه ترلاسه کوي، او ورپسې پرتونه د ځانګړتیاوو د استخراج لپاره د ReLU فعالولو وروسته د قناعت وړ عملیات پلي کوي. وروستی پرت د مختلف ټولګیو پورې اړوند د عکس احتمالاتو تولید لپاره softmax فعالول کاروي.
په ورکړل شوي مثال کې د Keras ماډل په پرتونو کې د فعالولو افعال کارول شوي دي ReLU، softmax، sigmoid، او tanh. د دې دندو هر یو ځانګړي هدف ته خدمت کوي او د ستونزې اړتیاو پراساس غوره کیږي. د فعالولو دندو رول درک کول د اغیزمن عصبي شبکې جوړښتونو ډیزاین کولو کې خورا مهم دي.
په اړه نورې وروستۍ پوښتنې او ځوابونه د ماشین زده کړې کې پرمختګ:
- د ماشین زده کړې کې د لوی ډیټاسیټونو سره کار کولو محدودیتونه څه دي؟
- ایا د ماشین زده کړه یو څه ډیالوژیکي مرسته کولی شي؟
- د TensorFlow د لوبې ډګر څه شی دی؟
- ایا د لیوال حالت د TensorFlow توزیع شوي کمپیوټري فعالیت مخه نیسي؟
- ایا د ګوګل کلاوډ حلونه د لوی ډیټا سره د ML ماډل خورا مؤثره روزنې لپاره د ذخیره کولو څخه کمپیوټري کولو لپاره کارول کیدی شي؟
- ایا د ګوګل کلاوډ ماشین زده کړې انجن (CMLE) د ماډل روزنې پای ته رسیدو وروسته د اتوماتیک سرچینو استملاک او ترتیب او د سرچینو بندول اداره کوي؟
- ایا دا ممکنه ده چې د ماشین زده کړې ماډلونه په خپل سري ډول لوی ډیټا سیټونو کې پرته له کوم خنډ سره وروزل شي؟
- کله چې CMLE کاروئ، ایا د نسخې رامینځته کول د صادر شوي ماډل سرچینې مشخص کولو ته اړتیا لري؟
- ایا CMLE کولی شي د ګوګل کلاوډ ذخیره ډیټا څخه لوستل شي او د تحلیل لپاره ټاکل شوي روزل شوي ماډل وکاروئ؟
- ایا Tensorflow د ژور عصبي شبکو (DNNs) روزنې او تحلیل لپاره کارول کیدی شي؟
د ماشین زده کړې پرمختګ کې نورې پوښتنې او ځوابونه وګورئ