بائنري انټروپي چې د شانون انټروپي په نوم هم پیژندل کیږي، د معلوماتو تیوري کې یو مفهوم دی چې د دوه پایلو سره د بائنری تصادفي تغیراتو ناڅرګندتیا یا تصادفي اندازه کوي. دا د کلاسیک انټروپي څخه توپیر لري چې دا په ځانګړې توګه په بائنری متغیرونو باندې تطبیق کیږي، پداسې حال کې چې کلاسیک انټروپي په متغیرونو کې د هر شمیر پایلو سره پلي کیدی شي.
د بائنري انټروپي د پوهیدو لپاره، موږ باید لومړی د انټروپي مفهوم پوه شو. انټروپي د معلوماتو اوسط مقدار یا ناڅرګندتیا اندازه ده چې په تصادفي متغیر کې شتون لري. دا اندازه کوي چې د تصادفي متغیر پایلې څومره غیر متوقع دي. په بل عبارت، دا موږ ته وایی چې څومره "حیرانتیا" موږ تمه کولی شو کله چې د تصادفي تغیراتو پایلو مشاهده کړو.
د بائنري تصادفي متغیر په حالت کې چې دوه پایلې لري، راځئ چې دا پایلې د 0 او 1 په توګه وټاکو. د دې متغیر بائنری انټروپي چې د H(X) په توګه پیژندل کیږي، د فورمول په کارولو سره محاسبه کیږي:
H(X) = -p(0) * log2(p(0)) – p(1) * log2(p(1))
چیرې چې p(0) او p(1) په ترتیب سره د 0 او 1 پایلو مشاهده کولو احتمالات دي. لوګاریتم بیس 2 ته وړل کیږي ترڅو ډاډ ترلاسه شي چې د انټروپي پایله په بټونو کې اندازه کیږي.
د بائنری انټروپي محاسبه کولو لپاره، موږ اړتیا لرو چې د دوو پایلو احتمالات وټاکو. که احتمالونه مساوي وي، د بیلګې په توګه، p(0) = p(1) = 0.5، بیا د بائنری انټروپي اعظمي کیږي، د اعظمي ناڅرګندتیا په ګوته کوي. دا ځکه چې دواړه پایلې په مساوي ډول امکان لري، او موږ نشو اټکل کولی چې کوم یو به واقع شي. په دې حالت کې، د بائنری انټروپي H(X) = -0.5 * log2(0.5) – 0.5 * log2(0.5) = 1 بټ دی.
له بلې خوا، که یوه پایله د بلې په پرتله ډیره احتمالي وي، د بائنری انټروپي کمیږي، چې لږ ناڅرګندتیا په ګوته کوي. د مثال په توګه، که p(0) = 0.8 او p(1) = 0.2 وي، د بائنري انټروپي H(X) = -0.8 * log2(0.8) – 0.2 * log2(0.2) ≈ 0.72 بټونه دي. دا پدې مانا ده چې په اوسط ډول، موږ د دې بائنری تصادفي تغیراتو پایلو نمایندګۍ لپاره له یو څخه لږ معلوماتو ته اړتیا لرو.
دا مهمه ده چې یادونه وکړو چې د بائنری انټروپي تل غیر منفي وي، پدې معنی چې دا د صفر څخه لوی یا مساوي دی. دا هغه وخت اعظمي کیږي کله چې د دوو پایلو احتمال مساوي وي او لږ تر لږه کله چې یوه پایله د 1 احتمال ولري او بله د 0 احتمال ولري.
Binary Entropy د دوه پایلو سره د بائنری تصادفي تغیراتو ناڅرګندتیا یا تصادفي اندازه کوي. دا د فورمول په کارولو سره محاسبه کیږي -p(0) * log2(p(0)) - p(1) * log2(p(1))، چیرې چې p(0) او p(1) د دوو پایلو احتمالات دي . په پایله کې د انټروپي ارزښت په بټونو کې اندازه کیږي، لوړ ارزښتونه ډیر ناڅرګندتیا څرګندوي او ټیټ ارزښتونه لږ ناڅرګندتیا څرګندوي.
په اړه نورې وروستۍ پوښتنې او ځوابونه کلاسیک ایټراپي:
- د انټروپي پوهه څنګه د سایبر امنیت په ساحه کې د قوي کریپټوګرافیک الګوریتمونو ډیزاین او ارزونې کې مرسته کوي؟
- د انټروپي اعظمي ارزښت څه دی، او کله ترلاسه کیږي؟
- په کومو شرایطو کې د تصادفي متغیر انټروپي له منځه ځي، او دا د متغیر په اړه څه معنی لري؟
- د انټروپي ریاضياتي ځانګړتیاوې څه دي، او ولې دا غیر منفي دی؟
- د تصادفي متغیر انټروپي څنګه بدلیږي کله چې احتمال د پایلو ترمینځ په مساوي ډول ویشل کیږي په پرتله د یوې پایلې په لور متعصب وي؟
- د متغیر اوږدوالی کوډ کولو کې د کوډ کلمو د متوقع اوږدوالي او د تصادفي متغیر انټروپي ترمنځ اړیکه څه ده؟
- تشریح کړئ چې څنګه د کلاسیک انټروپي مفهوم د متغیر اوږدوالي کوډ کولو سکیمونو کې د مؤثره معلوماتو کوډ کولو لپاره کارول کیږي.
- د کلاسیک انټروپی ملکیتونه څه دي او دا د پایلو احتمال سره څنګه تړاو لري؟
- کلاسیک انټروپي څنګه په ورکړل شوي سیسټم کې ناڅرګندتیا یا تصادفي اندازه کوي؟