सशर्त पारस्परिक जानकारी

From alpha
Jump to navigation Jump to search
तीन चरों के लिए सूचना सैद्धांतिक उपायों का वेन आरेख , , और , क्रमशः निचले बाएँ, निचले दाएँ और ऊपरी वृत्तों द्वारा दर्शाया गया है। सशर्त पारस्परिक जानकारी , और क्रमशः पीले, सियान और मैजेंटा क्षेत्रों द्वारा दर्शाया गया है।

संभाव्यता सिद्धांत में, विशेष रूप से सूचना सिद्धांत में, सशर्त पारस्परिक जानकारी[1][2], अपने सबसे बुनियादी रूप में, दो यादृच्छिक चर की पारस्परिक जानकारी का अपेक्षित मूल्य है जिसे एक तिहाई का मूल्य दिया जाता है।

परिभाषा

समर्थन सेट , और के साथ यादृच्छिक चर , और के लिए, हम सशर्त पारस्परिक जानकारी को इस प्रकार परिभाषित करते हैं

इसे अपेक्षा ऑपरेटर के संदर्भ में लिखा जा सकता है: .

इस प्रकार अपेक्षित है (के संबंध में)। ) सशर्त संयुक्त वितरण से कुल्बैक-लीब्लर विचलन सशर्त सीमांत के गुणनफल और के लिए आपसी जानकारी की परिभाषा से तुलना करें।

असतत वितरण के लिए पीएमएफ के संदर्भ में

असतत यादृच्छिक चर के लिए , , और समर्थन के साथ (गणित) , और , सशर्त पारस्परिक जानकारी इस प्रकार है

जहां सीमांत, संयुक्त, और/या सशर्त संभाव्यता द्रव्यमान कार्यों को उचित उपस्क्रिप्ट के साथ द्वारा दर्शाया जाता है। इसे इस प्रकार सरल बनाया जा सकता है

निरंतर वितरण के लिए पीडीएफ के संदर्भ में

(बिल्कुल) निरंतर यादृच्छिक चर के लिए , , और समर्थन के साथ (गणित) , और , सशर्त पारस्परिक जानकारी इस प्रकार है

जहां सीमांत, संयुक्त, और/या सशर्त संभाव्यता घनत्व कार्यों को दर्शाया जाता है उपयुक्त सबस्क्रिप्ट के साथ. इसे इस तरह सरल बनाया जा सकता है

कुछ पहचान

वैकल्पिक रूप से, हम संयुक्त और सशर्त एन्ट्रॉपी (सूचना सिद्धांत) के रूप में लिख सकते हैं[3]

आपसी जानकारी से इसका संबंध दिखाने के लिए इसे फिर से लिखा जा सकता है

आम तौर पर आपसी जानकारी के लिए श्रृंखला नियम के रूप में पुनर्व्यवस्थित किया जाता है

या

उपरोक्त का दूसरा समकक्ष रूप है

सशर्त पारस्परिक जानकारी का एक और समकक्ष रूप है

पारस्परिक जानकारी की तरह, सशर्त पारस्परिक जानकारी को कुल्बैक-लीबलर विचलन के रूप में व्यक्त किया जा सकता है:

या सरल कुल्बैक-लीब्लर विचलन के अपेक्षित मूल्य के रूप में:

,
.

अधिक सामान्य परिभाषा

सशर्त पारस्परिक जानकारी की एक अधिक सामान्य परिभाषा, जो निरंतर या अन्य मनमाने वितरण के साथ यादृच्छिक चर पर लागू होती है, नियमित सशर्त संभाव्यता की अवधारणा पर निर्भर करेगी।[4] होने देना एक संभाव्यता स्थान बनें, और यादृच्छिक चर दें , , और प्रत्येक को बोरेल-मापने योग्य फ़ंक्शन के रूप में परिभाषित किया जाना चाहिए टोपोलॉजिकल संरचना से संपन्न कुछ राज्य स्थान के लिए।

प्रत्येक बोरेल सेट को निर्दिष्ट करके परिभाषित प्रत्येक यादृच्छिक चर के राज्य स्थान में बोरेल माप (खुले सेट द्वारा उत्पन्न σ-बीजगणित पर) पर विचार करें -इसकी प्रीइमेज को मापें . इसे पुशफॉरवर्ड माप कहा जाता है एक यादृच्छिक चर के समर्थन को इस माप के समर्थन (माप सिद्धांत) के रूप में परिभाषित किया गया है, अर्थात। अब हम यादृच्छिक चर में से एक (या, गुणनफल टोपोलॉजी के माध्यम से, अधिक) के मान को देखते हुए सशर्त संभाव्यता वितरण को औपचारिक रूप से परिभाषित कर सकते हैं। होने देना का एक मापने योग्य उपसमुच्चय बनें (अर्थात। ) और जाने फिर, विघटन प्रमेय का उपयोग करते हुए:

जहां खुले पड़ोस पर सीमा ले ली गई है का , क्योंकि उन्हें सबसेट के संबंध में मनमाने ढंग से छोटा होने की अनुमति है।

अंत में हम लेब्सग्यू एकीकरण के माध्यम से सशर्त पारस्परिक जानकारी को परिभाषित कर सकते हैं:

जहां इंटीग्रैंड रेडॉन-निकोडिम व्युत्पन्न का लघुगणक है जिसमें कुछ सशर्त संभाव्यता उपाय शामिल हैं जिन्हें हमने अभी परिभाषित किया है।

नोटेशन पर नोट

जैसी अभिव्यक्ति में और जरूरी नहीं कि इसे केवल व्यक्तिगत यादृच्छिक चर का प्रतिनिधित्व करने तक ही सीमित रखा जाए, बल्कि यह समान संभाव्यता स्थान पर परिभाषित यादृच्छिक चर के किसी भी संग्रह के संयुक्त वितरण का भी प्रतिनिधित्व कर सकता है। जैसा कि संभाव्यता सिद्धांत में आम है, हम ऐसे संयुक्त वितरण को दर्शाने के लिए अल्पविराम का उपयोग कर सकते हैं, उदाहरण के लिए इसलिए अर्धविराम (या कभी-कभी कोलन या यहां तक ​​कि वेज) का उपयोग किया जाता है ) पारस्परिक सूचना प्रतीक के प्रमुख तर्कों को अलग करना। (संयुक्त एन्ट्रापी के प्रतीक में ऐसा कोई भेद आवश्यक नहीं है, क्योंकि किसी भी संख्या में यादृच्छिक चर की संयुक्त एन्ट्रापी उनके संयुक्त वितरण की एन्ट्रापी के समान है।)

गुण

गैर-नकारात्मकता

यह सदैव सत्य है

,

असतत, संयुक्त रूप से वितरित यादृच्छिक चर के लिए , और . इस परिणाम का उपयोग सूचना सिद्धांत में अन्य असमानताओं को साबित करने के लिए एक बुनियादी निर्माण खंड के रूप में किया गया है, विशेष रूप से, जिन्हें शैनन-प्रकार की असमानताओं के रूप में जाना जाता है। कुछ नियमितता शर्तों के तहत निरंतर यादृच्छिक चर के लिए सशर्त पारस्परिक जानकारी भी गैर-नकारात्मक है।[5]


इंटरैक्शन जानकारी

तीसरे यादृच्छिक चर पर कंडीशनिंग या तो आपसी जानकारी को बढ़ा या घटा सकती है: यानी अंतर , जिसे इंटरैक्शन जानकारी कहा जाता है, सकारात्मक, नकारात्मक या शून्य हो सकती है। यह तब भी स्थिति है जब यादृच्छिक चर जोड़ीवार स्वतंत्र होते हैं। ऐसी स्थिति तब होती है जब:

किस स्थिति में , और जोड़ीवार स्वतंत्र हैं और विशेष रूप से , लेकिन


पारस्परिक जानकारी के लिए श्रृंखला नियम

श्रृंखला नियम (जैसा कि ऊपर बताया गया है) विघटित होने के दो तरीके प्रदान करता है :

डेटा प्रोसेसिंग असमानता सशर्त पारस्परिक जानकारी से निकटता से संबंधित है और इसे श्रृंखला नियम का उपयोग करके सिद्ध किया जा सकता है।

बातचीत की जानकारी

सशर्त पारस्परिक जानकारी का उपयोग परस्पर क्रिया संबंधी जानकारी को आगमनात्मक रूप से परिभाषित करने के लिए किया जाता है, जो कि पारस्परिक जानकारी का सामान्यीकरण है, इस प्रकार है:

कहाँ

क्योंकि सशर्त पारस्परिक जानकारी अपने बिना शर्त समकक्ष से अधिक या कम हो सकती है, बातचीत की जानकारी सकारात्मक, नकारात्मक या शून्य हो सकती है, जिससे इसकी व्याख्या करना कठिन हो जाता है।

संदर्भ

  1. Wyner, A. D. (1978). "मनमाने समूहों के लिए सशर्त पारस्परिक जानकारी की परिभाषा". Information and Control. 38 (1): 51–59. doi:10.1016/s0019-9958(78)90026-8.
  2. Dobrushin, R. L. (1959). "सूचना सिद्धांत में शैनन के मुख्य प्रमेय का सामान्य सूत्रीकरण". Uspekhi Mat. Nauk. 14: 3–104.
  3. Cover, Thomas; Thomas, Joy A. (2006). सूचना सिद्धांत के तत्व (2nd ed.). New York: Wiley-Interscience. ISBN 0-471-24195-4.
  4. D. Leao, Jr. et al. Regular conditional probability, disintegration of probability and Radon spaces. Proyecciones. Vol. 23, No. 1, pp. 15–29, May 2004, Universidad Católica del Norte, Antofagasta, Chile PDF
  5. Polyanskiy, Yury; Wu, Yihong (2017). सूचना सिद्धांत पर व्याख्यान नोट्स (PDF). p. 30.