Difference between revisions of "उष्मागतिकी और सूचना सिद्धांत में एन्ट्रॉपी"

From alpha
Jump to navigation Jump to search
(Created page with "{{Short description|Relationship between the concepts of thermodynamic entropy and information entropy}} 1870 के दशक में लुडविग बोल्ट...")
 
Line 1: Line 1:
{{Short description|Relationship between the concepts of thermodynamic entropy and information entropy}}
{{Short description|Relationship between the concepts of thermodynamic entropy and information entropy}}
1870 के दशक में [[लुडविग बोल्ट्ज़मान]] और जे विलार्ड गिब्स द्वारा स्थापित [[सांख्यिकीय ऊष्मप्रवैगिकी]] फॉर्मूलेशन में थर्मोडायनामिक एन्ट्रॉपी के लिए गणितीय अभिव्यक्तियां 1940 के दशक में विकसित [[क्लाउड एलवुड शैनन]] और [[राल्फ हार्टले]] द्वारा सूचना एन्ट्रॉपी के समान हैं।
1870 के दशक में [[लुडविग बोल्ट्ज़मान]] और जे. विलार्ड गिब्स द्वारा स्थापित [[सांख्यिकीय ऊष्मप्रवैगिकी|सांख्यिकीय थर्मोडायनामिक्स]] फॉर्मूलेशन में थर्मोडायनामिक एन्ट्रॉपी के लिए गणितीय अभिव्यक्तियाँ 1940 के दशक में विकसित [[क्लाउड एलवुड शैनन|क्लाउड शैनन]] और [[राल्फ हार्टले]] द्वारा विकसित सूचना एन्ट्रॉपी के समान हैं।


==परिभाषित भावों के रूप की समतुल्यता==
==परिभाषित भावों के रूप की समतुल्यता==
[[File:Zentralfriedhof Vienna - Boltzmann.JPG|thumb|बस्ट और एन्ट्रॉपी फॉर्मूला के साथ, [[केंद्रीय कब्रिस्तान]], वियना में बोल्ट्ज़मैन की कब्र।]]1870 के दशक में लुडविग बोल्ट्ज़मैन और जे. विलार्ड गिब्स द्वारा स्थापित [[सांख्यिकीय यांत्रिकी]] के सिद्धांत में एन्ट्रापी के लिए परिभाषित अभिव्यक्ति इस प्रकार है:
[[File:Zentralfriedhof Vienna - Boltzmann.JPG|thumb|बस्ट और एन्ट्रॉपी फॉर्मूला के साथ, [[केंद्रीय कब्रिस्तान]], वियना में बोल्ट्ज़मैन की कब्र।]]1870 के दशक में लुडविग बोल्ट्ज़मैन और जे विलार्ड गिब्स द्वारा स्थापित [[सांख्यिकीय यांत्रिकी]] के सिद्धांत में एन्ट्रापी के लिए परिभाषित अभिव्यक्ति इस प्रकार है:
:<math> S = - k_\text{B} \sum_i p_i \ln p_i ,</math>
:<math> S = - k_\text{B} \sum_i p_i \ln p_i ,</math>
कहाँ <math>p_i</math> [[माइक्रोस्टेट (सांख्यिकीय यांत्रिकी)]] की संभावना है जिसे मैंने एक एन्सेम्बल (गणितीय भौतिकी) से लिया है, और <math>k_B</math> बोल्ट्ज़मान स्थिरांक है।
जहां <math>p_i</math> एक संतुलन समुच्चय से ली गई [[माइक्रोस्टेट (सांख्यिकीय यांत्रिकी)|माइक्रोस्टेट]] की संभावना है, और <math>k_B</math> बोल्ट्ज़मान स्थिरांक है।


1948 में क्लाउड ई. शैनन द्वारा स्थापित [[सूचना सिद्धांत]] के सिद्धांत में सूचना एन्ट्रापी के लिए परिभाषित अभिव्यक्ति इस प्रकार है:
1948 में क्लॉड ई. शैनन द्वारा स्थापित [[सूचना सिद्धांत]] में एन्ट्रापी के लिए परिभाषित अभिव्यक्ति इस प्रकार है:
:<math> H = - \sum_i p_i \log_b p_i ,</math>
:<math> H = - \sum_i p_i \log_b p_i ,</math>
कहाँ <math>p_i</math> संदेश की संभावना है <math>m_i</math> संदेश स्थान M से लिया गया है, और b प्रयुक्त लघुगणक का [[आधार (घातांक)]] है। बी के सामान्य मान 2, ई (गणितीय स्थिरांक)|यूलर की संख्या हैं {{math|''e''}}, और 10, और एन्ट्रापी की इकाई b = 2 के लिए [[शैनन (इकाई)]] (या [[ अंश ]]) है, b = के लिए [[नेट (इकाई)]] है{{math|''e''}}, और b = 10 के लिए [[हार्टले (इकाई)]]<ref>Schneider, T.D, [http://alum.mit.edu/www/toms/paper/primer/primer.pdf Information theory primer with an appendix on logarithms], National Cancer Institute, 14 April 2007.</ref>
जहाँ <math>p_i</math> संदेश स्थान M से लिए गए संदेश <math>m_i</math> की प्रायिकता है, और b प्रयुक्त लघुगणक का [[आधार (घातांक)|आधार]] है। बी के सामान्य मान 2 हैं, यूलर की संख्या {{math|''e''}}, और 10, और एन्ट्रापी की इकाई बी = 2 के लिए [[शैनन (इकाई)|शैनन]] (या बिट), बी = {{math|''e''}} के लिए [[नेट (इकाई)|नेट]], और बी = 10 के लिए [[हार्टले (इकाई)|हार्टले]] है।<ref>Schneider, T.D, [http://alum.mit.edu/www/toms/paper/primer/primer.pdf Information theory primer with an appendix on logarithms], National Cancer Institute, 14 April 2007.</ref>
गणितीय रूप से एच को संदेश स्थान पर ली गई औसत जानकारी के रूप में भी देखा जा सकता है, क्योंकि जब एक निश्चित संदेश संभाव्यता पी के साथ होता है<sub>''i''</sub>, सूचना मात्रा −लॉग(पी<sub>''i''</sub>) (सूचना सामग्री या स्व-सूचना कहा जाता है) प्राप्त किया जाएगा।


यदि सभी माइक्रोस्टेट समसंभाव्य (एक [[माइक्रोकैनोनिकल पहनावा]]) हैं, तो सांख्यिकीय थर्मोडायनामिक एन्ट्रॉपी बोल्ट्ज़मैन द्वारा दिए गए रूप में कम हो जाती है,
गणितीय रूप से, H को संदेश अंतरिक्ष पर लिए गए औसत सूचना के रूप में भी देखा जा सकता है, क्योंकि जब किसी निश्चित संदेश की संभावना pi के साथ होती है, तो सूचना मात्रा −log(pi) (जिसे सूचना सामग्री या स्व-सूचना कहा जाता है) प्राप्त होगी।
 
यदि सभी माइक्रोस्थितियाँ समरूप (एक [[माइक्रोकैनोनिकल पहनावा|माइक्रोकैनोनिकल संघ]]) हैं, तो सांख्यिक तापमान अव्यवस्थात्मक और बोल्ट्जमन द्वारा दिए गए रूप में कम हो जाता है।


:<math> S = k_\text{B} \ln W ,</math>
:<math> S = k_\text{B} \ln W ,</math>
जहां W सूक्ष्म अवस्थाओं की संख्या है जो 'मैक्रोस्कोपिक' थर्मोडायनामिक अवस्था से मेल खाती है। इसलिए S तापमान पर निर्भर करता है।
जहां W सूक्ष्म अवस्थाओं की संख्या है जो मैक्रोस्कोपिक थर्मोडायनामिक अवस्था से मेल खाती है। अतः S तापमान पर निर्भर करता है।


यदि सभी संदेश समसंभाव्य हैं, तो सूचना एन्ट्रापी [[हार्टले एन्ट्रापी]] तक कम हो जाती है
यदि सभी संदेश समसंभाव्य हैं, तो सूचना एन्ट्रापी [[हार्टले एन्ट्रापी]] में कम हो जाती है
:<math> H = \log_b |M|\ ,</math>
:<math> H = \log_b |M|\ ,</math>
कहाँ <math>|M|</math> संदेश स्थान एम की [[प्रमुखता]] है।
जहां <math>|M|</math> संदेश स्थान एम की [[प्रमुखता|कार्डिनैलिटी]] है।


थर्मोडायनामिक परिभाषा में लघुगणक [[प्राकृतिक]] लघुगणक है। यह दिखाया जा सकता है कि [[एन्ट्रॉपी (सांख्यिकीय थर्मोडायनामिक्स)]] सूत्र, प्राकृतिक लघुगणक के साथ, [[रुडोल्फ क्लॉसियस]] के मैक्रोस्कोपिक शास्त्रीय थर्मोडायनामिक्स के सभी गुणों को पुन: उत्पन्न करता है। (लेख देखें: [[एन्ट्रॉपी (सांख्यिकीय दृश्य)]])।
थर्मोडायनामिक परिभाषा में लघुगणक [[प्राकृतिक]] लघुगणक है। यह दिखाया जा सकता है कि गिब्स [[एन्ट्रॉपी (सांख्यिकीय थर्मोडायनामिक्स)|एन्ट्रॉपी]] फॉर्मूला, प्राकृतिक लघुगणक के साथ, [[रुडोल्फ क्लॉसियस]] के मैक्रोस्कोपिक शास्त्रीय थर्मोडायनामिक्स के सभी गुणों को पुन: उत्पन्न करता है। (लेख देखें: [[एन्ट्रॉपी (सांख्यिकीय दृश्य)|एन्ट्रॉपी]] (सांख्यिकीय विचार))।


सूचना एन्ट्रापी के मामले में लघुगणक को प्राकृतिक आधार पर भी ले जाया जा सकता है। यह सामान्य बिट्स (या अधिक औपचारिक रूप से, शैनन) के बजाय नेट्स में जानकारी को मापने का चयन करने के बराबर है। व्यवहार में, सूचना एन्ट्रापी की गणना लगभग हमेशा आधार-2 लघुगणक का उपयोग करके की जाती है, लेकिन यह अंतर इकाइयों में बदलाव के अलावा और कुछ नहीं है। एक नेट लगभग 1.44 शैनन के बराबर होता है।
सूचना एन्ट्रापी के मामले में लघुगणक को प्राकृतिक आधार पर भी ले जाया जा सकता है। यह सामान्य बिट्स (या अधिक औपचारिक रूप से, शैनन) के बजाय नेट्स में जानकारी को मापने का चयन करने के बराबर है। व्यवहार में, सूचना एन्ट्रापी की गणना लगभग हमेशा बेस-2 लघुगणक का उपयोग करके की जाती है, लेकिन यह अंतर इकाइयों में बदलाव के अलावा और कुछ नहीं है। एक नेट लगभग 1.44 शैनन के बराबर होता है।


एक सरल संपीड़ित प्रणाली के लिए जो केवल आयतन कार्य कर सकती है[[शास्त्रीय ऊष्मप्रवैगिकी]] का पहला नियम बन जाता है
एक सरल संपीड़ित प्रणाली के लिए जो केवल आयतन कार्य कर सकती है, [[शास्त्रीय ऊष्मप्रवैगिकी|ऊष्मागतिकी]] का पहला नियम बन जाता है
:<math> dE = -p dV + T dS .</math>
:<math> dE = -p dV + T dS .</math>
लेकिन कोई भी इस समीकरण को समान रूप से अच्छी तरह से लिख सकता है जिसे भौतिक विज्ञानी और रसायनज्ञ कभी-कभी 'कम' या आयामहीन एन्ट्रॉपी कहते हैं, {{nowrap|1=''σ'' = ''S''/''k''}}, ताकि
लेकिन कोई भी इस समीकरण को समान रूप से अच्छी तरह से लिख सकता है जिसे भौतिक विज्ञानी और रसायनज्ञ कभी-कभी 'कम' या आयाम रहित एन्ट्रापी, {{nowrap|1=''σ'' = ''S''/''k''}} कहते हैं, ताकि
:<math> dE = -p dV + k_\text{B} T d\sigma .</math>
:<math> dE = -p dV + k_\text{B} T d\sigma .</math>
जिस प्रकार S, T से संयुग्मित है, उसी प्रकार σ, k से संयुग्मित है<sub>B</sub>टी (वह ऊर्जा जो आणविक पैमाने पर टी की विशेषता है)।
जिस प्रकार S, T से संयुग्मित है, उसी प्रकार σ kBT से संयुग्मित है (वह ऊर्जा जो आणविक पैमाने पर T की विशेषता है)।
इस प्रकार सांख्यिकीय यांत्रिकी में एन्ट्रॉपी की परिभाषा (एंट्रॉपी (सांख्यिकीय थर्मोडायनामिक्स)#गिब्स_एन्ट्रॉपी_फॉर्मूला <math>S = -k_{\mathrm{B}}\sum_i p_i \log p_i</math>) और शास्त्रीय थर्मोडायनामिक्स में (<math>d S = \frac{\delta Q_\text{rev}}{T}</math>, और [[मौलिक थर्मोडायनामिक संबंध]]) माइक्रोकैनोनिकल पहनावा के लिए समतुल्य हैं, और सांख्यिकीय पहनावा एक जलाशय के साथ संतुलन में थर्मोडायनामिक प्रणाली का वर्णन करता है, जैसे कि कैनोनिकल पहनावा, भव्य कैनोनिकल पहनावा, इज़ोटेर्मल-आइसोबैरिक पहनावा। यह समानता आमतौर पर पाठ्यपुस्तकों में दिखाई जाती है। हालाँकि, एन्ट्रॉपी की थर्मोडायनामिक परिभाषा और एन्ट्रॉपी_(सांख्यिकीय_थर्मोडायनामिक्स)#गिब्स_एंट्रॉपी_फॉर्मूला के बीच समानता सामान्य नहीं है, बल्कि बोल्ट्ज़मैन वितरण#सामान्यीकृत बोल्ट्ज़मैन वितरण की एक विशेष संपत्ति है।<ref>{{cite journal |last1= Gao |first1= Xiang |last2= Gallicchio |first2= Emilio |first3= Adrian |last3= Roitberg  |date= 2019 |title= सामान्यीकृत बोल्ट्ज़मान वितरण एकमात्र वितरण है जिसमें गिब्स-शैनन एन्ट्रॉपी थर्मोडायनामिक एन्ट्रॉपी के बराबर होती है|journal= The Journal of Chemical Physics|volume= 151|issue= 3|pages= 034113|doi= 10.1063/1.5111333|pmid= 31325924 |arxiv= 1903.02121 |bibcode= 2019JChPh.151c4113G |s2cid= 118981017 }}</ref>
 
इस प्रकार, सांख्यिकीय यांत्रिकी में (गिब्स एन्ट्रापी सूत्र <math>S = -k_{\mathrm{B}}\sum_i p_i \log p_i</math>) और क्लासिकल थर्मोडायनेमिक्स में (<math>d S = \frac{\delta Q_\text{rev}}{T}</math>, और [[मौलिक थर्मोडायनामिक संबंध|मूलभूत थर्मोडायनामिक संबंध]]) एंट्रोपी की परिभाषाएँ माइक्रोकैनॉनिकल संघ के लिए समरूप हैं, और ऐसे एक उर्वराशी संतुलित थर्मोडायनेमिक सिस्टम की वर्णन करने वाले सांख्यिक संघ, जैसे की कैनोनिक संघ, ग्रैंड कैनोनिक संघ, आइसोथर्मल–आइसोबेरिक संघ। इस समरूपता को सामान्यत: पुस्तकों में दिखाया जाता है। हालांकि, एंट्रोपी की थर्मोडायनेमिक परिभाषा और गिब्स एंट्रोपी के बीच इस समरूपता का सामान्य नहीं है, बल्कि यह एक सामान्यीकृत बोल्ट्जमन वितरण की विशेषता है।<ref>{{cite journal |last1= Gao |first1= Xiang |last2= Gallicchio |first2= Emilio |first3= Adrian |last3= Roitberg  |date= 2019 |title= सामान्यीकृत बोल्ट्ज़मान वितरण एकमात्र वितरण है जिसमें गिब्स-शैनन एन्ट्रॉपी थर्मोडायनामिक एन्ट्रॉपी के बराबर होती है|journal= The Journal of Chemical Physics|volume= 151|issue= 3|pages= 034113|doi= 10.1063/1.5111333|pmid= 31325924 |arxiv= 1903.02121 |bibcode= 2019JChPh.151c4113G |s2cid= 118981017 }}</ref>
 
इसके अलावा, यह दिखाया गया है कि सांख्यिकीय यांत्रिकी में एन्ट्रापी की परिभाषा एकमात्र एन्ट्रापी है जो निम्नलिखित अभिधारणाओं के तहत शास्त्रीय थर्मोडायनामिक्स एन्ट्रापी के बराबर है:<ref name="Gao2022">{{cite journal |last1= Gao |first1= Xiang |date= March 2022 |title= एन्सेम्बल थ्योरी का गणित|journal= Results in Physics|volume= 34|pages= 105230|doi= 10.1016/j.rinp.2022.105230 |bibcode= 2022ResPh..3405230G |s2cid= 221978379 |doi-access= free }}</ref>
इसके अलावा, यह दिखाया गया है कि सांख्यिकीय यांत्रिकी में एन्ट्रापी की परिभाषा एकमात्र एन्ट्रापी है जो निम्नलिखित अभिधारणाओं के तहत शास्त्रीय थर्मोडायनामिक्स एन्ट्रापी के बराबर है:<ref name="Gao2022">{{cite journal |last1= Gao |first1= Xiang |date= March 2022 |title= एन्सेम्बल थ्योरी का गणित|journal= Results in Physics|volume= 34|pages= 105230|doi= 10.1016/j.rinp.2022.105230 |bibcode= 2022ResPh..3405230G |s2cid= 221978379 |doi-access= free }}</ref>
{{ordered list
{{ordered list
| The probability density function is proportional to some function of the ensemble parameters and random variables.
|संभाव्यता घनत्व फ़ंक्शन संयोजन मापदंडों और यादृच्छिक चर के कुछ फ़ंक्शन के लिए आनुपातिक है।|थर्मोडायनामिक अवस्था कार्यों का वर्णन यादृच्छिक चरों के औसत औसत द्वारा किया जाता है।|अनंत तापमान पर, सभी सूक्ष्म अवस्थाओं की संभावना समान होती है।}}
| Thermodynamic state functions are described by ensemble averages of random variables.
| At infinite temperature, all the microstates have the same probability.
}}


== सैद्धांतिक संबंध ==
== सैद्धांतिक संबंध ==


उपरोक्त के बावजूद, दोनों मात्राओं के बीच अंतर है। सूचना एन्ट्रापी Η की गणना किसी भी संभाव्यता वितरण के लिए की जा सकती है (यदि संदेश को यह माना जाए कि घटना i जिसकी संभाव्यता p थी)<sub>i</sub>घटित, संभव घटनाओं के स्थान से बाहर), जबकि एन्ट्रापी एस थर्मोडायनामिक संभावनाओं पी को संदर्भित करता है<sub>i</sub>विशेष रूप से. हालाँकि, अंतर वास्तविक से अधिक सैद्धांतिक है, क्योंकि किसी भी संभाव्यता वितरण को कुछ थर्मोडायनामिक प्रणाली द्वारा मनमाने ढंग से बारीकी से अनुमानित किया जा सकता है।{{citation needed|date=July 2017}}
पूर्वगामी के बावजूद, दोनों मात्राओं के बीच अंतर है। सूचना एन्ट्रापी Η की गणना किसी भी संभाव्यता वितरण (यदि "संदेश" को यह माना जाए कि जिस घटना i की संभावना pi थी, वह संभावित घटनाओं के स्थान से बाहर घटित हुई) के लिए की जा सकती है, जबकि थर्मोडायनामिक एन्ट्रापी एस विशेष रूप से थर्मोडायनामिक संभावनाओं पाई को संदर्भित करता है। हालाँकि, यह अंतर वास्तविक से अधिक सैद्धांतिक है, क्योंकि किसी भी संभाव्यता वितरण को कुछ थर्मोडायनामिक प्रणाली द्वारा मनमाने ढंग से निकटता से अनुमानित किया जा सकता है।{{citation needed|date=July 2017}}


इसके अलावा, दोनों के बीच सीधा संबंध बनाया जा सकता है। यदि प्रश्न में संभावनाएँ थर्मोडायनामिक संभावनाएँ p हैं<sub>i</sub>: (कम) गिब्स एन्ट्रॉपी σ को इसके स्थूल विवरण को देखते हुए, सिस्टम की विस्तृत सूक्ष्म स्थिति को परिभाषित करने के लिए आवश्यक शैनन जानकारी की मात्रा के रूप में देखा जा सकता है। या, 1930 में रासायनिक एन्ट्रापी के बारे में लिखने वाले जी.एन. लुईस के शब्दों में, एन्ट्रापी में लाभ का मतलब हमेशा जानकारी का नुकसान होता है, और कुछ नहीं। अधिक ठोस होने के लिए, आधार दो लघुगणक का उपयोग करते हुए असतत मामले में, कम गिब्स एन्ट्रॉपी माइक्रोस्टेट (सांख्यिकीय यांत्रिकी) को पूरी तरह से निर्दिष्ट करने के लिए उत्तर देने के लिए आवश्यक हां-नहीं प्रश्नों की न्यूनतम संख्या के औसत के बराबर है, यह देखते हुए हम मैक्रोस्टेट को जानते हैं।
इसके अलावा, दोनों के बीच सीधा कनेक्शन भी बनाया जा सकता है। यदि विचाराधीन संभावनाएं थर्मोडायनामिक संभावनाएं पाई हैं: (कम) गिब्स एन्ट्रॉपी σ को सिस्टम की विस्तृत सूक्ष्म स्थिति को परिभाषित करने के लिए आवश्यक शैनन जानकारी की मात्रा के रूप में देखा जा सकता है, जो इसके मैक्रोस्कोपिक विवरण को देखते हुए है। या, 1930 में रासायनिक एन्ट्रॉपी के बारे में लिखने वाले जी.एन. लुईस के शब्दों में, "एन्ट्रॉपी में लाभ का मतलब हमेशा जानकारी का नुकसान होता है, और इससे अधिक कुछ नहीं"। और विस्तार से कहें, विकल्प दो के लॉगारिदम का प्रयोग करके, असम्भावित रूप में, घटित गिब्स एंट्रोपी उस सीमा की गई सांख्यिक रूप में समान है जो यह सुनिश्चित करने के लिए कितने कम से कम हाँ-ना प्रश्नों की आवश्यकता है कि हम माक्रोस्थिति को जानते हैं कि संपूर्ण रूप स्थिति को पूरी तरह से निर्दिष्ट करने के लिए।


इसके अलावा, उचित बाधाओं ([[गिब्स एल्गोरिथ्म]]) के अधीन [[गिब्स एन्ट्रापी]] को अधिकतम करके सांख्यिकीय यांत्रिकी के संतुलन वितरण को खोजने के नुस्खे - जैसे कि बोल्ट्जमैन वितरण - को थर्मोडायनामिक्स के लिए अद्वितीय नहीं, बल्कि सामान्य प्रासंगिकता के सिद्धांत के रूप में देखा जा सकता है। सांख्यिकीय अनुमान में, यदि इसके औसत पर कुछ बाधाओं के अधीन, [[अधिकतम एन्ट्रापी का सिद्धांत]] खोजना वांछित है। (इन परिप्रेक्ष्यों को [[अधिकतम एन्ट्रापी थर्मोडायनामिक्स]] लेख में आगे खोजा गया है।)
इसके अतिरिक्त, सांख्यिकीय यांत्रिकी के संतुलन वितरणों को ढूंढने के लिए—जैसे कि बोल्ट्जमन वितरण—जिसमें उपयुक्त बाधाओं के साथ [[गिब्स एन्ट्रापी]] को अधिकतम करने के लिए निर्देशित किया जाता है ([[गिब्स एल्गोरिथ्म]]), इसे थर्मोडायनेमिक्स के लिए अद्वितीय नहीं, बल्कि यदि इसे इच्छित है कि विशेष औसतों पर कुछ बाधाओं के साथ एक [[अधिकतम एन्ट्रापी का सिद्धांत|अधिकतम अनूज्ञ संभावना वितरण]] प्राप्त किया जाए, तो सांख्यिकीय अनुमान में सामान्य रूप से सिद्धांत के रूप में देखा जा सकता है (इन परिप्रेक्ष्यों की और भी अन्वेषण किया जाता है [[अधिकतम एन्ट्रापी थर्मोडायनामिक्स]] लेख में)


सूचना सिद्धांत में शैनन एन्ट्रापी को कभी-कभी प्रति प्रतीक बिट्स की इकाइयों में व्यक्त किया जाता है। भौतिक एन्ट्रापी प्रति मात्रा के आधार पर हो सकती है (एच) जिसे सामान्य कुल एन्ट्रापी के बजाय [[गहन और व्यापक गुण]] एन्ट्रापी कहा जाता है जिसे व्यापक एन्ट्रापी कहा जाता है। एक संदेश के शैनन (Η) इसकी कुल व्यापक सूचना एन्ट्रापी हैं और संदेश में बिट्स की संख्या का h गुना है।
सूचना सिद्धांत में शैनन एन्ट्रॉपी कभी-कभी प्रति प्रतीक बिट्स की इकाइयों में व्यक्त की जाती है। भौतिक एन्ट्रापी "प्रति मात्रा" के आधार पर हो सकती है (एच) जिसे सामान्य कुल एन्ट्रापी के बजाय "[[गहन और व्यापक गुण|गहन]]" एन्ट्रापी कहा जाता है जिसे "व्यापक" एन्ट्रापी कहा जाता है। एक संदेश के "शैनन्स" (Η) इसकी कुल "व्यापक" सूचना एन्ट्रापी हैं और संदेश में बिट्स की संख्या से h गुना है।


एच और एस के बीच एक सीधा और शारीरिक रूप से वास्तविक संबंध प्रत्येक माइक्रोस्टेट के लिए एक प्रतीक निर्दिष्ट करके पाया जा सकता है जो एक सजातीय पदार्थ के प्रति मोल, किलोग्राम, आयतन या कण में होता है, फिर इन प्रतीकों के 'एच' की गणना करता है। सिद्धांत या अवलोकन से, प्रतीक (माइक्रोस्टेट्स) अलग-अलग संभावनाओं के साथ घटित होंगे और यह एच निर्धारित करेगा। यदि इकाई पदार्थ के एन मोल, किलोग्राम, आयतन या कण हैं, तो एच (प्रति इकाई पदार्थ बिट्स में) और नेट में भौतिक व्यापक एन्ट्रापी के बीच संबंध है:
एच और एस के बीच एक सीधा और भौतिक रूप से वास्तविक संबंध प्रत्येक माइक्रोस्टेट के लिए एक प्रतीक निर्दिष्ट करके पाया जा सकता है जो एक सजातीय पदार्थ के प्रति मोल, किलोग्राम, आयतन या कण में होता है, फिर इन प्रतीकों के 'एच' की गणना करता है। सिद्धांत या अवलोकन के द्वारा, प्रतीक (माइक्रोस्टेट्स) विभिन्न संभावनाओं के साथ घटित होंगे और यह एच निर्धारित करेगा। यदि इकाई पदार्थ के N मोल, किलोग्राम, आयतन या कण हैं, तो h (प्रति इकाई पदार्थ के बिट्स में) और नेट में भौतिक व्यापक एन्ट्रापी के बीच संबंध है:


:<math>S = k_\mathrm{B} \ln(2) N h</math>
:<math>S = k_\mathrm{B} \ln(2) N h</math>
जहां ln(2) शैनन एन्ट्रापी के आधार 2 से भौतिक एन्ट्रापी के प्राकृतिक आधार ई में रूपांतरण कारक है। एन एच एन्ट्रापी एस के साथ एक भौतिक प्रणाली की स्थिति का वर्णन करने के लिए आवश्यक बिट्स में जानकारी की मात्रा है। लैंडौएर का सिद्धांत एक आदर्श रूप से कुशल मेमोरी परिवर्तन द्वारा आवश्यक न्यूनतम ऊर्जा (और इसलिए गर्मी क्यू उत्पन्न) बताकर इसकी वास्तविकता को प्रदर्शित करता है। सूचना के एनएच बिट्स को अपरिवर्तनीय रूप से मिटाने या विलय करने से तर्क संचालन तापमान का एस गुना होगा
जहां ln(2) शैनन एन्ट्रॉपी के आधार 2 से भौतिक एन्ट्रॉपी के प्राकृतिक आधार ई में रूपांतरण कारक है। N_h उपचय में सूचना की मात्रा है जो एक भौतिक प्रणाली की स्थिति को वर्णन करने के लिए बिट में आवश्यक है, जिसमें S एंट्रोपी है। लैंडौअर का सिद्धांत इसकी वास्तविकता को स्थापित करता है इसलिए कि यदि न्यूनतम ऊर्जा E की आवश्यकता है (और इसलिए उत्पन्न होने वाली ऊष्मा Q) एक आदर्श कुशल स्मृति परिवर्तन या तार्किक क्रिया के द्वारा, N_h बिट्स सूचना को अपरिवर्तनीय रूप से मिटाने या मर्ज करने के लिए, तो यह S गुना तापमान होगा जो की निम्नलिखित है


:<math>E = Q = T k_\mathrm{B} \ln(2) N h ,</math>
:<math>E = Q = T k_\mathrm{B} \ln(2) N h ,</math>
जहां h सूचनात्मक बिट्स में है और E और Q भौतिक जूल में हैं। इसकी प्रयोगात्मक पुष्टि हो चुकी है।<ref name=berut>{{Citation |author1=Antoine Bérut |author2=Artak Arakelyan |author3=Artyom Petrosyan |author4=Sergio Ciliberto |author5=Raoul Dillenschneider |author6=Eric Lutz |doi=10.1038/nature10872 |title=Experimental verification of Landauer's principle linking information and thermodynamics |journal=Nature |volume=483 |issue=7388 |pages=187–190 |date=8 March 2012 |url=http://www.physik.uni-kl.de/eggert/papers/raoul.pdf|bibcode = 2012Natur.483..187B |pmid=22398556|s2cid=9415026 }}</ref>
जहां एच सूचनात्मक बिट्स में है और और क्यू भौतिक जूल में हैं। इसकी प्रायोगिक तौर पर पुष्टि की गई है।<ref name="berut">{{Citation |author1=Antoine Bérut |author2=Artak Arakelyan |author3=Artyom Petrosyan |author4=Sergio Ciliberto |author5=Raoul Dillenschneider |author6=Eric Lutz |doi=10.1038/nature10872 |title=Experimental verification of Landauer's principle linking information and thermodynamics |journal=Nature |volume=483 |issue=7388 |pages=187–190 |date=8 March 2012 |url=http://www.physik.uni-kl.de/eggert/papers/raoul.pdf|bibcode = 2012Natur.483..187B |pmid=22398556|s2cid=9415026 }}</ref>
तापमान एक आदर्श गैस (केल्विन =) में प्रति कण औसत गतिज ऊर्जा का माप है {{sfrac|2|3}} जूल/के<sub>B</sub>) तो k की J/K इकाइयाँ<sub>B</sub> आयामहीन (जूल/जूल) है। क<sub>b</sub> ऊर्जा से रूपांतरण कारक है {{sfrac|3|2}} एक आदर्श गैस के लिए केल्विन से जूल तक। यदि किसी आदर्श गैस के प्रति कण की गतिज ऊर्जा माप को केल्विन के बजाय जूल के रूप में व्यक्त किया जाता है, तो k<sub>b</sub> उपरोक्त समीकरणों में 3/2 द्वारा प्रतिस्थापित किया जाएगा। इससे पता चलता है कि एस माइक्रोस्टेट्स का एक सच्चा सांख्यिकीय माप है जिसमें सूचना की इकाइयों के अलावा कोई मौलिक भौतिक इकाई नहीं है, इस मामले में नेट्स, जो कि केवल एक बयान है कि सम्मेलन द्वारा किस लघुगणक आधार को चुना गया था।
 
तापमान एक आदर्श गैस (केल्विन = {{sfrac|2|3}} जूल/केबी) में प्रति कण औसत गतिज ऊर्जा का एक माप है, इसलिए केबी की जे/के इकाइयां आयामहीन (जूल/जूल) होती हैं। kb एक आदर्श गैस के लिए {{sfrac|3|2}} केल्विन में ऊर्जा से जूल तक रूपांतरण कारक है। यदि एक आदर्श गैस के प्रति कण की गतिज ऊर्जा माप को केल्विन के बजाय जूल के रूप में व्यक्त किया जाता है, तो उपरोक्त समीकरणों में kb को 3/2 से प्रतिस्थापित किया जाएगा। इससे पता चलता है कि एस माइक्रोस्टेट्स का एक सच्चा सांख्यिकीय माप है जिसमें सूचना की इकाइयों के अलावा कोई मौलिक भौतिक इकाई नहीं है, इस मामले में नेट्स, जो कि सम्मेलन द्वारा किस लघुगणक आधार को चुना गया था, इसका एक बयान है।


== जानकारी भौतिक है ==
== जानकारी भौतिक है ==


===स्ज़ीलार्ड का इंजन===
===स्ज़ीलार्ड का इंजन===
[[Image:NAtomVacuumPumpMemory.png|right|thumb|एन-एटम इंजन योजनाबद्ध]]एक भौतिक विचार प्रयोग यह प्रदर्शित करता है कि सैद्धांतिक रूप से जानकारी रखने से थर्मोडायनामिक परिणाम कैसे हो सकते हैं, यह प्रसिद्ध मैक्सवेल के दानव परिदृश्य के परिशोधन में, 1929 में लेओ स्ज़ीलार्ड द्वारा स्थापित किया गया था।<ref>{{Cite journal|last=Szilard|first=Leo|year=1929|title=Über die Entropieverminderung in einem thermodynamischen System bei Eingriffen intelligenter Wesen|journal=Zeitschrift für Physik|language=de|volume=53|issue=11–12|pages=840–856|bibcode=1929ZPhy...53..840S|doi=10.1007/BF01341281|issn=0044-3328|s2cid=122038206}} Available on-line in English at [http://aurellem.org/jaynes/sources/Szilard.pdf Aurellen.org].</ref>
[[Image:NAtomVacuumPumpMemory.png|right|thumb|एन-एटम इंजन योजनाबद्ध]]एक भौतिक विचार प्रयोग यह प्रदर्शित करता है कि सैद्धांतिक रूप से जानकारी रखने से थर्मोडायनामिक परिणाम कैसे हो सकते हैं, इसे प्रसिद्ध मैक्सवेल के दानव परिदृश्य के परिशोधन में, 1929 में लेओ स्ज़िलार्ड द्वारा स्थापित किया गया था।<ref>{{Cite journal|last=Szilard|first=Leo|year=1929|title=Über die Entropieverminderung in einem thermodynamischen System bei Eingriffen intelligenter Wesen|journal=Zeitschrift für Physik|language=de|volume=53|issue=11–12|pages=840–856|bibcode=1929ZPhy...53..840S|doi=10.1007/BF01341281|issn=0044-3328|s2cid=122038206}} Available on-line in English at [http://aurellem.org/jaynes/sources/Szilard.pdf Aurellen.org].</ref>
मैक्सवेल के सेट-अप पर विचार करें, लेकिन एक बॉक्स में केवल एक गैस कण के साथ। यदि अलौकिक दानव को पता है कि कण बॉक्स के किस आधे हिस्से में है (सूचना के एक बिट के बराबर), तो वह बॉक्स के दो हिस्सों के बीच एक शटर बंद कर सकता है, बॉक्स के खाली आधे हिस्से में एक पिस्टन को निर्विरोध बंद कर सकता है, और फिर निकालें <math>k_\text{B} T \ln 2</math> यदि शटर दोबारा खोला जाए तो जूल उपयोगी कार्य। फिर कण को ​​समतापीय रूप से अपने मूल संतुलन व्याप्त आयतन में वापस विस्तारित होने के लिए छोड़ा जा सकता है। इसलिए बिल्कुल सही परिस्थितियों में, शैनन जानकारी के एक बिट (ब्रिलॉइन के शब्द में नकारात्मकता का एक बिट) का कब्ज़ा वास्तव में भौतिक प्रणाली की एन्ट्रापी में कमी के अनुरूप है। वैश्विक एन्ट्रॉपी कम नहीं हुई है, लेकिन मुक्त ऊर्जा रूपांतरण की जानकारी संभव है।
 
मैक्सवेल के सेट-अप को विचार करें, लेकिन केवल एक ही गैस कण होने के साथ एक बॉक्स में। यदि अद्भुत दैत्य जानता है कि खिड़की के कौनसे हिस्से में कण है (एकल बिट के समरूप), तो वह बॉक्स के दो हिस्सों के बीच एक शटर बंद कर सकता है, खाली हिस्से में एक पिस्टन को विरोधित किए बिना बंद कर सकता है, और फिर अगर शटर फिर से खोला जाता है तो <math>k_\text{B} T \ln 2</math> जूल उपयोगी काम निकाल सकता है। फिर कण को इसोथर्मल रूप से उसके मूल संतुलित आवृत्ति वाले आदान-प्रदान में विस्तारित किया जा सकता है। इसलिए, बिलकुल सही परिस्थितियों में, एक शैनन सूचना के एकल बिट के पूर्णता में कमी (ब्रिल्यां के शब्दों में एकल नैगेंट्रोपी का एकल बिट) वास्तविक रूप से भौतिक प्रणाली की एंट्रोपी में कमी के समर्थन करती है। सामग्रिक एंट्रोपी कम नहीं होती है, लेकिन सूचना से मुक्त ऊर्जा परिवर्तन संभव है।


इस विचार प्रयोग को एक [[चरण-विपरीत माइक्रोस्कोपी]] | चरण-कंट्रास्ट माइक्रोस्कोप का उपयोग करके भौतिक रूप से प्रदर्शित किया गया है, जो एक कंप्यूटर से जुड़े उच्च गति वाले कैमरे से सुसज्जित है, जो दानव के रूप में कार्य करता है।<ref>{{cite journal |title=Information heat engine: converting information to energy by feedback control |author=Shoichi Toyabe |author2=Takahiro Sagawa |author3=Masahito Ueda |author4=Eiro Muneyuki |author5= Masaki Sano  |date=2010-09-29 |pages=988–992 |issue=12 |quote=We demonstrated that free energy is obtained by a feedback control using the information about the system; information is converted to free energy, as the first realization of Szilard-type Maxwell's demon. |volume=6 |doi=10.1038/nphys1821 |journal=Nature Physics |arxiv=1009.5287 |bibcode = 2010NatPh...6..988T |s2cid=118444713 }}</ref> इस प्रयोग में, ऊर्जा रूपांतरण की जानकारी फीडबैक नियंत्रण के माध्यम से [[एक प्रकार कि गति]] कण पर की जाती है; अर्थात्, कण को ​​दिए गए कार्य को उसकी स्थिति पर प्राप्त जानकारी के साथ सिंक्रनाइज़ करना। विभिन्न फीडबैक प्रोटोकॉल के लिए ऊर्जा संतुलन की गणना ने पुष्टि की है कि जर्ज़िनस्की समानता के लिए एक सामान्यीकरण की आवश्यकता होती है जो फीडबैक में शामिल जानकारी की मात्रा का हिसाब रखती है।
इस विचार प्रयोग को एक कंप्यूटर से जुड़े उच्च गति वाले कैमरे से सुसज्जित [[चरण-विपरीत माइक्रोस्कोपी|चरण-कंट्रास्ट माइक्रोस्कोप]] का उपयोग करके, राक्षस के रूप में कार्य करते हुए, भौतिक रूप से प्रदर्शित किया गया है।<ref>{{cite journal |title=Information heat engine: converting information to energy by feedback control |author=Shoichi Toyabe |author2=Takahiro Sagawa |author3=Masahito Ueda |author4=Eiro Muneyuki |author5= Masaki Sano  |date=2010-09-29 |pages=988–992 |issue=12 |quote=We demonstrated that free energy is obtained by a feedback control using the information about the system; information is converted to free energy, as the first realization of Szilard-type Maxwell's demon. |volume=6 |doi=10.1038/nphys1821 |journal=Nature Physics |arxiv=1009.5287 |bibcode = 2010NatPh...6..988T |s2cid=118444713 }}</ref> इस प्रयोग में, फीडबैक नियंत्रण के माध्यम से [[एक प्रकार कि गति|ब्राउनियन कण]] पर ऊर्जा रूपांतरण की जानकारी दी जाती है; यानी कण को दिए गए कार्य को उसकी स्थिति पर प्राप्त जानकारी के साथ सिंक्रनाइज़ करना। विभिन्न फीडबैक प्रोटोकॉल के लिए ऊर्जा संतुलन की गणना ने पुष्टि की है कि जारज़िनस्की समानता के लिए एक सामान्यीकरण की आवश्यकता होती है जो फीडबैक में शामिल जानकारी की मात्रा का हिसाब रखती है।


===लैंडौएर का सिद्धांत===
===लैंडौएर का सिद्धांत===
Line 71: Line 73:
वास्तव में कोई भी सामान्यीकरण कर सकता है: कोई भी जानकारी जिसका भौतिक प्रतिनिधित्व है, उसे किसी न किसी तरह भौतिक प्रणाली की स्वतंत्रता की सांख्यिकीय यांत्रिक डिग्री में एम्बेड किया जाना चाहिए।
वास्तव में कोई भी सामान्यीकरण कर सकता है: कोई भी जानकारी जिसका भौतिक प्रतिनिधित्व है, उसे किसी न किसी तरह भौतिक प्रणाली की स्वतंत्रता की सांख्यिकीय यांत्रिक डिग्री में एम्बेड किया जाना चाहिए।


इस प्रकार, [[रॉल्फ लैंडौएर]] ने 1961 में तर्क दिया, यदि कोई थर्मलाइज्ड अवस्था में स्वतंत्रता की उन डिग्री के साथ शुरुआत करने की कल्पना करता है, तो थर्मोडायनामिक एन्ट्रापी में वास्तविक कमी होगी यदि उन्हें फिर से ज्ञात अवस्था में सेट किया जाए। यह केवल सूचना-संरक्षण सूक्ष्म रूप से नियतात्मक गतिशीलता के तहत प्राप्त किया जा सकता है यदि अनिश्चितता को किसी तरह कहीं और डंप किया जाता है - यानी यदि पर्यावरण की एन्ट्रापी (या स्वतंत्रता की गैर-सूचना-असर वाली डिग्री) कम से कम एक समतुल्य मात्रा में बढ़ जाती है, जैसा कि आवश्यक है दूसरे नियम के अनुसार, उचित मात्रा में ऊष्मा प्राप्त करके: विशेष रूप से प्रत्येक 1 बिट यादृच्छिकता के लिए kT ln 2 ऊष्मा मिटा दी जाती है।
इस प्रकार, [[रॉल्फ लैंडौएर]] ने 1961 में तर्क किया, अगर कोई यह कल्पना करे कि उन दर्जों को एक थर्मलाइज्ड स्थिति से शुरू करते हैं, तो अगर उन्हें फिर से एक ज्ञात स्थिति में रीसेट किया जाए, तो वहां एक वास्तविक थर्मोडायनेमिक एंट्रोपी की कमी होगी। यह केवल सूचना-संरक्षण माइक्रोस्कोपिक निर्दिष्ट गतिकी तत्वों के तहत ही संभव हो सकता है यदि अनिश्चितता को किसी अन्य स्थान पर किसी भी रूप में छोड़ दिया जाए - यानी यदि पर्यावरण की एन्ट्रापी (या स्वतंत्रता की गैर-सूचना-असर वाली डिग्री) कम से कम एक समतुल्य मात्रा में बढ़ जाती है, जैसा कि आवश्यक है दूसरे नियम के अनुसार, उचित मात्रा में ऊष्मा प्राप्त करके: विशेष रूप से यादृच्छिकता के प्रत्येक 1 बिट के लिए kT ln 2 ऊष्मा मिटा दी जाती है।


दूसरी ओर, लैंडॉउर ने तर्क दिया, सिस्टम में भौतिक रूप से प्रतिवर्ती तरीके से संभावित रूप से प्राप्त किए जाने वाले तार्किक रूप से प्रतिवर्ती ऑपरेशन पर कोई थर्मोडायनामिक आपत्ति नहीं है। यह केवल तार्किक रूप से अपरिवर्तनीय संचालन है - उदाहरण के लिए, किसी ज्ञात स्थिति में बिट को मिटाना, या दो गणना पथों का विलय - जो संबंधित एन्ट्रापी वृद्धि के साथ होना चाहिए। जब सूचना भौतिक होती है, तो इसके अभ्यावेदन की सभी प्रसंस्करण, यानी पीढ़ी, एन्कोडिंग, ट्रांसमिशन, डिकोडिंग और व्याख्या, प्राकृतिक प्रक्रियाएं होती हैं जहां मुक्त ऊर्जा की खपत से एन्ट्रापी बढ़ती है।<ref>{{cite journal  
दूसरी ओर, लैंडौएर ने तर्क दिया, सिस्टम में भौतिक रूप से प्रतिवर्ती तरीके से संभावित रूप से प्राप्त किए जा रहे तार्किक रूप से प्रतिवर्ती ऑपरेशन पर कोई थर्मोडायनामिक आपत्ति नहीं है। यह केवल तार्किक रूप से अपरिवर्तनीय संचालन है - उदाहरण के लिए, किसी ज्ञात स्थिति में एक बिट को मिटाना, या दो गणना पथों का विलय - जो एक संबंधित एन्ट्रापी वृद्धि के साथ होना चाहिए। जब सूचना भौतिक होती है, तो इसके अभ्यावेदन की सभी प्रोसेसिंग, यानी पीढ़ी, एन्कोडिंग, ट्रांसमिशन, डिकोडिंग और व्याख्या, प्राकृतिक प्रक्रियाएं होती हैं जहां मुक्त ऊर्जा की खपत से एन्ट्रापी बढ़ती है।<ref>{{cite journal  
|author1=Karnani, M. |author2=Pääkkönen, K. |author3=Annila, A. | title=The physical character of information  
|author1=Karnani, M. |author2=Pääkkönen, K. |author3=Annila, A. | title=The physical character of information  
| journal=Proc. R. Soc. A | volume=465  
| journal=Proc. R. Soc. A | volume=465  
| issue=2107 | pages=2155–75 | year=2009  
| issue=2107 | pages=2155–75 | year=2009  
|doi=10.1098/rspa.2009.0063|bibcode = 2009RSPSA.465.2155K | doi-access=free }}</ref>
|doi=10.1098/rspa.2009.0063|bibcode = 2009RSPSA.465.2155K | doi-access=free }}</ref>
मैक्सवेल के दानव/स्ज़ीलार्ड इंजन परिदृश्य पर लागू होने पर, यह पता चलता है कि एन्ट्रापी लागत के बिना एक कंप्यूटिंग उपकरण में कण की स्थिति को पढ़ना संभव हो सकता है; लेकिन केवल तभी जब उपकरण पहले से ही मौजूद हो <small>SET</small> अनिश्चितता की थर्मल स्थिति में होने के बजाय, एक ज्ञात स्थिति में। को <small>SET</small> (या <small>RESET</small>) इस अवस्था में उपकरण को सारी एन्ट्रापी खर्च करनी पड़ेगी जिसे स्ज़ीलार्ड के कण की स्थिति जानकर बचाया जा सकता है।
 
मैक्सवेल के दानव/स्ज़ीलार्ड इंजन परिदृश्य पर लागू होने पर, यह पता चलता है कि बिना एन्ट्रापी लागत के कण की स्थिति को कंप्यूटिंग उपकरण में "पढ़ना" संभव हो सकता है; लेकिन केवल तभी जब उपकरण को अनिश्चितता की तापीय अवस्था में होने के बजाय पहले से ही ज्ञात स्थिति में सेट किया गया हो। उपकरण को इस स्थिति में सेट (या रीसेट) करने के लिए सारी एन्ट्रापी खर्च होगी जिसे स्ज़ीलार्ड के कण की स्थिति जानकर बचाया जा सकता है।
 
2008 और 2009 में, शोधकर्ताओं ने दिखाया कि लैंडौएर का सिद्धांत थर्मोडायनामिक्स के दूसरे नियम और सूचना लाभ से जुड़े एन्ट्रापी परिवर्तन, क्वांटम और शास्त्रीय प्रतिक्रिया-नियंत्रित प्रणालियों के थर्मोडायनामिक्स को विकसित करने से प्राप्त किया जा सकता है।


== नेगेंट्रॉपी ==
== नेगेंट्रॉपी ==
{{Main|Negentropy}}
{{Main|नेगेंट्रॉपी}}
शैनन एन्ट्रॉपी को भौतिक विज्ञानी लियोन ब्रिलोइन ने एक अवधारणा से जोड़ा है जिसे कभी-कभी नेगेंट्रॉपी कहा जाता है। 1953 में ब्रिलोइन ने एक सामान्य समीकरण निकाला<ref>{{cite journal | last1 = Brillouin | first1 = Leon | year = 1953 | title = सूचना का नकारात्मक सिद्धांत| journal = Journal of Applied Physics | volume = 24 | issue = 9| pages = 1152–1163 | doi=10.1063/1.1721463| bibcode = 1953JAP....24.1152B}}</ref> यह बताते हुए कि सूचना बिट मान को बदलने के लिए कम से कम kT ln(2) ऊर्जा की आवश्यकता होती है। यह वही ऊर्जा है जो आदर्शवादी मामले में [[लियो स्ज़ीलार्ड]] का इंजन पैदा करता है, जो बदले में रॉल्फ लैंडौएर द्वारा पाई गई समान मात्रा के बराबर होती है। उनकी किताब में,<ref>Leon Brillouin, ''Science and Information theory'', Dover, 1956</ref> उन्होंने आगे इस समस्या का पता लगाया और निष्कर्ष निकाला कि बिट मान परिवर्तन (माप, हां/नहीं प्रश्न के बारे में निर्णय, मिटाना, प्रदर्शन इत्यादि) के किसी भी कारण के लिए समान मात्रा, केटी एलएन (2) ऊर्जा की आवश्यकता होगी। नतीजतन, किसी सिस्टम के माइक्रोस्टेट्स के बारे में जानकारी प्राप्त करना [[एन्ट्रापी उत्पादन]] से जुड़ा होता है, जबकि मिटाने से एन्ट्रापी उत्पादन तभी होता है जब बिट मान बदल रहा हो। मूल रूप से थर्मल संतुलन में एक उप-प्रणाली में थोड़ी सी जानकारी स्थापित करने से स्थानीय एन्ट्रापी में कमी आती है। हालाँकि, ब्रिलोइन के अनुसार, थर्मोडायनामिक्स के दूसरे नियम का कोई उल्लंघन नहीं है, क्योंकि किसी भी स्थानीय प्रणाली की थर्मोडायनामिक एन्ट्रॉपी में कमी के परिणामस्वरूप अन्यत्र थर्मोडायनामिक एन्ट्रॉपी में वृद्धि होती है। इस प्रकार, ब्रिलोइन ने नेगेंट्रॉपी के अर्थ को स्पष्ट किया जिसे विवादास्पद माना गया क्योंकि इसकी पहले की समझ से कार्नोट की दक्षता एक से अधिक हो सकती है। इसके अतिरिक्त, ब्रिलोइन द्वारा तैयार की गई ऊर्जा और सूचना के बीच संबंध को मस्तिष्क द्वारा संसाधित की जाने वाली बिट्स की मात्रा और उसके द्वारा उपभोग की जाने वाली ऊर्जा के बीच एक संबंध के रूप में प्रस्तावित किया गया है: कोलेल और फॉक्वेट <ref>{{cite journal |author1=Collell, G |author2=Fauquet, J. |title=Brain activity and cognition: a connection from thermodynamics and information theory |journal=Frontiers in Psychology |volume=6 |issue=4 |pages=818 |date=June 2015|doi=10.3389/fpsyg.2015.00818 |pmid=26136709 |pmc=4468356 |doi-access=free }}</ref> तर्क दिया कि डी कास्त्रो <ref>{{cite journal |author=De Castro, A. |title=फास्ट थॉट की थर्मोडायनामिक लागत|journal=Minds and Machines |volume=23 |issue=4 |pages=473–487 |date=November 2013|doi=10.1007/s11023-013-9302-x |arxiv=1201.5841 |s2cid=11180644 }}</ref> विश्लेषणात्मक रूप से लैंडॉउर सीमा को मस्तिष्क गणना के लिए थर्मोडायनामिक निचली सीमा के रूप में पाया गया। हालाँकि, भले ही विकास ने सबसे ऊर्जावान रूप से कुशल प्रक्रियाओं का चयन किया हो, लेकिन मस्तिष्क में भौतिक निचली सीमाएं यथार्थवादी मात्रा नहीं हैं। सबसे पहले, क्योंकि भौतिकी में मानी जाने वाली न्यूनतम प्रसंस्करण इकाई परमाणु/अणु है, जो मस्तिष्क के संचालन के वास्तविक तरीके से बहुत दूर है; और, दूसरी बात, क्योंकि तंत्रिका नेटवर्क में महत्वपूर्ण अतिरेक और शोर कारक शामिल होते हैं जो उनकी दक्षता को काफी कम कर देते हैं।<ref>{{cite journal |author=Narayanan, N. S. at al. |title=मोटर कॉर्टेक्स में न्यूरोनल एन्सेम्बल की अतिरेक और तालमेल|journal= J. Neurosci.|volume=25 |issue=17 |pages=4207–4216 |doi=10.1523/JNEUROSCI.4697-04.2005 |pmid=15858046 |pmc=6725112 |year=2005 }}</ref> लाफलिन एट अल.  <ref>{{cite journal |author=Laughlin, S. B at al. |title=तंत्रिका संबंधी जानकारी की चयापचय लागत|journal= Nat. Neurosci.|volume=1 |issue=1 |pages=36–41 |date=November 2013|doi=10.1038/236 |pmid=10195106 |s2cid=204995437 }}</ref> संवेदी जानकारी के प्रसंस्करण की ऊर्जावान लागत के लिए स्पष्ट मात्रा प्रदान करने वाला पहला था। ब्लोफ्लाइज़ में उनके निष्कर्षों से पता चला कि दृश्य संवेदी डेटा के लिए, सूचना के एक बिट को प्रसारित करने की लागत लगभग 5 × 10 है<sup>−14</sup>जूल, या समकक्ष 10<sup>4</sup>एटीपी अणु। इस प्रकार, तंत्रिका प्रसंस्करण दक्षता अभी भी लैंडॉउर की kTln(2) J की सीमा से बहुत दूर है, लेकिन एक जिज्ञासु तथ्य के रूप में, यह अभी भी आधुनिक कंप्यूटरों की तुलना में बहुत अधिक कुशल है।


2009 में, माहुलिकर और हेरविग ने थर्मोडायनामिक नेगेंट्रॉपी को उसके परिवेश के सापेक्ष गतिशील रूप से आदेशित उप-प्रणाली के विशिष्ट एन्ट्रापी घाटे के रूप में फिर से परिभाषित किया।<ref>{{cite journal |author1=Mahulikar, S.P. |author2=Herwig, H. |title=अराजकता में गतिशील क्रम अस्तित्व और विकास के लिए सटीक थर्मोडायनामिक सिद्धांत|journal=Chaos, Solitons & Fractals |volume=41 |issue=4 |pages=1939–48 |date=August 2009 |doi=10.1016/j.chaos.2008.07.051 |bibcode = 2009CSF....41.1939M }}</ref> इस परिभाषा ने नेगेंट्रॉपी सिद्धांत के निर्माण को सक्षम किया, जिसे गणितीय रूप से ऑर्डर अस्तित्व के दौरान थर्मोडायनामिक्स के दूसरे कानून से पालन करने के लिए दिखाया गया है।
शैनन एन्ट्रॉपी को भौतिक विज्ञानी लियोन ब्रिलॉइन ने एक अवधारणा से संबंधित किया है जिसे कभी-कभी नेगेंट्रॉपी कहा जाता है। 1953 में, ब्रिलौइन ने एक सामान्य समीकरण निकाला[10] जिसमें कहा गया था कि सूचना बिट मान को बदलने के लिए कम से कम kT ln(2) ऊर्जा की आवश्यकता होती है। यह वही ऊर्जा है जो [[लियो स्ज़ीलार्ड]] का इंजन आदर्शवादी मामले में उत्पन्न करता है, जो बदले में लैंडौएर द्वारा पाई गई समान मात्रा के बराबर होती है। उनकी किताब में,<ref>Leon Brillouin, ''Science and Information theory'', Dover, 1956</ref> उन्होंने इस समस्या को और भी गहराई से अन्वेषित किया और निष्कर्ष किया कि बिट मूल्य परिवर्तन के किसी भी कारण (मापन, हाँ/ना के सवाल पर निर्णय, मिटाना, प्रदर्शन, आदि) के लिए एक ही मात्रा, kT ln(2), ऊर्जा की आवश्यकता होगी। परिणामस्वरूप, किसी सिस्टम के माइक्रोस्टेट्स के बारे में जानकारी प्राप्त करना एक [[एन्ट्रापी उत्पादन]] से जुड़ा होता है, जबकि मिटाने से एन्ट्रॉपी उत्पादन तभी होता है जब बिट मान बदल रहा हो। किसी उप-प्रणाली में मूल रूप से थर्मल संतुलन में थोड़ी सी जानकारी स्थापित करने से स्थानीय एन्ट्रापी में कमी आती है। हालाँकि, ब्रिलोइन के अनुसार, थर्मोडायनामिक्स के दूसरे नियम का कोई उल्लंघन नहीं है, क्योंकि किसी भी स्थानीय प्रणाली की थर्मोडायनामिक एन्ट्रापी में कमी के परिणामस्वरूप अन्यत्र थर्मोडायनामिक एन्ट्रापी में वृद्धि होती है। इस प्रकार ब्रिलोइन ने नेगेंट्रॉपी का अर्थ स्पष्ट किया जिसे विवादास्पद माना गया क्योंकि इसकी पूर्व समझ से कार्नोट की दक्षता एक से अधिक हो सकती है। इसके अतिरिक्त, ब्रिलोइन द्वारा तैयार की गई ऊर्जा और जानकारी के बीच संबंध को मस्तिष्क द्वारा संसाधित की जाने वाली बिट्स की मात्रा और इसके द्वारा उपभोग की जाने वाली ऊर्जा के बीच संबंध के रूप में प्रस्तावित किया गया है: कोलेल और फॉक्वेट<ref>{{cite journal |author1=Collell, G |author2=Fauquet, J. |title=Brain activity and cognition: a connection from thermodynamics and information theory |journal=Frontiers in Psychology |volume=6 |issue=4 |pages=818 |date=June 2015|doi=10.3389/fpsyg.2015.00818 |pmid=26136709 |pmc=4468356 |doi-access=free }}</ref> ने तर्क दिया कि डी कास्त्रो<ref>{{cite journal |author=De Castro, A. |title=फास्ट थॉट की थर्मोडायनामिक लागत|journal=Minds and Machines |volume=23 |issue=4 |pages=473–487 |date=November 2013|doi=10.1007/s11023-013-9302-x |arxiv=1201.5841 |s2cid=11180644 }}</ref> ने विश्लेषणात्मक रूप से मस्तिष्क गणना के लिए थर्मोडायनामिक निचली सीमा के रूप में लैंडौअर सीमा को पाया। हालाँकि, भले ही विकासवाद ने सबसे ऊर्जावान रूप से कुशल प्रक्रियाओं को "चयनित" किया हो, लेकिन मस्तिष्क में भौतिक निचली सीमाएँ यथार्थवादी मात्राएँ नहीं हैं। सबसे पहले, क्योंकि भौतिकी में मानी जाने वाली न्यूनतम प्रसंस्करण इकाई परमाणु/अणु है, जो मस्तिष्क के काम करने के वास्तविक तरीके से बहुत दूर है; और, दूसरी बात, क्योंकि तंत्रिका नेटवर्क में महत्वपूर्ण अतिरेक और शोर कारक शामिल होते हैं जो उनकी दक्षता को काफी कम कर देते हैं।<ref>{{cite journal |author=Narayanan, N. S. at al. |title=मोटर कॉर्टेक्स में न्यूरोनल एन्सेम्बल की अतिरेक और तालमेल|journal= J. Neurosci.|volume=25 |issue=17 |pages=4207–4216 |doi=10.1523/JNEUROSCI.4697-04.2005 |pmid=15858046 |pmc=6725112 |year=2005 }}</ref> लाफलिन एट अल<ref>{{cite journal |author=Laughlin, S. B at al. |title=तंत्रिका संबंधी जानकारी की चयापचय लागत|journal= Nat. Neurosci.|volume=1 |issue=1 |pages=36–41 |date=November 2013|doi=10.1038/236 |pmid=10195106 |s2cid=204995437 }}</ref> संवेदी सूचना के प्रसंस्करण की ऊर्जावान लागत के लिए स्पष्ट मात्रा प्रदान करने वाले पहले व्यक्ति थे। ब्लोफ़्लाईज़ में उनके निष्कर्षों से पता चला कि दृश्य संवेदी डेटा के लिए, सूचना के एक बिट को प्रसारित करने की लागत लगभग 5 × 10−14 जूल या समकक्ष 104 एटीपी अणु है। इस प्रकार, तंत्रिका प्रसंस्करण दक्षता अभी भी लैंडॉउर की kTln(2) J की सीमा से दूर है, लेकिन एक दिलचस्प तथ्य के रूप में, यह अभी भी आधुनिक कंप्यूटरों की तुलना में बहुत अधिक कुशल है।
 
2009 में, माहुलिकर और हेरविग ने थर्मोडायनामिक नेगेंट्रॉपी को उसके परिवेश के सापेक्ष गतिशील रूप से आदेशित उप-प्रणाली के विशिष्ट एन्ट्रापी घाटे के रूप में फिर से परिभाषित किया।<ref>{{cite journal |author1=Mahulikar, S.P. |author2=Herwig, H. |title=अराजकता में गतिशील क्रम अस्तित्व और विकास के लिए सटीक थर्मोडायनामिक सिद्धांत|journal=Chaos, Solitons & Fractals |volume=41 |issue=4 |pages=1939–48 |date=August 2009 |doi=10.1016/j.chaos.2008.07.051 |bibcode = 2009CSF....41.1939M }}</ref> इस परिभाषा ने नेगेंट्रॉपी सिद्धांत के निर्माण को सक्षम किया, जिसे गणितीय रूप से आदेश अस्तित्व के दौरान थर्मोडायनामिक्स के दूसरे नियम से पालन करते हुए दिखाया गया है।


==क्वांटम सिद्धांत==
==क्वांटम सिद्धांत==
{{See also|Holographic principle#Energy, matter, and information equivalence|Quantum relative entropy}}
{{See also|होलोग्राफिक सिद्धांत#ऊर्जा, पदार्थ और सूचना तुल्यता|Quantum relative entropy}}
हिर्शमैन ने दिखाया,<ref name=Hirschman>{{cite journal |last=Hirschman |first=I.I. Jr.|title=एन्ट्रापी पर एक नोट|journal=American Journal of Mathematics |volume=79 |issue=1 |pages=152–6 |date=January 1957 |jstor=2372390 |doi=10.2307/2372390}}</ref> सी एफ हिर्शमैन की अनिश्चितता, कि हाइजेनबर्ग के अनिश्चितता सिद्धांत को क्वांटम यांत्रिक स्थिति के क्वांटम अवलोकन योग्य संभाव्यता वितरण के शास्त्रीय वितरण एन्ट्रॉपियों के योग पर एक विशेष निचली सीमा के रूप में व्यक्त किया जा सकता है, तरंग-फ़ंक्शन का वर्ग, समन्वय में, और गति स्थान भी , जब प्लैंक इकाइयों में व्यक्त किया जाता है। परिणामी असमानताएं हाइजेनबर्ग के अनिश्चितता संबंधों पर एक मजबूत बंधन प्रदान करती हैं।
 
हर्शमन ने दिखाया,<ref name="Hirschman">{{cite journal |last=Hirschman |first=I.I. Jr.|title=एन्ट्रापी पर एक नोट|journal=American Journal of Mathematics |volume=79 |issue=1 |pages=152–6 |date=January 1957 |jstor=2372390 |doi=10.2307/2372390}}</ref> अर्थात्, हिर्शमन अनिश्चितता, कि हाइजेनबर्ग की अनिश्चितता सिद्धांत को क्वांटम मैकेनिकल स्थिति के क्वांटम अवलोकन संभावना वितरणों की क्लासिकल वितरण एंट्रोपी के योग के रूप में व्यक्त किया जा सकता है, क्वांटम यांत्रिक स्थिति, अर्थात्, कोआर्डिनेट में और संवेग स्थान में, जब Planck इकाइयों में व्यक्त किया जाता है। परिणामी असमीकरण हाइजेनबर्ग की अनिश्चितता संबंधों पर एक और कठिन बाधा प्रदान करते हैं।
 
"संयुक्त एन्ट्रापी" निर्दिष्ट करना सार्थक है, क्योंकि स्थिति और संवेग क्वांटम संयुग्म चर हैं और इसलिए संयुक्त रूप से अवलोकन योग्य नहीं हैं। गणितीय रूप से इन्हें संयुक्त वितरण के रूप में माना जाना चाहिए। ध्यान दें कि यह संयुक्त एन्ट्रॉपी [[वॉन न्यूमैन एन्ट्रापी]], −Tr ρ lnρ = −⟨lnρ⟩ के बराबर नहीं है। कहा जाता है कि हिर्शमैन की एन्ट्रॉपी क्वांटम अवस्थाओं के मिश्रण की संपूर्ण सूचना सामग्री के लिए जिम्मेदार होती है।<ref>{{cite journal |author1=Alexander Stotland |author2=Pomeransky |author3=Eitan Bachmat |author4=Doron Cohen |doi=10.1209/epl/i2004-10110-1 |journal=Europhysics Letters |volume=67 |title=क्वांटम यांत्रिक अवस्थाओं की सूचना एन्ट्रापी|issue=5 |pages=700–6 |year=2004 |arxiv=quant-ph/0401021|bibcode = 2004EL.....67..700S |citeseerx=10.1.1.252.8715 |s2cid=51730529 }}</ref>


संयुक्त एन्ट्रॉपी निर्दिष्ट करना सार्थक है, क्योंकि स्थिति और संवेग क्वांटम संयुग्म चर हैं और इसलिए संयुक्त रूप से देखने योग्य नहीं हैं। गणितीय रूप से, उन्हें [[संयुक्त वितरण]] के रूप में माना जाना चाहिए।
(क्वांटम जानकारी के दृष्टिकोण से वॉन न्यूमैन एन्ट्रॉपी के प्रति असंतोष स्टॉटलैंड, पोमेरांस्की, बैचमैट और कोहेन द्वारा व्यक्त किया गया है, जिन्होंने एन्ट्रापी की एक अलग परिभाषा पेश की है जो क्वांटम मैकेनिकल राज्यों की अंतर्निहित अनिश्चितता को दर्शाती है। यह परिभाषा शुद्ध अवस्थाओं की न्यूनतम अनिश्चितता एन्ट्रॉपी और मिश्रणों की अतिरिक्त सांख्यिकीय एन्ट्रॉपी के बीच अंतर की अनुमति देती है। [19])
ध्यान दें कि यह संयुक्त एन्ट्रॉपी [[वॉन न्यूमैन एन्ट्रापी]] के बराबर नहीं है, −Tr ρ lnρ = −⟨lnρ⟩।
कहा जाता है कि हिर्शमैन की एन्ट्रॉपी क्वांटम अवस्थाओं के मिश्रण की संपूर्ण सूचना सामग्री के लिए जिम्मेदार होती है।<ref>{{Cite journal | last1 = Zachos | first1 = C. K. | title = क्वांटम एन्ट्रापी पर एक शास्त्रीय बंधन| doi = 10.1088/1751-8113/40/21/F02 | journal = Journal of Physics A: Mathematical and Theoretical | volume = 40 | issue = 21 | pages = F407–F412 | year = 2007 |arxiv = hep-th/0609148 |bibcode = 2007JPhA...40..407Z | s2cid = 1619604 }}</ref>
(क्वांटम जानकारी के दृष्टिकोण से वॉन न्यूमैन एन्ट्रापी के प्रति असंतोष स्टॉटलैंड, पोमेरांस्की, बैचमैट और कोहेन द्वारा व्यक्त किया गया है, जिन्होंने एन्ट्रापी की एक अलग परिभाषा पेश की है जो क्वांटम यांत्रिक राज्यों की अंतर्निहित अनिश्चितता को दर्शाती है। यह परिभाषा बीच अंतर की अनुमति देती है। शुद्ध अवस्थाओं की न्यूनतम अनिश्चितता एन्ट्रापी, और मिश्रण की अतिरिक्त सांख्यिकीय एन्ट्रापी।<ref>{{cite journal |author1=Alexander Stotland |author2=Pomeransky |author3=Eitan Bachmat |author4=Doron Cohen |doi=10.1209/epl/i2004-10110-1 |journal=Europhysics Letters |volume=67 |title=क्वांटम यांत्रिक अवस्थाओं की सूचना एन्ट्रापी|issue=5 |pages=700–6 |year=2004 |arxiv=quant-ph/0401021|bibcode = 2004EL.....67..700S |citeseerx=10.1.1.252.8715 |s2cid=51730529 }}</ref>)


==यह भी देखें==
==यह भी देखें==
{{columns-list|colwidth=22em|
{{columns-list|colwidth=22em|
* [[Entropy|Thermodynamic entropy]]
* [[एंट्रॉपी|थर्मोडायनामिक एन्ट्रॉपी]]
* [[Information entropy]]
* [[सूचना एन्ट्रापी]]
* [[Thermodynamics]]
* [[थर्मोडायनामिक्स]]
* [[Statistical mechanics]]
* [[सांख्यिकीय यांत्रिकी]]
* [[Information theory]]
* [[सूचना सिद्धांत]]
* [[Quantum entanglement]]
* [[क्वांटम उलझाव]]
* [[Quantum decoherence]]
* [[क्वांटम डीकोहेरेंस]]
* [[Fluctuation theorem]]
* [[उतार-चढ़ाव प्रमेय]]
* [[Black hole entropy]]
* [[ब्लैक होल एन्ट्रॉपी]]
* [[Black hole information paradox]]
* [[ब्लैक होल सूचना विरोधाभास]]
* [[Entropy (information theory)]]
* [[एंट्रॉपी (सूचना सिद्धांत)]]
* [[Entropy (statistical thermodynamics)]]
* [[एंट्रॉपी (सांख्यिकीय थर्मोडायनामिक्स)]]
* [[Entropy (order and disorder)]]
* [[एन्ट्रॉपी (आदेश और अव्यवस्था)]]
* [[Orders of magnitude (entropy)]]
* [[परिमाण के क्रम (एन्ट्रॉपी)]]}}
}}


==संदर्भ==
==संदर्भ==

Revision as of 15:41, 7 December 2023

1870 के दशक में लुडविग बोल्ट्ज़मान और जे. विलार्ड गिब्स द्वारा स्थापित सांख्यिकीय थर्मोडायनामिक्स फॉर्मूलेशन में थर्मोडायनामिक एन्ट्रॉपी के लिए गणितीय अभिव्यक्तियाँ 1940 के दशक में विकसित क्लाउड शैनन और राल्फ हार्टले द्वारा विकसित सूचना एन्ट्रॉपी के समान हैं।

परिभाषित भावों के रूप की समतुल्यता

बस्ट और एन्ट्रॉपी फॉर्मूला के साथ, केंद्रीय कब्रिस्तान, वियना में बोल्ट्ज़मैन की कब्र।

1870 के दशक में लुडविग बोल्ट्ज़मैन और जे विलार्ड गिब्स द्वारा स्थापित सांख्यिकीय यांत्रिकी के सिद्धांत में एन्ट्रापी के लिए परिभाषित अभिव्यक्ति इस प्रकार है:

जहां एक संतुलन समुच्चय से ली गई माइक्रोस्टेट की संभावना है, और बोल्ट्ज़मान स्थिरांक है।

1948 में क्लॉड ई. शैनन द्वारा स्थापित सूचना सिद्धांत में एन्ट्रापी के लिए परिभाषित अभिव्यक्ति इस प्रकार है:

जहाँ संदेश स्थान M से लिए गए संदेश की प्रायिकता है, और b प्रयुक्त लघुगणक का आधार है। बी के सामान्य मान 2 हैं, यूलर की संख्या e, और 10, और एन्ट्रापी की इकाई बी = 2 के लिए शैनन (या बिट), बी = e के लिए नेट, और बी = 10 के लिए हार्टले है।[1]

गणितीय रूप से, H को संदेश अंतरिक्ष पर लिए गए औसत सूचना के रूप में भी देखा जा सकता है, क्योंकि जब किसी निश्चित संदेश की संभावना pi के साथ होती है, तो सूचना मात्रा −log(pi) (जिसे सूचना सामग्री या स्व-सूचना कहा जाता है) प्राप्त होगी।

यदि सभी माइक्रोस्थितियाँ समरूप (एक माइक्रोकैनोनिकल संघ) हैं, तो सांख्यिक तापमान अव्यवस्थात्मक और बोल्ट्जमन द्वारा दिए गए रूप में कम हो जाता है।

जहां W सूक्ष्म अवस्थाओं की संख्या है जो मैक्रोस्कोपिक थर्मोडायनामिक अवस्था से मेल खाती है। अतः S तापमान पर निर्भर करता है।

यदि सभी संदेश समसंभाव्य हैं, तो सूचना एन्ट्रापी हार्टले एन्ट्रापी में कम हो जाती है

जहां संदेश स्थान एम की कार्डिनैलिटी है।

थर्मोडायनामिक परिभाषा में लघुगणक प्राकृतिक लघुगणक है। यह दिखाया जा सकता है कि गिब्स एन्ट्रॉपी फॉर्मूला, प्राकृतिक लघुगणक के साथ, रुडोल्फ क्लॉसियस के मैक्रोस्कोपिक शास्त्रीय थर्मोडायनामिक्स के सभी गुणों को पुन: उत्पन्न करता है। (लेख देखें: एन्ट्रॉपी (सांख्यिकीय विचार))।

सूचना एन्ट्रापी के मामले में लघुगणक को प्राकृतिक आधार पर भी ले जाया जा सकता है। यह सामान्य बिट्स (या अधिक औपचारिक रूप से, शैनन) के बजाय नेट्स में जानकारी को मापने का चयन करने के बराबर है। व्यवहार में, सूचना एन्ट्रापी की गणना लगभग हमेशा बेस-2 लघुगणक का उपयोग करके की जाती है, लेकिन यह अंतर इकाइयों में बदलाव के अलावा और कुछ नहीं है। एक नेट लगभग 1.44 शैनन के बराबर होता है।

एक सरल संपीड़ित प्रणाली के लिए जो केवल आयतन कार्य कर सकती है, ऊष्मागतिकी का पहला नियम बन जाता है

लेकिन कोई भी इस समीकरण को समान रूप से अच्छी तरह से लिख सकता है जिसे भौतिक विज्ञानी और रसायनज्ञ कभी-कभी 'कम' या आयाम रहित एन्ट्रापी, σ = S/k कहते हैं, ताकि

जिस प्रकार S, T से संयुग्मित है, उसी प्रकार σ kBT से संयुग्मित है (वह ऊर्जा जो आणविक पैमाने पर T की विशेषता है)।

इस प्रकार, सांख्यिकीय यांत्रिकी में (गिब्स एन्ट्रापी सूत्र ) और क्लासिकल थर्मोडायनेमिक्स में (, और मूलभूत थर्मोडायनामिक संबंध) एंट्रोपी की परिभाषाएँ माइक्रोकैनॉनिकल संघ के लिए समरूप हैं, और ऐसे एक उर्वराशी संतुलित थर्मोडायनेमिक सिस्टम की वर्णन करने वाले सांख्यिक संघ, जैसे की कैनोनिक संघ, ग्रैंड कैनोनिक संघ, आइसोथर्मल–आइसोबेरिक संघ। इस समरूपता को सामान्यत: पुस्तकों में दिखाया जाता है। हालांकि, एंट्रोपी की थर्मोडायनेमिक परिभाषा और गिब्स एंट्रोपी के बीच इस समरूपता का सामान्य नहीं है, बल्कि यह एक सामान्यीकृत बोल्ट्जमन वितरण की विशेषता है।[2]

इसके अलावा, यह दिखाया गया है कि सांख्यिकीय यांत्रिकी में एन्ट्रापी की परिभाषा एकमात्र एन्ट्रापी है जो निम्नलिखित अभिधारणाओं के तहत शास्त्रीय थर्मोडायनामिक्स एन्ट्रापी के बराबर है:[3]

  1. संभाव्यता घनत्व फ़ंक्शन संयोजन मापदंडों और यादृच्छिक चर के कुछ फ़ंक्शन के लिए आनुपातिक है।
  2. थर्मोडायनामिक अवस्था कार्यों का वर्णन यादृच्छिक चरों के औसत औसत द्वारा किया जाता है।
  3. अनंत तापमान पर, सभी सूक्ष्म अवस्थाओं की संभावना समान होती है।

सैद्धांतिक संबंध

पूर्वगामी के बावजूद, दोनों मात्राओं के बीच अंतर है। सूचना एन्ट्रापी Η की गणना किसी भी संभाव्यता वितरण (यदि "संदेश" को यह माना जाए कि जिस घटना i की संभावना pi थी, वह संभावित घटनाओं के स्थान से बाहर घटित हुई) के लिए की जा सकती है, जबकि थर्मोडायनामिक एन्ट्रापी एस विशेष रूप से थर्मोडायनामिक संभावनाओं पाई को संदर्भित करता है। हालाँकि, यह अंतर वास्तविक से अधिक सैद्धांतिक है, क्योंकि किसी भी संभाव्यता वितरण को कुछ थर्मोडायनामिक प्रणाली द्वारा मनमाने ढंग से निकटता से अनुमानित किया जा सकता है।[citation needed]

इसके अलावा, दोनों के बीच सीधा कनेक्शन भी बनाया जा सकता है। यदि विचाराधीन संभावनाएं थर्मोडायनामिक संभावनाएं पाई हैं: (कम) गिब्स एन्ट्रॉपी σ को सिस्टम की विस्तृत सूक्ष्म स्थिति को परिभाषित करने के लिए आवश्यक शैनन जानकारी की मात्रा के रूप में देखा जा सकता है, जो इसके मैक्रोस्कोपिक विवरण को देखते हुए है। या, 1930 में रासायनिक एन्ट्रॉपी के बारे में लिखने वाले जी.एन. लुईस के शब्दों में, "एन्ट्रॉपी में लाभ का मतलब हमेशा जानकारी का नुकसान होता है, और इससे अधिक कुछ नहीं"। और विस्तार से कहें, विकल्प दो के लॉगारिदम का प्रयोग करके, असम्भावित रूप में, घटित गिब्स एंट्रोपी उस सीमा की गई सांख्यिक रूप में समान है जो यह सुनिश्चित करने के लिए कितने कम से कम हाँ-ना प्रश्नों की आवश्यकता है कि हम माक्रोस्थिति को जानते हैं कि संपूर्ण रूप स्थिति को पूरी तरह से निर्दिष्ट करने के लिए।

इसके अतिरिक्त, सांख्यिकीय यांत्रिकी के संतुलन वितरणों को ढूंढने के लिए—जैसे कि बोल्ट्जमन वितरण—जिसमें उपयुक्त बाधाओं के साथ गिब्स एन्ट्रापी को अधिकतम करने के लिए निर्देशित किया जाता है (गिब्स एल्गोरिथ्म), इसे थर्मोडायनेमिक्स के लिए अद्वितीय नहीं, बल्कि यदि इसे इच्छित है कि विशेष औसतों पर कुछ बाधाओं के साथ एक अधिकतम अनूज्ञ संभावना वितरण प्राप्त किया जाए, तो सांख्यिकीय अनुमान में सामान्य रूप से सिद्धांत के रूप में देखा जा सकता है (इन परिप्रेक्ष्यों की और भी अन्वेषण किया जाता है अधिकतम एन्ट्रापी थर्मोडायनामिक्स लेख में)।

सूचना सिद्धांत में शैनन एन्ट्रॉपी कभी-कभी प्रति प्रतीक बिट्स की इकाइयों में व्यक्त की जाती है। भौतिक एन्ट्रापी "प्रति मात्रा" के आधार पर हो सकती है (एच) जिसे सामान्य कुल एन्ट्रापी के बजाय "गहन" एन्ट्रापी कहा जाता है जिसे "व्यापक" एन्ट्रापी कहा जाता है। एक संदेश के "शैनन्स" (Η) इसकी कुल "व्यापक" सूचना एन्ट्रापी हैं और संदेश में बिट्स की संख्या से h गुना है।

एच और एस के बीच एक सीधा और भौतिक रूप से वास्तविक संबंध प्रत्येक माइक्रोस्टेट के लिए एक प्रतीक निर्दिष्ट करके पाया जा सकता है जो एक सजातीय पदार्थ के प्रति मोल, किलोग्राम, आयतन या कण में होता है, फिर इन प्रतीकों के 'एच' की गणना करता है। सिद्धांत या अवलोकन के द्वारा, प्रतीक (माइक्रोस्टेट्स) विभिन्न संभावनाओं के साथ घटित होंगे और यह एच निर्धारित करेगा। यदि इकाई पदार्थ के N मोल, किलोग्राम, आयतन या कण हैं, तो h (प्रति इकाई पदार्थ के बिट्स में) और नेट में भौतिक व्यापक एन्ट्रापी के बीच संबंध है:

जहां ln(2) शैनन एन्ट्रॉपी के आधार 2 से भौतिक एन्ट्रॉपी के प्राकृतिक आधार ई में रूपांतरण कारक है। N_h उपचय में सूचना की मात्रा है जो एक भौतिक प्रणाली की स्थिति को वर्णन करने के लिए बिट में आवश्यक है, जिसमें S एंट्रोपी है। लैंडौअर का सिद्धांत इसकी वास्तविकता को स्थापित करता है इसलिए कि यदि न्यूनतम ऊर्जा E की आवश्यकता है (और इसलिए उत्पन्न होने वाली ऊष्मा Q) एक आदर्श कुशल स्मृति परिवर्तन या तार्किक क्रिया के द्वारा, N_h बिट्स सूचना को अपरिवर्तनीय रूप से मिटाने या मर्ज करने के लिए, तो यह S गुना तापमान होगा जो की निम्नलिखित है

जहां एच सूचनात्मक बिट्स में है और ई और क्यू भौतिक जूल में हैं। इसकी प्रायोगिक तौर पर पुष्टि की गई है।[4]

तापमान एक आदर्श गैस (केल्विन = 2/3 जूल/केबी) में प्रति कण औसत गतिज ऊर्जा का एक माप है, इसलिए केबी की जे/के इकाइयां आयामहीन (जूल/जूल) होती हैं। kb एक आदर्श गैस के लिए 3/2 केल्विन में ऊर्जा से जूल तक रूपांतरण कारक है। यदि एक आदर्श गैस के प्रति कण की गतिज ऊर्जा माप को केल्विन के बजाय जूल के रूप में व्यक्त किया जाता है, तो उपरोक्त समीकरणों में kb को 3/2 से प्रतिस्थापित किया जाएगा। इससे पता चलता है कि एस माइक्रोस्टेट्स का एक सच्चा सांख्यिकीय माप है जिसमें सूचना की इकाइयों के अलावा कोई मौलिक भौतिक इकाई नहीं है, इस मामले में नेट्स, जो कि सम्मेलन द्वारा किस लघुगणक आधार को चुना गया था, इसका एक बयान है।

जानकारी भौतिक है

स्ज़ीलार्ड का इंजन

एन-एटम इंजन योजनाबद्ध

एक भौतिक विचार प्रयोग यह प्रदर्शित करता है कि सैद्धांतिक रूप से जानकारी रखने से थर्मोडायनामिक परिणाम कैसे हो सकते हैं, इसे प्रसिद्ध मैक्सवेल के दानव परिदृश्य के परिशोधन में, 1929 में लेओ स्ज़िलार्ड द्वारा स्थापित किया गया था।[5]

मैक्सवेल के सेट-अप को विचार करें, लेकिन केवल एक ही गैस कण होने के साथ एक बॉक्स में। यदि अद्भुत दैत्य जानता है कि खिड़की के कौनसे हिस्से में कण है (एकल बिट के समरूप), तो वह बॉक्स के दो हिस्सों के बीच एक शटर बंद कर सकता है, खाली हिस्से में एक पिस्टन को विरोधित किए बिना बंद कर सकता है, और फिर अगर शटर फिर से खोला जाता है तो जूल उपयोगी काम निकाल सकता है। फिर कण को इसोथर्मल रूप से उसके मूल संतुलित आवृत्ति वाले आदान-प्रदान में विस्तारित किया जा सकता है। इसलिए, बिलकुल सही परिस्थितियों में, एक शैनन सूचना के एकल बिट के पूर्णता में कमी (ब्रिल्यां के शब्दों में एकल नैगेंट्रोपी का एकल बिट) वास्तविक रूप से भौतिक प्रणाली की एंट्रोपी में कमी के समर्थन करती है। सामग्रिक एंट्रोपी कम नहीं होती है, लेकिन सूचना से मुक्त ऊर्जा परिवर्तन संभव है।

इस विचार प्रयोग को एक कंप्यूटर से जुड़े उच्च गति वाले कैमरे से सुसज्जित चरण-कंट्रास्ट माइक्रोस्कोप का उपयोग करके, राक्षस के रूप में कार्य करते हुए, भौतिक रूप से प्रदर्शित किया गया है।[6] इस प्रयोग में, फीडबैक नियंत्रण के माध्यम से ब्राउनियन कण पर ऊर्जा रूपांतरण की जानकारी दी जाती है; यानी कण को दिए गए कार्य को उसकी स्थिति पर प्राप्त जानकारी के साथ सिंक्रनाइज़ करना। विभिन्न फीडबैक प्रोटोकॉल के लिए ऊर्जा संतुलन की गणना ने पुष्टि की है कि जारज़िनस्की समानता के लिए एक सामान्यीकरण की आवश्यकता होती है जो फीडबैक में शामिल जानकारी की मात्रा का हिसाब रखती है।

लैंडौएर का सिद्धांत

वास्तव में कोई भी सामान्यीकरण कर सकता है: कोई भी जानकारी जिसका भौतिक प्रतिनिधित्व है, उसे किसी न किसी तरह भौतिक प्रणाली की स्वतंत्रता की सांख्यिकीय यांत्रिक डिग्री में एम्बेड किया जाना चाहिए।

इस प्रकार, रॉल्फ लैंडौएर ने 1961 में तर्क किया, अगर कोई यह कल्पना करे कि उन दर्जों को एक थर्मलाइज्ड स्थिति से शुरू करते हैं, तो अगर उन्हें फिर से एक ज्ञात स्थिति में रीसेट किया जाए, तो वहां एक वास्तविक थर्मोडायनेमिक एंट्रोपी की कमी होगी। यह केवल सूचना-संरक्षण माइक्रोस्कोपिक निर्दिष्ट गतिकी तत्वों के तहत ही संभव हो सकता है यदि अनिश्चितता को किसी अन्य स्थान पर किसी भी रूप में छोड़ दिया जाए - यानी यदि पर्यावरण की एन्ट्रापी (या स्वतंत्रता की गैर-सूचना-असर वाली डिग्री) कम से कम एक समतुल्य मात्रा में बढ़ जाती है, जैसा कि आवश्यक है दूसरे नियम के अनुसार, उचित मात्रा में ऊष्मा प्राप्त करके: विशेष रूप से यादृच्छिकता के प्रत्येक 1 बिट के लिए kT ln 2 ऊष्मा मिटा दी जाती है।

दूसरी ओर, लैंडौएर ने तर्क दिया, सिस्टम में भौतिक रूप से प्रतिवर्ती तरीके से संभावित रूप से प्राप्त किए जा रहे तार्किक रूप से प्रतिवर्ती ऑपरेशन पर कोई थर्मोडायनामिक आपत्ति नहीं है। यह केवल तार्किक रूप से अपरिवर्तनीय संचालन है - उदाहरण के लिए, किसी ज्ञात स्थिति में एक बिट को मिटाना, या दो गणना पथों का विलय - जो एक संबंधित एन्ट्रापी वृद्धि के साथ होना चाहिए। जब सूचना भौतिक होती है, तो इसके अभ्यावेदन की सभी प्रोसेसिंग, यानी पीढ़ी, एन्कोडिंग, ट्रांसमिशन, डिकोडिंग और व्याख्या, प्राकृतिक प्रक्रियाएं होती हैं जहां मुक्त ऊर्जा की खपत से एन्ट्रापी बढ़ती है।[7]

मैक्सवेल के दानव/स्ज़ीलार्ड इंजन परिदृश्य पर लागू होने पर, यह पता चलता है कि बिना एन्ट्रापी लागत के कण की स्थिति को कंप्यूटिंग उपकरण में "पढ़ना" संभव हो सकता है; लेकिन केवल तभी जब उपकरण को अनिश्चितता की तापीय अवस्था में होने के बजाय पहले से ही ज्ञात स्थिति में सेट किया गया हो। उपकरण को इस स्थिति में सेट (या रीसेट) करने के लिए सारी एन्ट्रापी खर्च होगी जिसे स्ज़ीलार्ड के कण की स्थिति जानकर बचाया जा सकता है।

2008 और 2009 में, शोधकर्ताओं ने दिखाया कि लैंडौएर का सिद्धांत थर्मोडायनामिक्स के दूसरे नियम और सूचना लाभ से जुड़े एन्ट्रापी परिवर्तन, क्वांटम और शास्त्रीय प्रतिक्रिया-नियंत्रित प्रणालियों के थर्मोडायनामिक्स को विकसित करने से प्राप्त किया जा सकता है।

नेगेंट्रॉपी

शैनन एन्ट्रॉपी को भौतिक विज्ञानी लियोन ब्रिलॉइन ने एक अवधारणा से संबंधित किया है जिसे कभी-कभी नेगेंट्रॉपी कहा जाता है। 1953 में, ब्रिलौइन ने एक सामान्य समीकरण निकाला[10] जिसमें कहा गया था कि सूचना बिट मान को बदलने के लिए कम से कम kT ln(2) ऊर्जा की आवश्यकता होती है। यह वही ऊर्जा है जो लियो स्ज़ीलार्ड का इंजन आदर्शवादी मामले में उत्पन्न करता है, जो बदले में लैंडौएर द्वारा पाई गई समान मात्रा के बराबर होती है। उनकी किताब में,[8] उन्होंने इस समस्या को और भी गहराई से अन्वेषित किया और निष्कर्ष किया कि बिट मूल्य परिवर्तन के किसी भी कारण (मापन, हाँ/ना के सवाल पर निर्णय, मिटाना, प्रदर्शन, आदि) के लिए एक ही मात्रा, kT ln(2), ऊर्जा की आवश्यकता होगी। परिणामस्वरूप, किसी सिस्टम के माइक्रोस्टेट्स के बारे में जानकारी प्राप्त करना एक एन्ट्रापी उत्पादन से जुड़ा होता है, जबकि मिटाने से एन्ट्रॉपी उत्पादन तभी होता है जब बिट मान बदल रहा हो। किसी उप-प्रणाली में मूल रूप से थर्मल संतुलन में थोड़ी सी जानकारी स्थापित करने से स्थानीय एन्ट्रापी में कमी आती है। हालाँकि, ब्रिलोइन के अनुसार, थर्मोडायनामिक्स के दूसरे नियम का कोई उल्लंघन नहीं है, क्योंकि किसी भी स्थानीय प्रणाली की थर्मोडायनामिक एन्ट्रापी में कमी के परिणामस्वरूप अन्यत्र थर्मोडायनामिक एन्ट्रापी में वृद्धि होती है। इस प्रकार ब्रिलोइन ने नेगेंट्रॉपी का अर्थ स्पष्ट किया जिसे विवादास्पद माना गया क्योंकि इसकी पूर्व समझ से कार्नोट की दक्षता एक से अधिक हो सकती है। इसके अतिरिक्त, ब्रिलोइन द्वारा तैयार की गई ऊर्जा और जानकारी के बीच संबंध को मस्तिष्क द्वारा संसाधित की जाने वाली बिट्स की मात्रा और इसके द्वारा उपभोग की जाने वाली ऊर्जा के बीच संबंध के रूप में प्रस्तावित किया गया है: कोलेल और फॉक्वेट[9] ने तर्क दिया कि डी कास्त्रो[10] ने विश्लेषणात्मक रूप से मस्तिष्क गणना के लिए थर्मोडायनामिक निचली सीमा के रूप में लैंडौअर सीमा को पाया। हालाँकि, भले ही विकासवाद ने सबसे ऊर्जावान रूप से कुशल प्रक्रियाओं को "चयनित" किया हो, लेकिन मस्तिष्क में भौतिक निचली सीमाएँ यथार्थवादी मात्राएँ नहीं हैं। सबसे पहले, क्योंकि भौतिकी में मानी जाने वाली न्यूनतम प्रसंस्करण इकाई परमाणु/अणु है, जो मस्तिष्क के काम करने के वास्तविक तरीके से बहुत दूर है; और, दूसरी बात, क्योंकि तंत्रिका नेटवर्क में महत्वपूर्ण अतिरेक और शोर कारक शामिल होते हैं जो उनकी दक्षता को काफी कम कर देते हैं।[11] लाफलिन एट अल[12] संवेदी सूचना के प्रसंस्करण की ऊर्जावान लागत के लिए स्पष्ट मात्रा प्रदान करने वाले पहले व्यक्ति थे। ब्लोफ़्लाईज़ में उनके निष्कर्षों से पता चला कि दृश्य संवेदी डेटा के लिए, सूचना के एक बिट को प्रसारित करने की लागत लगभग 5 × 10−14 जूल या समकक्ष 104 एटीपी अणु है। इस प्रकार, तंत्रिका प्रसंस्करण दक्षता अभी भी लैंडॉउर की kTln(2) J की सीमा से दूर है, लेकिन एक दिलचस्प तथ्य के रूप में, यह अभी भी आधुनिक कंप्यूटरों की तुलना में बहुत अधिक कुशल है।

2009 में, माहुलिकर और हेरविग ने थर्मोडायनामिक नेगेंट्रॉपी को उसके परिवेश के सापेक्ष गतिशील रूप से आदेशित उप-प्रणाली के विशिष्ट एन्ट्रापी घाटे के रूप में फिर से परिभाषित किया।[13] इस परिभाषा ने नेगेंट्रॉपी सिद्धांत के निर्माण को सक्षम किया, जिसे गणितीय रूप से आदेश अस्तित्व के दौरान थर्मोडायनामिक्स के दूसरे नियम से पालन करते हुए दिखाया गया है।

क्वांटम सिद्धांत

हर्शमन ने दिखाया,[14] अर्थात्, हिर्शमन अनिश्चितता, कि हाइजेनबर्ग की अनिश्चितता सिद्धांत को क्वांटम मैकेनिकल स्थिति के क्वांटम अवलोकन संभावना वितरणों की क्लासिकल वितरण एंट्रोपी के योग के रूप में व्यक्त किया जा सकता है, क्वांटम यांत्रिक स्थिति, अर्थात्, कोआर्डिनेट में और संवेग स्थान में, जब Planck इकाइयों में व्यक्त किया जाता है। परिणामी असमीकरण हाइजेनबर्ग की अनिश्चितता संबंधों पर एक और कठिन बाधा प्रदान करते हैं।

"संयुक्त एन्ट्रापी" निर्दिष्ट करना सार्थक है, क्योंकि स्थिति और संवेग क्वांटम संयुग्म चर हैं और इसलिए संयुक्त रूप से अवलोकन योग्य नहीं हैं। गणितीय रूप से इन्हें संयुक्त वितरण के रूप में माना जाना चाहिए। ध्यान दें कि यह संयुक्त एन्ट्रॉपी वॉन न्यूमैन एन्ट्रापी, −Tr ρ lnρ = −⟨lnρ⟩ के बराबर नहीं है। कहा जाता है कि हिर्शमैन की एन्ट्रॉपी क्वांटम अवस्थाओं के मिश्रण की संपूर्ण सूचना सामग्री के लिए जिम्मेदार होती है।[15]

(क्वांटम जानकारी के दृष्टिकोण से वॉन न्यूमैन एन्ट्रॉपी के प्रति असंतोष स्टॉटलैंड, पोमेरांस्की, बैचमैट और कोहेन द्वारा व्यक्त किया गया है, जिन्होंने एन्ट्रापी की एक अलग परिभाषा पेश की है जो क्वांटम मैकेनिकल राज्यों की अंतर्निहित अनिश्चितता को दर्शाती है। यह परिभाषा शुद्ध अवस्थाओं की न्यूनतम अनिश्चितता एन्ट्रॉपी और मिश्रणों की अतिरिक्त सांख्यिकीय एन्ट्रॉपी के बीच अंतर की अनुमति देती है। [19])

यह भी देखें

संदर्भ

  1. Schneider, T.D, Information theory primer with an appendix on logarithms, National Cancer Institute, 14 April 2007.
  2. Gao, Xiang; Gallicchio, Emilio; Roitberg, Adrian (2019). "सामान्यीकृत बोल्ट्ज़मान वितरण एकमात्र वितरण है जिसमें गिब्स-शैनन एन्ट्रॉपी थर्मोडायनामिक एन्ट्रॉपी के बराबर होती है". The Journal of Chemical Physics. 151 (3): 034113. arXiv:1903.02121. Bibcode:2019JChPh.151c4113G. doi:10.1063/1.5111333. PMID 31325924. S2CID 118981017.
  3. Gao, Xiang (March 2022). "एन्सेम्बल थ्योरी का गणित". Results in Physics. 34: 105230. Bibcode:2022ResPh..3405230G. doi:10.1016/j.rinp.2022.105230. S2CID 221978379.
  4. Antoine Bérut; Artak Arakelyan; Artyom Petrosyan; Sergio Ciliberto; Raoul Dillenschneider; Eric Lutz (8 March 2012), "Experimental verification of Landauer's principle linking information and thermodynamics" (PDF), Nature, 483 (7388): 187–190, Bibcode:2012Natur.483..187B, doi:10.1038/nature10872, PMID 22398556, S2CID 9415026
  5. Szilard, Leo (1929). "Über die Entropieverminderung in einem thermodynamischen System bei Eingriffen intelligenter Wesen". Zeitschrift für Physik (in Deutsch). 53 (11–12): 840–856. Bibcode:1929ZPhy...53..840S. doi:10.1007/BF01341281. ISSN 0044-3328. S2CID 122038206. Available on-line in English at Aurellen.org.
  6. Shoichi Toyabe; Takahiro Sagawa; Masahito Ueda; Eiro Muneyuki; Masaki Sano (2010-09-29). "Information heat engine: converting information to energy by feedback control". Nature Physics. 6 (12): 988–992. arXiv:1009.5287. Bibcode:2010NatPh...6..988T. doi:10.1038/nphys1821. S2CID 118444713. We demonstrated that free energy is obtained by a feedback control using the information about the system; information is converted to free energy, as the first realization of Szilard-type Maxwell's demon.
  7. Karnani, M.; Pääkkönen, K.; Annila, A. (2009). "The physical character of information". Proc. R. Soc. A. 465 (2107): 2155–75. Bibcode:2009RSPSA.465.2155K. doi:10.1098/rspa.2009.0063.
  8. Leon Brillouin, Science and Information theory, Dover, 1956
  9. Collell, G; Fauquet, J. (June 2015). "Brain activity and cognition: a connection from thermodynamics and information theory". Frontiers in Psychology. 6 (4): 818. doi:10.3389/fpsyg.2015.00818. PMC 4468356. PMID 26136709.
  10. De Castro, A. (November 2013). "फास्ट थॉट की थर्मोडायनामिक लागत". Minds and Machines. 23 (4): 473–487. arXiv:1201.5841. doi:10.1007/s11023-013-9302-x. S2CID 11180644.
  11. Narayanan, N. S. at al. (2005). "मोटर कॉर्टेक्स में न्यूरोनल एन्सेम्बल की अतिरेक और तालमेल". J. Neurosci. 25 (17): 4207–4216. doi:10.1523/JNEUROSCI.4697-04.2005. PMC 6725112. PMID 15858046.
  12. Laughlin, S. B at al. (November 2013). "तंत्रिका संबंधी जानकारी की चयापचय लागत". Nat. Neurosci. 1 (1): 36–41. doi:10.1038/236. PMID 10195106. S2CID 204995437.
  13. Mahulikar, S.P.; Herwig, H. (August 2009). "अराजकता में गतिशील क्रम अस्तित्व और विकास के लिए सटीक थर्मोडायनामिक सिद्धांत". Chaos, Solitons & Fractals. 41 (4): 1939–48. Bibcode:2009CSF....41.1939M. doi:10.1016/j.chaos.2008.07.051.
  14. Hirschman, I.I. Jr. (January 1957). "एन्ट्रापी पर एक नोट". American Journal of Mathematics. 79 (1): 152–6. doi:10.2307/2372390. JSTOR 2372390.
  15. Alexander Stotland; Pomeransky; Eitan Bachmat; Doron Cohen (2004). "क्वांटम यांत्रिक अवस्थाओं की सूचना एन्ट्रापी". Europhysics Letters. 67 (5): 700–6. arXiv:quant-ph/0401021. Bibcode:2004EL.....67..700S. CiteSeerX 10.1.1.252.8715. doi:10.1209/epl/i2004-10110-1. S2CID 51730529.


अग्रिम पठन


बाहरी संबंध