Difference between revisions of "नाँलेज ग्राफ एम्बेडिंग"

From alpha
Jump to navigation Jump to search
Line 1: Line 1:
{{Short description|Dimensionality reduction of graph-based semantic data objects [machine learning task]}}
{{Short description|Dimensionality reduction of graph-based semantic data objects [machine learning task]}}
[[File:KnowledgeGraphEmbedding.png|thumb|नाँलेज ग्राफ का एम्बेडिंग। एम्बेडिंग और संबंधों के सदिश प्रतिनिधित्व का उपयोग विभिन्न मशीन सीखने के अनुप्रयोगों के लिए किया जा सकता है।]]प्रतिनिधित्व शिक्षण में, '''नाँलेज ग्राफ एम्बेडिंग''' '''(KGE)''', जिसे नाँलेज प्रतिनिधित्व शिक्षण (KRL), या बहु-संबंध शिक्षण भी कहा जाता है,<ref name=":0">{{Cite journal|last1=Ji|first1=Shaoxiong|last2=Pan|first2=Shirui|last3=Cambria|first3=Erik|last4=Marttinen|first4=Pekka|last5=Yu|first5=Philip S.|date=2021|title=A Survey on Knowledge Graphs: Representation, Acquisition, and Applications|url=https://ieeexplore.ieee.org/document/9416312|journal=IEEE Transactions on Neural Networks and Learning Systems|volume=PP|issue=2 |pages=494–514|doi=10.1109/TNNLS.2021.3070843|pmid=33900922|arxiv=2002.00388|hdl=10072/416709 |s2cid=211010433|issn=2162-237X}}</ref> [[ज्ञान ग्राफ|नाँलेज ग्राफ]] की एम्बेडिंग और संबंधों के अर्थपूर्ण अर्थ को संरक्षित करते हुए उनके निम्न-आयामी प्रतिनिधित्व को सीखने का एक मशीन सीखने का क्रिया है।<ref name=":0" /><ref>{{Cite journal|last1=Mohamed|first1=Sameh K|last2=Nováček|first2=Vít|last3=Nounu|first3=Aayah|date=2019-08-01|editor-last=Cowen|editor-first=Lenore|title=नॉलेज ग्राफ एंबेडिंग का उपयोग करके प्रोटीन औषधि लक्ष्य की खोज करना|url=https://academic.oup.com/bioinformatics/advance-article/doi/10.1093/bioinformatics/btz600/5542390|journal=Bioinformatics|volume=36|issue=2|language=en|pages=603–610|doi=10.1093/bioinformatics/btz600|pmid=31368482|issn=1367-4803|hdl=10379/15375|hdl-access=free}}</ref><ref name=":2">{{cite arXiv|last1=Lin|first1=Yankai|last2=Han|first2=Xu|last3=Xie|first3=Ruobing|last4=Liu|first4=Zhiyuan|last5=Sun|first5=Maosong|date=2018-12-28|title=Knowledge Representation Learning: A Quantitative Review|class=cs.CL|eprint=1812.10901}}</ref> उनके [[एम्बेडिंग]] प्रतिनिधित्व का लाभ उठाते हुए, नाँलेज ग्राफ़ (केजी) का उपयोग [[लिंक भविष्यवाणी]], ट्रिपल वर्गीकरण, [[इकाई मान्यता]], [[क्लस्टर विश्लेषण]] और [[संबंध निष्कर्षण]] जैसे विभिन्न अनुप्रयोगों के लिए किया जा सकता है।<ref name=":0" /><ref name=":32">{{Cite journal|last1=Abu-Salih|first1=Bilal|last2=Al-Tawil|first2=Marwan|last3=Aljarah|first3=Ibrahim|last4=Faris|first4=Hossam|last5=Wongthongtham|first5=Pornpit|last6=Chan|first6=Kit Yan|last7=Beheshti|first7=Amin|date=2021-05-12|title=नॉलेज ग्राफ एंबेडिंग का उपयोग करके सामाजिक राजनीति का संबंधपरक शिक्षण विश्लेषण|url=https://doi.org/10.1007/s10618-021-00760-w|journal=Data Mining and Knowledge Discovery|volume=35|issue=4|pages=1497–1536|language=en|doi=10.1007/s10618-021-00760-w|arxiv=2006.01626|s2cid=219179556|issn=1573-756X}}</ref>
[[File:KnowledgeGraphEmbedding.png|thumb|नाँलेज ग्राफ का एम्बेडिंग। एम्बेडिंग और संबंधों के सदिश प्रतिनिधित्व का उपयोग विभिन्न मशीन सीखने के अनुप्रयोगों के लिए किया जा सकता है।]]प्रतिनिधित्व शिक्षण में, '''नाँलेज ग्राफ एम्बेडिंग''' '''(KGE)''', जिसे नाँलेज प्रतिनिधित्व शिक्षण (KRL), या बहु-संबंध शिक्षण भी कहा जाता है,<ref name=":0">{{Cite journal|last1=Ji|first1=Shaoxiong|last2=Pan|first2=Shirui|last3=Cambria|first3=Erik|last4=Marttinen|first4=Pekka|last5=Yu|first5=Philip S.|date=2021|title=A Survey on Knowledge Graphs: Representation, Acquisition, and Applications|url=https://ieeexplore.ieee.org/document/9416312|journal=IEEE Transactions on Neural Networks and Learning Systems|volume=PP|issue=2 |pages=494–514|doi=10.1109/TNNLS.2021.3070843|pmid=33900922|arxiv=2002.00388|hdl=10072/416709 |s2cid=211010433|issn=2162-237X}}</ref> [[ज्ञान ग्राफ|नाँलेज ग्राफ]] की एम्बेडिंग और संबंधों के अर्थपूर्ण अर्थ को संरक्षित करते हुए उनके निम्न-आयामी प्रतिनिधित्व को सीखने का एक मशीन सीखने का क्रिया है।<ref name=":0" /><ref>{{Cite journal|last1=Mohamed|first1=Sameh K|last2=Nováček|first2=Vít|last3=Nounu|first3=Aayah|date=2019-08-01|editor-last=Cowen|editor-first=Lenore|title=नॉलेज ग्राफ एंबेडिंग का उपयोग करके प्रोटीन औषधि लक्ष्य की खोज करना|url=https://academic.oup.com/bioinformatics/advance-article/doi/10.1093/bioinformatics/btz600/5542390|journal=Bioinformatics|volume=36|issue=2|language=en|pages=603–610|doi=10.1093/bioinformatics/btz600|pmid=31368482|issn=1367-4803|hdl=10379/15375|hdl-access=free}}</ref><ref name=":2">{{cite arXiv|last1=Lin|first1=Yankai|last2=Han|first2=Xu|last3=Xie|first3=Ruobing|last4=Liu|first4=Zhiyuan|last5=Sun|first5=Maosong|date=2018-12-28|title=Knowledge Representation Learning: A Quantitative Review|class=cs.CL|eprint=1812.10901}}</ref> उनके [[एम्बेडिंग]] प्रतिनिधित्व का लाभ उठाते हुए, नाँलेज ग्राफ़ (केजी) का उपयोग [[लिंक भविष्यवाणी]], ट्रिपल वर्गीकरण, [[इकाई मान्यता]], [[क्लस्टर विश्लेषण]] और [[संबंध निष्कर्षण]] जैसे विभिन्न अनुप्रयोगों के लिए किया जा सकता है।<ref name=":0" /><ref name=":32">{{Cite journal|last1=Abu-Salih|first1=Bilal|last2=Al-Tawil|first2=Marwan|last3=Aljarah|first3=Ibrahim|last4=Faris|first4=Hossam|last5=Wongthongtham|first5=Pornpit|last6=Chan|first6=Kit Yan|last7=Beheshti|first7=Amin|date=2021-05-12|title=नॉलेज ग्राफ एंबेडिंग का उपयोग करके सामाजिक राजनीति का संबंधपरक शिक्षण विश्लेषण|url=https://doi.org/10.1007/s10618-021-00760-w|journal=Data Mining and Knowledge Discovery|volume=35|issue=4|pages=1497–1536|language=en|doi=10.1007/s10618-021-00760-w|arxiv=2006.01626|s2cid=219179556|issn=1573-756X}}</ref>
== परिभाषा ==
== परिभाषा ==
एक नाँलेज ग्राफ <math>\mathcal{G} = \{E, R, F\}</math> इकाई <math>E
एक नाँलेज ग्राफ <math>\mathcal{G} = \{E, R, F\}</math> इकाई <math>E
Line 10: Line 10:


# प्रतिनिधित्व समष्टि: निम्न-आयामी समष्टि जिसमें एम्बेडिंग और संबंधों का प्रतिनिधित्व किया जाता है।<ref name=":0" />
# प्रतिनिधित्व समष्टि: निम्न-आयामी समष्टि जिसमें एम्बेडिंग और संबंधों का प्रतिनिधित्व किया जाता है।<ref name=":0" />
#स्कोरिंग फ़ंक्शन: ट्रिपल एम्बेडेड प्रतिनिधित्व की स्पष्टता का उपाय।<ref name=":0" />
#स्कोरिंग फलन: ट्रिपल एम्बेडेड प्रतिनिधित्व की स्पष्टता का उपाय।<ref name=":0" />
#एन्कोडिंग मॉडल: वह पद्धति जिसमें एम्बेडिंग और संबंधों का एम्बेडेड प्रतिनिधित्व दूसरे के साथ परस्पर क्रिया करता है।<ref name=":0" />
#एन्कोडिंग मॉडल: वह पद्धति जिसमें एम्बेडिंग और संबंधों का एम्बेडेड प्रतिनिधित्व दूसरे के साथ परस्पर क्रिया करता है।<ref name=":0" />
#अतिरिक्त सूचना: नाँलेज ग्राफ से आने वाली कोई भी अतिरिक्त सूचना जो एम्बेडेड प्रतिनिधित्व को समृद्ध कर सकती है।<ref name=":0" /> सामान्यतः, प्रत्येक अतिरिक्त सूचना के लिए तदर्थ स्कोरिंग फ़ंक्शन को सामान्य स्कोरिंग फ़ंक्शन में एकीकृत किया जाता है।<ref name=":1" /><ref name=":0" /><ref>{{Cite book|last1=Guo|first1=Shu|last2=Wang|first2=Quan|last3=Wang|first3=Bin|last4=Wang|first4=Lihong|last5=Guo|first5=Li|title=Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers) |chapter=Semantically Smooth Knowledge Graph Embedding |date=2015|chapter-url=http://aclweb.org/anthology/P15-1009 |language=en |publisher=Association for Computational Linguistics|pages=84–94|doi=10.3115/v1/P15-1009|s2cid=205692|doi-access=free}}</ref>
#अतिरिक्त सूचना: नाँलेज ग्राफ से आने वाली कोई भी अतिरिक्त सूचना जो एम्बेडेड प्रतिनिधित्व को समृद्ध कर सकती है।<ref name=":0" /> सामान्यतः, प्रत्येक अतिरिक्त सूचना के लिए तदर्थ स्कोरिंग फलन को सामान्य स्कोरिंग फलन में पूर्ण रूप से एकीकृत किया जाता है।<ref name=":1" /><ref name=":0" /><ref>{{Cite book|last1=Guo|first1=Shu|last2=Wang|first2=Quan|last3=Wang|first3=Bin|last4=Wang|first4=Lihong|last5=Guo|first5=Li|title=Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers) |chapter=Semantically Smooth Knowledge Graph Embedding |date=2015|chapter-url=http://aclweb.org/anthology/P15-1009 |language=en |publisher=Association for Computational Linguistics|pages=84–94|doi=10.3115/v1/P15-1009|s2cid=205692|doi-access=free}}</ref>
=== एंबेडिंग प्रक्रिया ===
=== एंबेडिंग प्रक्रिया ===
सभी अलग-अलग नाँलेज ग्राफ एम्बेडिंग मॉडल तथ्यों के अर्थपूर्ण अर्थ को जानने के लिए लगभग एक ही प्रक्रिया का पालन करते हैं।<ref name=":3" /> सबसे पहले, नाँलेज ग्राफ के एम्बेडेड प्रतिनिधित्व को सीखने के लिए, एम्बेडिंग और संबंधों के एम्बेडिंग सदिश को यादृच्छिक मानों के लिए प्रारंभ किया जाता है।<ref name=":3" /> फिर, [[प्रशिक्षण सेट]] से प्रारंभ करके स्टॉप स्थिति तक पहुंचने तक, एल्गोरिदम निरंतर एम्बेडिंग को अनुकूलित करता है।<ref name=":3" /> सामान्यतः, स्टॉप की स्थिति प्रशिक्षण सेट पर [[ओवरफिटिंग]] द्वारा दी जाती है।<ref name=":3" /> प्रत्येक पुनरावृत्ति के लिए, प्रशिक्षण सेट से आकार <math>b</math> के एक बैच का नमूना लिया जाता है, और बैच के प्रत्येक ट्रिपल के लिए एक यादृच्छिक भ्रष्ट तथ्य का नमूना लिया जाता है{{emdash}}अर्थात, ट्रिपल जो नाँलेज ग्राफ में उचित तथ्य का प्रतिनिधित्व नहीं करता है।<ref name=":3" /> ट्रिपल के भ्रष्टाचार में ट्रिपल के शीर्ष या पूंछ (या दोनों) को किसी अन्य इकाई के साथ प्रतिस्थापित करना सम्मिलित है जो तथ्य को अनुचित बनाता है।<ref name=":3" /> इस प्रकार से मूल ट्रिपल और दूषित ट्रिपल को प्रशिक्षण बैच में जोड़ा जाता है, और फिर स्कोरिंग फ़ंक्शन को अनुकूलित करते हुए एम्बेडिंग को अपडेट किया जाता है।<ref name=":1" /><ref name=":3" /> एल्गोरिदम के अंत में, सीखे गए एम्बेडिंग को ट्रिपल से अर्थपूर्ण अर्थ निकालना चाहिए और नाँलेज ग्राफ में अनदेखे उचित तथ्यों की उचित भविष्यवाणी करनी चाहिए।<ref name=":1" />
सभी अलग-अलग नाँलेज ग्राफ एम्बेडिंग मॉडल तथ्यों के अर्थपूर्ण अर्थ को जानने के लिए लगभग एक ही प्रक्रिया का पालन करते हैं।<ref name=":3" /> सबसे पहले, नाँलेज ग्राफ के एम्बेडेड प्रतिनिधित्व को सीखने के लिए, एम्बेडिंग और संबंधों के एम्बेडिंग सदिश को यादृच्छिक मानों के लिए प्रारंभ किया जाता है।<ref name=":3" /> फिर, [[प्रशिक्षण सेट]] से प्रारंभ करके स्टॉप स्थिति तक पहुंचने तक, एल्गोरिदम निरंतर एम्बेडिंग को अनुकूलित करता है।<ref name=":3" /> सामान्यतः, स्टॉप की स्थिति प्रशिक्षण सेट पर [[ओवरफिटिंग]] द्वारा दी जाती है।<ref name=":3" /> प्रत्येक पुनरावृत्ति के लिए, प्रशिक्षण सेट से आकार <math>b</math> के एक बैच का नमूना लिया जाता है, और बैच के प्रत्येक ट्रिपल के लिए एक यादृच्छिक भ्रष्ट तथ्य का नमूना लिया जाता है{{emdash}}अर्थात, ट्रिपल जो नाँलेज ग्राफ में उचित तथ्य का प्रतिनिधित्व नहीं करता है।<ref name=":3" /> ट्रिपल के भ्रष्टाचार में ट्रिपल के शीर्ष या पूंछ (या दोनों) को किसी अन्य इकाई के साथ प्रतिस्थापित करना सम्मिलित है जो तथ्य को अनुचित बनाता है।<ref name=":3" /> इस प्रकार से मूल ट्रिपल और दूषित ट्रिपल को प्रशिक्षण बैच में जोड़ा जाता है, और फिर स्कोरिंग फलन को अनुकूलित करते हुए एम्बेडिंग को अपडेट किया जाता है।<ref name=":1" /><ref name=":3" /> एल्गोरिदम के अंत में, सीखे गए एम्बेडिंग को ट्रिपल से अर्थपूर्ण अर्थ निकालना चाहिए और नाँलेज ग्राफ में अनदेखे उचित तथ्यों की उचित भविष्यवाणी करनी चाहिए।<ref name=":1" />
==== स्यूडोकोड ====
==== स्यूडोकोड ====
इस प्रकार से सामान्य एम्बेडिंग प्रक्रिया के लिए छद्मकोड निम्नलिखित है।<ref name=":9" /><ref name=":3" />
इस प्रकार से सामान्य एम्बेडिंग प्रक्रिया के लिए छद्मकोड निम्नलिखित है।<ref name=":9" /><ref name=":3" />
Line 37: Line 37:


=== परफॉरमेंस संकेतक ===
=== परफॉरमेंस संकेतक ===
इन सूचकांकों का उपयोग प्रायः किसी मॉडल की एम्बेडिंग गुणवत्ता को मापने के लिए किया जाता है। सूचकांकों की सरलता उन्हें बड़े पैमाने पर भी एम्बेडिंग एल्गोरिदम के परफॉरमेंस का मूल्यांकन करने के लिए बहुत उपयुक्त बनाती है।<ref name=":31">{{Cite journal|last1=Chen|first1=Zhe|last2=Wang|first2=Yuehan|last3=Zhao|first3=Bin|last4=Cheng|first4=Jing|last5=Zhao|first5=Xin|last6=Duan|first6=Zongtao|date=2020|title=Knowledge Graph Completion: A Review|journal=IEEE Access|volume=8|pages=192435–192456|doi=10.1109/ACCESS.2020.3030076|s2cid=226230006|issn=2169-3536|doi-access=free}}</ref> इस प्रकार से किसी मॉडल की सभी पद की गई भविष्यवाणियों के सेट के रूप में <chem>Q</chem> को देखते हुए, तीन अलग-अलग परफॉरमेंस सूचकांकों को परिभाषित करना संभव है: Hits@K, MR, और MRR।<ref name=":31" />
अतः इन सूचकांकों का उपयोग प्रायः किसी मॉडल की एम्बेडिंग गुणवत्ता को मापने के लिए किया जाता है। सूचकांकों की सरलता उन्हें बड़े पैमाने पर भी एम्बेडिंग एल्गोरिदम के परफॉरमेंस का मूल्यांकन करने के लिए बहुत उपयुक्त बनाती है।<ref name=":31">{{Cite journal|last1=Chen|first1=Zhe|last2=Wang|first2=Yuehan|last3=Zhao|first3=Bin|last4=Cheng|first4=Jing|last5=Zhao|first5=Xin|last6=Duan|first6=Zongtao|date=2020|title=Knowledge Graph Completion: A Review|journal=IEEE Access|volume=8|pages=192435–192456|doi=10.1109/ACCESS.2020.3030076|s2cid=226230006|issn=2169-3536|doi-access=free}}</ref> इस प्रकार से किसी मॉडल की सभी पद की गई भविष्यवाणियों के सेट के रूप में <chem>Q</chem> को देखते हुए, तीन अलग-अलग परफॉरमेंस सूचकांकों को परिभाषित करना संभव है: Hits@K, MR, और MRR।<ref name=":31" />
==== Hits@K ====
==== Hits@K ====
Hits@K या संक्षेप में, H@K, परफॉरमेंस सूचकांक है जो पहले शीर्ष के मॉडल भविष्यवाणियों में उचित भविष्यवाणी खोजने की संभावना को मापता है।<ref name=":31" /> सामान्यतः इसका प्रयोग <math>k=10</math> किया जाता है।<ref name=":31" /> इस प्रकार से Hits@K दो दिए गए ट्रिपल के बीच संबंध की उचित भविष्यवाणी करने के लिए एम्बेडिंग मॉडल की यथार्थता को दर्शाता है।<ref name=":31" />
Hits@K या संक्षेप में, H@K, परफॉरमेंस सूचकांक है जो पहले शीर्ष के मॉडल भविष्यवाणियों में उचित भविष्यवाणी खोजने की संभावना को मापता है।<ref name=":31" /> सामान्यतः इसका प्रयोग <math>k=10</math> किया जाता है।<ref name=":31" /> इस प्रकार से Hits@K दो दिए गए ट्रिपल के बीच संबंध की उचित भविष्यवाणी करने के लिए एम्बेडिंग मॉडल की यथार्थता को दर्शाता है।<ref name=":31" />
Line 45: Line 45:
बड़े मानों का अर्थ स्पष्ट अनुमानित परफॉरमेंस है।<ref name=":31" />
बड़े मानों का अर्थ स्पष्ट अनुमानित परफॉरमेंस है।<ref name=":31" />
==== औसत पद (एमआर) ====
==== औसत पद (एमआर) ====
औसत पद सभी संभावित वस्तुओं के बीच मॉडल द्वारा अनुमानित वस्तुओं की औसत पदिंग स्थिति है।<ref name=":31" />
औसत पद सभी संभावित वस्तुओं के बीच मॉडल द्वारा अनुमानित वस्तुओं की औसत पद स्थिति है।<ref name=":31" />


<math>MR = \frac{1}{|Q|}\sum_{q \in Q}{q}</math>
<math>MR = \frac{1}{|Q|}\sum_{q \in Q}{q}</math>


मान जितना छोटा होगा, मॉडल उतना ही स्पष्ट होगा।<ref name=":31" />
अतः मान जितना छोटा होगा, मॉडल उतना ही स्पष्ट होगा।<ref name=":31" />
==== माध्य पारस्परिक पद (एमआरआर) ====
==== माध्य पारस्परिक पद (एमआरआर) ====
माध्य पारस्परिक पद उचित रूप से अनुमानित ट्रिपल की संख्या को मापता है।<ref name=":31" /> यदि पहला अनुमानित ट्रिपल उचित है, तो 1 जोड़ा जाता है, यदि दूसरा उचित है तो <math>\frac{1}{2}</math> का योग किया जाता है, और इसी प्रकार।<ref name=":31" />
माध्य पारस्परिक पद उचित रूप से अनुमानित ट्रिपल की संख्या को मापता है।<ref name=":31" /> यदि पहला अनुमानित ट्रिपल उचित है, तो 1 जोड़ा जाता है, यदि दूसरा उचित है तो <math>\frac{1}{2}</math> का योग किया जाता है, और इसी प्रकार।<ref name=":31" />


औसत पारस्परिक पद का उपयोग सामान्यतः खोज एल्गोरिदम के प्रभाव को मापने के लिए किया जाता है।<ref name=":31" />
अतः औसत पारस्परिक पद का उपयोग सामान्यतः खोज एल्गोरिदम के प्रभाव को मापने के लिए किया जाता है।<ref name=":31" />


<math>MRR = \frac{1}{|Q|}\sum_{q \in Q}{\frac{1}{q}}  \in [0, 1]</math>
<math>MRR = \frac{1}{|Q|}\sum_{q \in Q}{\frac{1}{q}}  \in [0, 1]</math>
Line 61: Line 61:


=== मशीन लर्निंग क्रिया ===
=== मशीन लर्निंग क्रिया ===
नाँलेज ग्राफ पूर्णता (केजीसी) एम्बेडेड नाँलेज ग्राफ प्रतिनिधित्व से नाँलेज का अनुमान लगाने के लिए तकनीकों का संग्रह है।<ref name=":35">{{cite arXiv|last1=Cai|first1=Hongyun|last2=Zheng|first2=Vincent W.|last3=Chang|first3=Kevin Chen-Chuan|date=2018-02-02|title=A Comprehensive Survey of Graph Embedding: Problems, Techniques and Applications|class=cs.AI|eprint=1709.07604}}</ref> विशेष रूप से, यह तकनीक लुप्त इकाई या संबंध का अनुमान लगाते हुए ट्रिपल को पूर्ण करती है।<ref name=":35" /> संबंधित उप-क्रियाओं को लिंक या इकाई भविष्यवाणी (अर्थात, ट्रिपल की दूसरी इकाई और संबंध को देखते हुए एम्बेडिंग से इकाई का अनुमान लगाना), और संबंध भविष्यवाणी (अर्थात, दो इकाइयों को जोड़ने वाले सबसे प्रशंसनीय संबंध की भविष्यवाणी करना) नाम दिया गया है।<ref name=":35" />
अतः नाँलेज ग्राफ पूर्णता (केजीसी) एम्बेडेड नाँलेज ग्राफ प्रतिनिधित्व से नाँलेज का अनुमान लगाने के लिए तकनीकों का संग्रह है।<ref name=":35">{{cite arXiv|last1=Cai|first1=Hongyun|last2=Zheng|first2=Vincent W.|last3=Chang|first3=Kevin Chen-Chuan|date=2018-02-02|title=A Comprehensive Survey of Graph Embedding: Problems, Techniques and Applications|class=cs.AI|eprint=1709.07604}}</ref> विशेष रूप से, यह तकनीक लुप्त इकाई या संबंध का अनुमान लगाते हुए ट्रिपल को पूर्ण करती है।<ref name=":35" /> संबंधित उप-क्रियाओं को लिंक या इकाई भविष्यवाणी (अर्थात, ट्रिपल की दूसरी इकाई और संबंध को देखते हुए एम्बेडिंग से इकाई का अनुमान लगाना), और संबंध भविष्यवाणी (अर्थात, दो इकाइयों को जोड़ने वाले सबसे प्रशंसनीय संबंध की भविष्यवाणी करना) नाम दिया गया है।<ref name=":35" />


इस प्रकार से ट्रिपल वर्गीकरण द्विआधारी वर्गीकरण समस्या है।<ref name=":0" /> एक ट्रिपल को देखते हुए, प्रशिक्षित मॉडल एम्बेडिंग का उपयोग करके ट्रिपल की संभाव्यता का मूल्यांकन करता है ताकि यह निर्धारित किया जा सके कि ट्रिपल उचित है या अनुचित।<ref name=":35" /> निर्णय मॉडल स्कोर फ़ंक्शन और दी गई सीमा के साथ किया जाता है।<ref name=":35" /> क्लस्टरिंग अन्य एप्लिकेशन है जो 2डी स्पेस में समान सिमेंटिक इकाइयों के प्रतिनिधित्व को संक्षिप्त करने के लिए विरल नाँलेज ग्राफ के एम्बेडेड प्रतिनिधित्व का लाभ उठाता है।<ref name=":32" />
इस प्रकार से ट्रिपल वर्गीकरण द्विआधारी वर्गीकरण समस्या है।<ref name=":0" /> एक ट्रिपल को देखते हुए, प्रशिक्षित मॉडल एम्बेडिंग का उपयोग करके ट्रिपल की संभाव्यता का मूल्यांकन करता है ताकि यह निर्धारित किया जा सके कि ट्रिपल उचित है या अनुचित।<ref name=":35" /> निर्णय मॉडल स्कोर फलन और दी गई सीमा के साथ किया जाता है।<ref name=":35" /> क्लस्टरिंग अन्य एप्लिकेशन है जो 2डी स्पेस में समान सिमेंटिक इकाइयों के प्रतिनिधित्व को संक्षिप्त करने के लिए विरल नाँलेज ग्राफ के एम्बेडेड प्रतिनिधित्व का पूर्ण रूप से लाभ उठाता है।<ref name=":32" />
=== वास्तविक संसार के अनुप्रयोग ===
=== वास्तविक संसार के अनुप्रयोग ===
कई अनुप्रयोगों में नाँलेज ग्राफ एम्बेडिंग का उपयोग तीव्र से व्यापक हो रहा है। अतः [[अनुशंसा प्रणाली]] की स्थिति में, नाँलेज ग्राफ एम्बेडिंग का उपयोग सामान्य सुदृढीकरण सीखने की सीमाओं को दूर कर सकता है।<ref name=":33">{{cite arXiv|last1=Zhou|first1=Sijin|last2=Dai|first2=Xinyi|last3=Chen|first3=Haokun|last4=Zhang|first4=Weinan|last5=Ren|first5=Kan|last6=Tang|first6=Ruiming|last7=He|first7=Xiuqiang|last8=Yu|first8=Yong|date=2020-06-18|title=नॉलेज ग्राफ-एन्हांस्ड रीइन्फोर्समेंट लर्निंग के माध्यम से इंटरैक्टिव अनुशंसा प्रणाली|class=cs.IR|eprint=2006.10389}}</ref><ref>{{Cite book|last1=Liu|first1=Chan|last2=Li|first2=Lun|last3=Yao|first3=Xiaolu|last4=Tang|first4=Lin|title=2019 IEEE International Conference on Computer Science and Educational Informatization (CSEI) |chapter=A Survey of Recommendation Algorithms Based on Knowledge Graph Embedding |date=August 2019|chapter-url=https://ieeexplore.ieee.org/document/8938875|pages=168–171|doi=10.1109/CSEI47661.2019.8938875|isbn=978-1-7281-2308-0|s2cid=209459928}}</ref> इस प्रकार की अनुशंसा प्रणाली को प्रशिक्षित करने के लिए उपयोगकर्ताओं से भारी मात्रा में सूचना की आवश्यकता होती है; यद्यपि, नाँलेज ग्राफ़ तकनीकें आइटम सहसंबंध के पूर्व नाँलेज पर पहले से ही बनाए गए ग्राफ़ का उपयोग करके और उससे अनुशंसा का अनुमान लगाने के लिए एम्बेडिंग का उपयोग करके इस समस्या का हल कर सकती हैं।<ref name=":33" /> इस प्रकार से औषधि पुनर्प्रयोजन पहले से ही अनुमोदित औषधि का उपयोग है,परंतु चिकित्सीय उद्देश्य के लिए उस उद्देश्य से भिन्न होता है जिसके लिए इसे प्रारंभ में डिज़ाइन किया गया था।<ref name=":34">{{Cite journal|last1=Sosa|first1=Daniel N.|last2=Derry|first2=Alexander|last3=Guo|first3=Margaret|last4=Wei|first4=Eric|last5=Brinton|first5=Connor|last6=Altman|first6=Russ B.|date=2020|title=दुर्लभ बीमारियों में दवा के पुनरुत्पादन के अवसरों की पहचान के लिए एक साहित्य-आधारित ज्ञान ग्राफ एम्बेडिंग विधि|journal=Pacific Symposium on Biocomputing. Pacific Symposium on Biocomputing|volume=25|pages=463–474|issn=2335-6936|pmc=6937428|pmid=31797619}}</ref> बड़े पैमाने पर साहित्य और बायोमेडिकल डेटाबेस की उपलब्धता का लाभ उठाकर निर्मित बायोमेडिकल नाँलेज ग्राफ का उपयोग करके पहले से स्थित औषधि और बीमारी के बीच नवीन संबंध का अनुमान लगाने के लिए लिंक भविष्यवाणी के क्रिया का उपयोग करना संभव है।<ref name=":34" /> अतः नाँलेज ग्राफ एम्बेडिंग का उपयोग सामाजिक राजनीति के क्षेत्र में भी किया जा सकता है।<ref name=":32" />
कई अनुप्रयोगों में नाँलेज ग्राफ एम्बेडिंग का उपयोग तीव्र से व्यापक हो रहा है। अतः [[अनुशंसा प्रणाली]] की स्थिति में, नाँलेज ग्राफ एम्बेडिंग का उपयोग सामान्य सुदृढीकरण सीखने की सीमाओं को दूर कर सकता है।<ref name=":33">{{cite arXiv|last1=Zhou|first1=Sijin|last2=Dai|first2=Xinyi|last3=Chen|first3=Haokun|last4=Zhang|first4=Weinan|last5=Ren|first5=Kan|last6=Tang|first6=Ruiming|last7=He|first7=Xiuqiang|last8=Yu|first8=Yong|date=2020-06-18|title=नॉलेज ग्राफ-एन्हांस्ड रीइन्फोर्समेंट लर्निंग के माध्यम से इंटरैक्टिव अनुशंसा प्रणाली|class=cs.IR|eprint=2006.10389}}</ref><ref>{{Cite book|last1=Liu|first1=Chan|last2=Li|first2=Lun|last3=Yao|first3=Xiaolu|last4=Tang|first4=Lin|title=2019 IEEE International Conference on Computer Science and Educational Informatization (CSEI) |chapter=A Survey of Recommendation Algorithms Based on Knowledge Graph Embedding |date=August 2019|chapter-url=https://ieeexplore.ieee.org/document/8938875|pages=168–171|doi=10.1109/CSEI47661.2019.8938875|isbn=978-1-7281-2308-0|s2cid=209459928}}</ref> इस प्रकार की अनुशंसा प्रणाली को प्रशिक्षित करने के लिए उपयोगकर्ताओं से भारी मात्रा में सूचना की आवश्यकता होती है; यद्यपि, नाँलेज ग्राफ़ तकनीकें आइटम सहसंबंध के पूर्व नाँलेज पर पहले से ही बनाए गए ग्राफ़ का उपयोग करके और उससे अनुशंसा का अनुमान लगाने के लिए एम्बेडिंग का उपयोग करके इस समस्या को पूर्ण रूप से हल कर सकती हैं।<ref name=":33" /> इस प्रकार से औषधि पुनर्प्रयोजन पहले से ही अनुमोदित औषधि का उपयोग है,परंतु चिकित्सीय उद्देश्य के लिए उस उद्देश्य से भिन्न होता है जिसके लिए इसे प्रारंभ में डिज़ाइन किया गया था।<ref name=":34">{{Cite journal|last1=Sosa|first1=Daniel N.|last2=Derry|first2=Alexander|last3=Guo|first3=Margaret|last4=Wei|first4=Eric|last5=Brinton|first5=Connor|last6=Altman|first6=Russ B.|date=2020|title=दुर्लभ बीमारियों में दवा के पुनरुत्पादन के अवसरों की पहचान के लिए एक साहित्य-आधारित ज्ञान ग्राफ एम्बेडिंग विधि|journal=Pacific Symposium on Biocomputing. Pacific Symposium on Biocomputing|volume=25|pages=463–474|issn=2335-6936|pmc=6937428|pmid=31797619}}</ref> बड़े पैमाने पर साहित्य और बायोमेडिकल डेटाबेस की उपलब्धता का लाभ उठाकर निर्मित बायोमेडिकल नाँलेज ग्राफ का उपयोग करके पहले से स्थित औषधि और बीमारी के बीच नवीन संबंध का अनुमान लगाने के लिए लिंक भविष्यवाणी के क्रिया का उपयोग करना संभव है।<ref name=":34" /> अतः नाँलेज ग्राफ एम्बेडिंग का उपयोग सामाजिक राजनीति के क्षेत्र में भी किया जा सकता है।<ref name=":32" />
== मॉडल ==
== मॉडल ==
[[File:KG-Embedding.svg|thumb|कुछ नाँलेज ग्राफ एम्बेडिंग मॉडल की प्रकाशन समयरेखा। लाल रंग में टेंसर अपघटन मॉडल, नीले रंग में ज्यामितीय मॉडल और हरे रंग में गहन शिक्षण मॉडल। RESCAL<ref name=":22" />(2011) पहला आधुनिक केजीई दृष्टिकोण था। इसमें<ref>{{Cite book|last1=Nickel|first1=Maximilian|last2=Tresp|first2=Volker|last3=Kriegel|first3=Hans-Peter|title=Proceedings of the 21st international conference on World Wide Web |chapter=Factorizing YAGO |date=2012-04-16 |url=https://doi.org/10.1145/2187836.2187874 |publisher=Association for Computing Machinery|pages=271–280|doi=10.1145/2187836.2187874|isbn=978-1-4503-1229-5|s2cid=6348464}}</ref> YAGO नाँलेज ग्राफ को लागू किया गया था। यह बड़े पैमाने पर नाँलेज ग्राफ के लिए KGE का पहला अनुप्रयोग था।|535x535px]]इस प्रकार से ट्रिपल (या तथ्यों)<math>\mathcal{F} = \{<head, relation, tail>\}</math> के संग्रह को देखते हुए, नाँलेज ग्राफ एम्बेडिंग मॉडल नाँलेज ग्राफ में स्थित प्रत्येक इकाई और संबंध के लिए एक सतत सदिश प्रतिनिधित्व उत्पन्न करता है।<ref name=":3" /> अतः <math>(h, r, t)</math>, <math>h,t \in {\rm I\!R}^{d}</math> और <math>r \in {\rm I\!R}^{k}</math> के साथ ट्रिपल का संगत एम्बेडिंग है, जहां <math>d</math> एम्बेडिंग के लिए एम्बेडिंग आयाम है, और संबंधों के लिए <math>k</math> है।<ref name=":3" /> किसी दिए गए मॉडल का स्कोर फ़ंक्शन <math>\mathcal{f}_{r}(h, t)
[[File:KG-Embedding.svg|thumb|कुछ नाँलेज ग्राफ एम्बेडिंग मॉडल की प्रकाशन समयरेखा। लाल रंग में टेंसर अपघटन मॉडल, नीले रंग में ज्यामितीय मॉडल और हरे रंग में गहन शिक्षण मॉडल। RESCAL<ref name=":22" /> (2011) पहला आधुनिक केजीई दृष्टिकोण था। इसमें<ref>{{Cite book|last1=Nickel|first1=Maximilian|last2=Tresp|first2=Volker|last3=Kriegel|first3=Hans-Peter|title=Proceedings of the 21st international conference on World Wide Web |chapter=Factorizing YAGO |date=2012-04-16 |url=https://doi.org/10.1145/2187836.2187874 |publisher=Association for Computing Machinery|pages=271–280|doi=10.1145/2187836.2187874|isbn=978-1-4503-1229-5|s2cid=6348464}}</ref> YAGO नाँलेज ग्राफ को लागू किया गया था। यह बड़े पैमाने पर नाँलेज ग्राफ के लिए KGE का पहला अनुप्रयोग था।|535x535px]]इस प्रकार से ट्रिपल (या तथ्यों)<math>\mathcal{F} = \{<head, relation, tail>\}</math> के संग्रह को देखते हुए, नाँलेज ग्राफ एम्बेडिंग मॉडल नाँलेज ग्राफ में स्थित प्रत्येक इकाई और संबंध के लिए एक सतत सदिश प्रतिनिधित्व उत्पन्न करता है।<ref name=":3" /> अतः <math>(h, r, t)</math>, <math>h,t \in {\rm I\!R}^{d}</math> और <math>r \in {\rm I\!R}^{k}</math> के साथ ट्रिपल का संगत एम्बेडिंग है, जहां <math>d</math> एम्बेडिंग के लिए एम्बेडिंग आयाम है, और संबंधों के लिए <math>k</math> है।<ref name=":3" /> किसी दिए गए मॉडल का स्कोर फलन <math>\mathcal{f}_{r}(h, t)
</math> द्वारा दर्शाया गया है और संबंध के एम्बेडिंग को देखते हुए पूंछ के एम्बेडिंग से शीर्ष के एम्बेडिंग की दूरी को मापता है, या दूसरे शब्दों में, यह किसी दिए गए तथ्य के एम्बेडेड प्रतिनिधित्व की संभाव्यता को मापता है।<ref name=":1" />
</math> द्वारा दर्शाया गया है और संबंध के एम्बेडिंग को देखते हुए पूंछ के एम्बेडिंग से शीर्ष के एम्बेडिंग की दूरी को मापता है, या दूसरे शब्दों में, यह किसी दिए गए तथ्य के एम्बेडेड प्रतिनिधित्व की संभाव्यता को मापता है।<ref name=":1" />


Line 76: Line 76:
मॉडलों का यह वर्ग संबंध के माध्यम से एम्बेडिंग के बीच संबंध को एम्बेड करने के लिए रैखिक समीकरण का उपयोग करता है।<ref name=":0" /> विशेष रूप से, संबंधों का अंतर्निहित प्रतिनिधित्व द्विआयामी आव्यूह है।<ref name=":1" /> इस प्रकार से ये मॉडल, एम्बेडिंग प्रक्रिया के समय, एम्बेडेड प्रतिनिधित्व की गणना करने के लिए मात्र एकल तथ्यों का उपयोग करते हैं और उसी इकाई या संबंध के अन्य संघों को अनदेखा करते हैं।<ref name=":4">{{Cite journal|last1=Wang|first1=Meihong|last2=Qiu|first2=Linling|last3=Wang|first3=Xiaoli|date=2021-03-16|title=लिंक भविष्यवाणी के लिए ज्ञान ग्राफ एंबेडिंग पर एक सर्वेक्षण|journal=Symmetry|language=en|volume=13|issue=3|pages=485|doi=10.3390/sym13030485|bibcode=2021Symm...13..485W|issn=2073-8994|doi-access=free}}</ref>
मॉडलों का यह वर्ग संबंध के माध्यम से एम्बेडिंग के बीच संबंध को एम्बेड करने के लिए रैखिक समीकरण का उपयोग करता है।<ref name=":0" /> विशेष रूप से, संबंधों का अंतर्निहित प्रतिनिधित्व द्विआयामी आव्यूह है।<ref name=":1" /> इस प्रकार से ये मॉडल, एम्बेडिंग प्रक्रिया के समय, एम्बेडेड प्रतिनिधित्व की गणना करने के लिए मात्र एकल तथ्यों का उपयोग करते हैं और उसी इकाई या संबंध के अन्य संघों को अनदेखा करते हैं।<ref name=":4">{{Cite journal|last1=Wang|first1=Meihong|last2=Qiu|first2=Linling|last3=Wang|first3=Xiaoli|date=2021-03-16|title=लिंक भविष्यवाणी के लिए ज्ञान ग्राफ एंबेडिंग पर एक सर्वेक्षण|journal=Symmetry|language=en|volume=13|issue=3|pages=485|doi=10.3390/sym13030485|bibcode=2021Symm...13..485W|issn=2073-8994|doi-access=free}}</ref>


* DistMult<ref name=":11">{{cite arXiv|last1=Yang|first1=Bishan|last2=Yih|first2=Wen-tau|last3=He|first3=Xiaodong|last4=Gao|first4=Jianfeng|last5=Deng|first5=Li|date=2015-08-29|title=ज्ञान के आधारों में सीखने और अनुमान के लिए संस्थाओं और संबंधों को एम्बेड करना|class=cs.CL|eprint=1412.6575}}</ref>: चूँकि संबंध का एम्बेडिंग आव्यूह एक विकर्ण आव्यूह है, स्कोरिंग फ़ंक्शन असममित तथ्यों को अलग नहीं कर सकता है।<ref name=":1" /><ref name=":1" /><ref name=":4" />
* DistMult<ref name=":11">{{cite arXiv|last1=Yang|first1=Bishan|last2=Yih|first2=Wen-tau|last3=He|first3=Xiaodong|last4=Gao|first4=Jianfeng|last5=Deng|first5=Li|date=2015-08-29|title=ज्ञान के आधारों में सीखने और अनुमान के लिए संस्थाओं और संबंधों को एम्बेड करना|class=cs.CL|eprint=1412.6575}}</ref>: चूँकि संबंध का एम्बेडिंग आव्यूह एक विकर्ण आव्यूह है, स्कोरिंग फलन असममित तथ्यों को अलग नहीं कर सकता है।<ref name=":1" /><ref name=":1" /><ref name=":4" />


* ComplEx<ref name=":5">{{cite arXiv|last1=Trouillon|first1=Théo|last2=Welbl|first2=Johannes|last3=Riedel|first3=Sebastian|last4=Gaussier|first4=Éric|last5=Bouchard|first5=Guillaume|date=2016-06-20|title=सरल लिंक भविष्यवाणी के लिए जटिल एंबेडिंग|class=cs.AI|eprint=1606.06357}}</ref>: चूँकि DistMult एम्बेडिंग संबंधों का प्रतिनिधित्व करने के लिए एक विकर्ण आव्यूह का उपयोग करता है, परंतु जटिल सदिश समष्टि और हर्मिटियन उत्पाद में एक प्रतिनिधित्व जोड़ता है, यह सममित और असममित तथ्यों को अलग कर सकता है।<ref name=":1" /><ref name=":25">{{Cite journal|last1=Alshahrani|first1=Mona|last2=Thafar|first2=Maha A.|last3=Essack|first3=Magbubah|date=2021-02-18|title=बायोमेडिकल डेटा में ज्ञान ग्राफ एम्बेडिंग का अनुप्रयोग और मूल्यांकन|journal=PeerJ Computer Science|language=en|volume=7|pages=e341|doi=10.7717/peerj-cs.341|issn=2376-5992|pmc=7959619|pmid=33816992 |doi-access=free }}</ref> यह दृष्टिकोण समय और समष्टि लागत के संदर्भ में बड़े नाँलेज ग्राफ के लिए मापनीय है।<ref name=":5" />  
* ComplEx<ref name=":5">{{cite arXiv|last1=Trouillon|first1=Théo|last2=Welbl|first2=Johannes|last3=Riedel|first3=Sebastian|last4=Gaussier|first4=Éric|last5=Bouchard|first5=Guillaume|date=2016-06-20|title=सरल लिंक भविष्यवाणी के लिए जटिल एंबेडिंग|class=cs.AI|eprint=1606.06357}}</ref>: चूँकि DistMult एम्बेडिंग संबंधों का प्रतिनिधित्व करने के लिए एक विकर्ण आव्यूह का उपयोग करता है, परंतु जटिल सदिश समष्टि और हर्मिटियन उत्पाद में एक प्रतिनिधित्व जोड़ता है, यह सममित और असममित तथ्यों को पूर्ण रूप से अलग कर सकता है।<ref name=":1" /><ref name=":25">{{Cite journal|last1=Alshahrani|first1=Mona|last2=Thafar|first2=Maha A.|last3=Essack|first3=Magbubah|date=2021-02-18|title=बायोमेडिकल डेटा में ज्ञान ग्राफ एम्बेडिंग का अनुप्रयोग और मूल्यांकन|journal=PeerJ Computer Science|language=en|volume=7|pages=e341|doi=10.7717/peerj-cs.341|issn=2376-5992|pmc=7959619|pmid=33816992 |doi-access=free }}</ref> यह दृष्टिकोण समय और समष्टि लागत के संदर्भ में बड़े नाँलेज ग्राफ के लिए मापनीय है।<ref name=":5" />  
* ANALOGY<ref name=":12">{{cite arXiv|last1=Liu|first1=Hanxiao|last2=Wu|first2=Yuexin|last3=Yang|first3=Yiming|date=2017-07-06|title=बहु-संबंधपरक एंबेडिंग के लिए अनुरूप अनुमान|class=cs.LG|eprint=1705.02426}}</ref>: यह मॉडल आगमनात्मक तर्क को अनुकरण करने के लिए नाँलेज ग्राफ की अनुरूप संरचना को एम्बेड करने में एन्कोड करता है।<ref name=":12" /><ref name=":1" /><ref name=":0" /> एक भिन्न उद्देश्य फ़ंक्शन का उपयोग करते हुए, ANALOGY में उचित सैद्धांतिक व्यापकता और कम्प्यूटेशनल मापनीयता है।<ref name=":12" /> यह सिद्ध है कि ANALOGY द्वारा निर्मित एम्बेडिंग DistMult, ComplEx, और HolE की एम्बेडिंग को पूर्ण रूप से पुनर्प्राप्त करती है।<ref name=":12" />
* ANALOGY<ref name=":12">{{cite arXiv|last1=Liu|first1=Hanxiao|last2=Wu|first2=Yuexin|last3=Yang|first3=Yiming|date=2017-07-06|title=बहु-संबंधपरक एंबेडिंग के लिए अनुरूप अनुमान|class=cs.LG|eprint=1705.02426}}</ref>: यह मॉडल आगमनात्मक तर्क को अनुकरण करने के लिए नाँलेज ग्राफ की अनुरूप संरचना को एम्बेड करने में एन्कोड करता है।<ref name=":12" /><ref name=":1" /><ref name=":0" /> एक भिन्न उद्देश्य फलन का उपयोग करते हुए, ANALOGY में उचित सैद्धांतिक व्यापकता और कम्प्यूटेशनल मापनीयता है।<ref name=":12" /> यह सिद्ध है कि ANALOGY द्वारा निर्मित एम्बेडिंग DistMult, ComplEx, और HolE की एम्बेडिंग को पूर्ण रूप से पुनर्प्राप्त करती है।<ref name=":12" />
*SimplE<ref name=":13">{{cite arXiv|last1=Kazemi|first1=Seyed Mehran|last2=Poole|first2=David|date=2018-10-25|title=ज्ञान ग्राफ़ में लिंक भविष्यवाणी के लिए सरल एम्बेडिंग|class=stat.ML|eprint=1802.04868}}</ref>: यह मॉडल [[विहित बहुपद अपघटन]] (सीपी) का संशोधन है, जिसमें संबंध के लिए एम्बेडिंग सदिश और प्रत्येक इकाई के लिए दो स्वतंत्र एम्बेडिंग सदिश सीखे जाते हैं, यह इस पर निर्भर करता है कि यह नाँलेज ग्राफ तथ्य में शीर्ष या पुंछ है या नहीं।<ref name=":13" /> SimpleE एक व्युत्क्रम संबंध का उपयोग करके दो इकाई एम्बेडिंग की स्वतंत्र सीखने की समस्या को हल करता है और <math>(h, r, t)</math> और <math>(t, r^{-1}, h)</math> के सीपी स्कोर को औसत करता है।<ref name=":3" /><ref name=":25" /> अतः इस प्रकार, SimpleE एम्बेडिंग के बीच संबंध एकत्र करता है जबकि वे किसी तथ्य के भीतर विषय या वस्तु की भूमिका में दिखाई देते हैं, और यह असममित संबंधों को एम्बेड करने में सक्षम है।<ref name=":1" />
*SimplE<ref name=":13">{{cite arXiv|last1=Kazemi|first1=Seyed Mehran|last2=Poole|first2=David|date=2018-10-25|title=ज्ञान ग्राफ़ में लिंक भविष्यवाणी के लिए सरल एम्बेडिंग|class=stat.ML|eprint=1802.04868}}</ref>: यह मॉडल [[विहित बहुपद अपघटन]] (सीपी) का संशोधन है, जिसमें संबंध के लिए एम्बेडिंग सदिश और प्रत्येक इकाई के लिए दो स्वतंत्र एम्बेडिंग सदिश सीखे जाते हैं, यह इस पर निर्भर करता है कि यह नाँलेज ग्राफ तथ्य में शीर्ष या पुंछ है या नहीं।<ref name=":13" /> SimpleE एक व्युत्क्रम संबंध का उपयोग करके दो इकाई एम्बेडिंग की स्वतंत्र सीखने की समस्या को हल करता है और <math>(h, r, t)</math> और <math>(t, r^{-1}, h)</math> के सीपी स्कोर को औसत करता है।<ref name=":3" /><ref name=":25" /> अतः इस प्रकार, SimpleE एम्बेडिंग के बीच संबंध एकत्र करता है जबकि वे किसी तथ्य के भीतर विषय या वस्तु की भूमिका में दिखाई देते हैं, और यह असममित संबंधों को एम्बेड करने में पूर्ण रूप से सक्षम है।<ref name=":1" />
==== गैर-द्विरेखीय मॉडल ====
==== गैर-द्विरेखीय मॉडल ====


* HolE:<ref name=":14">{{cite arXiv|last1=Nickel|first1=Maximilian|last2=Rosasco|first2=Lorenzo|last3=Poggio|first3=Tomaso|date=2015-12-07|title=ज्ञान ग्राफ़ की होलोग्राफ़िक एंबेडिंग|class=cs.AI|eprint=1510.04935}}</ref> नाँलेज ग्राफ का एम्बेडेड प्रतिनिधित्व बनाने के लिए HolE परिपत्र सहसंबंध का उपयोग करता है,<ref name=":14" /> जिसे आव्यूह उत्पाद के संपीड़न के रूप में देखा जा सकता है,परंतु असममित संबंध व्यक्त करने की क्षमताओं को बनाए रखते हुए अधिक कम्प्यूटेशनल रूप से कुशल और मापनीय है क्योंकि परिपत्र सहसंबंध क्रमविनिमेय नहीं है।<ref name=":4" /> अतः HolE होलोग्राफिक और जटिल एम्बेडिंग को जोड़ता है, यदि [[फूरियर रूपांतरण]] के साथ साथ उपयोग किया जाता है, तो इसे ComplEx की विशेष स्थिति के रूप में देखा जा सकता है।<ref name=":0" />
* HolE:<ref name=":14">{{cite arXiv|last1=Nickel|first1=Maximilian|last2=Rosasco|first2=Lorenzo|last3=Poggio|first3=Tomaso|date=2015-12-07|title=ज्ञान ग्राफ़ की होलोग्राफ़िक एंबेडिंग|class=cs.AI|eprint=1510.04935}}</ref> नाँलेज ग्राफ का एम्बेडेड प्रतिनिधित्व बनाने के लिए HolE परिपत्र सहसंबंध का उपयोग करता है,<ref name=":14" /> जिसे आव्यूह उत्पाद के संपीड़न के रूप में देखा जा सकता है,परंतु असममित संबंध व्यक्त करने की क्षमताओं को बनाए रखते हुए अधिक कम्प्यूटेशनल रूप से कुशल और मापनीय है क्योंकि परिपत्र सहसंबंध क्रमविनिमेय नहीं है।<ref name=":4" /> अतः HolE होलोग्राफिक और जटिल एम्बेडिंग को पूर्ण रूप से जोड़ता है, यदि [[फूरियर रूपांतरण]] के साथ साथ उपयोग किया जाता है, तो इसे ComplEx की विशेष स्थिति के रूप में देखा जा सकता है।<ref name=":0" />
*TuckER:<ref name=":15">{{Cite book|last1=Balažević|first1=Ivana|last2=Allen|first2=Carl|last3=Hospedales|first3=Timothy M.|title=Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP) |chapter=TuckER: Tensor Factorization for Knowledge Graph Completion |date=2019 |pages=5184–5193|doi=10.18653/v1/D19-1522|arxiv=1901.09590|s2cid=59316623}}</ref> TuckER नाँलेज ग्राफ को टेंसर के रूप में देखता है जिसे सदिश के संग्रह में [[टकर अपघटन|TuckER अपघटन]] का उपयोग करके विघटित किया जा सकता है{{emdash}}अर्थात, एम्बेडिंग और संबंधों का एम्बेडिंग{{emdash}} एक साझा कोर के साथ।<ref name=":15" /><ref name=":1" /> कोर टेंसर का भार एम्बेडिंग के साथ मिलकर सीखा जाता है और प्रविष्टियों के परस्पर क्रिया के स्तर का प्रतिनिधित्व करता है।<ref name=":26">{{cite journal|last1=Ali|first1=Mehdi|last2=Berrendorf|first2=Max|last3=Hoyt|first3=Charles Tapley|last4=Vermue|first4=Laurent|last5=Galkin|first5=Mikhail|last6=Sharifzadeh|first6=Sahand|last7=Fischer|first7=Asja|last8=Tresp|first8=Volker|last9=Lehmann|first9=Jens|title=Bringing Light into the Dark: A Large-scale Evaluation of Knowledge Graph Embedding Models under a Unified Framework|journal=IEEE Transactions on Pattern Analysis and Machine Intelligence|year=2021|volume=PP|issue=12 |pages=8825–8845 |doi=10.1109/TPAMI.2021.3124805|pmid=34735335|arxiv=2006.13365|s2cid=220041612}}</ref> इस प्रकार से प्रत्येक इकाई और संबंध का अपना एम्बेडिंग आयाम होता है, और कोर टेंसर का आकार परस्पर क्रिया करने वाली एम्बेडिंग और संबंधों के आकार से निर्धारित होता है।<ref name=":1" /> किसी तथ्य के विषय और वस्तु के एम्बेडिंग को उसी प्रकार से संक्षेपित किया जाता है, जिससे TuckER पूर्ण रूप से अभिव्यंजक हो जाता है, और अन्य एम्बेडिंग मॉडल जैसे कि RESCAL, DistMult, ComplEx और SimplE को TuckER के विशेष सूत्रीकरण के रूप में व्यक्त किया जा सकता है।<ref name=":15" />
*TuckER:<ref name=":15">{{Cite book|last1=Balažević|first1=Ivana|last2=Allen|first2=Carl|last3=Hospedales|first3=Timothy M.|title=Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP) |chapter=TuckER: Tensor Factorization for Knowledge Graph Completion |date=2019 |pages=5184–5193|doi=10.18653/v1/D19-1522|arxiv=1901.09590|s2cid=59316623}}</ref> TuckER नाँलेज ग्राफ को टेंसर के रूप में देखता है जिसे सदिश के संग्रह में [[टकर अपघटन|TuckER अपघटन]] का उपयोग करके विघटित किया जा सकता है{{emdash}}अर्थात, एम्बेडिंग और संबंधों का एम्बेडिंग{{emdash}} एक साझा कोर के साथ।<ref name=":15" /><ref name=":1" /> कोर टेंसर का भार एम्बेडिंग के साथ मिलकर सीखा जाता है और प्रविष्टियों के परस्पर क्रिया के स्तर का प्रतिनिधित्व करता है।<ref name=":26">{{cite journal|last1=Ali|first1=Mehdi|last2=Berrendorf|first2=Max|last3=Hoyt|first3=Charles Tapley|last4=Vermue|first4=Laurent|last5=Galkin|first5=Mikhail|last6=Sharifzadeh|first6=Sahand|last7=Fischer|first7=Asja|last8=Tresp|first8=Volker|last9=Lehmann|first9=Jens|title=Bringing Light into the Dark: A Large-scale Evaluation of Knowledge Graph Embedding Models under a Unified Framework|journal=IEEE Transactions on Pattern Analysis and Machine Intelligence|year=2021|volume=PP|issue=12 |pages=8825–8845 |doi=10.1109/TPAMI.2021.3124805|pmid=34735335|arxiv=2006.13365|s2cid=220041612}}</ref> इस प्रकार से प्रत्येक इकाई और संबंध का अपना एम्बेडिंग आयाम होता है, और कोर टेंसर का आकार परस्पर क्रिया करने वाली एम्बेडिंग और संबंधों के आकार से निर्धारित होता है।<ref name=":1" /> किसी तथ्य के विषय और वस्तु के एम्बेडिंग को उसी प्रकार से संक्षेपित किया जाता है, जिससे TuckER पूर्ण रूप से अभिव्यंजक हो जाता है, और अन्य एम्बेडिंग मॉडल जैसे कि RESCAL, DistMult, ComplEx और SimplE को TuckER के विशेष सूत्रीकरण के रूप में व्यक्त किया जा सकता है।<ref name=":15" />
*MEI:<ref name=":36">{{Cite book |last1=Tran |first1=Hung Nghiep |last2=Takasu |first2=Atsuhiro |title=Proceedings of the European Conference on Artificial Intelligence (ECAI 2020) |chapter=Multi-Partition Embedding Interaction with Block Term Format for Knowledge Graph Completion |date=2020 |chapter-url=https://ebooks.iospress.nl/doi/10.3233/FAIA200173 |pages=833–840 |series=Frontiers in Artificial Intelligence and Applications |volume=325|publisher=IOS Press |doi=10.3233/FAIA200173|s2cid=220265751 }}</ref> MEI कक्ष पद टेंसर प्रारूप के साथ बहु-विभाजन एम्बेडिंग परस्पर क्रिया तकनीक प्रस्तुत करता है, जो सीपी अपघटन और TuckER अपघटन का सामान्यीकरण है। अतः यह एम्बेडिंग सदिश को कई विभाजनों में विभाजित करता है और ComplEx या SimpleE मॉडल जैसे निश्चित विशेष पैटर्न का उपयोग करने के अतिरिक्त डेटा से स्थानीय परस्पर क्रिया पैटर्न सीखता है। यह MEI को इष्टतम दक्षता प्राप्त करने में सक्षम बनाता है - अभिव्यंजना व्यापार-संवृत, न कि मात्र पूर्ण रूप से अभिव्यंजक होना।<ref name=":36" /> पूर्व मॉडल जैसे TuckER, RESCAL, DistMult, ComplEx, और SimpleE MEI की उप-इष्टतम प्रतिबंधित विशेष स्थिति हैं।
*MEI:<ref name=":36">{{Cite book |last1=Tran |first1=Hung Nghiep |last2=Takasu |first2=Atsuhiro |title=Proceedings of the European Conference on Artificial Intelligence (ECAI 2020) |chapter=Multi-Partition Embedding Interaction with Block Term Format for Knowledge Graph Completion |date=2020 |chapter-url=https://ebooks.iospress.nl/doi/10.3233/FAIA200173 |pages=833–840 |series=Frontiers in Artificial Intelligence and Applications |volume=325|publisher=IOS Press |doi=10.3233/FAIA200173|s2cid=220265751 }}</ref> MEI कक्ष पद टेंसर प्रारूप के साथ बहु-विभाजन एम्बेडिंग परस्पर क्रिया तकनीक प्रस्तुत करता है, जो सीपी अपघटन और TuckER अपघटन का सामान्यीकरण है। अतः यह एम्बेडिंग सदिश को कई विभाजनों में विभाजित करता है और ComplEx या SimpleE मॉडल जैसे निश्चित विशेष पैटर्न का उपयोग करने के अतिरिक्त डेटा से स्थानीय परस्पर क्रिया पैटर्न सीखता है। यह MEI को इष्टतम दक्षता प्राप्त करने में सक्षम बनाता है - अभिव्यंजना व्यापार-संवृत, न कि मात्र पूर्ण रूप से अभिव्यंजक होना।<ref name=":36" /> पूर्व मॉडल जैसे TuckER, RESCAL, DistMult, ComplEx, और SimpleE MEI की उप-इष्टतम प्रतिबंधित विशेष स्थिति हैं।
*MEIM:<ref name=":37">{{Cite book |last1=Tran |first1=Hung-Nghiep |last2=Takasu |first2=Atsuhiro |title=आर्टिफिशियल इंटेलिजेंस पर इकतीसवें अंतर्राष्ट्रीय संयुक्त सम्मेलन की कार्यवाही|chapter=MEIM: Multi-partition Embedding Interaction Beyond Block Term Format for Efficient and Expressive Link Prediction |date=2022-07-16 |url=https://www.ijcai.org/proceedings/2022/314 |language=en |volume=3 |pages=2262–2269 |doi=10.24963/ijcai.2022/314|isbn=978-1-956792-00-3 |s2cid=250635995 }}</ref> MEIM बहु-विभाजन एम्बेडिंग परस्पर क्रिया के अतिरिक्त, एसेम्बल बूस्टिंग प्रभावों के लिए स्वतंत्र कोर टेंसर और अधिकतम-पद संबंधपरक प्रतिचित्रण के लिए मृदु लंबकोणीयता को प्रस्तुत करने के लिए कक्ष पद टेंसर प्रारूप से आगे जाता है। MEIM कई पूर्व मॉडलों जैसे MEI और इसके सम्मिलित मॉडल, RotaE और QuatE को सामान्यीकृत करता है।<ref name=":37" /> इस प्रकार से MEIN व्यवहार में अत्यधिक कुशल होते हुए भी अभिव्यंजना में संशोधन करता है, जिससे इसे अत्यधिक छोटे मॉडल आकारों का उपयोग करके स्पष्ट परिणाम प्राप्त करने में सहायता मिलती है।
*MEIM:<ref name=":37">{{Cite book |last1=Tran |first1=Hung-Nghiep |last2=Takasu |first2=Atsuhiro |title=आर्टिफिशियल इंटेलिजेंस पर इकतीसवें अंतर्राष्ट्रीय संयुक्त सम्मेलन की कार्यवाही|chapter=MEIM: Multi-partition Embedding Interaction Beyond Block Term Format for Efficient and Expressive Link Prediction |date=2022-07-16 |url=https://www.ijcai.org/proceedings/2022/314 |language=en |volume=3 |pages=2262–2269 |doi=10.24963/ijcai.2022/314|isbn=978-1-956792-00-3 |s2cid=250635995 }}</ref> MEIM बहु-विभाजन एम्बेडिंग परस्पर क्रिया के अतिरिक्त, एसेम्बल बूस्टिंग प्रभावों के लिए स्वतंत्र कोर टेंसर और अधिकतम-पद संबंधपरक प्रतिचित्रण के लिए मृदु लंबकोणीयता को प्रस्तुत करने के लिए कक्ष पद टेंसर प्रारूप से आगे जाता है। MEIM कई पूर्व मॉडलों जैसे MEI और इसके सम्मिलित मॉडल, RotaE और QuatE को सामान्यीकृत करता है।<ref name=":37" /> इस प्रकार से MEIN व्यवहार में अत्यधिक कुशल होते हुए भी अभिव्यंजना में संशोधन करता है, जिससे इसे अत्यधिक छोटे मॉडल आकारों का उपयोग करके स्पष्ट परिणाम प्राप्त करने में सहायता मिलती है।


=== ज्यामितीय मॉडल ===
=== ज्यामितीय मॉडल ===
मॉडलों के इस वर्ग द्वारा परिभाषित ज्यामितीय समष्टि किसी तथ्य के शीर्ष और पूंछ के बीच ज्यामितीय परिवर्तन के रूप में संबंध को कूटबद्ध करता है।<ref name=":1" /> अतः इस कारण से, पूंछ के एम्बेडिंग की गणना करने के लिए, शीर्ष एम्बेडिंग में एक परिवर्तन <math>\tau</math> लागू करना आवश्यक है, और एक दूरी फ़ंक्शन <math>\delta</math> का उपयोग एम्बेडिंग की स्पष्टता को मापने या किसी तथ्य की विश्वसनीयता को स्कोर करने के लिए किया जाता है।<ref name=":1" />
मॉडलों के इस वर्ग द्वारा परिभाषित ज्यामितीय समष्टि किसी तथ्य के शीर्ष और पूंछ के बीच ज्यामितीय परिवर्तन के रूप में संबंध को कूटबद्ध करता है।<ref name=":1" /> अतः इस कारण से, पूंछ के एम्बेडिंग की गणना करने के लिए, शीर्ष एम्बेडिंग में एक परिवर्तन <math>\tau</math> लागू करना आवश्यक है, और एक दूरी फलन <math>\delta</math> का उपयोग एम्बेडिंग की स्पष्टता को मापने या किसी तथ्य की विश्वसनीयता को स्कोर करने के लिए किया जाता है।<ref name=":1" />


<math>\mathcal{f}_{r}(h, t) = \delta(\tau(h, r), t)
<math>\mathcal{f}_{r}(h, t) = \delta(\tau(h, r), t)
</math>
</math>


ज्यामितीय मॉडल टेंसर अपघटन मॉडल के समान हैं, परंतु दोनों के बीच मुख्य अंतर यह है कि उन्हें ज्यामितीय समष्टि में परिवर्तन <math>\tau</math> की प्रयोज्यता को संरक्षित करना है जिसमें इसे परिभाषित किया गया है।<ref name=":1" />
ज्यामितीय मॉडल टेंसर अपघटन मॉडल के समान हैं, परंतु दोनों के बीच मुख्य अंतर यह है कि उन्हें ज्यामितीय समष्टि में परिवर्तन <math>\tau</math> की प्रयोज्यता को संरक्षित करना है जिसमें इसे पूर्ण रूप से परिभाषित किया गया है।<ref name=":1" />
==== शुद्ध अनुवादात्मक मॉडल ====
==== शुद्ध अनुवादात्मक मॉडल ====
मॉडलों का यह वर्ग Word2vec में प्रस्तुत किए गए अनुवाद अपरिवर्तनीयता के विचार से प्रेरित है।<ref name=":3" /> एक शुद्ध अनुवादात्मक मॉडल इस तथ्य पर निर्भर करता है कि इकाइयों के एम्बेडिंग सदिश ज्यामितीय समष्टि में उचित संबंधपरक अनुवाद लागू करने के बाद एक-दूसरे के निकट होते हैं जिसमें उन्हें परिभाषित किया जाता है।<ref name=":4" /> दूसरे शब्दों में, तथ्य को देखते हुए, जब संबंध के एम्बेडिंग में शीर्ष का एम्बेडिंग जोड़ा जाता है, तो अपेक्षित परिणाम पुंछ का एम्बेडिंग होना चाहिए।<ref name=":1" /> इस प्रकार से एम्बेडिंग एम्बेडिंग की निकटता कुछ दूरी माप द्वारा दी जाती है और किसी तथ्य की विश्वसनीयता को निर्धारित करती है।<ref name=":25" />
मॉडलों का यह वर्ग Word2vec में प्रस्तुत किए गए अनुवाद अपरिवर्तनीयता के विचार से प्रेरित है।<ref name=":3" /> एक शुद्ध अनुवादात्मक मॉडल इस तथ्य पर निर्भर करता है कि इकाइयों के एम्बेडिंग सदिश ज्यामितीय समष्टि में उचित संबंधपरक अनुवाद लागू करने के बाद एक-दूसरे के निकट होते हैं जिसमें उन्हें परिभाषित किया जाता है।<ref name=":4" /> दूसरे शब्दों में, तथ्य को देखते हुए, जब संबंध के एम्बेडिंग में शीर्ष का एम्बेडिंग जोड़ा जाता है, तो अपेक्षित परिणाम पुंछ का एम्बेडिंग होना चाहिए।<ref name=":1" /> इस प्रकार से एम्बेडिंग एम्बेडिंग की निकटता कुछ दूरी माप द्वारा दी जाती है और किसी तथ्य की विश्वसनीयता को पूर्ण रूप से निर्धारित करती है।<ref name=":25" />


* TransE<ref name=":9">{{Cite book|last1=Bordes|first1=Antoine|last2=Usunier|first2=Nicolas|last3=Garcia-Durán|first3=Alberto|last4=Weston|first4=Jason|last5=Yakhnenko|first5=Oksana|chapter=Translating embeddings for modeling multi-relational data |date=May 2013 |chapter-url=https://dl.acm.org/doi/10.5555/2999792.2999923 |title=NIPS'13: Proceedings of the 26th International Conference on Neural Information Processing Systems  |publisher=Curran Associates Inc.|pages=2787–2795}}</ref>: यह मॉडल स्कोरिंग फ़ंक्शन का उपयोग करता है जो एम्बेडिंग को प्रत्येक तथ्य में साधारण [[वेक्टर योग|सदिश योग]] समीकरण को संतुष्ट करने के लिए विवश करता है जिसमें वे दिखाई देते हैं: <math>h + r = t</math>।<ref name=":3" /> एम्बेडिंग यथार्थ होगी यदि प्रत्येक इकाई और संबंध मात्र एक ही तथ्य में प्रकट होता है, और इस कारण से, व्यवहार में एक-से-अनेक, अनेक-से-एक और असममित संबंधों का ठीक रूप से प्रतिनिधित्व नहीं करता है।<ref name=":1" /><ref name=":3" />
* TransE<ref name=":9">{{Cite book|last1=Bordes|first1=Antoine|last2=Usunier|first2=Nicolas|last3=Garcia-Durán|first3=Alberto|last4=Weston|first4=Jason|last5=Yakhnenko|first5=Oksana|chapter=Translating embeddings for modeling multi-relational data |date=May 2013 |chapter-url=https://dl.acm.org/doi/10.5555/2999792.2999923 |title=NIPS'13: Proceedings of the 26th International Conference on Neural Information Processing Systems  |publisher=Curran Associates Inc.|pages=2787–2795}}</ref>: यह मॉडल स्कोरिंग फलन का उपयोग करता है जो एम्बेडिंग को प्रत्येक तथ्य में साधारण [[वेक्टर योग|सदिश योग]] समीकरण को संतुष्ट करने के लिए विवश करता है जिसमें वे दिखाई देते हैं: <math>h + r = t</math>।<ref name=":3" /> एम्बेडिंग यथार्थ होगी यदि प्रत्येक इकाई और संबंध मात्र एक ही तथ्य में प्रकट होता है, और इस कारण से, व्यवहार में एक-से-अनेक, अनेक-से-एक और असममित संबंधों का ठीक रूप से प्रतिनिधित्व नहीं करता है।<ref name=":1" /><ref name=":3" />
*TransH<ref name=":6">{{Cite book|last=Wang|first=Zhen|chapter=Knowledge Graph Embedding by Translating on Hyperplanes |title=आर्टिफिशियल इंटेलिजेंस पर एएएआई सम्मेलन की कार्यवाही|date=2014 |chapter-url=https://www.aaai.org/ocs/index.php/AAAI/AAAI14/paper/view/8531 |volume=28 |doi=10.1609/aaai.v28i1.8870 |s2cid=15027084 }}</ref>: यह संबंधों के प्रकारों को उचित रूप से प्रस्तुत करने की समस्या को हल करने के लिए [[हाइपरप्लेन|अधिसमतल]] को ज्यामितीय समष्टि के रूप में प्रस्तुत करने वाले TransE का विकास है।<ref name=":6" /> TransH में, प्रत्येक संबंध का अलग अधिसमतल पर अलग एम्बेडेड प्रतिनिधित्व होता है, यह इस पर आधारित होता है कि यह किन एम्बेडिंग के साथ परस्पर क्रिया करता है।<ref name=":3" /> इसलिए, उदाहरण के लिए, किसी तथ्य के स्कोर फ़ंक्शन की गणना करने के लिए, संबंध के उचित अधिसमतल पर संबंधपरक प्रक्षेपण आव्यूह का उपयोग करके शीर्ष और पुंछ के एम्बेडेड प्रतिनिधित्व को प्रक्षेपित करने की आवश्यकता होती है।<ref name=":0" /><ref name=":3" />
*TransH<ref name=":6">{{Cite book|last=Wang|first=Zhen|chapter=Knowledge Graph Embedding by Translating on Hyperplanes |title=आर्टिफिशियल इंटेलिजेंस पर एएएआई सम्मेलन की कार्यवाही|date=2014 |chapter-url=https://www.aaai.org/ocs/index.php/AAAI/AAAI14/paper/view/8531 |volume=28 |doi=10.1609/aaai.v28i1.8870 |s2cid=15027084 }}</ref>: यह संबंधों के प्रकारों को उचित रूप से प्रस्तुत करने की समस्या को हल करने के लिए [[हाइपरप्लेन|अधिसमतल]] को ज्यामितीय समष्टि के रूप में प्रस्तुत करने वाले TransE का विकास है।<ref name=":6" /> TransH में, प्रत्येक संबंध का अलग अधिसमतल पर अलग एम्बेडेड प्रतिनिधित्व होता है, यह इस पर आधारित होता है कि यह किन एम्बेडिंग के साथ परस्पर क्रिया करता है।<ref name=":3" /> इसलिए, उदाहरण के लिए, किसी तथ्य के स्कोर फलन की गणना करने के लिए, संबंध के उचित अधिसमतल पर संबंधपरक प्रक्षेपण आव्यूह का उपयोग करके शीर्ष और पुंछ के एम्बेडेड प्रतिनिधित्व को प्रक्षेपित करने की आवश्यकता होती है।<ref name=":0" /><ref name=":3" />
*TransR<ref name=":10">{{Cite book|last1=Lin|first1=Yankai|last2=Liu|first2=Zhiyuan|last3=Sun|first3=Maosong|last4=Liu|first4=Yang|last5=Zhu|first5=Xuan|title=ज्ञान ग्राफ पूरा करने के लिए सीखने की इकाई और संबंध एम्बेडिंग|date=2015-01-25 |url=https://dl.acm.org/doi/10.5555/2886521.2886624 |publisher=AAAI Press|pages=2181–2187|isbn=978-0-262-51129-2}}</ref>: TransR, TransH का विकास है क्योंकि यह एम्बेडिंग और संबंधों के अंतर्निहित प्रतिनिधित्व का प्रतिनिधित्व करने के लिए दो अलग-अलग समष्टियों का उपयोग करता है,<ref name=":0" /><ref name=":4" />और एम्बेडिंग और संबंधों के शब्दार्थ समष्टि को पूर्ण रूप से अलग कर दें।<ref name=":3" />इसके अतिरिक्त TransR इकाइयों के एम्बेडिंग को संबंध समष्टि में अनुवाद करने के लिए संबंधपरक प्रक्षेपण आव्यूह का उपयोग करता है।<ref name=":3" />
*TransR<ref name=":10">{{Cite book|last1=Lin|first1=Yankai|last2=Liu|first2=Zhiyuan|last3=Sun|first3=Maosong|last4=Liu|first4=Yang|last5=Zhu|first5=Xuan|title=ज्ञान ग्राफ पूरा करने के लिए सीखने की इकाई और संबंध एम्बेडिंग|date=2015-01-25 |url=https://dl.acm.org/doi/10.5555/2886521.2886624 |publisher=AAAI Press|pages=2181–2187|isbn=978-0-262-51129-2}}</ref>: TransR, TransH का विकास है क्योंकि यह एम्बेडिंग और संबंधों के अंतर्निहित प्रतिनिधित्व का प्रतिनिधित्व करने के लिए दो अलग-अलग समष्टियों का उपयोग करता है,<ref name=":0" /><ref name=":4" />और एम्बेडिंग और संबंधों के शब्दार्थ समष्टि को पूर्ण रूप से अलग कर दें।<ref name=":3" />इसके अतिरिक्त TransR इकाइयों के एम्बेडिंग को संबंध समष्टि में अनुवाद करने के लिए संबंधपरक प्रक्षेपण आव्यूह का पूर्ण रूप से उपयोग करता है।<ref name=":3" />
*TransD:<ref name=":7">{{Cite book|last1=Ji|first1=Guoliang|last2=He|first2=Shizhu|last3=Xu|first3=Liheng|last4=Liu|first4=Kang|last5=Zhao|first5=Jun|title=Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers) |chapter=Knowledge Graph Embedding via Dynamic Mapping Matrix |date=July 2015|chapter-url=https://www.aclweb.org/anthology/P15-1067 |publisher=Association for Computational Linguistics|pages=687–696|doi=10.3115/v1/P15-1067|s2cid=11202498}}</ref> किसी तथ्य को देखते हुए, TransR में, किसी तथ्य का शीर्ष और पूर्व भाग दो अलग-अलग प्रकार की एम्बेडिंग से संबंधित हो सकता है, उदाहरण के लिए, तथ्य <math>(Obama, president\_of, USA)</math> में, ओबामा और यूएसए दो संस्थाएं हैं परंतु एक एक व्यक्ति है और दूसरा एक देश है।<ref name=":7" /><ref name=":3" /> प्रक्षेपण की गणना करने के लिए TransR में आव्यूह गुणन भी बहु मानित प्रक्रिया है।<ref name=":3" /><ref name=":7" /> अतः इस संदर्भ में, TransD गतिशील प्रतिचित्रण की गणना करने के लिए प्रत्येक इकाई-संबंध युग्मन के लिए दो सदिश को नियोजित करता है जो आयामी जटिलता को कम करते हुए प्रक्षेपण आव्यूह को प्रतिस्थापित करता है।<ref name=":0" /><ref name=":3" /><ref name=":7" /> पहले सदिश का उपयोग एम्बेडिंग और संबंधों के अर्थपूर्ण अर्थ को दर्शाने के लिए किया जाता है, दूसरे का उपयोग प्रतिचित्रण आव्यूह की गणना करने के लिए किया जाता है।<ref name=":7" />
*TransD:<ref name=":7">{{Cite book|last1=Ji|first1=Guoliang|last2=He|first2=Shizhu|last3=Xu|first3=Liheng|last4=Liu|first4=Kang|last5=Zhao|first5=Jun|title=Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers) |chapter=Knowledge Graph Embedding via Dynamic Mapping Matrix |date=July 2015|chapter-url=https://www.aclweb.org/anthology/P15-1067 |publisher=Association for Computational Linguistics|pages=687–696|doi=10.3115/v1/P15-1067|s2cid=11202498}}</ref> किसी तथ्य को देखते हुए, TransR में, किसी तथ्य का शीर्ष और पूर्व भाग दो अलग-अलग प्रकार की एम्बेडिंग से संबंधित हो सकता है, उदाहरण के लिए, तथ्य <math>(Obama, president\_of, USA)</math> में, ओबामा और यूएसए दो संस्थाएं हैं परंतु एक एक व्यक्ति है और दूसरा एक देश है।<ref name=":7" /><ref name=":3" /> प्रक्षेपण की गणना करने के लिए TransR में आव्यूह गुणन भी बहु मानित प्रक्रिया है।<ref name=":3" /><ref name=":7" /> अतः इस संदर्भ में, TransD गतिशील प्रतिचित्रण की गणना करने के लिए प्रत्येक इकाई-संबंध युग्मन के लिए दो सदिश को नियोजित करता है जो आयामी जटिलता को कम करते हुए प्रक्षेपण आव्यूह को प्रतिस्थापित करता है।<ref name=":0" /><ref name=":3" /><ref name=":7" /> पहले सदिश का उपयोग एम्बेडिंग और संबंधों के अर्थपूर्ण अर्थ को दर्शाने के लिए किया जाता है, दूसरे का उपयोग प्रतिचित्रण आव्यूह की गणना करने के लिए किया जाता है।<ref name=":7" />
*TransA:<ref name=":8">{{cite arXiv|last1=Xiao|first1=Han|last2=Huang|first2=Minlie|last3=Hao|first3=Yu|last4=Zhu|first4=Xiaoyan|date=2015-09-27|title=TransA: An Adaptive Approach for Knowledge Graph Embedding|class=cs.CL|eprint=1509.05490}}</ref> सभी अनुवादात्मक मॉडल अपने प्रतिनिधित्व समष्टि में स्कोर फ़ंक्शन को परिभाषित करते हैं, परंतु वे इस मीट्रिक हानि को अधिक सरल बनाते हैं।<ref name=":8" /> चूंकि एम्बेडिंग और संबंधों का सदिश प्रतिनिधित्व उचित नहीं है, <math>h + r</math> का शुद्ध अनुवाद <math>t</math> से दूर हो सकता है, और एक [[गोलाकार]] समविभव [[यूक्लिडियन दूरी]] से यह भेद करना कठिन हो जाता है कि निकटतम इकाई कौन सी है।<ref name=":8" /> इसके अतिरिक्त, TransA, अस्पष्टता को दूर करने के लिए दीर्घवृत्त सतहों के साथ, एम्बेडिंग आयामों को भारित करने के लिए अनुकूली महालनोबिस दूरी का परिचय देता है।<ref name=":0" /><ref name=":3" /><ref name=":8" />
*TransA:<ref name=":8">{{cite arXiv|last1=Xiao|first1=Han|last2=Huang|first2=Minlie|last3=Hao|first3=Yu|last4=Zhu|first4=Xiaoyan|date=2015-09-27|title=TransA: An Adaptive Approach for Knowledge Graph Embedding|class=cs.CL|eprint=1509.05490}}</ref> सभी अनुवादात्मक मॉडल अपने प्रतिनिधित्व समष्टि में स्कोर फलन को परिभाषित करते हैं, परंतु वे इस मीट्रिक हानि को अधिक सरल बनाते हैं।<ref name=":8" /> चूंकि एम्बेडिंग और संबंधों का सदिश प्रतिनिधित्व उचित नहीं है, <math>h + r</math> का शुद्ध अनुवाद <math>t</math> से दूर हो सकता है, और एक [[गोलाकार]] समविभव [[यूक्लिडियन दूरी]] से यह भेद करना कठिन हो जाता है कि निकटतम इकाई कौन सी है।<ref name=":8" /> इसके अतिरिक्त, TransA, अस्पष्टता को दूर करने के लिए दीर्घवृत्त सतहों के साथ, एम्बेडिंग आयामों को भारित करने के लिए अनुकूली महालनोबिस दूरी का परिचय देता है।<ref name=":0" /><ref name=":3" /><ref name=":8" />
==== अतिरिक्त एम्बेडिंग के साथ अनुवादात्मक मॉडल ====
==== अतिरिक्त एम्बेडिंग के साथ अनुवादात्मक मॉडल ====
नाँलेज ग्राफ में प्रत्येक तत्व और उनके सामान्य प्रतिनिधित्व तथ्यों के साथ अतिरिक्त सूचना जोड़ना संभव है।<ref name=":0" /> नाँलेज ग्राफ के साथ डोमेन के समग्र विवरण को स्पष्ट बनाने के लिए प्रत्येक इकाई और संबंध को पाठ विवरण, भार, बाधाओं और अन्य से समृद्ध किया जा सकता है।<ref name=":0" /> इस प्रकार से नाँलेज ग्राफ के एम्बेडिंग के समय, इस सूचना का उपयोग इन विशेषताओं के लिए विशेष एम्बेडिंग सीखने के लिए किया जा सकता है, साथ ही अधिक महत्वपूर्ण संख्या में सदिश सीखने की लागत के साथ, एम्बेडिंग और संबंधों के सामान्य एम्बेडेड प्रतिनिधित्व को भी सीखा जा सकता है।<ref name=":1" />
नाँलेज ग्राफ में प्रत्येक तत्व और उनके सामान्य प्रतिनिधित्व तथ्यों के साथ अतिरिक्त सूचना जोड़ना संभव है।<ref name=":0" /> नाँलेज ग्राफ के साथ डोमेन के समग्र विवरण को स्पष्ट बनाने के लिए प्रत्येक इकाई और संबंध को पाठ विवरण, भार, बाधाओं और अन्य से समृद्ध किया जा सकता है।<ref name=":0" /> इस प्रकार से नाँलेज ग्राफ के एम्बेडिंग के समय, इस सूचना का उपयोग इन विशेषताओं के लिए विशेष एम्बेडिंग सीखने के लिए किया जा सकता है, साथ ही अधिक महत्वपूर्ण संख्या में सदिश सीखने की लागत के साथ, एम्बेडिंग और संबंधों के सामान्य एम्बेडेड प्रतिनिधित्व को भी सीखा जा सकता है।<ref name=":1" />


* STransE:<ref name=":16">{{Cite book|last1=Nguyen|first1=Dat Quoc|last2=Sirts|first2=Kairit|last3=Qu|first3=Lizhen|last4=Johnson|first4=Mark|title=Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies |chapter=STransE: A novel embedding model of entities and relationships in knowledge bases |date=June 2016 |chapter-url=https://www.aclweb.org/anthology/N16-1054 |publisher=Association for Computational Linguistics|pages=460–466|doi=10.18653/v1/N16-1054|arxiv=1606.08140|s2cid=9884935}}</ref> यह मॉडल TransE और संरचना एम्बेडिंग के संयोजन का परिणाम है जिससे यह एक-से-अनेक, अनेक-से-एक और अनेक-से-अनेक संबंधों का बेहतर प्रतिनिधित्व करने में सक्षम है।<ref name=":16" /><ref name=":1" /> ऐसा करने पर, मॉडल में केजी में प्रत्येक एम्बेडेड संबंध <math>r</math> के लिए दो अतिरिक्त स्वतंत्र आव्यूह <math>W_{r}^{h}</math> और <math>W_{r}^{t}</math> सम्मिलित होते हैं।<ref name=":16" /> अतः प्रत्येक अतिरिक्त आव्यूह का उपयोग इस तथ्य के आधार पर किया जाता है कि विशिष्ट संबंध तथ्य के शीर्ष या पूंछ के साथ परस्पर क्रिया करता है।<ref name=":16" /> दूसरे शब्दों में, एक तथ्य <math>(h, r, t)</math> दिया गया है, सदिश अनुवाद लागू करने से पहले, शीर्ष <math>h</math> को <math>W_{r}^{h}</math> से गुणा किया जाता है और पुंछ को <math>W_{r}^{t}</math> से गुणा किया जाता है।<ref name=":3" />
* STransE:<ref name=":16">{{Cite book|last1=Nguyen|first1=Dat Quoc|last2=Sirts|first2=Kairit|last3=Qu|first3=Lizhen|last4=Johnson|first4=Mark|title=Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies |chapter=STransE: A novel embedding model of entities and relationships in knowledge bases |date=June 2016 |chapter-url=https://www.aclweb.org/anthology/N16-1054 |publisher=Association for Computational Linguistics|pages=460–466|doi=10.18653/v1/N16-1054|arxiv=1606.08140|s2cid=9884935}}</ref> यह मॉडल TransE और संरचना एम्बेडिंग के संयोजन का परिणाम है जिससे यह एक-से-अनेक, अनेक-से-एक और अनेक-से-अनेक संबंधों का बेहतर प्रतिनिधित्व करने में सक्षम है।<ref name=":16" /><ref name=":1" /> ऐसा करने पर, मॉडल में केजी में प्रत्येक एम्बेडेड संबंध <math>r</math> के लिए दो अतिरिक्त स्वतंत्र आव्यूह <math>W_{r}^{h}</math> और <math>W_{r}^{t}</math> सम्मिलित होते हैं।<ref name=":16" /> अतः प्रत्येक अतिरिक्त आव्यूह का उपयोग इस तथ्य के आधार पर किया जाता है कि विशिष्ट संबंध तथ्य के शीर्ष या पूंछ के साथ परस्पर क्रिया करता है।<ref name=":16" /> दूसरे शब्दों में, एक तथ्य <math>(h, r, t)</math> दिया गया है, सदिश अनुवाद लागू करने से पहले, शीर्ष <math>h</math> को <math>W_{r}^{h}</math> से गुणा किया जाता है और पुंछ को <math>W_{r}^{t}</math> से गुणा किया जाता है।<ref name=":3" />


* CrossE'':<ref name=":17">{{Cite book|last1=Zhang|first1=Wen|last2=Paudel|first2=Bibek|last3=Zhang|first3=Wei|last4=Bernstein|first4=Abraham|last5=Chen|first5=Huajun|title=वेब खोज और डेटा माइनिंग पर बारहवें एसीएम अंतर्राष्ट्रीय सम्मेलन की कार्यवाही|chapter=Interaction Embeddings for Prediction and Explanation in Knowledge Graphs |date=2019-01-30 |pages=96–104|doi=10.1145/3289600.3291014|arxiv=1903.04750|isbn=9781450359405|s2cid=59516071}}</ref> ''विनिमय परस्पर क्रिया का उपयोग संबंधित सूचना चयन के लिए किया जा सकता है, और एम्बेडिंग प्रक्रिया के लिए बहुत उपयोगी हो सकता है।<ref name=":17" /> विनिमय परस्पर क्रिया सूचना चयन में दो अलग-अलग योगदान प्रदान करते हैं: संबंधों से एम्बेडिंग तक परस्पर क्रिया और एम्बेडिंग से संबंधों तक परस्पर क्रिया।<ref name=":17" /> अतः इसका अर्थ यह है कि संबंध, उदाहरण के लिए 'President_of' स्वचालित रूप से उन एम्बेडिंग के प्रकार का चयन करता है जो विषय को किसी तथ्य की वस्तु से जोड़ रहे हैं।<ref name=":17" /> इसी प्रकार, किसी तथ्य की इकाई अप्रत्यक्ष रूप से यह निर्धारित करती है कि संबंधित ट्रिपल की वस्तु की भविष्यवाणी करने के लिए कौन सा अनुमान पथ चुनना है।<ref name=":17" /> CrossE, ऐसा करने के लिए, एक अतिरिक्त परस्पर क्रिया आव्यूह <math>C</math> सीखता है, <math>h</math> और <math>r</math> के बीच परस्पर क्रिया की गणना करने के लिए तत्व-वार उत्पाद का उपयोग करता है।<ref name=":1" /><ref name=":17" /> यद्यपि, CrossE, तंत्रिका नेटवर्क आर्किटेक्चर पर विश्वास नहीं करता है, यह दिखाया गया है कि इस पद्धति को ऐसे आर्किटेक्चर में एन्कोड किया जा सकता है।<ref name=":0" />
* CrossE'':<ref name=":17">{{Cite book|last1=Zhang|first1=Wen|last2=Paudel|first2=Bibek|last3=Zhang|first3=Wei|last4=Bernstein|first4=Abraham|last5=Chen|first5=Huajun|title=वेब खोज और डेटा माइनिंग पर बारहवें एसीएम अंतर्राष्ट्रीय सम्मेलन की कार्यवाही|chapter=Interaction Embeddings for Prediction and Explanation in Knowledge Graphs |date=2019-01-30 |pages=96–104|doi=10.1145/3289600.3291014|arxiv=1903.04750|isbn=9781450359405|s2cid=59516071}}</ref> ''विनिमय परस्पर क्रिया का उपयोग संबंधित सूचना चयन के लिए किया जा सकता है, और एम्बेडिंग प्रक्रिया के लिए बहुत उपयोगी हो सकता है।<ref name=":17" /> विनिमय परस्पर क्रिया सूचना चयन में दो अलग-अलग योगदान प्रदान करते हैं: संबंधों से एम्बेडिंग तक परस्पर क्रिया और एम्बेडिंग से संबंधों तक परस्पर क्रिया।<ref name=":17" /> अतः इसका अर्थ यह है कि संबंध, उदाहरण के लिए 'President_of' स्वचालित रूप से उन एम्बेडिंग के प्रकार का चयन करता है जो विषय को किसी तथ्य की वस्तु से जोड़ रहे हैं।<ref name=":17" /> इसी प्रकार, किसी तथ्य की इकाई अप्रत्यक्ष रूप से यह निर्धारित करती है कि संबंधित ट्रिपल की वस्तु की भविष्यवाणी करने के लिए कौन सा अनुमान पथ चुनना है।<ref name=":17" /> CrossE, ऐसा करने के लिए, एक अतिरिक्त परस्पर क्रिया आव्यूह <math>C</math> सीखता है, <math>h</math> और <math>r</math> के बीच परस्पर क्रिया की गणना करने के लिए तत्व-वार उत्पाद का उपयोग करता है।<ref name=":1" /><ref name=":17" /> यद्यपि, CrossE, तंत्रिका नेटवर्क आर्किटेक्चर पर विश्वास नहीं करता है, यह दिखाया गया है कि इस पद्धति को ऐसे आर्किटेक्चर में पूर्ण रूप से एन्कोड किया जा सकता है।<ref name=":0" />
==== रोटो-अनुवादात्मक मॉडल ====
==== रोटो-अनुवादात्मक मॉडल ====
इस प्रकार से मॉडलों का यह वर्ग, अनुवाद के अतिरिक्त या प्रतिस्थापन में घूर्णन-जैसे परिवर्तन को नियोजित करता है।<ref name=":1" />
इस प्रकार से मॉडलों का यह वर्ग, अनुवाद के अतिरिक्त या प्रतिस्थापन में घूर्णन-जैसे परिवर्तन को नियोजित करता है।<ref name=":1" />


* TorusE:<ref name=":18">{{cite arXiv|last1=Ebisu|first1=Takuma|last2=Ichise|first2=Ryutaro|date=2017-11-15|title=TorusE: Knowledge Graph Embedding on a Lie Group|class=cs.AI|eprint=1711.05435}}</ref> TorusE का नियमितीकरण शब्द इकाई को गोलाकार स्थान बनाने के लिए एम्बेड करता है, और परिणामस्वरूप ज्यामितीय समष्टि के अनुवाद गुणों को खो देता है।<ref name=":18" /> इस समस्या का हल करने के लिए, [[ टोरस्र्स |TorusE]] संहत लाई समूह के उपयोग का लाभ उठाता है जो इस विशिष्ट स्थिति में n-आयामी टोरस समष्टि है, और नियमितीकरण के उपयोग से बचता है।<ref name=":0" /><ref name=":18" /> अतः TorusE, TransE के L1 और L2 मानदंड को प्रतिस्थापित करने के लिए दूरी फ़ंक्शन को परिभाषित करता है।<ref name=":1" />
* TorusE:<ref name=":18">{{cite arXiv|last1=Ebisu|first1=Takuma|last2=Ichise|first2=Ryutaro|date=2017-11-15|title=TorusE: Knowledge Graph Embedding on a Lie Group|class=cs.AI|eprint=1711.05435}}</ref> TorusE का नियमितीकरण शब्द इकाई को गोलाकार स्थान बनाने के लिए एम्बेड करता है, और परिणामस्वरूप ज्यामितीय समष्टि के अनुवाद गुणों को खो देता है।<ref name=":18" /> इस समस्या का हल करने के लिए, [[ टोरस्र्स |TorusE]] संहत लाई समूह के उपयोग का लाभ उठाता है जो इस विशिष्ट स्थिति में n-आयामी टोरस समष्टि है, और नियमितीकरण के उपयोग से बचता है।<ref name=":0" /><ref name=":18" /> अतः TorusE, TransE के L1 और L2 मानदंड को प्रतिस्थापित करने के लिए दूरी फलन को परिभाषित करता है।<ref name=":1" />
* RotatE:<ref name=":19">{{cite arXiv|last1=Sun|first1=Zhiqing|last2=Deng|first2=Zhi-Hong|last3=Nie|first3=Jian-Yun|last4=Tang|first4=Jian|date=2019-02-26|title=RotatE: Knowledge Graph Embedding by Relational Rotation in Complex Space|class=cs.LG|eprint=1902.10197}}</ref> RotatE यूलर की पहचान से प्रेरित है और इसमें जटिल स्थान में शीर्ष <math>h</math> से पूंछ <math>t
* RotatE:<ref name=":19">{{cite arXiv|last1=Sun|first1=Zhiqing|last2=Deng|first2=Zhi-Hong|last3=Nie|first3=Jian-Yun|last4=Tang|first4=Jian|date=2019-02-26|title=RotatE: Knowledge Graph Embedding by Relational Rotation in Complex Space|class=cs.LG|eprint=1902.10197}}</ref> RotatE यूलर की पहचान से प्रेरित है और इसमें जटिल स्थान में शीर्ष <math>h</math> से पूंछ <math>t
</math> तक घूर्णन के रूप में संबंध <math>r</math> का प्रतिनिधित्व करने के लिए [[हैडामर्ड उत्पाद (मैट्रिसेस)]] का उपयोग सम्मिलित है।<ref name=":19" /> ट्रिपल के प्रत्येक तत्व के लिए, एम्बेडिंग का जटिल भाग अक्ष के संबंध में वामावर्त घूर्णन का वर्णन करता है, जिसे यूलर की पहचान के साथ वर्णित किया जा सकता है, जबकि संबंध सदिश का मापांक 1 है।<ref name=":19" /> अतः यह दिखाया गया है कि मॉडल नाँलेज ग्राफ से सममित, असममित, उलटा और संरचना संबंधों को एम्बेड करने में सक्षम है।<ref name=":19" />
</math> तक घूर्णन के रूप में संबंध <math>r</math> का प्रतिनिधित्व करने के लिए [[हैडामर्ड उत्पाद (मैट्रिसेस)]] का उपयोग पूर्ण रूप से सम्मिलित है।<ref name=":19" /> ट्रिपल के प्रत्येक तत्व के लिए, एम्बेडिंग का जटिल भाग अक्ष के संबंध में वामावर्त घूर्णन का वर्णन करता है, जिसे यूलर की पहचान के साथ वर्णित किया जा सकता है, जबकि संबंध सदिश का मापांक 1 है।<ref name=":19" /> अतः यह दिखाया गया है कि मॉडल नाँलेज ग्राफ से सममित, असममित, उलटा और संरचना संबंधों को एम्बेड करने में सक्षम है।<ref name=":19" />
=== गहन शिक्षण मॉडल ===
=== गहन शिक्षण मॉडल ===
एम्बेडिंग मॉडल का यह समूह नाँलेज ग्राफ से पैटर्न सीखने के लिए गहरे तंत्रिका नेटवर्क का उपयोग करता है जो इनपुट डेटा हैं।<ref name=":1" /> इन मॉडलों में इकाई और संबंध के प्रकार, अस्थायी सूचना, पथ सूचना, अंतर्निहित संरचित सूचना को अलग करने की व्यापकता है।<ref name=":4" /> और नाँलेज ग्राफ की सभी विशेषताओं का प्रतिनिधित्व करने में दूरी-आधारित और अर्थ-मिलान-आधारित मॉडल की सीमाओं को हल करें।<ref name=":0" /> नाँलेज ग्राफ एम्बेडिंग के लिए गहन शिक्षण के उपयोग ने स्पष्ट अनुमानित परफॉरमेंस दिखाया है, यद्यपि वे प्रशिक्षण चरण में अधिक बहु मानित हों, डेटा की कमी हो, और प्रायः अलग एम्बेडिंग मॉडल से आने वाले नाँलेज ग्राफ के पूर्व-प्रशिक्षित एम्बेडिंग प्रतिनिधित्व की आवश्यकता होती है।<ref name=":0" /><ref name=":1" />
एम्बेडिंग मॉडल का यह समूह नाँलेज ग्राफ से पैटर्न सीखने के लिए गहरे तंत्रिका नेटवर्क का उपयोग करता है जो इनपुट डेटा हैं।<ref name=":1" /> इन मॉडलों में इकाई और संबंध के प्रकार, अस्थायी सूचना, पथ सूचना, अंतर्निहित संरचित सूचना को अलग करने की व्यापकता है।<ref name=":4" /> और नाँलेज ग्राफ की सभी विशेषताओं का प्रतिनिधित्व करने में दूरी-आधारित और अर्थ-मिलान-आधारित मॉडल की सीमाओं को हल करें।<ref name=":0" /> नाँलेज ग्राफ एम्बेडिंग के लिए गहन शिक्षण के उपयोग ने स्पष्ट अनुमानित परफॉरमेंस दिखाया है, यद्यपि वे प्रशिक्षण चरण में अधिक बहु मानित हों, डेटा की कमी हो, और प्रायः अलग एम्बेडिंग मॉडल से आने वाले नाँलेज ग्राफ के पूर्व-प्रशिक्षित एम्बेडिंग प्रतिनिधित्व की आवश्यकता होती है।<ref name=":0" /><ref name=":1" />
Line 120: Line 120:
मॉडलों का यह वर्ग, पूर्ण रूप से कनेक्टेड परतों का उपयोग करने के अतिरिक्त, या से अधिक ConvEन्शनल परतों को नियोजित करता है जो निम्न-आयामी फ़िल्टर लागू करके इनपुट डेटा को संयोजित करता है जो गैर रेखीय सुविधाओं को सीखकर कुछ मापदंडों के साथ जटिल संरचनाओं को एम्बेड करने में सक्षम होता है।<ref name=":0" /><ref name=":1" /><ref name=":4" />
मॉडलों का यह वर्ग, पूर्ण रूप से कनेक्टेड परतों का उपयोग करने के अतिरिक्त, या से अधिक ConvEन्शनल परतों को नियोजित करता है जो निम्न-आयामी फ़िल्टर लागू करके इनपुट डेटा को संयोजित करता है जो गैर रेखीय सुविधाओं को सीखकर कुछ मापदंडों के साथ जटिल संरचनाओं को एम्बेड करने में सक्षम होता है।<ref name=":0" /><ref name=":1" /><ref name=":4" />


* ConvE:<ref name=":29">{{cite arXiv|last1=Dettmers|first1=Tim|last2=Minervini|first2=Pasquale|last3=Stenetorp|first3=Pontus|last4=Riedel|first4=Sebastian|date=2018-07-04|title=Convolutional 2D Knowledge Graph Embeddings|class=cs.LG|eprint=1707.01476}}</ref> ConvE एम्बेडिंग एक ऐसा मॉडल है जो गहन शिक्षण मॉडल और कम्प्यूटेशनल अधिकतम मूल्य की उचित ट्रेडऑफ़ अभिव्यक्ति का प्रतिनिधित्व करता है,<ref name=":25" /> वस्तुतः यह दिखाया गया है कि DistMult की तुलना में इसमें 8x कम पैरामीटर का उपयोग किया गया है।<ref name=":29"/> ConvE नाँलेज ग्राफ की संस्थाओं और संबंधों का प्रतिनिधित्व करने के लिए एक-आयामी <math>d</math> आकार एम्बेडिंग का उपयोग करता है।<ref name=":1" /><ref name=":29"/> ट्रिपल के स्कोर फ़ंक्शन की गणना करने के लिए, ConvE एक सरल प्रक्रिया लागू करता है: पहले कॉनकैटेन्स और ट्रिपल के हेड के एम्बेडिंग और एकल डेटा <chem>[h; \mathcal{r}]</chem> में संबंध को मर्ज करता है, फिर इस आव्यूह को 2D कनवल्शनल लेयर के लिए इनपुट के रूप में उपयोग किया जाता है।<ref name=":1" /><ref name=":25" /> फिर परिणाम को एक गहन परत के माध्यम से पारित किया जाता है जो आव्यूह <math>\mathcal{W}</math> द्वारा पैरामीटरयुक्त एक रैखिक परिवर्तन लागू करता है और अंत में, [[आंतरिक उत्पाद स्थान|आंतरिक उत्पाद]] के साथ पुंछ ट्रिपल से जुड़ा होता है।<ref name=":1" /><ref name=":4" /> ConvE मूल्यांकन प्रक्रिया में भी विशेष रूप से कुशल है: 1-एन स्कोरिंग का उपयोग करके, मॉडल मिलान करता है, एक शीर्ष और एक संबंध दिया जाता है, एक ही समय में सभी पुंछ, अन्य मॉडलों के 1-1 मूल्यांकन कार्यक्रम की तुलना में बहुत अधिक मूल्यांकन समय बचाते हैं।<ref name=":4" />
* ConvE:<ref name=":29">{{cite arXiv|last1=Dettmers|first1=Tim|last2=Minervini|first2=Pasquale|last3=Stenetorp|first3=Pontus|last4=Riedel|first4=Sebastian|date=2018-07-04|title=Convolutional 2D Knowledge Graph Embeddings|class=cs.LG|eprint=1707.01476}}</ref> ConvE एम्बेडिंग एक ऐसा मॉडल है जो गहन शिक्षण मॉडल और कम्प्यूटेशनल अधिकतम मूल्य की उचित ट्रेडऑफ़ अभिव्यक्ति का प्रतिनिधित्व करता है,<ref name=":25" /> वस्तुतः यह दिखाया गया है कि DistMult की तुलना में इसमें 8x कम पैरामीटर का उपयोग किया गया है।<ref name=":29"/> ConvE नाँलेज ग्राफ की संस्थाओं और संबंधों का प्रतिनिधित्व करने के लिए एक-आयामी <math>d</math> आकार एम्बेडिंग का उपयोग करता है।<ref name=":1" /><ref name=":29"/> ट्रिपल के स्कोर फलन की गणना करने के लिए, ConvE एक सरल प्रक्रिया लागू करता है: पहले कॉनकैटेन्स और ट्रिपल के हेड के एम्बेडिंग और एकल डेटा <chem>[h; \mathcal{r}]</chem> में संबंध को मर्ज करता है, फिर इस आव्यूह को 2D कनवल्शनल लेयर के लिए इनपुट के रूप में उपयोग किया जाता है।<ref name=":1" /><ref name=":25" /> फिर परिणाम को एक गहन परत के माध्यम से पारित किया जाता है जो आव्यूह <math>\mathcal{W}</math> द्वारा पैरामीटरयुक्त एक रैखिक परिवर्तन लागू करता है और अंत में, [[आंतरिक उत्पाद स्थान|आंतरिक उत्पाद]] के साथ पुंछ ट्रिपल से जुड़ा होता है।<ref name=":1" /><ref name=":4" /> ConvE मूल्यांकन प्रक्रिया में भी विशेष रूप से कुशल है: 1-एन स्कोरिंग का उपयोग करके, मॉडल मिलान करता है, एक शीर्ष और एक संबंध दिया जाता है, एक ही समय में सभी पुंछ, अन्य मॉडलों के 1-1 मूल्यांकन फलन की तुलना में बहुत अधिक मूल्यांकन समय बचाते हैं।<ref name=":4" />
*ConvR:<ref name=":20">{{Cite book|last1=Jiang|first1=Xiaotian|last2=Wang|first2=Quan|last3=Wang|first3=Bin|title=Proceedings of the 2019 Conference of the North |chapter=Adaptive Convolution for Multi-Relational Learning |date=June 2019 |chapter-url=https://www.aclweb.org/anthology/N19-1103 |publisher=Association for Computational Linguistics|pages=978–987|doi=10.18653/v1/N19-1103|s2cid=174800352}}</ref> ConvR अनुकूली दृढ़ नेटवर्क है जिसका उद्देश्य एम्बेडिंग और संबंधों के बीच सभी संभावित परस्पर क्रिया का गहनता से प्रतिनिधित्व करना है।<ref name=":20" /> इस क्रिया के लिए, ConvR, प्रत्येक संबंध के लिए संकेंद्रित फ़िल्टर की गणना करता है, और, जब आवश्यक हो, जटिल सुविधाओं को निकालने के लिए इन फ़िल्टरों को रुचि की इकाई पर लागू करता है।<ref name=":20" /> ट्रिपल के स्कोर की गणना करने की प्रक्रिया ConvE के समान है।<ref name=":1" />
*ConvR:<ref name=":20">{{Cite book|last1=Jiang|first1=Xiaotian|last2=Wang|first2=Quan|last3=Wang|first3=Bin|title=Proceedings of the 2019 Conference of the North |chapter=Adaptive Convolution for Multi-Relational Learning |date=June 2019 |chapter-url=https://www.aclweb.org/anthology/N19-1103 |publisher=Association for Computational Linguistics|pages=978–987|doi=10.18653/v1/N19-1103|s2cid=174800352}}</ref> ConvR अनुकूली दृढ़ नेटवर्क है जिसका उद्देश्य एम्बेडिंग और संबंधों के बीच सभी संभावित परस्पर क्रिया का गहनता से प्रतिनिधित्व करना है।<ref name=":20" /> इस क्रिया के लिए, ConvR, प्रत्येक संबंध के लिए संकेंद्रित फ़िल्टर की गणना करता है, और, जब आवश्यक हो, जटिल सुविधाओं को निकालने के लिए इन फ़िल्टरों को रुचि की इकाई पर लागू करता है।<ref name=":20" /> ट्रिपल के स्कोर की गणना करने की प्रक्रिया ConvE के समान है।<ref name=":1" />
*ConvKB:<ref name=":21">{{Cite book|last1=Nguyen|first1=Dai Quoc|last2=Nguyen|first2=Tu Dinh|last3=Nguyen|first3=Dat Quoc|last4=Phung|first4=Dinh|title=Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers) |chapter=A Novel Embedding Model for Knowledge Base Completion Based on Convolutional Neural Network |date=2018 |pages=327–333|doi=10.18653/v1/N18-2053|arxiv=1712.02121|s2cid=3882054}}</ref> ConvKB, किसी दिए गए ट्रिपल <math>(h, r, t)</math> के स्कोर फ़ंक्शन की गणना करने के लिए, यह बिना किसी आकार परिवर्तन के आयाम <math>d \times 3</math> का एक इनपुट <chem>[h; \mathcal{r}; t]</chem> उत्पन्न करता है और इसे आकार <math>1 \times 3</math> के कन्वेन्शनल फ़िल्टर की श्रृंखला में भेजता है।<ref name=":21" /> यह परिणाम मात्र न्यूरॉन के साथ सघन परत को पोषित करता है जो अंतिम स्कोर उत्पन्न करता है।<ref name=":21" /> एकल अंतिम न्यूरॉन इस आर्किटेक्चर को बाइनरी क्लासिफायरियर के रूप में बनाता है जिसमें तथ्य उचित या अनुचित हो सकता है।<ref name=":1" /> ConvE के साथ अंतर यह है कि एम्बेडिंग की आयामीता नहीं बदली जाती है।<ref name=":25" />
*ConvKB:<ref name=":21">{{Cite book|last1=Nguyen|first1=Dai Quoc|last2=Nguyen|first2=Tu Dinh|last3=Nguyen|first3=Dat Quoc|last4=Phung|first4=Dinh|title=Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers) |chapter=A Novel Embedding Model for Knowledge Base Completion Based on Convolutional Neural Network |date=2018 |pages=327–333|doi=10.18653/v1/N18-2053|arxiv=1712.02121|s2cid=3882054}}</ref> ConvKB, किसी दिए गए ट्रिपल <math>(h, r, t)</math> के स्कोर फलन की गणना करने के लिए, यह बिना किसी आकार परिवर्तन के आयाम <math>d \times 3</math> का एक इनपुट <chem>[h; \mathcal{r}; t]</chem> उत्पन्न करता है और इसे आकार <math>1 \times 3</math> के कन्वेन्शनल फ़िल्टर की श्रृंखला में भेजता है।<ref name=":21" /> यह परिणाम मात्र न्यूरॉन के साथ सघन परत को पोषित करता है जो अंतिम स्कोर उत्पन्न करता है।<ref name=":21" /> एकल अंतिम न्यूरॉन इस आर्किटेक्चर को बाइनरी क्लासिफायरियर के रूप में बनाता है जिसमें तथ्य उचित या अनुचित हो सकता है।<ref name=":1" /> ConvE के साथ अंतर यह है कि एम्बेडिंग की आयामीता नहीं बदली जाती है।<ref name=":25" />
==== [[कैप्सूल तंत्रिका नेटवर्क]] ====
==== [[कैप्सूल तंत्रिका नेटवर्क]] ====
मॉडलों का यह वर्ग अधिक स्थिर प्रतिनिधित्व बनाने के लिए कैप्सूल न्यूरल नेटवर्क का उपयोग करता है जो स्थानिक सूचना समाप्त हुए बिना इनपुट में सुविधा को पहचानने में सक्षम है।<ref name=":1" /> नेटवर्क संकेंद्रित परतों से बना है,परंतु वे कैप्सूल में व्यवस्थित होते हैं, और कैप्सूल का समग्र परिणाम गतिशील प्रक्रिया रूटीन द्वारा निर्धारित किए गए उच्च-कैप्सूल को भेजा जाता है।<ref name=":1" />
मॉडलों का यह वर्ग अधिक स्थिर प्रतिनिधित्व बनाने के लिए कैप्सूल न्यूरल नेटवर्क का उपयोग करता है जो स्थानिक सूचना समाप्त हुए बिना इनपुट में सुविधा को पहचानने में सक्षम है।<ref name=":1" /> नेटवर्क संकेंद्रित परतों से बना है,परंतु वे कैप्सूल में व्यवस्थित होते हैं, और कैप्सूल का समग्र परिणाम गतिशील प्रक्रिया रूटीन द्वारा निर्धारित किए गए उच्च-कैप्सूल को भेजा जाता है।<ref name=":1" />

Revision as of 12:12, 14 December 2023

नाँलेज ग्राफ का एम्बेडिंग। एम्बेडिंग और संबंधों के सदिश प्रतिनिधित्व का उपयोग विभिन्न मशीन सीखने के अनुप्रयोगों के लिए किया जा सकता है।

प्रतिनिधित्व शिक्षण में, नाँलेज ग्राफ एम्बेडिंग (KGE), जिसे नाँलेज प्रतिनिधित्व शिक्षण (KRL), या बहु-संबंध शिक्षण भी कहा जाता है,[1] नाँलेज ग्राफ की एम्बेडिंग और संबंधों के अर्थपूर्ण अर्थ को संरक्षित करते हुए उनके निम्न-आयामी प्रतिनिधित्व को सीखने का एक मशीन सीखने का क्रिया है।[1][2][3] उनके एम्बेडिंग प्रतिनिधित्व का लाभ उठाते हुए, नाँलेज ग्राफ़ (केजी) का उपयोग लिंक भविष्यवाणी, ट्रिपल वर्गीकरण, इकाई मान्यता, क्लस्टर विश्लेषण और संबंध निष्कर्षण जैसे विभिन्न अनुप्रयोगों के लिए किया जा सकता है।[1][4]

परिभाषा

एक नाँलेज ग्राफ इकाई , संबंध , और तथ्य का एक संग्रह है।[5] एक तथ्य एक ट्रिपल है जो ट्रिपल के शीर्ष और पुंछ के बीच एक लिंक को दर्शाता है। इस प्रकार से एक अन्य संकेतन जो प्रायः साहित्य में ट्रिपल (या तथ्य) का प्रतिनिधित्व करने के लिए उपयोग किया जाता है वह है । इस नोटेशन को संसाधन विवरण स्ट्रक्चर (आरडीएफ) कहा जाता है।[1][5] एक नाँलेज ग्राफ़ विशिष्ट डोमेन से संबंधित नाँलेज का प्रतिनिधित्व करता है; इस संरचित प्रतिनिधित्व का लाभ उठाते हुए, कुछ शोधन चरणों के बाद इससे नवीन नाँलेज का अनुमान लगाना संभव है।[6] यद्यपि, आजकल, लोगों को वास्तविक संसार के एप्लिकेशन में उनका उपयोग करने के लिए डेटा की विरलता और कम्प्यूटेशनल अक्षमता से निपटना पड़ता है।[3][7]

नाँलेज ग्राफ का एम्बेडिंग प्रत्येक इकाई और नाँलेज ग्राफ के संबंध, को किसी दिए गए आयाम , के सदिश में अनुवादित करता है, जिसे एम्बेडिंग आयाम कहा जाता है।[7] सामान्य स्थिति में, हमारे निकट इकाई और संबंध के लिए अलग-अलग एम्बेडिंग आयाम हो सकते हैं।[7] नाँलेज ग्राफ में सभी एम्बेडिंग और संबंधों के लिए एम्बेडिंग सदिश का संग्रह तब डाउनस्ट्रीम क्रियाओं के लिए उपयोग किया जा सकता है।

इस प्रकार से एक नाँलेज ग्राफ़ एम्बेडिंग को चार अलग-अलग गुणों की विशेषता है:[1]

  1. प्रतिनिधित्व समष्टि: निम्न-आयामी समष्टि जिसमें एम्बेडिंग और संबंधों का प्रतिनिधित्व किया जाता है।[1]
  2. स्कोरिंग फलन: ट्रिपल एम्बेडेड प्रतिनिधित्व की स्पष्टता का उपाय।[1]
  3. एन्कोडिंग मॉडल: वह पद्धति जिसमें एम्बेडिंग और संबंधों का एम्बेडेड प्रतिनिधित्व दूसरे के साथ परस्पर क्रिया करता है।[1]
  4. अतिरिक्त सूचना: नाँलेज ग्राफ से आने वाली कोई भी अतिरिक्त सूचना जो एम्बेडेड प्रतिनिधित्व को समृद्ध कर सकती है।[1] सामान्यतः, प्रत्येक अतिरिक्त सूचना के लिए तदर्थ स्कोरिंग फलन को सामान्य स्कोरिंग फलन में पूर्ण रूप से एकीकृत किया जाता है।[5][1][8]

एंबेडिंग प्रक्रिया

सभी अलग-अलग नाँलेज ग्राफ एम्बेडिंग मॉडल तथ्यों के अर्थपूर्ण अर्थ को जानने के लिए लगभग एक ही प्रक्रिया का पालन करते हैं।[7] सबसे पहले, नाँलेज ग्राफ के एम्बेडेड प्रतिनिधित्व को सीखने के लिए, एम्बेडिंग और संबंधों के एम्बेडिंग सदिश को यादृच्छिक मानों के लिए प्रारंभ किया जाता है।[7] फिर, प्रशिक्षण सेट से प्रारंभ करके स्टॉप स्थिति तक पहुंचने तक, एल्गोरिदम निरंतर एम्बेडिंग को अनुकूलित करता है।[7] सामान्यतः, स्टॉप की स्थिति प्रशिक्षण सेट पर ओवरफिटिंग द्वारा दी जाती है।[7] प्रत्येक पुनरावृत्ति के लिए, प्रशिक्षण सेट से आकार के एक बैच का नमूना लिया जाता है, और बैच के प्रत्येक ट्रिपल के लिए एक यादृच्छिक भ्रष्ट तथ्य का नमूना लिया जाता है—अर्थात, ट्रिपल जो नाँलेज ग्राफ में उचित तथ्य का प्रतिनिधित्व नहीं करता है।[7] ट्रिपल के भ्रष्टाचार में ट्रिपल के शीर्ष या पूंछ (या दोनों) को किसी अन्य इकाई के साथ प्रतिस्थापित करना सम्मिलित है जो तथ्य को अनुचित बनाता है।[7] इस प्रकार से मूल ट्रिपल और दूषित ट्रिपल को प्रशिक्षण बैच में जोड़ा जाता है, और फिर स्कोरिंग फलन को अनुकूलित करते हुए एम्बेडिंग को अपडेट किया जाता है।[5][7] एल्गोरिदम के अंत में, सीखे गए एम्बेडिंग को ट्रिपल से अर्थपूर्ण अर्थ निकालना चाहिए और नाँलेज ग्राफ में अनदेखे उचित तथ्यों की उचित भविष्यवाणी करनी चाहिए।[5]

स्यूडोकोड

इस प्रकार से सामान्य एम्बेडिंग प्रक्रिया के लिए छद्मकोड निम्नलिखित है।[9][7]

algorithm Compute entity and relation embeddings is
    input: The training set , 
           entity set , 
           relation set ,     
           embedding dimension 
    output: Entity and relation embeddings

    initialization: the entities  and relations  embeddings (vectors) are randomly initialized

    while stop condition do
         // From the training set randomly sample a batch of size b
        for each  in  do
              // sample a corrupted fact of triple
             
        end for
        Update embeddings by minimizing the loss function
    end while

परफॉरमेंस संकेतक

अतः इन सूचकांकों का उपयोग प्रायः किसी मॉडल की एम्बेडिंग गुणवत्ता को मापने के लिए किया जाता है। सूचकांकों की सरलता उन्हें बड़े पैमाने पर भी एम्बेडिंग एल्गोरिदम के परफॉरमेंस का मूल्यांकन करने के लिए बहुत उपयुक्त बनाती है।[10] इस प्रकार से किसी मॉडल की सभी पद की गई भविष्यवाणियों के सेट के रूप में को देखते हुए, तीन अलग-अलग परफॉरमेंस सूचकांकों को परिभाषित करना संभव है: Hits@K, MR, और MRR।[10]

Hits@K

Hits@K या संक्षेप में, H@K, परफॉरमेंस सूचकांक है जो पहले शीर्ष के मॉडल भविष्यवाणियों में उचित भविष्यवाणी खोजने की संभावना को मापता है।[10] सामान्यतः इसका प्रयोग किया जाता है।[10] इस प्रकार से Hits@K दो दिए गए ट्रिपल के बीच संबंध की उचित भविष्यवाणी करने के लिए एम्बेडिंग मॉडल की यथार्थता को दर्शाता है।[10]

Hits@K

बड़े मानों का अर्थ स्पष्ट अनुमानित परफॉरमेंस है।[10]

औसत पद (एमआर)

औसत पद सभी संभावित वस्तुओं के बीच मॉडल द्वारा अनुमानित वस्तुओं की औसत पद स्थिति है।[10]

अतः मान जितना छोटा होगा, मॉडल उतना ही स्पष्ट होगा।[10]

माध्य पारस्परिक पद (एमआरआर)

माध्य पारस्परिक पद उचित रूप से अनुमानित ट्रिपल की संख्या को मापता है।[10] यदि पहला अनुमानित ट्रिपल उचित है, तो 1 जोड़ा जाता है, यदि दूसरा उचित है तो का योग किया जाता है, और इसी प्रकार।[10]

अतः औसत पारस्परिक पद का उपयोग सामान्यतः खोज एल्गोरिदम के प्रभाव को मापने के लिए किया जाता है।[10]

इस प्रकार से सूचकांक जितना बड़ा होगा, मॉडल उतना ही स्पष्ट होगा।[10]

अनुप्रयोग

मशीन लर्निंग क्रिया

अतः नाँलेज ग्राफ पूर्णता (केजीसी) एम्बेडेड नाँलेज ग्राफ प्रतिनिधित्व से नाँलेज का अनुमान लगाने के लिए तकनीकों का संग्रह है।[11] विशेष रूप से, यह तकनीक लुप्त इकाई या संबंध का अनुमान लगाते हुए ट्रिपल को पूर्ण करती है।[11] संबंधित उप-क्रियाओं को लिंक या इकाई भविष्यवाणी (अर्थात, ट्रिपल की दूसरी इकाई और संबंध को देखते हुए एम्बेडिंग से इकाई का अनुमान लगाना), और संबंध भविष्यवाणी (अर्थात, दो इकाइयों को जोड़ने वाले सबसे प्रशंसनीय संबंध की भविष्यवाणी करना) नाम दिया गया है।[11]

इस प्रकार से ट्रिपल वर्गीकरण द्विआधारी वर्गीकरण समस्या है।[1] एक ट्रिपल को देखते हुए, प्रशिक्षित मॉडल एम्बेडिंग का उपयोग करके ट्रिपल की संभाव्यता का मूल्यांकन करता है ताकि यह निर्धारित किया जा सके कि ट्रिपल उचित है या अनुचित।[11] निर्णय मॉडल स्कोर फलन और दी गई सीमा के साथ किया जाता है।[11] क्लस्टरिंग अन्य एप्लिकेशन है जो 2डी स्पेस में समान सिमेंटिक इकाइयों के प्रतिनिधित्व को संक्षिप्त करने के लिए विरल नाँलेज ग्राफ के एम्बेडेड प्रतिनिधित्व का पूर्ण रूप से लाभ उठाता है।[4]

वास्तविक संसार के अनुप्रयोग

कई अनुप्रयोगों में नाँलेज ग्राफ एम्बेडिंग का उपयोग तीव्र से व्यापक हो रहा है। अतः अनुशंसा प्रणाली की स्थिति में, नाँलेज ग्राफ एम्बेडिंग का उपयोग सामान्य सुदृढीकरण सीखने की सीमाओं को दूर कर सकता है।[12][13] इस प्रकार की अनुशंसा प्रणाली को प्रशिक्षित करने के लिए उपयोगकर्ताओं से भारी मात्रा में सूचना की आवश्यकता होती है; यद्यपि, नाँलेज ग्राफ़ तकनीकें आइटम सहसंबंध के पूर्व नाँलेज पर पहले से ही बनाए गए ग्राफ़ का उपयोग करके और उससे अनुशंसा का अनुमान लगाने के लिए एम्बेडिंग का उपयोग करके इस समस्या को पूर्ण रूप से हल कर सकती हैं।[12] इस प्रकार से औषधि पुनर्प्रयोजन पहले से ही अनुमोदित औषधि का उपयोग है,परंतु चिकित्सीय उद्देश्य के लिए उस उद्देश्य से भिन्न होता है जिसके लिए इसे प्रारंभ में डिज़ाइन किया गया था।[14] बड़े पैमाने पर साहित्य और बायोमेडिकल डेटाबेस की उपलब्धता का लाभ उठाकर निर्मित बायोमेडिकल नाँलेज ग्राफ का उपयोग करके पहले से स्थित औषधि और बीमारी के बीच नवीन संबंध का अनुमान लगाने के लिए लिंक भविष्यवाणी के क्रिया का उपयोग करना संभव है।[14] अतः नाँलेज ग्राफ एम्बेडिंग का उपयोग सामाजिक राजनीति के क्षेत्र में भी किया जा सकता है।[4]

मॉडल

कुछ नाँलेज ग्राफ एम्बेडिंग मॉडल की प्रकाशन समयरेखा। लाल रंग में टेंसर अपघटन मॉडल, नीले रंग में ज्यामितीय मॉडल और हरे रंग में गहन शिक्षण मॉडल। RESCAL[15] (2011) पहला आधुनिक केजीई दृष्टिकोण था। इसमें[16] YAGO नाँलेज ग्राफ को लागू किया गया था। यह बड़े पैमाने पर नाँलेज ग्राफ के लिए KGE का पहला अनुप्रयोग था।

इस प्रकार से ट्रिपल (या तथ्यों) के संग्रह को देखते हुए, नाँलेज ग्राफ एम्बेडिंग मॉडल नाँलेज ग्राफ में स्थित प्रत्येक इकाई और संबंध के लिए एक सतत सदिश प्रतिनिधित्व उत्पन्न करता है।[7] अतः , और के साथ ट्रिपल का संगत एम्बेडिंग है, जहां एम्बेडिंग के लिए एम्बेडिंग आयाम है, और संबंधों के लिए है।[7] किसी दिए गए मॉडल का स्कोर फलन द्वारा दर्शाया गया है और संबंध के एम्बेडिंग को देखते हुए पूंछ के एम्बेडिंग से शीर्ष के एम्बेडिंग की दूरी को मापता है, या दूसरे शब्दों में, यह किसी दिए गए तथ्य के एम्बेडेड प्रतिनिधित्व की संभाव्यता को मापता है।[5]

इस प्रकार से रॉसी एट अल. एम्बेडिंग मॉडल की वर्गीकरण का प्रस्ताव करें और मॉडल के तीन मुख्य वर्गों की पहचान करें: टेंसर अपघटन मॉडल, ज्यामितीय मॉडल और गहन शिक्षण मॉडल।[5]

टेंसर अपघटन मॉडल

अतः टेंसर अपघटन नाँलेज ग्राफ एम्बेडिंग मॉडल का वर्ग है जो नाँलेज ग्राफ का प्रतिनिधित्व करने के लिए बहु-आयामी आव्यूह का उपयोग करता है,[1][5][17] यह किसी विशेष डोमेन का पूर्ण रूप से वर्णन करने वाले नाँलेज ग्राफ के अंतराल के कारण आंशिक रूप से जानने योग्य है।[5] इस प्रकार से विशेष रूप से, ये मॉडल तीन-पक्षीय (3डी) टेन्सर का उपयोग करते हैं, जिसे बाद में निम्न-आयामी सदिश में विभाजित किया जाता है जो कि इकाइयां और संबंध एम्बेडिंग होते हैं।[5][17] तीसरे क्रम का टेंसर नाँलेज ग्राफ का प्रतिनिधित्व करने के लिए उपयुक्त पद्धति है क्योंकि यह मात्र एम्बेडिंग के बीच संबंध के अस्तित्व या अनुपस्थिति को रिकॉर्ड करता है,[17] और इस कारण से यह सरल है, और नेटवर्क संरचना को प्राथमिकता से जानने की कोई आवश्यकता नहीं है,[15] एम्बेडिंग मॉडल के इस वर्ग को हल्का और प्रशिक्षित करना सरल बनाता है, यद्यपि वे उच्च-आयामी और डेटा की विरलता से पीड़ित हों।[5][17]

द्विरेखीय मॉडल

मॉडलों का यह वर्ग संबंध के माध्यम से एम्बेडिंग के बीच संबंध को एम्बेड करने के लिए रैखिक समीकरण का उपयोग करता है।[1] विशेष रूप से, संबंधों का अंतर्निहित प्रतिनिधित्व द्विआयामी आव्यूह है।[5] इस प्रकार से ये मॉडल, एम्बेडिंग प्रक्रिया के समय, एम्बेडेड प्रतिनिधित्व की गणना करने के लिए मात्र एकल तथ्यों का उपयोग करते हैं और उसी इकाई या संबंध के अन्य संघों को अनदेखा करते हैं।[18]

  • DistMult[19]: चूँकि संबंध का एम्बेडिंग आव्यूह एक विकर्ण आव्यूह है, स्कोरिंग फलन असममित तथ्यों को अलग नहीं कर सकता है।[5][5][18]
  • ComplEx[20]: चूँकि DistMult एम्बेडिंग संबंधों का प्रतिनिधित्व करने के लिए एक विकर्ण आव्यूह का उपयोग करता है, परंतु जटिल सदिश समष्टि और हर्मिटियन उत्पाद में एक प्रतिनिधित्व जोड़ता है, यह सममित और असममित तथ्यों को पूर्ण रूप से अलग कर सकता है।[5][17] यह दृष्टिकोण समय और समष्टि लागत के संदर्भ में बड़े नाँलेज ग्राफ के लिए मापनीय है।[20]
  • ANALOGY[21]: यह मॉडल आगमनात्मक तर्क को अनुकरण करने के लिए नाँलेज ग्राफ की अनुरूप संरचना को एम्बेड करने में एन्कोड करता है।[21][5][1] एक भिन्न उद्देश्य फलन का उपयोग करते हुए, ANALOGY में उचित सैद्धांतिक व्यापकता और कम्प्यूटेशनल मापनीयता है।[21] यह सिद्ध है कि ANALOGY द्वारा निर्मित एम्बेडिंग DistMult, ComplEx, और HolE की एम्बेडिंग को पूर्ण रूप से पुनर्प्राप्त करती है।[21]
  • SimplE[22]: यह मॉडल विहित बहुपद अपघटन (सीपी) का संशोधन है, जिसमें संबंध के लिए एम्बेडिंग सदिश और प्रत्येक इकाई के लिए दो स्वतंत्र एम्बेडिंग सदिश सीखे जाते हैं, यह इस पर निर्भर करता है कि यह नाँलेज ग्राफ तथ्य में शीर्ष या पुंछ है या नहीं।[22] SimpleE एक व्युत्क्रम संबंध का उपयोग करके दो इकाई एम्बेडिंग की स्वतंत्र सीखने की समस्या को हल करता है और और के सीपी स्कोर को औसत करता है।[7][17] अतः इस प्रकार, SimpleE एम्बेडिंग के बीच संबंध एकत्र करता है जबकि वे किसी तथ्य के भीतर विषय या वस्तु की भूमिका में दिखाई देते हैं, और यह असममित संबंधों को एम्बेड करने में पूर्ण रूप से सक्षम है।[5]

गैर-द्विरेखीय मॉडल

  • HolE:[23] नाँलेज ग्राफ का एम्बेडेड प्रतिनिधित्व बनाने के लिए HolE परिपत्र सहसंबंध का उपयोग करता है,[23] जिसे आव्यूह उत्पाद के संपीड़न के रूप में देखा जा सकता है,परंतु असममित संबंध व्यक्त करने की क्षमताओं को बनाए रखते हुए अधिक कम्प्यूटेशनल रूप से कुशल और मापनीय है क्योंकि परिपत्र सहसंबंध क्रमविनिमेय नहीं है।[18] अतः HolE होलोग्राफिक और जटिल एम्बेडिंग को पूर्ण रूप से जोड़ता है, यदि फूरियर रूपांतरण के साथ साथ उपयोग किया जाता है, तो इसे ComplEx की विशेष स्थिति के रूप में देखा जा सकता है।[1]
  • TuckER:[24] TuckER नाँलेज ग्राफ को टेंसर के रूप में देखता है जिसे सदिश के संग्रह में TuckER अपघटन का उपयोग करके विघटित किया जा सकता है—अर्थात, एम्बेडिंग और संबंधों का एम्बेडिंग— एक साझा कोर के साथ।[24][5] कोर टेंसर का भार एम्बेडिंग के साथ मिलकर सीखा जाता है और प्रविष्टियों के परस्पर क्रिया के स्तर का प्रतिनिधित्व करता है।[25] इस प्रकार से प्रत्येक इकाई और संबंध का अपना एम्बेडिंग आयाम होता है, और कोर टेंसर का आकार परस्पर क्रिया करने वाली एम्बेडिंग और संबंधों के आकार से निर्धारित होता है।[5] किसी तथ्य के विषय और वस्तु के एम्बेडिंग को उसी प्रकार से संक्षेपित किया जाता है, जिससे TuckER पूर्ण रूप से अभिव्यंजक हो जाता है, और अन्य एम्बेडिंग मॉडल जैसे कि RESCAL, DistMult, ComplEx और SimplE को TuckER के विशेष सूत्रीकरण के रूप में व्यक्त किया जा सकता है।[24]
  • MEI:[26] MEI कक्ष पद टेंसर प्रारूप के साथ बहु-विभाजन एम्बेडिंग परस्पर क्रिया तकनीक प्रस्तुत करता है, जो सीपी अपघटन और TuckER अपघटन का सामान्यीकरण है। अतः यह एम्बेडिंग सदिश को कई विभाजनों में विभाजित करता है और ComplEx या SimpleE मॉडल जैसे निश्चित विशेष पैटर्न का उपयोग करने के अतिरिक्त डेटा से स्थानीय परस्पर क्रिया पैटर्न सीखता है। यह MEI को इष्टतम दक्षता प्राप्त करने में सक्षम बनाता है - अभिव्यंजना व्यापार-संवृत, न कि मात्र पूर्ण रूप से अभिव्यंजक होना।[26] पूर्व मॉडल जैसे TuckER, RESCAL, DistMult, ComplEx, और SimpleE MEI की उप-इष्टतम प्रतिबंधित विशेष स्थिति हैं।
  • MEIM:[27] MEIM बहु-विभाजन एम्बेडिंग परस्पर क्रिया के अतिरिक्त, एसेम्बल बूस्टिंग प्रभावों के लिए स्वतंत्र कोर टेंसर और अधिकतम-पद संबंधपरक प्रतिचित्रण के लिए मृदु लंबकोणीयता को प्रस्तुत करने के लिए कक्ष पद टेंसर प्रारूप से आगे जाता है। MEIM कई पूर्व मॉडलों जैसे MEI और इसके सम्मिलित मॉडल, RotaE और QuatE को सामान्यीकृत करता है।[27] इस प्रकार से MEIN व्यवहार में अत्यधिक कुशल होते हुए भी अभिव्यंजना में संशोधन करता है, जिससे इसे अत्यधिक छोटे मॉडल आकारों का उपयोग करके स्पष्ट परिणाम प्राप्त करने में सहायता मिलती है।

ज्यामितीय मॉडल

मॉडलों के इस वर्ग द्वारा परिभाषित ज्यामितीय समष्टि किसी तथ्य के शीर्ष और पूंछ के बीच ज्यामितीय परिवर्तन के रूप में संबंध को कूटबद्ध करता है।[5] अतः इस कारण से, पूंछ के एम्बेडिंग की गणना करने के लिए, शीर्ष एम्बेडिंग में एक परिवर्तन लागू करना आवश्यक है, और एक दूरी फलन का उपयोग एम्बेडिंग की स्पष्टता को मापने या किसी तथ्य की विश्वसनीयता को स्कोर करने के लिए किया जाता है।[5]

ज्यामितीय मॉडल टेंसर अपघटन मॉडल के समान हैं, परंतु दोनों के बीच मुख्य अंतर यह है कि उन्हें ज्यामितीय समष्टि में परिवर्तन की प्रयोज्यता को संरक्षित करना है जिसमें इसे पूर्ण रूप से परिभाषित किया गया है।[5]

शुद्ध अनुवादात्मक मॉडल

मॉडलों का यह वर्ग Word2vec में प्रस्तुत किए गए अनुवाद अपरिवर्तनीयता के विचार से प्रेरित है।[7] एक शुद्ध अनुवादात्मक मॉडल इस तथ्य पर निर्भर करता है कि इकाइयों के एम्बेडिंग सदिश ज्यामितीय समष्टि में उचित संबंधपरक अनुवाद लागू करने के बाद एक-दूसरे के निकट होते हैं जिसमें उन्हें परिभाषित किया जाता है।[18] दूसरे शब्दों में, तथ्य को देखते हुए, जब संबंध के एम्बेडिंग में शीर्ष का एम्बेडिंग जोड़ा जाता है, तो अपेक्षित परिणाम पुंछ का एम्बेडिंग होना चाहिए।[5] इस प्रकार से एम्बेडिंग एम्बेडिंग की निकटता कुछ दूरी माप द्वारा दी जाती है और किसी तथ्य की विश्वसनीयता को पूर्ण रूप से निर्धारित करती है।[17]

  • TransE[9]: यह मॉडल स्कोरिंग फलन का उपयोग करता है जो एम्बेडिंग को प्रत्येक तथ्य में साधारण सदिश योग समीकरण को संतुष्ट करने के लिए विवश करता है जिसमें वे दिखाई देते हैं: [7] एम्बेडिंग यथार्थ होगी यदि प्रत्येक इकाई और संबंध मात्र एक ही तथ्य में प्रकट होता है, और इस कारण से, व्यवहार में एक-से-अनेक, अनेक-से-एक और असममित संबंधों का ठीक रूप से प्रतिनिधित्व नहीं करता है।[5][7]
  • TransH[28]: यह संबंधों के प्रकारों को उचित रूप से प्रस्तुत करने की समस्या को हल करने के लिए अधिसमतल को ज्यामितीय समष्टि के रूप में प्रस्तुत करने वाले TransE का विकास है।[28] TransH में, प्रत्येक संबंध का अलग अधिसमतल पर अलग एम्बेडेड प्रतिनिधित्व होता है, यह इस पर आधारित होता है कि यह किन एम्बेडिंग के साथ परस्पर क्रिया करता है।[7] इसलिए, उदाहरण के लिए, किसी तथ्य के स्कोर फलन की गणना करने के लिए, संबंध के उचित अधिसमतल पर संबंधपरक प्रक्षेपण आव्यूह का उपयोग करके शीर्ष और पुंछ के एम्बेडेड प्रतिनिधित्व को प्रक्षेपित करने की आवश्यकता होती है।[1][7]
  • TransR[29]: TransR, TransH का विकास है क्योंकि यह एम्बेडिंग और संबंधों के अंतर्निहित प्रतिनिधित्व का प्रतिनिधित्व करने के लिए दो अलग-अलग समष्टियों का उपयोग करता है,[1][18]और एम्बेडिंग और संबंधों के शब्दार्थ समष्टि को पूर्ण रूप से अलग कर दें।[7]इसके अतिरिक्त TransR इकाइयों के एम्बेडिंग को संबंध समष्टि में अनुवाद करने के लिए संबंधपरक प्रक्षेपण आव्यूह का पूर्ण रूप से उपयोग करता है।[7]
  • TransD:[30] किसी तथ्य को देखते हुए, TransR में, किसी तथ्य का शीर्ष और पूर्व भाग दो अलग-अलग प्रकार की एम्बेडिंग से संबंधित हो सकता है, उदाहरण के लिए, तथ्य में, ओबामा और यूएसए दो संस्थाएं हैं परंतु एक एक व्यक्ति है और दूसरा एक देश है।[30][7] प्रक्षेपण की गणना करने के लिए TransR में आव्यूह गुणन भी बहु मानित प्रक्रिया है।[7][30] अतः इस संदर्भ में, TransD गतिशील प्रतिचित्रण की गणना करने के लिए प्रत्येक इकाई-संबंध युग्मन के लिए दो सदिश को नियोजित करता है जो आयामी जटिलता को कम करते हुए प्रक्षेपण आव्यूह को प्रतिस्थापित करता है।[1][7][30] पहले सदिश का उपयोग एम्बेडिंग और संबंधों के अर्थपूर्ण अर्थ को दर्शाने के लिए किया जाता है, दूसरे का उपयोग प्रतिचित्रण आव्यूह की गणना करने के लिए किया जाता है।[30]
  • TransA:[31] सभी अनुवादात्मक मॉडल अपने प्रतिनिधित्व समष्टि में स्कोर फलन को परिभाषित करते हैं, परंतु वे इस मीट्रिक हानि को अधिक सरल बनाते हैं।[31] चूंकि एम्बेडिंग और संबंधों का सदिश प्रतिनिधित्व उचित नहीं है, का शुद्ध अनुवाद से दूर हो सकता है, और एक गोलाकार समविभव यूक्लिडियन दूरी से यह भेद करना कठिन हो जाता है कि निकटतम इकाई कौन सी है।[31] इसके अतिरिक्त, TransA, अस्पष्टता को दूर करने के लिए दीर्घवृत्त सतहों के साथ, एम्बेडिंग आयामों को भारित करने के लिए अनुकूली महालनोबिस दूरी का परिचय देता है।[1][7][31]

अतिरिक्त एम्बेडिंग के साथ अनुवादात्मक मॉडल

नाँलेज ग्राफ में प्रत्येक तत्व और उनके सामान्य प्रतिनिधित्व तथ्यों के साथ अतिरिक्त सूचना जोड़ना संभव है।[1] नाँलेज ग्राफ के साथ डोमेन के समग्र विवरण को स्पष्ट बनाने के लिए प्रत्येक इकाई और संबंध को पाठ विवरण, भार, बाधाओं और अन्य से समृद्ध किया जा सकता है।[1] इस प्रकार से नाँलेज ग्राफ के एम्बेडिंग के समय, इस सूचना का उपयोग इन विशेषताओं के लिए विशेष एम्बेडिंग सीखने के लिए किया जा सकता है, साथ ही अधिक महत्वपूर्ण संख्या में सदिश सीखने की लागत के साथ, एम्बेडिंग और संबंधों के सामान्य एम्बेडेड प्रतिनिधित्व को भी सीखा जा सकता है।[5]

  • STransE:[32] यह मॉडल TransE और संरचना एम्बेडिंग के संयोजन का परिणाम है जिससे यह एक-से-अनेक, अनेक-से-एक और अनेक-से-अनेक संबंधों का बेहतर प्रतिनिधित्व करने में सक्षम है।[32][5] ऐसा करने पर, मॉडल में केजी में प्रत्येक एम्बेडेड संबंध के लिए दो अतिरिक्त स्वतंत्र आव्यूह और सम्मिलित होते हैं।[32] अतः प्रत्येक अतिरिक्त आव्यूह का उपयोग इस तथ्य के आधार पर किया जाता है कि विशिष्ट संबंध तथ्य के शीर्ष या पूंछ के साथ परस्पर क्रिया करता है।[32] दूसरे शब्दों में, एक तथ्य दिया गया है, सदिश अनुवाद लागू करने से पहले, शीर्ष को से गुणा किया जाता है और पुंछ को से गुणा किया जाता है।[7]
  • CrossE:[33] विनिमय परस्पर क्रिया का उपयोग संबंधित सूचना चयन के लिए किया जा सकता है, और एम्बेडिंग प्रक्रिया के लिए बहुत उपयोगी हो सकता है।[33] विनिमय परस्पर क्रिया सूचना चयन में दो अलग-अलग योगदान प्रदान करते हैं: संबंधों से एम्बेडिंग तक परस्पर क्रिया और एम्बेडिंग से संबंधों तक परस्पर क्रिया।[33] अतः इसका अर्थ यह है कि संबंध, उदाहरण के लिए 'President_of' स्वचालित रूप से उन एम्बेडिंग के प्रकार का चयन करता है जो विषय को किसी तथ्य की वस्तु से जोड़ रहे हैं।[33] इसी प्रकार, किसी तथ्य की इकाई अप्रत्यक्ष रूप से यह निर्धारित करती है कि संबंधित ट्रिपल की वस्तु की भविष्यवाणी करने के लिए कौन सा अनुमान पथ चुनना है।[33] CrossE, ऐसा करने के लिए, एक अतिरिक्त परस्पर क्रिया आव्यूह सीखता है, और के बीच परस्पर क्रिया की गणना करने के लिए तत्व-वार उत्पाद का उपयोग करता है।[5][33] यद्यपि, CrossE, तंत्रिका नेटवर्क आर्किटेक्चर पर विश्वास नहीं करता है, यह दिखाया गया है कि इस पद्धति को ऐसे आर्किटेक्चर में पूर्ण रूप से एन्कोड किया जा सकता है।[1]

रोटो-अनुवादात्मक मॉडल

इस प्रकार से मॉडलों का यह वर्ग, अनुवाद के अतिरिक्त या प्रतिस्थापन में घूर्णन-जैसे परिवर्तन को नियोजित करता है।[5]

  • TorusE:[34] TorusE का नियमितीकरण शब्द इकाई को गोलाकार स्थान बनाने के लिए एम्बेड करता है, और परिणामस्वरूप ज्यामितीय समष्टि के अनुवाद गुणों को खो देता है।[34] इस समस्या का हल करने के लिए, TorusE संहत लाई समूह के उपयोग का लाभ उठाता है जो इस विशिष्ट स्थिति में n-आयामी टोरस समष्टि है, और नियमितीकरण के उपयोग से बचता है।[1][34] अतः TorusE, TransE के L1 और L2 मानदंड को प्रतिस्थापित करने के लिए दूरी फलन को परिभाषित करता है।[5]
  • RotatE:[35] RotatE यूलर की पहचान से प्रेरित है और इसमें जटिल स्थान में शीर्ष से पूंछ तक घूर्णन के रूप में संबंध का प्रतिनिधित्व करने के लिए हैडामर्ड उत्पाद (मैट्रिसेस) का उपयोग पूर्ण रूप से सम्मिलित है।[35] ट्रिपल के प्रत्येक तत्व के लिए, एम्बेडिंग का जटिल भाग अक्ष के संबंध में वामावर्त घूर्णन का वर्णन करता है, जिसे यूलर की पहचान के साथ वर्णित किया जा सकता है, जबकि संबंध सदिश का मापांक 1 है।[35] अतः यह दिखाया गया है कि मॉडल नाँलेज ग्राफ से सममित, असममित, उलटा और संरचना संबंधों को एम्बेड करने में सक्षम है।[35]

गहन शिक्षण मॉडल

एम्बेडिंग मॉडल का यह समूह नाँलेज ग्राफ से पैटर्न सीखने के लिए गहरे तंत्रिका नेटवर्क का उपयोग करता है जो इनपुट डेटा हैं।[5] इन मॉडलों में इकाई और संबंध के प्रकार, अस्थायी सूचना, पथ सूचना, अंतर्निहित संरचित सूचना को अलग करने की व्यापकता है।[18] और नाँलेज ग्राफ की सभी विशेषताओं का प्रतिनिधित्व करने में दूरी-आधारित और अर्थ-मिलान-आधारित मॉडल की सीमाओं को हल करें।[1] नाँलेज ग्राफ एम्बेडिंग के लिए गहन शिक्षण के उपयोग ने स्पष्ट अनुमानित परफॉरमेंस दिखाया है, यद्यपि वे प्रशिक्षण चरण में अधिक बहु मानित हों, डेटा की कमी हो, और प्रायः अलग एम्बेडिंग मॉडल से आने वाले नाँलेज ग्राफ के पूर्व-प्रशिक्षित एम्बेडिंग प्रतिनिधित्व की आवश्यकता होती है।[1][5]

संवादात्मक तंत्रिका नेटवर्क

मॉडलों का यह वर्ग, पूर्ण रूप से कनेक्टेड परतों का उपयोग करने के अतिरिक्त, या से अधिक ConvEन्शनल परतों को नियोजित करता है जो निम्न-आयामी फ़िल्टर लागू करके इनपुट डेटा को संयोजित करता है जो गैर रेखीय सुविधाओं को सीखकर कुछ मापदंडों के साथ जटिल संरचनाओं को एम्बेड करने में सक्षम होता है।[1][5][18]

  • ConvE:[36] ConvE एम्बेडिंग एक ऐसा मॉडल है जो गहन शिक्षण मॉडल और कम्प्यूटेशनल अधिकतम मूल्य की उचित ट्रेडऑफ़ अभिव्यक्ति का प्रतिनिधित्व करता है,[17] वस्तुतः यह दिखाया गया है कि DistMult की तुलना में इसमें 8x कम पैरामीटर का उपयोग किया गया है।[36] ConvE नाँलेज ग्राफ की संस्थाओं और संबंधों का प्रतिनिधित्व करने के लिए एक-आयामी आकार एम्बेडिंग का उपयोग करता है।[5][36] ट्रिपल के स्कोर फलन की गणना करने के लिए, ConvE एक सरल प्रक्रिया लागू करता है: पहले कॉनकैटेन्स और ट्रिपल के हेड के एम्बेडिंग और एकल डेटा में संबंध को मर्ज करता है, फिर इस आव्यूह को 2D कनवल्शनल लेयर के लिए इनपुट के रूप में उपयोग किया जाता है।[5][17] फिर परिणाम को एक गहन परत के माध्यम से पारित किया जाता है जो आव्यूह द्वारा पैरामीटरयुक्त एक रैखिक परिवर्तन लागू करता है और अंत में, आंतरिक उत्पाद के साथ पुंछ ट्रिपल से जुड़ा होता है।[5][18] ConvE मूल्यांकन प्रक्रिया में भी विशेष रूप से कुशल है: 1-एन स्कोरिंग का उपयोग करके, मॉडल मिलान करता है, एक शीर्ष और एक संबंध दिया जाता है, एक ही समय में सभी पुंछ, अन्य मॉडलों के 1-1 मूल्यांकन फलन की तुलना में बहुत अधिक मूल्यांकन समय बचाते हैं।[18]
  • ConvR:[37] ConvR अनुकूली दृढ़ नेटवर्क है जिसका उद्देश्य एम्बेडिंग और संबंधों के बीच सभी संभावित परस्पर क्रिया का गहनता से प्रतिनिधित्व करना है।[37] इस क्रिया के लिए, ConvR, प्रत्येक संबंध के लिए संकेंद्रित फ़िल्टर की गणना करता है, और, जब आवश्यक हो, जटिल सुविधाओं को निकालने के लिए इन फ़िल्टरों को रुचि की इकाई पर लागू करता है।[37] ट्रिपल के स्कोर की गणना करने की प्रक्रिया ConvE के समान है।[5]
  • ConvKB:[38] ConvKB, किसी दिए गए ट्रिपल के स्कोर फलन की गणना करने के लिए, यह बिना किसी आकार परिवर्तन के आयाम का एक इनपुट उत्पन्न करता है और इसे आकार के कन्वेन्शनल फ़िल्टर की श्रृंखला में भेजता है।[38] यह परिणाम मात्र न्यूरॉन के साथ सघन परत को पोषित करता है जो अंतिम स्कोर उत्पन्न करता है।[38] एकल अंतिम न्यूरॉन इस आर्किटेक्चर को बाइनरी क्लासिफायरियर के रूप में बनाता है जिसमें तथ्य उचित या अनुचित हो सकता है।[5] ConvE के साथ अंतर यह है कि एम्बेडिंग की आयामीता नहीं बदली जाती है।[17]

कैप्सूल तंत्रिका नेटवर्क

मॉडलों का यह वर्ग अधिक स्थिर प्रतिनिधित्व बनाने के लिए कैप्सूल न्यूरल नेटवर्क का उपयोग करता है जो स्थानिक सूचना समाप्त हुए बिना इनपुट में सुविधा को पहचानने में सक्षम है।[5] नेटवर्क संकेंद्रित परतों से बना है,परंतु वे कैप्सूल में व्यवस्थित होते हैं, और कैप्सूल का समग्र परिणाम गतिशील प्रक्रिया रूटीन द्वारा निर्धारित किए गए उच्च-कैप्सूल को भेजा जाता है।[5]

CapsE:[39] CapsE एक तथ्य को मॉडल करने के लिए एक कैप्सूल नेटवर्क लागू करता है।[39] जैसा कि ConvKB में होता है, प्रत्येक ट्रिपल तत्व को आव्यूह बनाने के लिए संयोजित किया जाता है और कन्वेन्शनल फीचर्स को निकालने के लिए कन्वेन्शनल परत को फीड करने के लिए उपयोग किया जाता है।[5][39] फिर इन विशेषताओं को सतत सदिश बनाने के लिए कैप्सूल पर पुनर्निर्देशित किया जाता है, सदिश जितना लंबा होगा, तथ्य उतना ही अधिक सत्य होगा।[39]

आवर्तक तंत्रिका नेटवर्क

मॉडलों का यह वर्ग आवर्ती तंत्रिका नेटवर्क के उपयोग का लाभ उठाता है।[5] इस आर्किटेक्चर का लाभ मात्र विस्तृत एकल घटनाओं के अतिरिक्त तथ्यों के अनुक्रम को याद रखना है।[40]

RSN:[40] एम्बेडिंग प्रक्रिया के समय सामान्यतः यह माना जाता है कि, समान एम्बेडिंग के समान संबंध होते हैं।[40] व्यवहार में, इस प्रकार की सूचना का लाभ नहीं उठाया जाता है, क्योंकि एम्बेडिंग की गणना तथ्यों के इतिहास के अतिरिक्त मात्र वर्तमान तथ्य पर की जाती है।[40] आवर्तक स्किपिंग नेटवर्क (RSN) रैंडम वॉक सैंपलिंग का उपयोग करके संबंधपरक पथ सीखने के लिए आवर्तक तंत्रिका नेटवर्क का उपयोग करता है।[5][40]

मॉडल परफॉरमेंस

नाँलेज ग्राफ़ एम्बेडिंग के लिए मशीन लर्निंग क्रिया जो मॉडलों की एम्बेडिंग यथार्थता का मूल्यांकन करने के लिए अधिक बार उपयोग किया जाता है वह लिंक भविष्यवाणी है।[1][3][5][6][7][18] रॉसी एट अल.[5] मॉडलों का एक व्यापक बेंचमार्क तैयार किया, परंतु अन्य सर्वेक्षण भी समान परिणाम देते हैं।[3][7][18][25] बेंचमार्क (कंप्यूटिंग) में पांच डेटासेट FB15k, WN18, FB15k-237, WN18RR और YAGO3-10 शामिल हैं।[9][9][41][36][42] वर्तमान में, यह चर्चा हुई है कि ये डेटासेट वास्तविक संसार के अनुप्रयोगों से बहुत दूर हैं, और अन्य डेटासेट को मानक बेंचमार्क के रूप में एकीकृत किया जाना चाहिए।[43]

एम्बेडिंग मॉडल को बेंचमार्क करने के लिए उपयोग किए गए डेटासेट की विशेषताओं का तालिका सारांश।
डेटासेट नाम विभिन्न एम्बेडिंग की संख्या विभिन्न संबंधों की संख्या ट्रिपल की संख्या
FB15k[9] 14951 1345 584,113
WN18[9] 40943 18 151,442
FB15k-237[41] 14541 237 310,116
WN18RR[36] 40943 11 93,003
YAGO3-10[42] 123182 37 1,089,040
Hits@10, MR, और MRR के संदर्भ में रॉसी एट अल के अनुसार मेमोरी जटिलता और नाँलेज ग्राफ एम्बेडिंग मॉडल की लिंक भविष्यवाणी यथार्थता का तालिका सारांश।[5] प्रत्येक डेटासेट के लिए प्रत्येक मीट्रिक पर सर्वोत्तम परिणाम बोल्ड में हैं।
मॉडल नाम मेमोरी जटिलता FB15K (Hits@10) FB15K (MR) FB15K (MRR) FB15K - 237 (Hits@10) FB15K - 237 (MR) FB15K - 237 (MRR) WN18 (Hits@10) WN18 (MR) WN18 (MRR) WN18RR (Hits@10) WN18RR (MR) WN18RR (MRR) YAGO3-10 (Hits@10) YAGO3-10 (MR) YAGO3-10 (MRR)
DistMul[19] 0.863 173 0.784 0.490 199 0.313 0.946 675 0.824 0.502 5913 0.433 0.661 1107 0.501
ComplEx[20] 0.905 34 0.848 0.529 202 0.349 0.955 3623 0.949 0.521 4907 0.458 0.703 1112 0.576
HolE[23] 0.867 211 0.800 0.476 186 0.303 0.949 650 0.938 0.487 8401 0.432 0.651 6489 0.502
ANALOGY[21] 0.837 126 0.726 0.353 476 0.202 0.944 808 0.934 0.380 9266 0.366 0.456 2423 0.283
SimplE[22] 0.836 138 0.726 0.343 651 0.179 0.945 759 0.938 0.426 8764 0.398 0.631 2849 0.453
TuckER[24] 0.888 39 0.788 0.536 162 0.352 0.958 510 0.951 0.514 6239 0.459 0.680 2417 0.544
MEI[26] 0.552 145 0.365 0.551 3268 0.481 0.709 756 0.578
MEIM[27] 0.557 137 0.369 0.577 2434 0.499 0.716 747 0.585
TransE[9] 0.847 45 0.628 0.497 209 0.310 0.948 279 0.646 0.495 3936 0.206 0.673 1187 0.501
STransE[32] 0.796 69 0.543 0.495 357 0.315 0.934 208 0.656 0.422 5172 0.226 0.073 5797 0.049
CrossE[33] 0.862 136 0.702 0.470 227 0.298 0.950 441 0.834 0.449 5212 0.405 0.654 3839 0.446
TorusE[34] 0.839 143 0.746 0.447 211 0.281 0.954 525 0.947 0.535 4873 0.463 0.474 19455 0.342
RotatE[35] 0.881 42 0.791 0.522 178 0.336 0.960 274 0.949 0.573 3318 0.475 0.570 1827 0.498
ConvE[36] 0.849 51 0.688 0.521 281 0.305 0.956 413 0.945 0.507 4944 0.427 0.657 2429 0.488
ConvKB[38] 0.408 324 0.211 0.517 309 0.230 0.948 202 0.709 0.525 3429 0.249 0.604 1683 0.420
ConvR[37] 0.885 70 0.773 0.526 251 0.346 0.958 471 0.950 0.526 5646 0.467 0.673 2582 0.527
CapsE[39] 0.217 610 0.087 0.356 405 0.160 0.950 233 0.890 0.559 720 0.415 0 60676 0.000
RSN[40] 0.870 51 0.777 0.444 248 0.280 0.951 346 0.928 0.483 4210 0.395 0.664 1339 0.511

लाइब्रेरी

यह भी देखें

संदर्भ

  1. 1.00 1.01 1.02 1.03 1.04 1.05 1.06 1.07 1.08 1.09 1.10 1.11 1.12 1.13 1.14 1.15 1.16 1.17 1.18 1.19 1.20 1.21 1.22 1.23 1.24 1.25 1.26 Ji, Shaoxiong; Pan, Shirui; Cambria, Erik; Marttinen, Pekka; Yu, Philip S. (2021). "A Survey on Knowledge Graphs: Representation, Acquisition, and Applications". IEEE Transactions on Neural Networks and Learning Systems. PP (2): 494–514. arXiv:2002.00388. doi:10.1109/TNNLS.2021.3070843. hdl:10072/416709. ISSN 2162-237X. PMID 33900922. S2CID 211010433.
  2. Mohamed, Sameh K; Nováček, Vít; Nounu, Aayah (2019-08-01). Cowen, Lenore (ed.). "नॉलेज ग्राफ एंबेडिंग का उपयोग करके प्रोटीन औषधि लक्ष्य की खोज करना". Bioinformatics. 36 (2): 603–610. doi:10.1093/bioinformatics/btz600. hdl:10379/15375. ISSN 1367-4803. PMID 31368482.
  3. 3.0 3.1 3.2 3.3 Lin, Yankai; Han, Xu; Xie, Ruobing; Liu, Zhiyuan; Sun, Maosong (2018-12-28). "Knowledge Representation Learning: A Quantitative Review". arXiv:1812.10901 [cs.CL].
  4. 4.0 4.1 4.2 Abu-Salih, Bilal; Al-Tawil, Marwan; Aljarah, Ibrahim; Faris, Hossam; Wongthongtham, Pornpit; Chan, Kit Yan; Beheshti, Amin (2021-05-12). "नॉलेज ग्राफ एंबेडिंग का उपयोग करके सामाजिक राजनीति का संबंधपरक शिक्षण विश्लेषण". Data Mining and Knowledge Discovery. 35 (4): 1497–1536. arXiv:2006.01626. doi:10.1007/s10618-021-00760-w. ISSN 1573-756X. S2CID 219179556.
  5. 5.00 5.01 5.02 5.03 5.04 5.05 5.06 5.07 5.08 5.09 5.10 5.11 5.12 5.13 5.14 5.15 5.16 5.17 5.18 5.19 5.20 5.21 5.22 5.23 5.24 5.25 5.26 5.27 5.28 5.29 5.30 5.31 5.32 5.33 5.34 5.35 5.36 5.37 5.38 5.39 5.40 5.41 5.42 5.43 5.44 Rossi, Andrea; Barbosa, Denilson; Firmani, Donatella; Matinata, Antonio; Merialdo, Paolo (2020). "Knowledge Graph Embedding for Link Prediction: A Comparative Analysis". ACM Transactions on Knowledge Discovery from Data. 15 (2): 1–49. arXiv:2002.00819. doi:10.1145/3424672. hdl:11573/1638610. ISSN 1556-4681. S2CID 211011226.
  6. 6.0 6.1 Paulheim, Heiko (2016-12-06). Cimiano, Philipp (ed.). "Knowledge graph refinement: A survey of approaches and evaluation methods". Semantic Web. 8 (3): 489–508. doi:10.3233/SW-160218. S2CID 13151033.
  7. 7.00 7.01 7.02 7.03 7.04 7.05 7.06 7.07 7.08 7.09 7.10 7.11 7.12 7.13 7.14 7.15 7.16 7.17 7.18 7.19 7.20 7.21 7.22 7.23 7.24 7.25 7.26 7.27 Dai, Yuanfei; Wang, Shiping; Xiong, Neal N.; Guo, Wenzhong (May 2020). "A Survey on Knowledge Graph Embedding: Approaches, Applications and Benchmarks". Electronics. 9 (5): 750. doi:10.3390/electronics9050750.
  8. Guo, Shu; Wang, Quan; Wang, Bin; Wang, Lihong; Guo, Li (2015). "Semantically Smooth Knowledge Graph Embedding". Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers). Association for Computational Linguistics. pp. 84–94. doi:10.3115/v1/P15-1009. S2CID 205692.
  9. 9.0 9.1 9.2 9.3 9.4 9.5 9.6 Bordes, Antoine; Usunier, Nicolas; Garcia-Durán, Alberto; Weston, Jason; Yakhnenko, Oksana (May 2013). "Translating embeddings for modeling multi-relational data". NIPS'13: Proceedings of the 26th International Conference on Neural Information Processing Systems. Curran Associates Inc. pp. 2787–2795.
  10. 10.00 10.01 10.02 10.03 10.04 10.05 10.06 10.07 10.08 10.09 10.10 10.11 Chen, Zhe; Wang, Yuehan; Zhao, Bin; Cheng, Jing; Zhao, Xin; Duan, Zongtao (2020). "Knowledge Graph Completion: A Review". IEEE Access. 8: 192435–192456. doi:10.1109/ACCESS.2020.3030076. ISSN 2169-3536. S2CID 226230006.
  11. 11.0 11.1 11.2 11.3 11.4 Cai, Hongyun; Zheng, Vincent W.; Chang, Kevin Chen-Chuan (2018-02-02). "A Comprehensive Survey of Graph Embedding: Problems, Techniques and Applications". arXiv:1709.07604 [cs.AI].
  12. 12.0 12.1 Zhou, Sijin; Dai, Xinyi; Chen, Haokun; Zhang, Weinan; Ren, Kan; Tang, Ruiming; He, Xiuqiang; Yu, Yong (2020-06-18). "नॉलेज ग्राफ-एन्हांस्ड रीइन्फोर्समेंट लर्निंग के माध्यम से इंटरैक्टिव अनुशंसा प्रणाली". arXiv:2006.10389 [cs.IR].
  13. Liu, Chan; Li, Lun; Yao, Xiaolu; Tang, Lin (August 2019). "A Survey of Recommendation Algorithms Based on Knowledge Graph Embedding". 2019 IEEE International Conference on Computer Science and Educational Informatization (CSEI). pp. 168–171. doi:10.1109/CSEI47661.2019.8938875. ISBN 978-1-7281-2308-0. S2CID 209459928.
  14. 14.0 14.1 Sosa, Daniel N.; Derry, Alexander; Guo, Margaret; Wei, Eric; Brinton, Connor; Altman, Russ B. (2020). "दुर्लभ बीमारियों में दवा के पुनरुत्पादन के अवसरों की पहचान के लिए एक साहित्य-आधारित ज्ञान ग्राफ एम्बेडिंग विधि". Pacific Symposium on Biocomputing. Pacific Symposium on Biocomputing. 25: 463–474. ISSN 2335-6936. PMC 6937428. PMID 31797619.
  15. 15.0 15.1 Nickel, Maximilian; Tresp, Volker; Kriegel, Hans-Peter (2011-06-28). "A three-way model for collective learning on multi-relational data". ICML'11: Proceedings of the 28th International Conference on International Conference on Machine Learning. Omnipress. pp. 809–816. ISBN 978-1-4503-0619-5.
  16. Nickel, Maximilian; Tresp, Volker; Kriegel, Hans-Peter (2012-04-16). "Factorizing YAGO". Proceedings of the 21st international conference on World Wide Web. Association for Computing Machinery. pp. 271–280. doi:10.1145/2187836.2187874. ISBN 978-1-4503-1229-5. S2CID 6348464.
  17. 17.0 17.1 17.2 17.3 17.4 17.5 17.6 17.7 17.8 17.9 Alshahrani, Mona; Thafar, Maha A.; Essack, Magbubah (2021-02-18). "बायोमेडिकल डेटा में ज्ञान ग्राफ एम्बेडिंग का अनुप्रयोग और मूल्यांकन". PeerJ Computer Science. 7: e341. doi:10.7717/peerj-cs.341. ISSN 2376-5992. PMC 7959619. PMID 33816992.
  18. 18.00 18.01 18.02 18.03 18.04 18.05 18.06 18.07 18.08 18.09 18.10 Wang, Meihong; Qiu, Linling; Wang, Xiaoli (2021-03-16). "लिंक भविष्यवाणी के लिए ज्ञान ग्राफ एंबेडिंग पर एक सर्वेक्षण". Symmetry. 13 (3): 485. Bibcode:2021Symm...13..485W. doi:10.3390/sym13030485. ISSN 2073-8994.
  19. 19.0 19.1 Yang, Bishan; Yih, Wen-tau; He, Xiaodong; Gao, Jianfeng; Deng, Li (2015-08-29). "ज्ञान के आधारों में सीखने और अनुमान के लिए संस्थाओं और संबंधों को एम्बेड करना". arXiv:1412.6575 [cs.CL].
  20. 20.0 20.1 20.2 Trouillon, Théo; Welbl, Johannes; Riedel, Sebastian; Gaussier, Éric; Bouchard, Guillaume (2016-06-20). "सरल लिंक भविष्यवाणी के लिए जटिल एंबेडिंग". arXiv:1606.06357 [cs.AI].
  21. 21.0 21.1 21.2 21.3 21.4 Liu, Hanxiao; Wu, Yuexin; Yang, Yiming (2017-07-06). "बहु-संबंधपरक एंबेडिंग के लिए अनुरूप अनुमान". arXiv:1705.02426 [cs.LG].
  22. 22.0 22.1 22.2 Kazemi, Seyed Mehran; Poole, David (2018-10-25). "ज्ञान ग्राफ़ में लिंक भविष्यवाणी के लिए सरल एम्बेडिंग". arXiv:1802.04868 [stat.ML].
  23. 23.0 23.1 23.2 Nickel, Maximilian; Rosasco, Lorenzo; Poggio, Tomaso (2015-12-07). "ज्ञान ग्राफ़ की होलोग्राफ़िक एंबेडिंग". arXiv:1510.04935 [cs.AI].
  24. 24.0 24.1 24.2 24.3 Balažević, Ivana; Allen, Carl; Hospedales, Timothy M. (2019). "TuckER: Tensor Factorization for Knowledge Graph Completion". Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). pp. 5184–5193. arXiv:1901.09590. doi:10.18653/v1/D19-1522. S2CID 59316623.
  25. 25.0 25.1 Ali, Mehdi; Berrendorf, Max; Hoyt, Charles Tapley; Vermue, Laurent; Galkin, Mikhail; Sharifzadeh, Sahand; Fischer, Asja; Tresp, Volker; Lehmann, Jens (2021). "Bringing Light into the Dark: A Large-scale Evaluation of Knowledge Graph Embedding Models under a Unified Framework". IEEE Transactions on Pattern Analysis and Machine Intelligence. PP (12): 8825–8845. arXiv:2006.13365. doi:10.1109/TPAMI.2021.3124805. PMID 34735335. S2CID 220041612.
  26. 26.0 26.1 26.2 Tran, Hung Nghiep; Takasu, Atsuhiro (2020). "Multi-Partition Embedding Interaction with Block Term Format for Knowledge Graph Completion". Proceedings of the European Conference on Artificial Intelligence (ECAI 2020). Frontiers in Artificial Intelligence and Applications. Vol. 325. IOS Press. pp. 833–840. doi:10.3233/FAIA200173. S2CID 220265751.
  27. 27.0 27.1 27.2 Tran, Hung-Nghiep; Takasu, Atsuhiro (2022-07-16). "MEIM: Multi-partition Embedding Interaction Beyond Block Term Format for Efficient and Expressive Link Prediction". आर्टिफिशियल इंटेलिजेंस पर इकतीसवें अंतर्राष्ट्रीय संयुक्त सम्मेलन की कार्यवाही. Vol. 3. pp. 2262–2269. doi:10.24963/ijcai.2022/314. ISBN 978-1-956792-00-3. S2CID 250635995.
  28. 28.0 28.1 Wang, Zhen (2014). "Knowledge Graph Embedding by Translating on Hyperplanes". आर्टिफिशियल इंटेलिजेंस पर एएएआई सम्मेलन की कार्यवाही. Vol. 28. doi:10.1609/aaai.v28i1.8870. S2CID 15027084.
  29. Lin, Yankai; Liu, Zhiyuan; Sun, Maosong; Liu, Yang; Zhu, Xuan (2015-01-25). ज्ञान ग्राफ पूरा करने के लिए सीखने की इकाई और संबंध एम्बेडिंग. AAAI Press. pp. 2181–2187. ISBN 978-0-262-51129-2.
  30. 30.0 30.1 30.2 30.3 30.4 Ji, Guoliang; He, Shizhu; Xu, Liheng; Liu, Kang; Zhao, Jun (July 2015). "Knowledge Graph Embedding via Dynamic Mapping Matrix". Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers). Association for Computational Linguistics. pp. 687–696. doi:10.3115/v1/P15-1067. S2CID 11202498.
  31. 31.0 31.1 31.2 31.3 Xiao, Han; Huang, Minlie; Hao, Yu; Zhu, Xiaoyan (2015-09-27). "TransA: An Adaptive Approach for Knowledge Graph Embedding". arXiv:1509.05490 [cs.CL].
  32. 32.0 32.1 32.2 32.3 32.4 Nguyen, Dat Quoc; Sirts, Kairit; Qu, Lizhen; Johnson, Mark (June 2016). "STransE: A novel embedding model of entities and relationships in knowledge bases". Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Association for Computational Linguistics. pp. 460–466. arXiv:1606.08140. doi:10.18653/v1/N16-1054. S2CID 9884935.
  33. 33.0 33.1 33.2 33.3 33.4 33.5 33.6 Zhang, Wen; Paudel, Bibek; Zhang, Wei; Bernstein, Abraham; Chen, Huajun (2019-01-30). "Interaction Embeddings for Prediction and Explanation in Knowledge Graphs". वेब खोज और डेटा माइनिंग पर बारहवें एसीएम अंतर्राष्ट्रीय सम्मेलन की कार्यवाही. pp. 96–104. arXiv:1903.04750. doi:10.1145/3289600.3291014. ISBN 9781450359405. S2CID 59516071.
  34. 34.0 34.1 34.2 34.3 Ebisu, Takuma; Ichise, Ryutaro (2017-11-15). "TorusE: Knowledge Graph Embedding on a Lie Group". arXiv:1711.05435 [cs.AI].
  35. 35.0 35.1 35.2 35.3 35.4 Sun, Zhiqing; Deng, Zhi-Hong; Nie, Jian-Yun; Tang, Jian (2019-02-26). "RotatE: Knowledge Graph Embedding by Relational Rotation in Complex Space". arXiv:1902.10197 [cs.LG].
  36. 36.0 36.1 36.2 36.3 36.4 36.5 Dettmers, Tim; Minervini, Pasquale; Stenetorp, Pontus; Riedel, Sebastian (2018-07-04). "Convolutional 2D Knowledge Graph Embeddings". arXiv:1707.01476 [cs.LG].
  37. 37.0 37.1 37.2 37.3 Jiang, Xiaotian; Wang, Quan; Wang, Bin (June 2019). "Adaptive Convolution for Multi-Relational Learning". Proceedings of the 2019 Conference of the North. Association for Computational Linguistics. pp. 978–987. doi:10.18653/v1/N19-1103. S2CID 174800352.
  38. 38.0 38.1 38.2 38.3 Nguyen, Dai Quoc; Nguyen, Tu Dinh; Nguyen, Dat Quoc; Phung, Dinh (2018). "A Novel Embedding Model for Knowledge Base Completion Based on Convolutional Neural Network". Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers). pp. 327–333. arXiv:1712.02121. doi:10.18653/v1/N18-2053. S2CID 3882054.
  39. 39.0 39.1 39.2 39.3 39.4 Nguyen, Dai Quoc; Vu, Thanh; Nguyen, Tu Dinh; Nguyen, Dat Quoc; Phung, Dinh (2019-03-06). "ज्ञान ग्राफ़ पूर्णता और खोज वैयक्तिकरण के लिए एक कैप्सूल नेटवर्क-आधारित एंबेडिंग मॉडल". arXiv:1808.04122 [cs.CL].
  40. 40.0 40.1 40.2 40.3 40.4 40.5 Guo, Lingbing; Sun, Zequn; Hu, Wei (2019-05-13). "ज्ञान ग्राफ़ में दीर्घकालिक संबंधपरक निर्भरता का दोहन करना सीखना". arXiv:1905.04914 [cs.AI].
  41. 41.0 41.1 Toutanova, Kristina; Chen, Danqi (July 2015). "Observed versus latent features for knowledge base and text inference". Proceedings of the 3rd Workshop on Continuous Vector Space Models and their Compositionality. Association for Computational Linguistics. pp. 57–66. doi:10.18653/v1/W15-4007. S2CID 5378837.
  42. 42.0 42.1 Mahdisoltani, F.; Biega, J.; Suchanek, Fabian M. (2015). "YAGO3: A Knowledge Base from Multilingual Wikipedias". CIDR. S2CID 6611164.
  43. Hu, Weihua; Fey, Matthias; Zitnik, Marinka; Dong, Yuxiao; Ren, Hongyu; Liu, Bowen; Catasta, Michele; Leskovec, Jure (2021-02-24). "Open Graph Benchmark: Datasets for Machine Learning on Graphs". arXiv:2005.00687 [cs.LG].

बाहरी संबंध