कंप्यूटर चेहरे का एनीमेशन

From alpha
Jump to navigation Jump to search

कंप्यूटर फेशियल एनीमेशन मुख्य रूप से कंप्यूटर ग्राफिक्स का एक क्षेत्र है जो एक चरित्र चेहरे की छवियों या मॉडल को बनाने और एनिमेट करने के तरीकों और तकनीकों को समाहित करता है। चरित्र एक मानव , एक मानवीय, एक जानवर , एक पौराणिक प्राणी या चरित्र आदि हो सकता है। अपने विषय और आउटपुट प्रकार के कारण, यह मनोविज्ञान से लेकर पारंपरिक एनीमेशन तक कई अन्य वैज्ञानिक और कलात्मक क्षेत्रों से भी संबंधित है। संचार में चेहरे के महत्व | मौखिक और गैर-मौखिक संचार और ग्राफ़िक्स प्रोसेसिंग युनिट और सॉफ्टवेयर में प्रगति ने कंप्यूटर चेहरे के एनीमेशन में काफी वैज्ञानिक, तकनीकी और कलात्मक रुचि पैदा की है।

हालांकि चेहरे के एनीमेशन के लिए कंप्यूटर ग्राफिक्स विधियों का विकास 1970 के दशक की शुरुआत में शुरू हुआ था, इस क्षेत्र में प्रमुख उपलब्धियां हाल ही में हुई हैं और 1980 के दशक के अंत से हुई हैं।

कंप्यूटर चेहरे के एनीमेशन के आसपास के काम को दो मुख्य क्षेत्रों में विभाजित किया जा सकता है: एनीमेशन डेटा उत्पन्न करने की तकनीकें, और ऐसे डेटा को एक चरित्र पर लागू करने के तरीके। गति चित्रांकन और कीफ्रेमिंग जैसी तकनीकें पहले समूह से संबंधित हैं, जबकि मॉर्फ लक्ष्य एनीमेशन (आमतौर पर ब्लेंडशेप एनीमेशन के रूप में जाना जाता है) और कंकाल एनीमेशन दूसरे समूह से संबंधित हैं। एनिमेटेड फीचर पतली परत ों और कंप्यूटर गेम के माध्यम से चेहरे का एनीमेशन प्रसिद्ध और लोकप्रिय हो गया है, लेकिन इसके अनुप्रयोगों में संचार, शिक्षा , वैज्ञानिक सिमुलेशन और सॉफ्टवेयर एजेंट -आधारित सिस्टम (उदाहरण के लिए ऑनलाइन ग्राहक सेवा प्रतिनिधि) जैसे कई और क्षेत्र शामिल हैं। व्यक्तिगत और मोबाइल उपकरणों में कम्प्यूटेशनल शक्ति में हाल की प्रगति के साथ, चेहरे का एनीमेशन रनटाइम पर बनाए जाने के लिए प्री-रेंडर की गई सामग्री में दिखाई देने से परिवर्तित हो गया है।

इतिहास

मानव चेहरे की अभिव्यक्ति एक सौ से अधिक वर्षों के लिए वैज्ञानिक जांच का विषय रही है। चेहरे की हरकतों और भावों का अध्ययन जैविक दृष्टिकोण से शुरू हुआ। कुछ पुरानी जांचों के बाद, उदाहरण के लिए 1640 के अंत में जॉन बुलवर द्वारा, चार्ल्स डार्विन की पुस्तक द एक्सप्रेशन ऑफ द इमोशंस इन मेन एंड एनिमल्स को व्यवहार जीव विज्ञान में आधुनिक शोध के लिए एक प्रमुख प्रस्थान माना जा सकता है।

कंप्यूटर आधारित फेशियल एक्सप्रेशन मॉडलिंग और एनिमेशन कोई नया प्रयास नहीं है। 1970 के दशक की शुरुआत में कंप्यूटर आधारित चेहरे का प्रतिनिधित्व के साथ सबसे पहला काम किया गया था। पहला त्रि-आयामी चेहरे का एनीमेशन 1972 में फ्रेड पार्के द्वारा बनाया गया था। 1973 में, गिलेंसन ने चेहरे की रेखाचित्रों को इकट्ठा करने और संपादित करने के लिए एक इंटरैक्टिव सिस्टम विकसित किया। 1974 में, फ्रेड पार्के ने एक पैरामीटरयुक्त त्रि-आयामी चेहरे का मॉडल विकसित किया।

चेहरे की गतिविधियों का वर्णन करने के सबसे महत्वपूर्ण प्रयासों में से एक फेशियल एक्शन कोडिंग सिस्टम (FACS) था। मूल रूप से कार्ल-हरमन हॉजर्ट्सजो द्वारा विकसित [1] 1960 के दशक में और 1978 में पॉल एकमैन और फ्राइसन द्वारा अपडेट किया गया, FACS 46 बेसिक फेशियल एक्शन यूनिट्स (AUs) को परिभाषित करता है। इन एक्शन यूनिट्स का एक बड़ा समूह चेहरे की मांसपेशियों के आदिम आंदोलनों का प्रतिनिधित्व करता है जैसे कि भौहें उठाना, आंख मारना और बात करना। आठ एयू कठोर त्रि-आयामी सिर आंदोलनों के लिए हैं, (यानी बाएं और दाएं मुड़ना और झुकना और ऊपर, नीचे, आगे और पीछे जाना)। सिंथेटिक चेहरों की वांछित गतिविधियों का वर्णन करने और चेहरे की गतिविधियों पर नज़र रखने के लिए FACS का सफलतापूर्वक उपयोग किया गया है।

1980 के दशक की शुरुआत में प्लैट द्वारा पहले शारीरिक रूप से आधारित मांसपेशी-नियंत्रित चेहरे के मॉडल का विकास और ब्रेनन द्वारा चेहरे के कैरिकेचर के लिए तकनीकों का विकास देखा गया। 1985 में, एनिमेटेड लघु फिल्म टोनी डी पेल्ट्री चेहरे के एनीमेशन के लिए एक मील का पत्थर थी। इसने पहली बार कंप्यूटर चेहरे की अभिव्यक्ति और भाषण एनीमेशन को कहानी कहने का एक मूलभूत हिस्सा बताया।

1980 के दशक के उत्तरार्ध में कीथ वाटर्स द्वारा एक नए मांसपेशी-आधारित मॉडल का विकास, नादिया मैग्नेट थल्मन | मैग्नेनेट-थल्मन और सहयोगियों द्वारा एक अमूर्त मांसपेशी क्रिया मॉडल का विकास, और लुईस और हिल द्वारा स्वचालित भाषण तुल्यकालन के लिए दृष्टिकोण देखा गया। 1990 के दशक में चेहरे की एनीमेशन तकनीकों के विकास में बढ़ती गतिविधि देखी गई है और खिलौना कहानी (1995), एंट्ज़ (1998), श्रेक , और मॉन्स्टर्स, इंक जैसी एनिमेटेड फिल्मों में सचित्र कहानी कहने वाले घटक के रूप में कंप्यूटर चेहरे के एनीमेशन का उपयोग किया गया है। (दोनों 2001), और कंप्यूटर गेम जैसे द सिम्स (श्रृंखला) कैस्पर (फिल्म) (1995), इस दशक में एक मील का पत्थर, पहली फिल्म थी जिसमें मुख्य अभिनेता को विशेष रूप से डिजिटल फेशियल एनीमेशन का उपयोग करके निर्मित किया गया था।

2000 के बाद फिल्मों का परिष्कार बढ़ गया। पुनः लोड मैट्रिक्स और मैट्रिक्स क्रांतियाँ में, कई हाई-डेफिनिशन कैमरों से घने ऑप्टिकल प्रवाह का उपयोग चेहरे पर हर बिंदु पर यथार्थवादी चेहरे की गति को पकड़ने के लिए किया गया था। ध्रुवीय एक्सप्रेस (फिल्म) फिल्म) ने 150 अंक ऊपर की ओर कब्जा करने के लिए एक बड़े विकॉन सिस्टम का इस्तेमाल किया। हालाँकि ये प्रणालियाँ स्वचालित हैं, फिर भी डेटा को प्रयोग करने योग्य बनाने के लिए बड़ी मात्रा में मैन्युअल क्लीन-अप प्रयास की आवश्यकता है। चेहरे के एनीमेशन में एक और मील का पत्थर द लॉर्ड ऑफ द रिंग्स (फिल्म श्रृंखला) तक पहुंचा, जहां एक चरित्र विशिष्ट आकार आधार प्रणाली विकसित की गई थी। मार्क सागर ने एंटरटेनमेंट फेशियल एनिमेशन में फेशियल एक्शन कोडिंग सिस्टम के उपयोग का बीड़ा उठाया है, और सागर द्वारा विकसित FACS आधारित सिस्टम का उपयोग मॉन्स्टर हाउस (फिल्म), किंग कांग (2005 फिल्म), और अन्य फिल्मों में किया गया था।

तकनीक

चेहरे का एनीमेशन डेटा उत्पन्न करना

चेहरे के एनीमेशन डेटा की पीढ़ी को विभिन्न तरीकों से संपर्क किया जा सकता है: 1.) मोशन कैप्चर | एक कलाकार के चेहरे पर बिंदुओं या निशानों पर मार्कर-आधारित मोशन कैप्चर, 2.) विभिन्न प्रकार के कैमरों का उपयोग करके मोशन कैप्चर#मार्करलेस तकनीक, 3 .) ऑडियो-चालित तकनीकें, और 4.) कीफ़्रेम एनीमेशन।

  • मोशन कैप्चर किसी विषय के आसपास रखे कैमरों का उपयोग करता है। विषय आम तौर पर या तो परावर्तकों (निष्क्रिय गति कैप्चर) या स्रोतों (सक्रिय गति कैप्चर) के साथ फिट होता है जो अंतरिक्ष में विषय की स्थिति को सटीक रूप से निर्धारित करता है। कैमरों द्वारा रिकॉर्ड किए गए डेटा को तब डिजिटाइज़ किया जाता है और विषय के त्रि-आयामी कंप्यूटर मॉडल में परिवर्तित किया जाता है। कुछ समय पहले तक, मोशन कैप्चर सिस्टम द्वारा उपयोग किए जाने वाले डिटेक्टरों/स्रोतों के आकार ने तकनीक को चेहरे पर कब्जा करने के लिए अनुपयुक्त बना दिया था। हालांकि, लघुकरण और अन्य प्रगति ने मोशन कैप्चर को कंप्यूटर चेहरे के एनीमेशन के लिए एक व्यवहार्य उपकरण बना दिया है। सोनी पिक्चर्स इमेजवर्क्स द्वारा ध्रुवीय एक्सप्रेस में फेशियल मोशन कैप्चर का बड़े पैमाने पर इस्तेमाल किया गया था, जहां सैकड़ों मोशन पॉइंट कैप्चर किए गए थे। यह फिल्म बहुत निपुण थी और जब इसने यथार्थवाद को फिर से बनाने का प्रयास किया, तो इसकी आलोचना की गई कि यह 'अलौकिक घाटी ' में गिर गई है, वह क्षेत्र जहां एनीमेशन यथार्थवाद मानव मान्यता के लिए पर्याप्त है और भावनात्मक संदेश व्यक्त करने के लिए है लेकिन जहां पात्रों को समझने में विफल रहता है यथार्थवादी के रूप में। मोशन कैप्चर की मुख्य कठिनाइयाँ डेटा की गुणवत्ता हैं जिसमें कंपन के साथ-साथ बिंदुओं की ज्यामिति का पुन: लक्ष्यीकरण भी शामिल हो सकता है।
  • मोशन कैप्चर#मार्करलेस का उद्देश्य प्रदर्शनकर्ता को मार्करों से बोझ से बचाकर गति पकड़ने की प्रक्रिया को सरल बनाना है। विभिन्न सेंसरों का लाभ उठाते हुए हाल ही में कई तकनीकें सामने आईं, जिनमें मानक वीडियो कैमरा, किनेक्ट और डेप्थ सेंसर या अन्य संरचित-प्रकाश आधारित उपकरण शामिल हैं। संरचित प्रकाश पर आधारित प्रणालियाँ उच्च गति वाले संरचित प्रकाश स्कैनर का उपयोग करके किसी भी मार्कर के उपयोग के बिना वास्तविक समय के प्रदर्शन को प्राप्त कर सकती हैं। सिस्टम एक मजबूत ऑफ़लाइन फेस ट्रैकिंग चरण पर आधारित है जो सिस्टम को विभिन्न चेहरे के भावों के साथ प्रशिक्षित करता है। मिलान किए गए अनुक्रमों का उपयोग एक व्यक्ति-विशिष्ट रैखिक चेहरा मॉडल बनाने के लिए किया जाता है जिसे बाद में ऑनलाइन चेहरा ट्रैकिंग और अभिव्यक्ति हस्तांतरण के लिए उपयोग किया जाता है।
  • ऑडियो-चालित तकनीक विशेष रूप से भाषण एनीमेशन के लिए उपयुक्त हैं। भाषण को आमतौर पर चेहरे के भावों के एनीमेशन के लिए एक अलग तरीके से व्यवहार किया जाता है, इसका कारण यह है कि एनीमेशन के सरल मुख्य-फ़्रेम -आधारित दृष्टिकोण आम तौर पर वास्तविक भाषण गतिशीलता के लिए एक खराब सन्निकटन प्रदान करते हैं। अक्सर विज़म्स का उपयोग देखे गए भाषण में महत्वपूर्ण मुद्राओं का प्रतिनिधित्व करने के लिए किया जाता है (अर्थात किसी विशेष स्वर का निर्माण करते समय होंठ, जबड़े और जीभ की स्थिति), हालांकि प्राकृतिक भाषण के उत्पादन के दौरान वीज़म्स की प्राप्ति में काफी भिन्नता होती है। इस भिन्नता के स्रोत को कॉर्टिक्यूलेशन कहा जाता है जो वर्तमान viseme (यानी संदर्भ का प्रभाव) पर आसपास के विसेम्स का प्रभाव है। कोआर्टिक्यूलेशन के लिए वर्तमान सिस्टम या तो स्पष्ट रूप से संदर्भ को ध्यान में रखते हैं जब विसेम कीफ़्रेम सम्मिश्रण करते हैं या लंबी इकाइयों जैसे कि diphone , ट्राइफोन , [[ शब्द ांश ]] या यहां तक ​​कि शब्द और वाक्य (भाषाविज्ञान) -लंबाई इकाइयों का उपयोग करते हैं। भाषण एनीमेशन के सबसे आम तरीकों में से एक कोहेन और मस्सारो द्वारा पेश किए गए प्रभुत्व कार्यों का उपयोग है। प्रत्येक प्रभुत्व समारोह समय के साथ उस प्रभाव का प्रतिनिधित्व करता है जो एक भाषण के उच्चारण पर होता है। आमतौर पर प्रभाव विसेम के केंद्र में सबसे अधिक होगा और विसेम केंद्र से दूरी के साथ कम हो जाएगा। एक भाषण प्रक्षेपवक्र उत्पन्न करने के लिए प्रभुत्व कार्यों को एक साथ मिश्रित किया जाता है, उसी तरह से एक वक्र उत्पन्न करने के लिए तख़्ता (गणित) आधार कार्यों को एक साथ मिश्रित किया जाता है। प्रत्येक प्रभुत्व समारोह का आकार दोनों के अनुसार अलग-अलग होगा जो यह प्रतिनिधित्व करता है और चेहरे के किस पहलू को नियंत्रित किया जा रहा है (जैसे होंठ की चौड़ाई, जबड़े का घूमना आदि)। वांबाल्दी टॉकिंग हेड में कंप्यूटर जनित भाषण एनीमेशन के दृष्टिकोण को देखा जा सकता है। भाषण के अन्य मॉडल आधार इकाइयों का उपयोग करते हैं जिनमें विसेम्स के बजाय संदर्भ (जैसे डिफोन, ट्राइफोन आदि) शामिल हैं। जैसा कि आधार इकाइयां पहले से ही संदर्भ के अनुसार प्रत्येक विसेम की भिन्नता को शामिल करती हैं और कुछ हद तक प्रत्येक विसेम की गतिशीलता, कॉर्टिक्यूलेशन के किसी मॉडल की आवश्यकता नहीं होती है। भाषण केवल एक डेटाबेस से उपयुक्त इकाइयों का चयन करके और इकाइयों को एक साथ मिलाकर उत्पन्न किया जाता है। यह ऑडियो भाषा संकलन में कॉन्टेनेटिव तकनीकों के समान है। इन मॉडलों का नुकसान यह है कि प्राकृतिक परिणाम उत्पन्न करने के लिए बड़ी मात्रा में कैप्चर किए गए डेटा की आवश्यकता होती है, और जबकि लंबी इकाइयाँ अधिक प्राकृतिक परिणाम उत्पन्न करती हैं, आवश्यक डेटाबेस का आकार प्रत्येक इकाई की औसत लंबाई के साथ फैलता है। अंत में, कुछ मॉडल सीधे ऑडियो से वाक् एनिमेशन उत्पन्न करते हैं। ये प्रणालियां आम तौर पर छिपे छिपा हुआ मार्कोव मॉडल या तंत्रिका जाल का उपयोग करती हैं ताकि ऑडियो पैरामीटर को चेहरे के मॉडल के लिए नियंत्रण पैरामीटर की धारा में परिवर्तित किया जा सके। इस पद्धति का लाभ जटिल सन्निकटन एल्गोरिदम के बिना आवाज संदर्भ हैंडलिंग, प्राकृतिक लय, गति, भावनात्मक और गतिशीलता से निपटने की क्षमता है। प्रशिक्षण डेटाबेस को लेबल करने की आवश्यकता नहीं है क्योंकि इसमें किसी स्वर या विसेम की आवश्यकता नहीं है; केवल आवश्यक डेटा आवाज और एनीमेशन पैरामीटर है।
  • कीफ़्रेम एनीमेशन एनीमेशन डेटा बनाने की प्रक्रियाओं में सबसे कम स्वचालित है, हालांकि यह एनीमेशन पर अधिकतम मात्रा में नियंत्रण प्रदान करता है। एनीमेशन को अंतिम पॉलिश देने के लिए इसे अक्सर अन्य तकनीकों के संयोजन में प्रयोग किया जाता है। कीफ़्रेम डेटा एक हड्डी आधारित रिग के साथ मॉडल में मॉर्फ लक्ष्य एनीमेशन गुणांक या रोटेशन और हड्डियों के अनुवाद मूल्यों को परिभाषित करने वाले स्केलर मानों से बना हो सकता है। कीफ़्रेम एनीमेशन प्रक्रिया को गति देने के लिए अक्सर एनीमेशन द्वारा एक नियंत्रण रिग का उपयोग किया जाता है। नियंत्रण रिग एक उच्च स्तर के अमूर्तता का प्रतिनिधित्व करता है जो एक ही समय में कई मोर्फ लक्ष्य एनीमेशन गुणांक या हड्डियों पर कार्य कर सकता है। उदाहरण के लिए, एक मुस्कान नियंत्रण एक साथ मुंह के आकार को ऊपर की ओर घुमाने और आंखों को तिरछी करने पर कार्य कर सकता है।

चेहरे के एनीमेशन को एक चरित्र पर लागू करना

एक चरित्र में चेहरे के एनीमेशन को लागू करने के लिए उपयोग की जाने वाली मुख्य तकनीकें हैं: 1.) मॉर्फ लक्ष्य एनीमेशन, 2.) कंकाल एनीमेशन, 3.) बनावट-आधारित एनीमेशन (2डी या 3डी), और 4.) शरीर क्रिया विज्ञान मॉडल।

  • मॉर्फ टारगेट एनिमेशन (जिसे ब्लेंडशेप्स भी कहा जाता है) आधारित सिस्टम तेजी से प्लेबैक के साथ-साथ भावों की उच्च स्तर की निष्ठा प्रदान करते हैं। इस तकनीक में चेहरे की जाली के मॉडलिंग भागों को अनुमानित अभिव्यक्तियों और विज़म्स के लिए शामिल किया गया है और फिर अलग-अलग उप जालों को सम्मिश्रित किया जाता है, जिसे मॉर्फ टारगेट या ब्लेंडशेप के रूप में जाना जाता है। शायद इस तकनीक का उपयोग करने वाला सबसे निपुण पात्र 'द लॉर्ड ऑफ द रिंग्स' का गॉलम था। इस तकनीक की कमियां यह हैं कि उनमें गहन शारीरिक श्रम शामिल है और प्रत्येक चरित्र के लिए विशिष्ट हैं। हाल ही में, 3D मॉडलिंग में नई अवधारणाएँ सामने आने लगी हैं। हाल ही में, पारंपरिक तकनीकों से हटकर एक नई तकनीक सामने आने लगी है, जैसे 'वक्र नियंत्रित मॉडलिंग '[2] जो स्थिर आकार के पारंपरिक मॉडलिंग के बजाय एक 3D वस्तु के संचलन के मॉडलिंग पर जोर देता है।
  • कंकाल एनीमेशन का खेलों में बहुत व्यापक रूप से उपयोग किया जाता है। सभी सूक्ष्म चेहरे के भावों को अनुमति देने के लिए हड्डियों का सेटअप कुछ हड्डियों के बीच सौ के करीब हो सकता है। हड्डी संचालित एनीमेशन का मुख्य लाभ यह है कि एक ही एनीमेशन का उपयोग विभिन्न पात्रों के लिए किया जा सकता है जब तक कि उनके चेहरों की आकृति विज्ञान समान हो, और दूसरी बात यह है कि उन्हें सभी मॉर्फ लक्ष्य एनिमेशन डेटा को मेमोरी में लोड करने की आवश्यकता नहीं होती है। हड्डी से चलने वाला एनिमेशन 3डी गेम इंजनों द्वारा सर्वाधिक व्यापक रूप से समर्थित है। अस्थि चालित एनिमेशन का उपयोग 2डी और 3डी एनिमेशन दोनों के लिए किया जा सकता है। उदाहरण के लिए, एडोब फ्लैश का उपयोग करके हड्डियों को 2डी कैरेक्टर का उपयोग करके रिग और एनिमेट करना संभव है।
File:Kara - animated short by Quantic Dreams.png
क्वांटिक ड्रीम द्वारा कारा एनिमेटेड शॉर्ट का स्क्रीनशॉट

* बनावट-आधारित एनीमेशन चरित्र चेहरे पर एनीमेशन बनाने के लिए पिक्सेल रंग का उपयोग करता है। 2डी चेहरे का एनीमेशन आमतौर पर छवियों के परिवर्तन पर आधारित होता है, जिसमें अभी भी फोटोग्राफी और वीडियो के अनुक्रम दोनों छवियां शामिल हैं। इमेज मॉर्फिंग एक ऐसी तकनीक है जो लक्ष्य स्थिर छवियों की एक जोड़ी के बीच या वीडियो के अनुक्रमों से फ्रेम के बीच संक्रमणकालीन छवियों को उत्पन्न करने की अनुमति देती है। इन मॉर्फिंग तकनीकों में आमतौर पर एक ज्यामितीय विरूपण तकनीक का संयोजन होता है, जो लक्षित छवियों को संरेखित करता है, और एक क्रॉस-फेड जो छवि बनावट में चिकनी संक्रमण बनाता है। इमेज मॉर्फिंग का एक प्रारंभिक उदाहरण माइकल जैक्सन के ब्लैक या व्हाइट वीडियो में देखा जा सकता है। 3डी एनिमेशन में टेक्सचर आधारित एनिमेशन टेक्सचर को स्वयं या यूवी मैपिंग को एनिमेट करके प्राप्त किया जा सकता है। बाद के मामले में सभी चेहरे की अभिव्यक्ति का एक बनावट नक्शा बनाया जाता है और एक अभिव्यक्ति से दूसरे में संक्रमण के लिए यूवी मानचित्र एनीमेशन का उपयोग किया जाता है।

  • फिजियोलॉजी मॉडल, जैसे कि कंकाल की मांसपेशी प्रणाली और शारीरिक रूप से आधारित हेड मॉडल, मानव सिर और चेहरे के मॉडलिंग में एक और दृष्टिकोण बनाते हैं।[3] यहाँ, हड्डियों, जैविक ऊतक , और मानव त्वचा की भौतिक और शारीरिक विशेषताओं को यथार्थवादी रूप प्रदान करने के लिए सिम्युलेटेड किया जाता है (जैसे वसंत जैसी लोच)। यथार्थवाद बनाने के लिए ऐसे तरीके बहुत शक्तिशाली हो सकते हैं लेकिन चेहरे की संरचनाओं की जटिलता उन्हें कम्प्यूटेशनल रूप से महंगी और बनाने में मुश्किल बनाती है। संप्रेषणीय उद्देश्यों के लिए पैरामीटरयुक्त मॉडल की प्रभावशीलता को ध्यान में रखते हुए (जैसा कि अगले भाग में बताया गया है), यह तर्क दिया जा सकता है कि शारीरिक रूप से आधारित मॉडल कई अनुप्रयोगों में बहुत कुशल विकल्प नहीं हैं। यह शारीरिक रूप से आधारित मॉडलों के फायदों से इंकार नहीं करता है और तथ्य यह है कि जब आवश्यक हो तो स्थानीय विवरण प्रदान करने के लिए पैरामीटरयुक्त मॉडल के संदर्भ में भी उनका उपयोग किया जा सकता है।

फेस एनिमेशन लैंग्वेज

चेहरे के एनिमेशन की सामग्री का वर्णन करने के लिए कई चेहरा एनीमेशन भाषाओं का उपयोग किया जाता है। वे एक संगत प्लेयर सॉफ़्टवेयर में इनपुट हो सकते हैं जो तब अनुरोधित क्रियाएं बनाता है। फेस एनिमेशन लैंग्वेज अन्य मल्टीमीडिया प्रेजेंटेशन लैंग्वेज जैसे कि सिंक्रनाइज़ मल्टीमीडिया एकीकरण भाषा और वीआरएमएल से निकटता से संबंधित हैं। डेटा प्रतिनिधित्व तंत्र के रूप में XML की लोकप्रियता और प्रभावशीलता के कारण, अधिकांश फेस एनिमेशन भाषाएँ XML-आधारित हैं। उदाहरण के लिए, यह आभासी मानव मार्कअप भाषा (VHML) का एक नमूना है: <वाक्यविन्यास प्रकाश लैंग = एक्सएमएल >

<वीएचएमएल>
  <व्यक्ति स्वभाव = क्रोधित>
    पहले मैं गुस्से की आवाज से बोलता हूं और बहुत गुस्से में दिखता हूं,
    <आश्चर्यजनक तीव्रता = 50>
      लेकिन अचानक मैं और अधिक हैरान दिखने के लिए बदल जाता हूं।
    </आश्चर्य>
  </व्यक्ति>
</वीएचएमएल>

</वाक्यविन्यास हाइलाइट> अधिक उन्नत भाषाएँ निर्णय लेने, घटना प्रबंधन और समानांतर और अनुक्रमिक क्रियाओं की अनुमति देती हैं। फेस मॉडलिंग लैंग्वेज (एफएमएल) चेहरे के एनीमेशन का वर्णन करने के लिए एक एक्सएमएल-आधारित भाषा है।[4] FML MPEG-4 फेस एनिमेशन पैरामीटर ्स (FAPS), निर्णय लेने और डायनेमिक घटना से निपटना , और विशिष्ट कंप्यूटर प्रोग्रामिंग निर्माण जैसे पुनरावृत्ति का समर्थन करता है। यह iFACE सिस्टम का हिस्सा है।[4]निम्नलिखित FML से एक उदाहरण है: <वाक्यविन्यास प्रकाश लैंग = एक्सएमएल>

<एफएमएल>
  <कार्य>
    <par>
<hdmv type= yaw value= 15 start= 0 end= 2000 />
<expr प्रकार = खुशी का मूल्य = -60 प्रारंभ = 0 अंत = 2000 />
    </ बराबर>
    <Excl event_name= kbd event_value= रिपीट= kbd;F3_up >
<hdmv type= yaw value= 40 start= 0 end= 2000 event_value= F1_up />
<hdmv type= yaw value= -40 start= 0 end= 2000 event_value= F2_up />
    </excl>
  </अधिनियम>
</fml>

</वाक्यविन्यास हाइलाइट>

यह भी देखें

संदर्भ

  1. Hjortsjö, CH (1969). Man's face and mimic language.
  2. Ding, H.; Hong, Y. (2003). "NURBS curve controlled modeling for facial animation". Computers and Graphics. 27 (3): 373–385.
  3. Lucero, J.C.; Munhall, K.G. (1999). "A model of facial biomechanics for speech production". Journal of the Acoustical Society of America. 106: 2834–2842. doi:10.1121/1.428108. PMID 10573899.
  4. 4.0 4.1 "iFACE". Carleton University. 6 June 2007. Archived from the original on 6 June 2007. Retrieved 16 June 2019.


आगे की पढाई


बाहरी कड़ियाँ

श्रेणी: कंप्यूटर एनिमेशन श्रेणी:शारीरिक अनुकरण