TRANSCRIPTHindi

AI Complete OneShot Course for Beginners | Learn AI & ML Fundamentals from Scratch

1h 6m 27s14,897 words1,973 segmentsHindi

FULL TRANSCRIPT

0:00

हाई एवरीवन एंड वेलकम टु आवर कॉलेज एंड इन

0:01

टुडे सेशन वी आर गोइंग टु कवर द कोर

0:03

फंडामेंटल कॉन्सेप्ट्स ऑफ़ आर्टिफिशियल

0:05

इंटेलिजेंस दैट इज़ एआई। टुडे इफ वी अनलॉक

0:08

आवर फ़ोन विथ फेस आईडी एंड आस्क सीरी टु

0:09

टेल अस द वेदर वी आर एक्चुअली यूज़िंग

0:12

कंप्यूटर विज़न एंड एनएलपी। इफ वी आर

0:14

इंटरक्टिंग विथ टूल्स लाइक चैट GP ओर JNI

0:16

वी आर एक्चुअली यूजिंग एलएलएमस लार्ज

0:18

लैंग्वेज मॉडल्स। आज के डेट में एव्री

0:20

एप्लीकेशन इज फुल ऑफ रेकमेंडेशन्स। अगर हम

0:22

Amazon Blinkket यूज़ करते हैं दे रेकमेंड

0:24

अस व्हाट टू बाय। अगर हम Netflix YouTube

0:26

यूज करते हैं दे रेकमेंड अस व्हाट टू वॉच।

0:28

वी हैव एप्स लाइक Google Maps ओर Uber दैट

0:31

डु ट्रैफिक प्रेडिक्शन फॉर अस। दे आल्सो

0:32

डु अराइवल टाइम एस्टिमेशन एंड दैट टू विथ

0:34

अ ग्रेट एक्यूरेसी। इवन इफ वी आर कोडिंग

0:37

टुडे वी टेक हेल्प फ्रॉम टूल्स लाइक

0:38

GitHub को पायलेट। सो इफ वी आर यूजिंग

0:41

टेक्नोलॉजी टुडे देन वी आर एक्चुअली

0:43

यूजिंग डिफरेंट मल्टीपल फॉर्म्स ऑफ़

0:45

आर्टिफिशियल इंटेलिजेंस एव्री सिंगल डे।

0:47

तो आज के सेशन के अंदर वी आर गोइंग टू कवर

0:50

द कोर फंडामेंटल कॉन्सेप्ट्स ऑफ

0:51

आर्टिफिशियल इंटेलिजेंस। व्हाट आर द

0:53

डिफरेंट टाइप्स? व्हाट आर द डिफरेंट

0:54

सबसेट्स? व्हाट आर द डिफरेंट यूज़ केसेस ऑफ़

0:56

एआई एंड मच मोर। सो टुडेज़ सेशन इज़ गोइंग

0:59

टू हैव नो प्रीरक्व्विज़िट्स। मतलब एनीबडी

1:02

हु वांट्स टू अंडरस्टैंड एआई एनीबडी हु

1:04

वांट्स टू एक्सप्लोर मोर अबाउट

1:06

आर्टिफिशियल इंटेलिजेंस कैन लर्न फ्रॉम

1:08

दिस लेक्चर। तो आज के लेक्चर के बाद वी आर

1:10

एक्चुअली गोइंग टू फील मोर कॉन्फिडेंट एंड

1:12

वी आर एक्चुअली गोइंग टू अंडरस्टैंड मोर

1:14

अबाउट द टर्म्स दैट आर रिलेटेड टू एआई।

1:16

जैसे मशीन लर्निंग हो गई, रीइंफोर्समेंट

1:18

लर्निंग हो गई, कंप्यूटर विज़न हो गई,

1:20

एनएलपी हो गई, न्यूरल नेटवर्क्स हो गई एंड

1:22

मेनी मोर एल्गोरिदम्स लाइक दिस। सो दिस

1:25

विल बी अ सेशन अबाउट एआई दैट विल हेल्प अस

1:27

अंडरस्टैंड इट एंड फील मोर कॉन्फिडेंट इन

1:29

टुडेज़ टाइम। लेट्स स्टार्ट विथ द सेशन।

1:31

सो, लेट्स स्टार्ट बाय अंडरस्टैंडिंग

1:32

व्हाट एक्जेक्टली इज़ एआई, आर्टिफिशियल

1:34

इंटेलिजेंस। एआई इज़ बेसिकली दैट

1:36

टेक्नोलॉजी दैट अलाउज़ कंप्यूटरर्स और

1:38

सिस्टम्स टू परफॉर्म टास्क दैट टिपिकली

1:40

रिक्वायर ह्यूमन इंटेलिजेंस। फॉर एग्जांपल

1:43

अगर हमारे कोई भी कंप्यूटरटर्स होते हैं,

1:45

अगर हमारे कोई सिस्टम्स होते हैं जो ऐसे

1:46

काम परफॉर्म करते हैं जिसके अंदर कुछ ना

1:49

कुछ लेवल ऑफ ह्यूमन इंटेलिजेंस चाहिए तो

1:51

वो काम वो परफॉर्म करते हैं विद द हेल्प

1:53

ऑफ दिस टेक्नोलॉजी व्हिच इज़ एआई। अब ये

1:56

कैसे काम हो सकते हैं? इसका एक एग्जांपल

1:58

हो सकता है पैटर्न रिकॉग्निशन। हम एज

2:00

ह्यूमंस डेटा को देखकर उसके अंदर पैटर्न

2:03

रिकॉग्नाइज़ करने के अंदर बहुत अच्छे होते

2:05

हैं। जैसे फॉर एग्जांपल एक सिंपल एग्जांपल

2:07

लेते हैं। लेट्स सपोज़ हमें किसी ने डेटा

2:09

दिया कि इनपुट वन के लिए आउटपुट वन होना

2:11

चाहिए। इनपुट टू के लिए आउटपुट फोर होना

2:12

चाहिए। इनपुट थ्री के लिए आउटपुट नाइन

2:14

होना चाहिए। इनपुट फोर के लिए आउटपुट 16

2:16

होना चाहिए। तो इस डेटा के अंदर हमें एक

2:17

पैटर्न दिखेगा। एंड उस पैटर्न को एनालाइज

2:20

करके हमें पता होगा कि अगर कोई इनपुट फाइव

2:22

देता है तो उसके लिए आउटपुट 25 होना

2:24

चाहिए। बिकॉज़ ऑल ऑफ़ दीज़ नंबर्स आर

2:26

स्क्वायर्स ऑफ़ दीज़ नंबर्स। तो फाइव का भी

2:28

हम स्क्वायर दे देंगे। तो दिस इज़ अ सिंपल

2:31

एग्जांपल ऑफ़ व्हाट पैटर्न रिकॉग्निशन इज़।

2:33

तो यही काम अगर हमें मशीन से परफॉर्म

2:35

कराना है तो वो हम परफॉर्म करा सकते हैं

2:37

विद द हेल्प ऑफ एआई। उसी तरीके से एक और

2:40

एग्जांपल होगा ह्यूमन इंटेलिजेंस का स्पीच

2:43

रिकॉग्निशन। हम एज ह्यूमंस एक दूसरे की

2:46

अगर लैंग्वेज समझते हैं तो दूसरा व्यक्ति

2:48

क्या कह रहा है हम उस बात को समझ सकते

2:49

हैं। हम उसका मीनिंग समझ सकते हैं। हम उस

2:51

बात का कॉन्टेक्स्ट उसके अंदर क्या इमोशंस

2:53

हैं वो चीजें भी समझ सकते हैं। तो इसी

2:55

तरीके की स्पीच रिकॉग्निशन अगर हम मशीन से

2:57

कराना चाहते हैं तो वो हम कर सकते हैं विद

2:59

द हेल्प ऑफ एआई। जैसे आज की डेट में हमारे

3:00

पास Si है, हमारे पास Alexa है। इनफैक्ट

3:03

विद टूल्स लाइक चैट जीपीटी और जेमिनाई

3:05

हमारे पास वॉइस ऑप्शन होता है। तो हम इन

3:07

टूल्स के साथ इंटरेक्ट कर सकते हैं विद

3:08

आवर वॉइस। तो ये टूल्स कैसे रिकॉग्नाइज़

3:10

करते हैं कि हम एग्जैक्टली बोल क्या रहे

3:12

हैं? दिस इज़ हैपनिंग बिकॉज़ ऑफ़ स्पीच

3:14

रिकॉग्निशन। इसके साथ में वी आल्सो हैव

3:16

समथिंग कॉल्ड इमेज एनालिसिस। हम इमेजज़ को

3:19

देखकर उनको एनालाइज़ कर सकते हैं कि इमेज

3:21

के अंदर डिफरेंट ऑब्जेक्ट्स क्या हैं?

3:23

इमेज के अंदर अगर कोई नंबर्स लिखे हुए हैं

3:25

तो वो नंबर्स क्या हैं? इमेज के अंदर कौन

3:26

सी चीज का क्या मतलब है? ये हम एज़ ह्यूमंस

3:28

कर सकते हैं ह्यूमन इंटेलिजेंस को यूज़

3:30

करके। जैसे फॉर एग्जांपल अगर हमें कोई कार

3:32

की इमेज देगा तो उस कार की इमेज में हम

3:34

रिकॉग्नाइज़ कर सकते हैं कि नंबर प्लेट

3:36

कहां पर है और उस नंबर प्लेट पे क्या

3:37

नंबर्स लिखे हुए हैं। अब यही काम अगर हमें

3:39

कंप्यूटर से कराना है तो वो हम करेंगे वि

3:41

द हेल्प ऑफ़ एआई। एंड ये ऐसा प्रैक्टिकल

3:43

एग्जांपल है जो एक्चुअली एक्सिस्ट करता

3:45

है। हमारे पास ट्रैफिक डिपार्टमेंट के

3:46

अंदर ऐसे सिस्टम्स एक्सिस्ट करते हैं जो

3:48

किसी भी व्हीकल के लिए उसका नंबर प्लेट

3:50

डिटेक्ट कर सकते हैं एंड ऑटोमेटेड चालांस

3:52

उन व्हीकल्स को सेंड कर सकते हैं। सो दीज़

3:54

आर ऑल एग्जांपल्स ऑफ़ टास्क जिनके लिए कुछ

3:56

ना कुछ ह्यूमन इंटेलिजेंस चाहिए और इन्हीं

3:58

टास्क को हम एआई की हेल्प से परफॉर्म कर

4:00

सकते हैं। अब एआई को हमने समझ लिया। एआई

4:03

की एक ब्रांच को भी समझ लेते हैं। व्हिच

4:05

इज़ कॉल्ड मशीन लर्निंग। इफ दिस इज़ एi तो

4:08

एआई की सबसे इंपॉर्टेंट सबडोमेन होती है

4:12

मशीन लर्निंग। मेजॉरिटी ऑफ एआई जो आज की

4:15

डेट में हम देखते हैं। मेजॉरिटी ऑफ दैट

4:17

एआई इज एक्चुअली मशीन लर्निंग। तो मशीन

4:19

लर्निंग क्या होता है? मशीन लर्निंग आर

4:20

बेसिकली दोज़ एल्गोरिद्स दैट लर्न फ्रॉम

4:22

डेटा रादर देन प्रोग्रामिंग। तो मशीन

4:24

लर्निंग के अंदर डेटा बहुत ज्यादाेंट हो

4:27

जाता है। एंड इनफैक्ट दैट इज व्हाई इन द

4:29

लास्ट वन टू टू डेकेड्स मशीन लर्निंग और

4:31

ज्यादाेंट हुई है। और बहुत सारे ऐसे

4:33

सिस्टम्स इमर्ज हुए हैं जो एक्चुअली मशीन

4:35

लर्निंग को यूज़ करते हैं। बिकॉज़ जैसे ही

4:37

इंटरनेट आया, जैसे ही सारे के सारे लोग्स

4:39

इंटरनेट पर ऑनबोर्ड हुए तो वैसे ही हमारे

4:41

पास बहुत सारा डेटा आने लगा। एंड आज की

4:43

डेट में हर बड़ी कंपनी के पास बहुत सारा

4:45

डेटा है। एंड दैट इज़ व्हाई वी आर एबल टू

4:47

सी सो मेनी प्रैक्टिकल एप्लीकेशनेशंस ऑफ़

4:49

मशीन लर्निंग एल्गोरिथ्म्स। अब सिंस मशीन

4:51

लर्निंग इज़ अ सबडोमेन ऑफ़ एआई। हम यह कह

4:53

सकते हैं कि सारी मशीन लर्निंग एआई होती

4:55

है। बट सारी एआई मशीन लर्निंग नहीं होती।

4:58

देयर आर सम पार्ट्स ऑफ़ एआई व्हिच आर नॉट

5:00

मशीन लर्निंग। ये कैसे पार्ट्स हैं? जैसे

5:02

फॉर एग्जांपल हमारे जो रूल बेस्ड सिस्टम्स

5:05

होते हैं दे आर पार्ट ऑफ़ एआई। उनके अंदर

5:07

कुछ ना कुछ लेवल ऑफ इंटेलिजेंस होती है।

5:08

पर वो मशीन लर्निंग का पार्ट नहीं है।

5:10

उनके अंदर हम प्रोग्रामिंग करते हैं रादर

5:12

देन लर्निंग फ्रॉम डेटा। तो रूल बेस्ड

5:15

सिस्टम्स के अंदर हम एआई को यूज़ करते हैं

5:18

पर मशीन लर्निंग को यूज़ नहीं करते। वन मोर

5:20

एग्जांपल कुड बी क्लासिकल रोबोटिक्स जिसके

5:22

अंदर हम रूल बेस्ड प्रोग्रामिंग ही करते

5:23

हैं। दैट इज आल्सो एआई बट दैट इज नॉट

5:25

पार्ट ऑफ़ मशीन लर्निंग। हमारे पास कुछ

5:27

एल्गोरिदम्स भी होती हैं जैसे वी हैव वन ए

5:28

स्टार एल्गोरिदम व्हिच इज यूज्ड इन

5:30

ग्राफ्स व्हिच इज़ पार्ट ऑफ एआई बट नॉट

5:31

पार्ट ऑफ़ मशीन लर्निंग। उसके साथ में वी

5:33

आल्सो हैव फजी लॉजिक सिस्टम्स जो हमारे घर

5:36

के एसीस के अंदर फ्रिज के अंदर यूज़ होते

5:38

हैं उन फ्रिज को प्रोग्राम करने के लिए

5:40

उन्हें थोड़े बहुत लेवल ऑफ इंटेलिजेंस देने

5:42

के लिए। बट दैट इज़ पार्ट ऑफ़ एआई बट नॉट

5:44

पार्ट ऑफ़ मशीन लर्निंग। बट जो मेजॉरिटी

5:46

एआई आज की डेट में हम देखते हैं एलएलएम्स

5:48

के अंदर, Google Maps जैसी, Uber जैसी,

5:50

Amazon जैसी, ब्लिंकिट जैसी एप्स के ऊपर,

5:52

मेजॉरिटी ऑफ़ दैट एi इज़ मशीन लर्निंग। तो

5:55

मशीन लर्निंग के अंदर हमारे पास बहुत सारी

5:56

अलग-अलग एल्गोरिदम्स होती हैं जिनको हम

5:58

आगे जाकर देखेंगे। जैसे लीनियर रिग्रेशन

6:00

हो गया, लॉजिस्टिक रिग्रेशन हो गया,

6:01

सपोर्ट वेक्टर मशीनंस हो गए, हमारी डिसीजन

6:03

ट्रीज़ हो गए एंड सो मच मोर। अब मशीन

6:06

लर्निंग की ही एक और सबडोमेन होती है

6:08

जिसको हम कहते हैं डीप लर्निंग। एंड डीप

6:11

लर्निंग इज़ वेरी पॉपुलर टुडे। डीप लर्निंग

6:14

इज बेसिकली दैट सबडोमेन ऑफ मशीन लर्निंग

6:17

जिसके अंदर हम न्यूरल नेटवर्क्स के साथ

6:19

काम करते हैं। न्यूरल नेटवर्क्स को हम

6:21

मशीनंस के थ्रू क्रिएट कर सकते हैं। एंड

6:23

दीज़ नेटवर्क्स आर एक्चुअली इंस्पायर्ड

6:25

फ्रॉम द ह्यूमन ब्रेन। ह्यूमन ब्रेन के

6:27

अंदर न्यूरॉन्स होते हैं। एंड उन्हीं से

6:29

इंस्पायर्ड हमारे न्यूरल नेटवर्क्स होते

6:31

हैं। तो न्यूरल नेटवर्क से ही हमारी कई

6:33

सारी डिफरेंट एल्गोरिदम्स निकल कर आती

6:34

हैं। जैसे एफएन हो गई, फीड फॉरवर्ड न्यूरल

6:36

नेटवर्क्स, आरएनए हो गए, रेकरेंट न्यूरल

6:38

नेटवर्क्स, कन्वोल्यूशनल न्यूरल

6:39

नेटवर्क्स। हमारे ट्रांसफॉर्मर्स हो गए जो

6:41

आज की डेट में चैट जीपीटी जैसे टूल्स के

6:43

अंदर यूज़ होते हैं। दे आर ऑल पार्ट ऑफ डीप

6:46

लर्निंग। तो इनको भी आगे जाकर हम डिटेल

6:48

में एक्सप्लोर करेंगे। एंड डीप लर्निंग का

6:50

ही एक और एप्लीकेशन या एक और सबडोमेन इसको

6:52

हम सोच सकते हैं व्हिच इज कॉल्ड जेन एआई।

6:55

तो जेन एआई इज़ एट द सेंटर ऑफ़ दिस जिसका

6:59

मतलब है जेरेटिव एआई। जनरेटिव एआई कहने का

7:01

मतलब है कि जेन एआई के अंदर हम उन

7:03

टेक्नोलॉजीस के साथ उन सिस्टम्स के साथ

7:05

डील करते हैं जो नया टेक्स्ट, नई ऑडियो,

7:08

नई वीडियो, नई इमेजेस को जनरेट करने का

7:10

काम करते हैं। मतलब अभी तक जितनी भी एआई

7:12

के साथ हम डील कर रहे थे वो बहुत नया

7:14

कंटेंट नहीं जनरेट कर रहे थे। बट जब हम

7:16

ऐसे एआई के साथ ऐसी टेक्नोलॉजीस के साथ

7:18

एल्गोरिदम्स के साथ डील करना स्टार्ट करते

7:20

हैं जो नया कंटेंट जनरेट करते हैं। देन वी

7:22

आर टॉकिंग अबाउट द फील्ड ऑफ जेन एआई। तो

7:25

इसको भी आगे जाकर हम डिटेल में देखने वाले

7:27

हैं। तो जब भी हम एआई को सीखने की बात

7:29

करते हैं, ये डिफरेंट टर्म्स हमें पता

7:30

होनी चाहिए। प्लस जो मेजॉरिटी एआई

7:32

फंडामेंटल कांसेप्ट्स को आज हम डिस्कस

7:34

करेंगे, दे आर एक्चुअली मशीन लर्निंग एंड

7:36

सबसेट्स ऑफ़ मशीन लर्निंग व्हिच इज़ डीप

7:38

लर्निंग एंड जेएनएआई। तो एक बार डिटेल में

7:40

समझते हैं। नाउ व्हाट एग्जैक्टली इज़ मशीन

7:42

लर्निंग। एमएल के बारे में हम ऑलरेडी बात

7:44

कर चुके हैं कि एमएल के अंदर हम ऐसे

7:45

एल्गोरिदम्स को यूज़ करते हैं दैट लर्न

7:47

फ्रॉम डेटा। तो इसका एक बहुत सिंपल सा

7:49

एग्जांपल लेते हैं। हमें लाइफ में अगर कोई

7:51

घर लेना होता है, कोई गाड़ी लेनी होती है,

7:52

देन वी गो टू अ बैंक एंड वी कैन अप्लाई

7:54

फॉर अ लोन। अब लेट्स सपोज हम एक बैंक के

7:56

अंदर काम करते हैं और उस बैंक के अंदर

7:58

बहुत सारे लोग हैं जो लोन एप्लीकेशन के

8:00

लिए अप्लाई करते हैं। अब हमें एज अ बैंकर

8:03

एक ऐसा सिस्टम बनाना है जो प्रेडिक्ट कर

8:05

सके कि किसी भी एपिकेंट को लोन मिलना

8:07

चाहिए या नहीं मिलना चाहिए। मतलब शुड द

8:10

लोन बी एक्सेप्टेड और रिजेक्टेड बाय द

8:12

बैंक। तो इस सिस्टम को हम कैसे डिज़ाइन

8:14

करेंगे? तो इस सिस्टम को हम बेसिकली

8:16

लॉजिकली अपने दिमाग से सोें तो दो स्टेप्स

8:18

के अंदर डिजाइन कर सकते हैं। सबसे पहला तो

8:20

हम पुराना डेटा देख सकते हैं कि अभी तक

8:21

बैंक में कितने एपिकेंट्स ने अप्लाई किया

8:23

है फॉर द लोन। उन एप्लिकेंट्स के हम

8:25

डिफरेंट-डिफरेंट कैरेक्टरिस्टिक्स फिगर

8:27

आउट करने की कोशिश कर सकते हैं। बेसिकली

8:29

हम पुराना डेटा देखेंगे एंड उसमें देखेंगे

8:31

कि किन एपिकेंट का लोन एक्सेप्ट हो गया है

8:33

और कौन से एपिकेंट का लोन रिजेक्ट हो गया

8:35

है। तो जब हम इस डेटा को एनालाइज़ करेंगे

8:37

तो हमें कुछ कॉमन पैटर्न्स दिखेंगे। कुछ

8:39

कॉमन कैरेक्टरिस्टिक्स दिखेंगे। जैसे फॉर

8:41

एग्जांपल क्रेडिट स्कोर इज समथिंग जो हमें

8:44

दिखेगा कि क्रेडिट स्कोर की एग्जैक्टली

8:45

ऐसी क्या वैल्यू है कि लोन एक्सेप्ट या

8:47

रिजेक्ट हो जाए। उसके साथ में हम हो सकता

8:49

है अपने एपिकेंट्स की सैलरी के बेसिस पर

8:52

भी कुछ पैटर्न हमें दिखाई दे। हो सकता है

8:54

एजुकेशन लेवल के बेसिस पर भी हमें कुछ

8:56

पैटर्न दिखाई दे। उसके साथ में हो सकता है

8:58

कि कोलटरल क्या है? उसके बेसिस पर भी हमें

9:00

कुछ पैटर्न दिखाई दे। तो इस तरीके से वी

9:02

विल फाइंड मल्टीपल कैरेक्टरिस्टिक्स जिससे

9:04

हम अपने दिमाग में कुछ एक लॉजिक फॉर्म कर

9:06

सकते हैं कि किसी भी एप्लीेंट के लिए लोन

9:08

को रिजेक्ट करना है या एक्सेप्ट करना है।

9:10

नाउ दिस इज़ द फर्स्ट स्टेप जो मशीन

9:13

लर्निंग एल्गोरिथम्स भी करती हैं व्हिच इज़

9:15

कॉल्ड ट्रेनिंग। दिस इज़ द ट्रेनिंग स्टेप।

9:18

ट्रेनिंग बेसिकली मींस लर्निंग फ्रॉम

9:20

डेटा। अब एक बार हमने अपने दिमाग में

9:22

ट्रेनिंग कर ली। अपना लॉजिक फॉर्म कर

9:23

लिया। उसके बाद आता है हमारा सेकंड स्टेप

9:25

कि कोई भी अगर न्यू एपिकेंट अब हमारे पास

9:28

आएगा तो उस एपिकेंट के लिए हम उसके

9:30

पैरामीटर्स को एनालाइज करेंगे और चेक

9:32

करेंगे कि लोन एक्सेप्ट होना चाहिए यस और

9:35

नो। तो इस तरीके से नाउ वी आर एबल टू मेक

9:38

अ प्रेडिक्शन। तो फर्स्ट स्टेप वास

9:40

ट्रेनिंग एंड द सेकंड स्टेप इज एक्चुअली

9:42

कॉल्ड मेकिंग प्रेडिकशंस या इसी स्टेप को

9:46

हम इनफरेंस भी कहते हैं। इनफ्रेंस कहने का

9:48

मतलब है कि ट्रेनिंग से हमने जो लॉजिक

9:50

ढूंढा मतलब ट्रेनिंग से हमने जो मॉडल

9:52

बनाया कि किसका लोन एक्सेप्ट होना चाहिए,

9:54

किसका रिजेक्ट होना चाहिए। उस मॉडल को अब

9:57

हम यूज़ कर रहे हैं टू मेक द प्रेडिकशंस।

9:59

एंड यही दोनों स्टेप्स हैं जो मेजॉरिटी

10:00

मशीन लर्निंग मॉडल्स फॉलो करते हैं। यानी

10:02

मशीन लर्निंग मॉडल्स सबसे पहले स्टेप के

10:05

अंदर अपने पास्ट डेटा पर ट्रेनिंग करते

10:07

हैं। एंड उसके बाद जैसे ही वो ट्रेन कर

10:09

लेते हैं हमारे पास एक तरीके से मॉडल

10:11

प्रिपेयर हो जाता है। मॉडल इज़ द लॉजिक जो

10:13

हमने प्रिपेयर किया है आफ्टर एनालाइजिंग द

10:15

पास्ट डेटा। एंड सेकंड स्टेप में जो भी

10:17

न्यू डेटा होता है, न्यू इनपुट होता है,

10:19

उसके बेसिस पर हम प्रेडिक्शंस करते हैं

10:20

व्हिच इज़ आल्सो कॉल्ड इनफेरेंस। तो यही

10:23

दोनों स्टेप्स सारी मशीन लर्निंग

10:24

एल्गोरिदम्स परफॉर्म करती हैं। अब यहां

10:26

बैंकिंग के अलावा भी हम और डिफरेंट

10:27

एग्जांपल्स ले सकते हैं जहां पर इसकी

10:28

एप्लीकेशन है। जैसे फॉर एग्जांपल इफ वी आर

10:30

वर्किंग इन द मेडिकल फील्ड और हमारे पास

10:32

बहुत सारे पेशेंट्स के एक्सरेज़ हैं। तो उस

10:35

डेटा पर हम अपने मॉडल को ट्रेन कर सकते

10:36

हैं। एंड हम एक ऐसा मॉडल प्रिपेयर कर सकते

10:38

हैं जो किसी भी नए एक्सरे को देखकर

10:40

डिटेक्ट कर सकता है कि इफ कैंसर एक्सिस्ट

10:42

ऑ नॉट। इसके अलावा Gmail इज़ आल्सो अ

10:43

सर्विस जिसको हम डे टू डे बेसिस पर यूज़

10:45

करते हैं। तो जितने भी ईमेल्स हमारे पास

10:47

आते हैं ऑटोमेटिकली Gmail उनके लिए

10:49

डिटेक्ट कर लेता है कि हमारे पास यह जो

10:50

ईमेल आया है इज़ दिस स्पैम और इज़ दिस नॉन

10:52

स्पैम? तो Gmail ने बहुत सारे ईमेल्स के

10:55

डेटा पर अपने जो मॉडल है उसको ट्रेन किया

10:58

होगा। एंड अब वो जो मॉडल है वो बहुत अच्छे

10:59

से प्रिडिक्ट कर पाता है इफ द ईमेल इज़ अ

11:02

स्पैम ईमेल ऑर नॉट। एंड इसी सेम तरीके से

11:04

वी डू क्रेडिट कार्ड फ्रॉड डिडक्शन या फिर

11:06

स्विगी Zomato जैसी एप्लीकेशनेशंस जो

11:08

डिलीवरी टाइम को एस्टिमेट करती हैं। वहां

11:10

पर भी हम इन्हीं दो स्टेप्स को यूज़ करते

11:12

हैं। नाउ इफ आई समराइज़ व्हाट मशीन लर्निंग

11:14

इज़ मशीन लर्निंग इज़ द प्रोसेस ऑफ़ टीचिंग

11:16

कंप्यूटरटर्स टू लर्न पैटर्न्स फ्रॉम

11:18

डेटा। दिस इज़ ट्रेनिंग एंड मेक डिसीजंस

11:20

बेस्ड ऑन दोज़ पैटर्न्स, दिस इज़ इनफरेंस।

11:22

अब नेक्स्ट हमारे दिमाग में सवाल आ सकता

11:24

है। ठीक है, हमने मशीन लर्निंग को समझ

11:25

लिया। बट हाउ आर मशीन लर्निंग एल्गोरिदम्स

11:28

डिफरेंट फ्रॉम नॉर्मल कंप्यूटर साइंस

11:29

एल्गोरिथ्म्स? तो थोड़ा बहुत भी अगर हमें

11:32

प्रोग्रामिंग आती है या थोड़ा बहुत भी अगर

11:33

हम कोड को समझते हैं तो हमें एक बेसिक

11:35

सेंस पता होगा कि कंप्यूटर साइंस के अंदर

11:37

प्रोग्राम्स या एल्गोरिदम्स क्या काम करते

11:39

हैं। ट्रेडिशनल कंप्यूटर साइंस के अंदर

11:40

जनरली कोई भी प्रोग्राम होता है वो कोई

11:42

इनपुट लेता है एंड उस प्रोग्राम के अंदर

11:45

कुछ ना कुछ लॉजिक लिखा होता है। एंड बेस्ड

11:47

ऑन दैट लॉजिक वो कुछ आउटपुट प्रोड्यूस

11:49

करता है। तो इस तरीके से हमारा एक नॉर्मल

11:52

कंप्यूटर साइंस की एल्गोरिदम जो होती है

11:53

वो वर्क करती है। अब मशीन लर्निंग

11:55

एल्गोरिथ्म्स कैसे वर्क करती हैं? मशीन

11:57

लर्निंग के अंदर जो एल्गोरिदम्स होती हैं

12:00

वो एल्गोरिदम इनपुट एंड आउटपुट दोनों लेती

12:04

हैं। जो हम डेटा भेजते हैं मशीन लर्निंग

12:06

एल्गोरिदम्स को उसके अंदर इनपुट एंड

12:07

आउटपुट दोनों होते हैं। जैसे अगर हम अपनी

12:09

बैंक लोन एप्लीकेशन का एग्जांपल लें तो

12:11

उसमें हमें सारे एपिकेंट्स का डेटा देना

12:13

पड़ेगा व्हिच इज़ बेसिकली द इनपुट। एंड उन

12:15

सारे डेटा के लिए बताना पड़ेगा इफ द लोन

12:17

वाज़ अप्रूव्ड ऑ नॉट। दिस इज़ बेसिकली

12:20

आउटपुट। तो यहां पर जो हम डेटा सेंड

12:21

करेंगे उसके अंदर इनपुट आउटपुट दोनों

12:23

होंगे। अब हर मशीन लर्निंग इनपुट आउटपुट

12:25

दोनों पैरामीटर्स को नहीं लेती। मशीन

12:26

लर्निंग के अंदर भी डिफरेंट टाइप्स होते

12:28

हैं जिनको आगे जाकर हम पढ़ेंगे। बट दिस इज़

12:30

अ सिंपल एग्जांपल जिसको यूज़ करके हम बेसिक

12:32

सेंस समझ सकते हैं कि कोई भी मशीन लर्निंग

12:34

एल्गोरिदम इनपुट आउटपुट दोनों लेती है एंड

12:36

उसके बेसिस पर वो लॉजिक को प्रोड्यूस करती

12:38

है। एंड दिस लॉजिक इज़ एक्चुअली व्हाट द

12:41

मशीन लर्निंग मॉडल इज़। वो बेसिकली इस डेटा

12:43

को एनालाइज़ करती है कि कौन से इनपुट से

12:45

कौन सा आउटपुट प्रोड्यूस हुआ। एंड उसी

12:47

लॉजिक को हम अपना मॉडल कह देते हैं। और एक

12:50

बार अब हमारे पास ये लॉजिक आ गया। तो इसी

12:52

लॉजिक को हम अपना न्यू इनपुट फीड करते

12:55

हैं। तो उसके बेसिस पर ये हमें आउटपुट

12:57

प्रेडिक्शंस करके देता है। सो दिस इज़ हाउ

12:59

अ नॉर्मल मशीन लर्निंग एल्गोरिदम इज़

13:01

डिफरेंट फ्रॉम अ ट्रेडिशनल कंप्यूटर साइंस

13:03

एल्गोरिदम। तो बेसिकली जो भी हमारी मशीन

13:05

लर्निंग एल्गोरिदम्स हो रही हैं जिनकी हम

13:06

बात कर रहे हैं वो किसी भी डेटा को इनपुट

13:09

लेती हैं और वो हमारे लिए एक मॉडल

13:10

प्रोड्यूस करके देती हैं। ऐसा मॉडल जो अब

13:13

नए डेटा के लिए प्रेडिक्शनंस कर सकता है।

13:15

नए डेटा के लिए आउटपुट को प्रोड्यूस कर

13:16

सकता है। सो इफ वी टॉक अबाउट द टाइप्स ऑफ़

13:19

मशीन लर्निंग। मशीन लर्निंग के प्राइमरीली

13:20

तीन मेन टाइप्स होते हैं। वन इज़

13:22

सुपरवाइज़्ड लर्निंग, वन इज़ अनसपरवाइज़

13:24

लर्निंग एंड थर्ड इज़ रीइंफोर्समेंट

13:25

लर्निंग। इन तीनों को एक बार डिटेल में

13:27

समझते हैं। सबसे पहले हम बात करते हैं

13:29

अबाउट सुपरवाइज़्ड लर्निंग। सुपरवाइज़

13:31

लर्निंग इज़ बेसिकली व्हेन आवर मॉडल्स लर्न

13:33

फ्रॉम लेबल्ड डेटा। अब लेबल्ड डेटा का

13:36

क्या मतलब है? एग्जांपल के लिए अपना स्पैम

13:38

डिटेक्शन वाले सिस्टम का एग्जांपल लेते

13:40

हैं। हमारे स्पैम डिटेक्शन वाले सिस्टम को

13:42

अगर हम Gmail के अंदर काम करते हैं और

13:44

हमें Gmail को या Yahoo को ट्रेन करना है

13:46

टू डिटेक्ट स्पैम। तो उसके लिए उसे हमें

13:48

कुछ डेटा पर ट्रेन करना पड़ेगा। वो डेटा

13:50

कुछ ऐसा दिखाई देगा। दिस इज़ द ट्रेनिंग

13:52

डेटा। इस ट्रेनिंग डेटा के अंदर हमारे पास

13:54

ईमेल हो सकता है कि एग्जैक्टली क्या ईमेल

13:56

आया। उसके साथ में हमारे पास सेंडर ईमेल

13:58

हो सकता है। तो हम देखेंगे सेंडर ईमेल में

14:00

फेक वेबसाइट, प्रमोशन, सेल्स इस तरीके के

14:02

कीवर्ड्स होंगे जब भी स्पैम आएगा। हम

14:04

देखेंगे कोई एक्सटर्नल लिंक है क्या?

14:06

जनरली स्पैम ईमेल्स के साथ एक लिंक हमारे

14:08

पास होता है। कितने एक्सक्लेमेशन मार्क्स

14:10

हैं। दिस कुड ऑल्सो बी एन एग्जांपल ऑफ़ हाउ

14:12

वी डिटेक्ट स्पैम। क्योंकि स्पैम ईमेल्स

14:14

जो होती हैं वो जनरली बहुत अनप्रोफेशनल

14:16

होती हैं। एंड इन सारे के सारे

14:17

एट्रिब्यूट्स के बेसिस पर हम डिसाइड

14:19

करेंगे इफ आवर ईमेल इज़ गोइंग टू बी स्पैम

14:21

ऑर नॉट। तो अपनी ईमेल को हम एक लेबल दे

14:23

देंगे इफ इट इज़ स्पैम ऑर नॉट स्पैम। तो इस

14:25

तरीके के डेटा को हम लेबल डेटा कहते हैं।

14:27

लेबल डेटा इज़ बेसिकली दैट डेटा जिसके अंदर

14:30

इनपुट आउटपुट दोनों अच्छे से एग्ज़िस्ट

14:32

करते हैं। एंड दे आर इन अ वेल

14:34

स्ट्रक्चरर्ड मैनर। जैसे यहां पर ये जो

14:36

पूरा का पूरा इनपुट हमारे पास है, इसको

14:39

ट्रेनिंग में हम अपना इनपुट कहते हैं इस

14:41

डेटा को। एंड दिस इज़ रिप्रेजेंटेड बाय x।

14:43

एंड ये जो हमारा लेबल है, दिस इज़ बेसिकली

14:46

आवर आउटपुट व्हिच इज़ रिप्रेजेंटेड बाय Y।

14:49

एंड इनपुट में ये जो हमारे डिफरेंट कॉलम्स

14:51

हैं, इन सबको डेटा के अंदर हम कहते हैं

14:53

हमारे फीचर्स। तो सुपरवाइज लर्निंग में

14:55

बेसिकली हम प्रिडिक्ट करने की कोशिश करते

14:57

हैं कि x में इनपुट में ऐसे क्या

14:59

कैरेक्टरिस्टिक्स हो, ऐसी क्या प्रॉपर्टीज

15:01

हो जिसके बेसिस पर हम अपने y को प्रेडिक्ट

15:04

कर दें। तो इसको मैथमेटिकल टर्म्स में अगर

15:06

सिंपलेस्ट टर्म्स में हम लिखना चाहें तो

15:07

बेसिकली व्हाट वी वांट टू डू हम अपने y को

15:10

अपने आउटपुट को प्रेडिक्ट करना चाहते हैं

15:12

ऑन द बेसिस ऑफ़ सम बिहेवियर्स ऑफ़ x. तो

15:15

इसको हम सिंपल मैथमेटिकल टर्म्स में कह

15:18

सकते हैं y = fx वेयर x इज़ द इनपुट y इज़ द

15:21

आउटपुट। और यहां पर हम बताना चाहते हैं कि

15:23

हाउ y इज़ अ फंक्शन ऑफ़ x एंड ये जो फंक्शन

15:26

होता है, ये जो लॉजिक होता है, दिस इज़

15:27

एग्जैक्टली व्हाट आवर मशीन लर्निंग

15:29

एल्गोरिदम इज़ गोइंग टू जनरेट आफ्टर

15:31

ट्रेनिंग। तो यही फंक्शन हमारे एक्चुअली

15:33

मॉडल के अंदर स्टर्ड होता है जो सारे के

15:34

सारे प्रेडिक्शनंस करता है। क्योंकि एक

15:36

बार हमने बिहेवियर समझ लिया, एक बार हमने

15:38

समझ लिया कि कैसे x के ऊपर क्या फंक्शन

15:40

अप्लाई करना है कि y की वैल्यू आ जाए। तो

15:42

हम उसी फंक्शन को किसी भी नए इनपुट पर भी

15:44

अप्लाई कर सकते हैं। तो हमारे पास नए

15:45

आउटपुट की, नई प्रेडिक्शन की हमारे पास

15:48

वैल्यू आ जाएगी। तो हमारे बैक ऑफ द माइंड

15:49

पे हमें पता होना चाहिए। जब हम मशीन

15:50

लर्निंग की बात कर रहे हैं। डेफिनेटली हम

15:52

अभी प्रैक्टिकल एप्लीकेशनेशंस की बात कर

15:53

रहे हैं। पर बैकग्राउंड में बहुत सारा मैथ

15:56

है जो एल्गोरिदम्स के अंदर लिखा जाता है,

15:57

कंप्यूट होता है जो वर्क करता है। अब

15:59

सुपरवाइज लर्निंग को यूज़ करके हम मशीन

16:01

लर्निंग की दो डिफरेंट टाइप्स ऑफ़

16:02

प्रॉब्लम्स को सॉल्व करते हैं। तो अभी तक

16:04

हमने क्या बात की? अभी तक हमने बात की कि

16:06

वी हैव मशीन लर्निंग। मशीन लर्निंग के

16:08

अंदर हमारे पास मल्टीपल टाइप्स ऑफ़ मशीन

16:10

लर्निंग होती है। जिसमें से वन टाइप इज़

16:12

सुपरवाइज़ लर्निंग। सुपरवाइज़ लर्निंग के

16:14

अंदर ही हम दो तरीके की प्रॉब्लम्स को

16:15

सॉल्व करते हैं। जिसमें से सबसे पहली होती

16:17

है क्लासिफिकेशन प्रॉब्लम। एंड सेकंड

16:20

कैटेगरी होती है रिग्रेशन प्रॉब्लम्स।

16:22

दोनों को ही हम डिटेल में स्टडी करने वाले

16:24

हैं। सबसे पहले बात करते हैं क्लासिफिकेशन

16:25

प्रॉब्लम्स की। क्लासिफिकेशन प्रॉब्लम्स

16:27

वो होते हैं जहां पर बेस्ड ऑन द इनपुट हम

16:29

अपने इनपुट को मैप करते हैं टू प्रीडफाइंड

16:33

कैटेगरीज़

16:34

और क्लासेस। जैसे फॉर एग्जांपल हमारे पास

16:37

ईमेल्स हैं। तो डिपेंडिंग अपॉन ईमेल स्पैम

16:40

है या नहीं है। हम उसको स्पैम या नॉट

16:43

स्पैम दो कैटेगरीज़ के अंदर डिवाइड कर सकते

16:46

हैं। दिस इज़ एन एग्जांपल ऑफ़ क्लासिफिकेशन।

16:48

तो जब भी हमारे पास आउटपुट में कुछ

16:50

फिक्स्ड नंबर ऑफ कुछ फाइनाइट नंबर ऑफ

16:52

कैटेगरीज होती हैं, क्लासेस होती हैं,

16:53

उसको हम कहते हैं क्लासिफिकेशन। जैसे एक

16:55

और एग्जांपल होगा हमारे लोन अप्रूवल के

16:57

लिए। हमें पता है कोई भी एप्लीेंट है या

16:59

तो उसका लोन अप्रूव्ड होगा यस या लोन

17:00

अप्रूव्ड नहीं होगा। नो। सो देयर आर

17:02

प्रीडफाइंड क्लासेस जो आउटपुट के अंदर

17:04

एग्ज़िस्ट कर सकती हैं। ऐसा नहीं है कि

17:05

आउटपुट कुछ भी हो सकता है। वैल्यू कुछ भी

17:07

हो सकती है। मतलब जैसे अगर हम Google

17:08

मैप्स के ऊपर ट्रेवल टाइम देखें तो ट्रेवल

17:10

टाइम की वैल्यू कुछ भी हो सकती है।

17:12

डिपेंडिंग अपॉन हमने कहा कि लोकेशन डाली।

17:14

लेकिन लोन एपिकेंट के लिए आंसर सिर्फ यस

17:16

या नो ही हो सकता है। बहुत इनफाइनाइट नंबर

17:19

ऑफ वैल्यू्यूज नहीं है कि वैल्यू कुछ भी आ

17:20

जाएगी। उसी तरीके से लेट्स सपोज इफ वी आर

17:22

डूइंग इमेज क्लासिफिकेशन। अगर हमारे पास

17:24

बहुत सारी इमेजज़ हैं और सारी इमेजज़ के

17:26

अंदर हमारे पास दो ही कैटेगरी हैं कैट्स

17:28

एंड डॉग्स। तो या तो हमारी इमेज एक कैट की

17:30

इमेज हो सकती है या फिर हमारी इमेज एक डॉग

17:32

की इमेज हो सकती है। तो वी हैव फाइनाइट

17:34

नंबर ऑफ़ क्लासेस व्हिच आर अवेलेबल फॉर अस।

17:36

तो क्लासिफिकेशन के अंदर ही हमारे पास दो

17:38

तरीके का क्लासिफिकेशन होता है। वन इज़

17:41

बाइनरी क्लासिफिकेशन। बाइनरी क्लासिफिकेशन

17:43

के ये सब एग्जांपल्स हैं। बाइनरी

17:45

क्लासिफिकेशन मतलब जब आउटपुट में दो ही

17:47

वैल्यूज़ हो सकती हैं। आइदर इट कैन बी यस

17:49

और नो। आइदर इट कैन बी स्पैम ऑ नॉट स्पैम।

17:51

आइदर इट कैन बी कैट और डॉग। सो दिस इज़

17:53

कॉल्ड बाइनरी क्लासिफिकेशन। इसके अलावा एक

17:55

और टाइप ऑफ़ क्लासिफिकेशन होता है व्हिच इज़

17:57

कॉल्ड मल्टी क्लास क्लासिफिकेशन। जब

17:59

आउटपुट के अंदर मल्टीपल मोर देन टू

18:01

कैटेगरीज़ होती हैं। दैट इज़ कॉल्ड मल्टी

18:03

क्लास क्लासिफिकेशन। जैसे इसका एक

18:05

एग्ज़ांपल होगा सेंटीमेंट एनालिसिस। फॉर

18:07

एग्जांपल हम अपने टेक्स्ट पर सेंटीमेंट

18:09

एनालिसिस करते हैं कि हम उसका इमोशन फाइंड

18:11

आउट करने की कोशिश करते हैं। किसी ने एक

18:13

सेंटेंस लिखा दिस इज़ अ बैड डे। दिस इज़ अ

18:17

सेंटेंस। अब इफ वी आर बिल्डिंग एमएल मॉडल

18:19

जो किसी भी सेंटेंस को तीन कैटेगरीज़ के

18:21

अंदर डिवाइड करता है बेस्ड ऑन द

18:22

सेंटीमेंट। कि सेंटीमेंट पॉजिटिव है,

18:25

सेंटीमेंट नेगेटिव है या फिर सेंटीमेंट

18:28

न्यूट्रल है। तो हमें पता है फॉर दिस

18:30

सेंटेंस द सेंटीमेंट वुड बी नेगेटिव। किसी

18:32

के लिए पॉजिटिव हो सकता है, किसी के लिए

18:33

न्यूट्रल हो सकता है। तो आउटपुट में कितनी

18:35

कैटेगरीज़ आ सकती हैं? आउटपुट में सिर्फ

18:37

तीन ही कैटेगरीज़ आ सकती हैं। या तो

18:39

सेंटीमेंट पॉजिटिव होगा, नेगेटिव होगा या

18:40

न्यूट्रल होगा। तो हमारे पास क्योंकि मोर

18:42

देन टू क्लासेस हैं। सो दिस इज़ आल्सो एन

18:44

एग्जांपल ऑफ़ मल्टी क्लास क्लासिफिकेशन। हम

18:46

एक और एग्जांपल ले सकते हैं व्हिच इज़ अ

18:48

वेरी पॉपुलर एग्जांपल इन मल्टी क्लास

18:50

क्लासिफिकेशन। लेट्स सपोज़ हम एक ऐसा

18:52

सिस्टम बनाना चाहते हैं। एक ऐसा ML मॉडल

18:54

बनाना चाहते हैं जो हम कुछ भी हाथ से

18:56

लिखें। लेट्स सपोज मैंने यहां पर हाथ से

18:57

सेवन लिख दिया। तो वो इसको डिटेक्ट करके

18:59

बता दे कि ये कौन सा डिजिट है। तो ये मॉडल

19:01

बनाने के लिए हम क्या डेटा यूज़ करेंगे? हम

19:03

इस तरीके का हैंड रिटन डिजिट्स का डेटा

19:05

सेट यूज़ कर सकते हैं जिसके अंदर बहुत सारी

19:07

पिक्चर्स हैं ऑफ डिजिट्स फ्रॉम ज़ीरो टू न।

19:10

इस डेटा पर हमारा जो मॉडल है वो ट्रेन हो

19:12

जाएगा। उसके बाद इस नई पिक्चर को देखेगा

19:14

और वो डिटेक्ट कर पाएगा व्हिच क्लास इज़

19:16

दिस। तो हमारे पास इस डेटा के बेसिस पर

19:19

कितने डिजिट्स हैं? हमारे पास 10 डिजिट्स

19:21

हैं। वी हैव 10 डिजिट्स इन द डेटा। तो

19:23

हमारा आउटपुट भी क्या आ सकता है? 10

19:25

डिफरेंट कैटेगरीज़ हो सकती हैं। तो वी कैन

19:27

से दैट वी हैव 10 डिफरेंट क्लासेस फॉर दिस

19:30

पर्टिकुलर एग्जांपल। तो ये भी एग्जांपल हो

19:32

गया मल्टी क्लास क्लासिफिकेशन का जहां पर

19:35

हमारे पास 10 कैटेगरीज हैं एज आउटपुट। नाउ

19:37

लेट्स लुक एट सम क्लासिफिकेशन एल्गोरिदम्स

19:39

जिसमें हमारे लीनियर क्लासिफायर्स हो गए,

19:40

लॉजिस्टिक रिग्रेशन हो गया, केएन हो गया,

19:42

केनियरेस्ट नेबर्स। हमारी सपोर्ट वेक्टर

19:44

मशीन हो गई। इसी का एक वेरिएशन है

19:46

रेलेवेंस वेक्टर मशीन। दिस इज़ एन

19:47

एल्गोिम्मद दैट हैव एक्चुअली यूज़्ड इन वन

19:49

ऑफ़ माय प्रोजेक्ट्स। उसके साथ में वी हैव

19:50

रैंडम फॉरेस्ट, वी हैव एक्सजी बूस्ट। तो

19:52

इस तरीके से हमारे पास बहुत सारी

19:53

क्लासिफिकेशन एल्गोरिदम्स होती हैं जो

19:54

एग्ज़िस्ट करती हैं। अब सुपरवाइज़ लर्निंग

19:57

के अंदर ही एक और टाइप होता है व्हिच आर

19:59

कॉल्ड रिग्रेशन प्रॉब्लम्स। तो अभी तक

20:01

हमने मशीन लर्निंग के अंदर अपनी सुपरवाइज

20:04

लर्निंग में क्लासिफिकेशन को देख लिया है।

20:05

क्लासिफिकेशन के डिफरेंट टाइप्स देख लिए

20:07

हैं। अब हम रिग्रेशन को समझने वाले हैं।

20:09

रिग्रेशंस आर प्रॉब्लम्स जिसके एंड पर वी

20:12

बेसिकली ट्राई टू प्रिडिक्ट अ न्यूमेरिकल

20:14

आउटपुट। यहां पर कोई कैटेगरीज नहीं है

20:16

जिसमें हमें डेटा को डिवाइड करना है। यहां

20:18

पर कोई न्यूमेरिकल आउटपुट है जिसको हम

20:21

प्रेडिक्ट करने की कोशिश करते हैं। जैसे

20:23

लेट्स सपोज हमारे पास Zomato, स्विगी

20:24

ब्लिंकिट जैसी एप्लीकेशनेशंस हैं जहां पर

20:26

हमारा एक डिलीवरी टाइम प्रेडिक्ट होता है।

20:28

अब डिलीवरी टाइम एक न्यूमेरिकल वैल्यू है

20:30

और इसकी वैल्यू कुछ भी हो सकती है

20:32

डिपेंडिंग अपॉन द लोकेशन। अब लोकेशन अगर

20:34

पास में है द टाइम कुड बी 9 मिनट्स, द

20:36

टाइम कुड बी 15 मिनट्स, 20 मिनट्स दूर है,

20:38

तो इट कुड बी 43 मिनट्स, 50 मिनट्स, 1

20:40

ऑवर। तो यहां पर जो मॉडल्स यूज़ हो रहे

20:42

हैं, वहां पर बेसिकली हम एक टाइम को एक

20:44

न्यूमेरिकल वैल्यू को एट द एंड प्रेडिक्ट

20:45

करने की कोशिश कर रहे हैं। और ये हम कैसे

20:47

कर पाते हैं? ये हम कर पाते हैं विद द

20:48

हेल्प ऑफ़ पास्ट डिलीवरीज डेटा। पुरानी

20:50

डिलीवरीज का राइडर्स का हमारे पास डेटा

20:51

होता है एंड उसके बेसिस पर हमारे

20:53

प्रेडिकशंस हो पाते हैं। सो दिस इज़ एन

20:55

एग्जांपल ऑफ़ रिग्रेशन प्रॉब्लम। उसके साथ

20:57

में वी आल्सो हैव स्टॉक प्राइस

20:59

फॉरकास्टिंग। वी आल्सो हैव प्रॉपर्टी

21:01

प्राइस फॉरकास्टिंग। तो ये सब भी अपने

21:03

पुराने डेटा को एनालाइज करते हैं एंड उसके

21:05

बेसिस पर कोई प्राइस की वैल्यू कोई

21:06

न्यूमेरिकल वैल्यू है जिसको एल्गोरिदम

21:08

प्रेडिक्ट करती है। तो इन प्रॉब्लम के

21:10

अंदर भी वी बेसिकली ट्राई टू प्रिडिक्ट द

21:12

रिलेशनशिप बिटवीन द इनपुट एंड द आउटपुट।

21:15

अब यहां पर जो हमारा इनपुट होता है उसे हम

21:17

अपना इंडिपेंडेंट वेरिएबल कहते हैं। एंड

21:19

हमारा जो आउटपुट होता है उसे हम अपना

21:21

डिपेंडेंट वेरिएबल कहते हैं। एंड

21:22

इंडिपेंडेंट एंड डिपेंडेंट वेरिएबल हम इन

21:24

दोनों के बीच का रिलेशन प्रिडिक्ट करने की

21:26

कोशिश करते हैं। तो दिस रिलेशन विल ऑल्सो

21:28

बी अ फंक्शन। तो इसको भी हम कह सकते हैं y

21:30

= fx। अब मैथमेटिकली रिग्रेशन को और थोड़ा

21:33

सा डिटेल में समझने की कोशिश करते हैं।

21:35

लेट्स सपोज एक सिंपल सा एग्जांपल ले रहे

21:37

हैं। हमारे पास बहुत सारे लोगों के हाइट

21:38

एंड वेट का डेटा है। हाइट इज द इनपुट एंड

21:42

वेट इज़ द आउटपुट जिसको हम ले रहे हैं। तो

21:44

हमारे पास इनपुट के अंदर एक सिंगल फीचर है

21:46

जो एग्ज़िस्ट करता है। व्हिच इज़ द हाइट ऑफ़

21:48

द पर्सन। एंड इस हाइट के बेसिस पर हमारे

21:50

पास कुछ डेटा है जिसमें हमें एनालाइज़ करना

21:52

है कि कौन सी हाइट पर कौन सा वेट आना

21:54

चाहिए। तो ये कुछ लोगों के हाइट वेट का

21:56

डेटा हमारे पास ऑलरेडी गिवेन है व्हिच इज

21:58

द इनपुट डेटा एंड इसके बेसिस पर हम अपने

22:00

एमएल मॉडल को ट्रेन करेंगे। अब रिग्रेशन

22:02

में हमें पता है दैट आर डिपेंडेंट वेरिएबल

22:04

विल बी सम फंक्शन ऑफ द इंडिपेंडेंट

22:06

वेरिएबल। सो y = fx का कुछ रिलेशन होगा।

22:09

एंड सबसे सिंपलेस्ट रिलेशन इस पूरे

22:11

पर्टिकुलर डेटा के लिए क्या हो सकता है?

22:13

कि y = ax + b दिस इज़ वन ऑफ़ द सिंपलेस्ट

22:17

रिलेशन जिसको हम प्रेडिक्ट कर सकते हैं।

22:19

जिसका मतलब है अपने वेट एंड हाइट ग्राफ के

22:21

अंदर हम एक सिंगल लाइन ड्रॉ कर लेंगे। एक

22:24

ऐसी लाइन ड्रॉ करेंगे जो मेजॉरिटी डेटा

22:26

पॉइंट्स के थ्रू होकर जाएगी। एंड अगर ये

22:29

मेजॉरिटी डेटा पॉइंट्स के थ्रू होकर जा

22:30

रही है मतलब मेजॉरिटी जो डेटा पॉइंट्स हैं

22:32

वो इसी लाइन के ऊपर लाई करेंगे या इसके

22:34

पास में लाई करेंगे। सो व्हाट इज़ दिस

22:36

लाइन? दिस लाइन इज़ बेसिकली आवर फंक्शन। इट

22:38

रिप्रेजेंट्स द रिलेशनशिप बिटवीन द इनपुट

22:41

एंड द आउटपुट वैल्यूज़। तो ये वन ऑफ़ द

22:43

सिंपलेस्ट रिलेशनशिप है जिसको हम

22:44

प्रिडिक्ट कर सकते हैं व्हिच इज़ अ स्ट्रेट

22:45

लाइन। एंड स्ट्रेट लाइन की इक्वेशन होती

22:47

है y = ax + b जहां पर a इज़ गोइंग टू बी द

22:50

स्लोप ऑफ द लाइन। मतलब कौन से एंगल पर

22:52

हमारी लाइन है एंड B इज़ गोइंग टू बी द

22:54

इंटरसेप्ट कि X एक्सिस पर हमारी ये जो

22:57

लाइन है ये कहां पर टच कर रही है? दिस

22:58

पॉइंट इज़ व्हाट वी कॉल B तो मैथमेटिकली अब

23:01

अगर हमारे पास कोई नया इनपुट आएगा व्हिच

23:03

कुड बी X डैश तो उसके लिए हम नया आउटपुट

23:05

प्रोड्यूस कर पाएंगे बेस्ड ऑन दिस

23:07

पर्टिकुलर फंक्शन वैल्यू व्हिच वुड बी Y

23:09

डैश। तो इस तरीके से हमारी रिग्रेशन

23:11

प्रॉब्लम्स वर्क करती हैं कि हम अपने

23:12

फंक्शन को प्रोड्यूस करते हैं। फिर नए

23:14

इनपुट पर हम उस फंक्शन को अप्लाई करते हैं

23:16

और अपना एक नया प्रेडिक्शन या नया आउटपुट

23:18

जनरेट करते हैं। इफ वी टॉक अबाउट सम

23:20

रिग्रेशन एल्गोरिदम्स तो वी हैव लीनियर

23:22

रिग्रेशन, वी हैव लैसो रिग्रेशन, वी हैव

23:23

मल्टीवेरिएंट रिग्रेशन। एंड इसके अलावा भी

23:26

बहुत सारी अलग-अलग रिग्रेशन एल्गोरिदम्स

23:28

हैं जो एग्ज़िस्ट करती हैं। नेक्स्ट टाइप

23:29

ऑफ़ मशीन लर्निंग इज़ कॉल्ड अनसुपरवाइज़्ड

23:31

लर्निंग। अनसपरवाइज़्ड लर्निंग में आर

23:33

मॉडल्स लर्न फ्रॉम अनलेबल डेटा। मतलब

23:36

हमारे पास एक तरीके से रॉ डेटा आता है

23:38

जिसके अंदर हम पैटर्न्स रिकॉग्नाइज करने

23:40

की कोशिश करते हैं। एंड बेस्ड ऑन द फीचर्स

23:42

दैट आर प्रेजेंट इन द डेटा। हम इस डेटा को

23:45

डिवाइड करते हैं इंटू क्लस्टर्स।

23:47

क्लस्टर्स कहने का मतलब है कि हम रिलेटेड

23:49

डेटा को ग्रुप करने की कोशिश करते हैं।

23:52

जैसे यहां पर ये सारे डॉट पॉइंट्स जो हैं

23:54

वो एक तरफ लाई कर रहे हैं तो वी कैन ग्रुप

23:56

दिस डेटा। ये डॉट्स एक तरफ लाई कर रहे

23:58

हैं। हम इस डेटा को ग्रुप कर सकते हैं। ये

24:00

डॉट एक तरफ लाई कर रहे हैं। हम इस डेटा को

24:02

ग्रुप कर सकते हैं। तो इस तरीके के

24:03

ग्रुप्स को हम क्लस्टर्स कहते हैं। एंड

24:05

दिस इज़ हाउ वी ट्राई टू फाइंड पैटर्न्स इन

24:08

आवर डेटा। अब इसका एक काफी प्रैक्टिकल

24:09

एग्जांपल होगा। लेट्स सपोज हमारे पास बहुत

24:11

सारे न्यूज़ आर्टिकल्स हैं। हमारे पास

24:12

ऑनलाइन जितने भी न्यूज़ आर्टिकल्स हैं, उन

24:14

सबका हमारे पास डेटा है। अब इस डेटा को हम

24:17

कैटेगराइज़ करने की कोशिश कर सकते हैं। हम

24:19

इन आर्टिकल्स को डिवाइड कर सकते हैं इंटू

24:20

डिफरेंट कैटेगरीज़। जैसे हमारे पास जितने

24:23

भी टेक रिलेटेड आर्टिकल्स होंगे उनको हम

24:25

अलग ग्रुप में डालने की कोशिश करेंगे।

24:27

जितने भी हमारे पास पॉलिटिक्स रिलेटेड

24:29

आर्टिकल होंगे उनको अलग ग्रुप में डालने

24:31

की कोशिश करेंगे। जितने भी स्पोर्ट्स

24:32

रिलेटेड आर्टिकल्स होंगे उनको हम अलग

24:34

ग्रुप में डालने की कोशिश करेंगे। तो इन

24:36

अनसपरवाइज्ड लर्निंग हमारे पास कोई

24:37

फिक्स्ड कैटेगरीज नहीं होती क्योंकि हमारे

24:39

पास अनलेबल डेटा है। पर फिर भी पैटर्न्स

24:41

को रिकॉग्नाइज करके हम अपने डेटा को

24:43

क्लस्टर्स के अंदर या ग्रुप्स के अंदर

24:45

ऑर्गेनाइज करके उसके अंदर कुछ कैटेगरीज

24:47

बनाने की कोशिश करते हैं। अब जब भी हम

24:49

अपने डेटा से इन क्लस्टर्स को फॉर्म करने

24:51

की कोशिश करते हैं, देयर माइट बी सम डेटा

24:53

पॉइंट्स व्हिच आर नॉट पार्ट ऑफ़ एनी

24:55

क्लस्टर। जैसे फॉर एग्जांपल यहां पर इफ वी

24:58

लुक एट दिस डेटा पॉइंट। तो ये क्या है? ये

25:00

मेजॉरिटी ग्रुप से थोड़ा सा अलग जाकर है।

25:02

या अगर हम इस डेटा पॉइंट को देखें तो ये

25:04

भी मेजॉरिटी ग्रुप से थोड़ा सा अलग जाकर

25:06

है। तो इस तरीके के जो हमारे डेटा के अंदर

25:09

पॉइंट्स होते हैं दिस पॉइंट और मे बी दिस

25:12

पॉइंट इन पॉइंट्स को हम कहते हैं

25:14

आउटलाइयर्स। इन्हें हम आउटलायर्स भी कह

25:16

सकते हैं या इन्हें हम एनॉमली कह सकते

25:18

हैं। तो अनसपरवाइज्ड लर्निंग से हम

25:20

आउटलाइयर डिटेक्शन या एनॉमली डिटेक्शन को

25:22

भी परफॉर्म कर सकते हैं। व्हिच इज़ वेरी

25:24

यूज़फुल इन द फील्ड ऑफ फाइनेंस इन मेडिकल

25:27

फील्ड एंड उसके साथ में इवन साइबर

25:29

सिक्योरिटी फील्ड। जैसे एग्जांपल के लिए

25:30

हमारी साइबर सिक्योरिटी टीम किसी वेबसाइट

25:32

को एनालाइज़ कर रही है। अब उस वेबसाइट पर

25:34

बहुत सारे यूज़र्स हैं जो लॉग इन कर रहे

25:36

हैं। पर हम एक पर्टिकुलर यूजर के लिए

25:38

डिटेक्ट करते हैं दैट दिस यूजर अंडर 1

25:41

मिनट के अंदर कोई एक पर्टिकुलर यूजर है

25:43

जिसने फाइव डिफरेंट सिटीज से लॉग इन किया

25:45

है। तो व्हाट इज़ दिस? दिस इज़ समथिंग व्हिच

25:47

इज़ डिफरेंट फ्रॉम नॉर्मल डेटा। सो दिस इज़

25:48

एनॉमली जिसको हमारा सिस्टम डिटेक्ट कर

25:50

सकता है। अब जब भी हम अनसपरवाइज्ड लर्निंग

25:52

की बात करते हैं, उसके अंदर भी वी हैव

25:54

मल्टीपल टाइप्स ऑफ़ प्रॉब्लम्स दैट वी कैन

25:56

सॉल्व। जैसे सुपरवाइज लर्निंग के अंदर हम

25:58

क्लासिफिकेशन एंड रिग्रेशन प्रॉब्लम्स को

26:00

सॉल्व करते थे। वैसे ही अनसुपरवाइज्ड

26:02

लर्निंग के अंदर मेन दो टाइप्स की

26:03

प्रॉब्लम्स हैं जिनको हम सॉल्व करते हैं।

26:05

क्लस्टरिंग प्रॉब्लम्स एंड एसोसिएशन

26:07

प्रॉब्लम्स। क्लस्टरिंग प्रॉब्लम्स

26:09

बेसिकली वो प्रॉब्लम्स होती हैं जिसमें

26:10

अपने डेटा के अंदर हम कुछ क्लस्टर्स या

26:13

कुछ ग्रुप्स बनाने की कोशिश करते हैं।

26:15

जैसे दिस इज़ आवर अनलेबल डेटा। पर इसके

26:17

अंदर हमने कुछ डिफरेंट-डिफरेंट ग्रुप्स

26:19

बना दिए। एंड सारे डेटा पॉइंट्स को हमने

26:21

मल्टीपल क्लस्टर्स के अंदर डिवाइड कर

26:23

दिया। सो डिफरेंट कलर्स इन दिस ग्राफ

26:25

रिप्रेजेंट डिफरेंट क्लस्टर्स। तो इसका

26:27

एग्जांपल हमने ऑलरेडी देख लिया है कि

26:29

हमारे पास मल्टीपल न्यूज़ आर्टिकल्स हैं।

26:30

तो उनको हम डिफरेंट क्लस्टर्स या डिफरेंट

26:32

कैटेगरीज़ में डिवाइड कर सकते हैं। फाइनेंस

26:34

हो गया, टेक हो गया, स्पोर्ट्स हो गया,

26:35

पॉलिटिक्स हो गया। वी कैन डिवाइड द डेटा

26:37

इंटू मल्टीपल क्लस्टर्स। नाउ बेस्ड ऑन द

26:39

प्रॉब्लम वी कैन डू टू टाइप्स ऑफ़

26:40

क्लस्टरिंग। एक क्लस्टरिंग होती है हमारी

26:43

पार्टीशनल क्लस्टरिंग। पार्टीशनल

26:45

क्लस्टरिंग कहने का मतलब है हमारा कोई भी

26:48

जो डेटा पॉइंट है जो हमारे डेटा के अंदर

26:49

एग्जिस्ट करता है वो किसी भी एक क्लस्टर

26:52

को बिलोंग कर सकता है। तो अगर हम न्यूज़

26:53

आर्टिकल्स की बात करें तो न्यूज़ आर्टिकल

26:55

या तो स्पोर्ट्स कैटेगरी का होगा या

26:57

फाइनेंस कैटेगरी का होगा या पॉलिटिक्स

26:58

कैटेगरी का होगा वो एक ही कैटेगरी का हो

27:00

सकता है। मतलब हमारे पास सारे डेटा

27:02

पॉइंट्स डिफरेंट-डिफरेंट क्लस्टर्स के

27:03

अंदर अवेलेबल होते हैं। सेकंड टाइप ऑफ़

27:05

क्लस्टरिंग इज़ कॉल्ड हायरार्किकल

27:07

क्लस्टरिंग। हायरार्किकल क्लस्टरिंग में

27:09

सिंगल डेटा पॉइंट कैन बिलॉन्ग टू मल्टीपल

27:11

क्लस्टर्स। फॉर एग्जांपल हमारे पास एक

27:13

न्यूज़ आर्टिकल है अबाउट टैक्सेशन ऑन

27:15

बिटकॉइन इन इंडिया। तो ये पॉलिटिकल

27:17

आर्टिकल भी हो जाता है। तो ये पॉलिटिक्स

27:19

क्लस्टर में भी आ सकता है। ये साथ में

27:20

फाइनेंस क्लस्टर में भी आ सकता है और साथ

27:22

में टेक क्लस्टर में भी आ सकता है। तो इस

27:23

तरीके की प्रॉब्लम्स में सिंगल डेटा पॉइंट

27:25

कैन बिलॉन्ग टू मल्टीपल क्लस्टर्स। तो ये

27:27

तो हो गई हमारी क्लस्टरिंग प्रॉब्लम्स।

27:29

उसके साथ में वी आल्सो हैव एसोसिएशन

27:31

प्रॉब्लम्स। एसोसिएशन प्रॉब्लम्स के अंदर

27:32

वी ट्राई टू फाइंड रिलेशनशिप्स बिटवीन

27:35

डिफरेंट एंटिटीज़। और इसका एक काफी पॉपुलर

27:37

एग्जांपल है मार्केट

27:40

बास्केट।

27:42

एनालिसिस

27:44

जैसे फॉर एग्जांपल Amazon जैसी या कोई भी

27:46

और ई-कॉमर्स प्लेटफार्म है। इन वेबसाइट्स

27:48

के पास यूज़र्स कैसे शॉप करते हैं? कौन-कौन

27:51

से आइटम्स खरीदते हैं? उसका बहुत सारा

27:52

डेटा होता है। तो उस डेटा को एनालाइज करके

27:55

ये वेबसाइट्स ये एनालाइज कर सकती हैं कि

27:57

एक तरीके के आइटम के साथ कौन सा दूसरा

27:59

आइटम है जो क्लब करके परचेस किया जाता है।

28:02

फॉर एग्जांपल किसी भी स्टोर के अंदर बहुत

28:03

सारे कस्टमर्स इफ दे आर परचेसिंग ब्रेड।

28:06

तो ब्रेड के साथ वो कस्टमर्स मिल्क को भी

28:08

साथ में परचेस करना प्रेफर करते हैं। नाउ

28:10

दिस इज अ प्रैक्टिकल एग्जांपल ऑफ मार्केट

28:13

बास्केट एनालिसिस एंड दिस इज़ समथिंग दैट अ

28:15

लॉट ऑफ़ वेबसाइट्स लाइक Amazon एंड blink

28:16

यूज़्ड टू सजेस्ट टू द यूज़र्स व्हाट अदर

28:18

आइटम्स दे शुड बाय। तो Amazon पे कई बार

28:21

हमने देखा होगा आइटम्स बोट टुगेदर एक

28:24

सजेशन आता है कि ये आप आइटम खरीद रहे हो।

28:26

इसके साथ जनरली ये चीज और हैं जो यूज़र्स

28:28

खरीदते हैं। सो दैट इज़ एन एसोसिएशन

28:30

प्रॉब्लम अंडर अनसुपरवाइड लर्निंग। इफ वी

28:32

टॉक अबाउट सम अनसुपरवाइज्ड लर्निंग

28:33

एल्गोरिदम्स, देन वी हैव के मींस

28:35

क्लस्टरिंग, वी हैव हायरार्कल क्लस्टर, वी

28:37

आल्सो हैव प्रिंसिपल कॉम्पोनेंट एनालिसिस,

28:39

पीसीए। वी आल्सो हैव डेंसिटी बेस्ड स्पेशल

28:41

क्लस्टरिंग ऑफ एप्लीकेशंस विद नॉइज़ व्हिच

28:43

इज़ इन शॉर्ट कॉल्ड डीबी स्कैन। तो इस

28:45

तरीके की बहुत सारी पॉपुलर एल्गोरिदम्स

28:47

हैं जो अनसुपरवाइज्ड लर्निंग के अंदर आती

28:49

हैं। नेक्स्ट वी आर गोइंग टू लर्न अबाउट द

28:50

थर्ड टाइप ऑफ लर्निंग व्हिच इज़ कॉल्ड

28:52

रीइंफोर्समेंट लर्निंग। अभी तक हमने

28:54

सुपरवाइज़्ड लर्निंग को देख लिया। हमने

28:56

मशीन लर्निंग के अंदर अनसपरवाइज़्ड लर्निंग

28:58

को देख लिया। अब हम इसके फाइनल मेन टाइप

29:00

को पढ़ने वाले हैं। व्हिच इज

29:01

रीइंफोर्समेंट लर्निंग। रीइंफोर्समेंट

29:04

लर्निंग इज वेरी सिमिलर टू ट्रेनिंग आवर

29:06

डॉग। हमें अपने डॉग को ट्रेन करना है कि

29:08

जब हम उसे सेट बोले तो वो बैठ जाए। तो हम

29:10

में से किसी के पास भी अगर कोई पेट है तो

29:12

हमें पता होता है। वो हमारी बात मानते हैं

29:13

तो हम उन्हें कुछ ट्रीट्स देते हैं। हम

29:15

उन्हें कुछ रिवॉर्ड्स देते हैं। तो इसी

29:17

तरीके से हम अपनी रीइंफोर्समेंट लर्निंग

29:20

के अंदर भी अपने मॉडल को ट्रेन करते हैं।

29:21

तो रीइंफोर्समेंट लर्निंग के अंदर हमारे

29:23

पास वी हैव द एजेंट व्हिच इज़ बेसिकली द

29:25

मॉडल दैट लर्न्स टू मेक डिसीजंस बाय

29:28

इंटरेक्टिंग विद एन एनवायरमेंट। हमारा एक

29:30

एजेंट होता है जो एनवायरमेंट के साथ

29:32

इंटरेक्ट करता है। मतलब ये एक एजेंट कुछ

29:33

प्रेडिक्शनंस करता है और डिपेंडिंग अपॉन

29:36

प्रेडिक्शन सही है या गलत उसको रिवॉर्ड्स

29:38

या पेनल्टीज मिलते हैं फॉर इट्स एकशंस।

29:41

एक्शंस आर बेसिकली प्रेडिकशंस। रिवॉर्ड्स

29:43

मिलने का मतलब है हम अपने एजेंट को अपने

29:45

मॉडल को कुछ पॉजिटिव वैल्यू फीड करेंगे।

29:48

पेनल्टीज मिलने का मतलब है हम अपने एजेंट

29:50

को नेगेटिव वैल्यू को फीड करेंगे। तो

29:52

हमारी रीइंफोर्समेंट लर्निंग में एजेंट का

29:55

जो पर्पस होता है, जो फाइनल पर्पस होता

29:57

है, दैट इज नॉट टू मेक करेक्ट

29:59

प्रेडिक्शनंस। एजेंट का पर्पस होता है टू

30:01

मैक्सिमाइज द रिवॉर्ड्स दैट इट इज़

30:04

रिसीविंग। और रिवॉर्ड्स कब मिलेंगे? जब

30:06

करेक्ट प्रेडिक्शनंस होंगे। तो जनरली

30:08

रीइंफोर्समेंट लर्निंग में जरूरी नहीं है

30:09

एक सिंगल प्रेडिक्शन होगी। रीइंफोर्समेंट

30:11

लर्निंग के अंदर हम एक सेट ऑफ

30:13

प्रेडिक्शनंस करते हैं और अपने आउटपुट को

30:15

मैक्सिमाइज करते हैं। रीइंफोर्समेंट

30:17

लर्निंग का जो काफी ज्यादा यूज़ होता है वो

30:18

गेम्स के अंदर यूज़ होता है। जैसे चेस हमें

30:21

खेलना है, गो हमें खेलना है तो चेस खेलने

30:23

के लिए एक सिंगल मूव काफी नहीं है। हमें

30:25

बहुत सारे मल्टीपल मूव्स करने पड़ेंगे। हो

30:27

सकता है हमें बीच में अपने किसी स्मॉल

30:29

प्लेयर को सैक्रिफाइस करना पड़े। बट द

30:31

पर्पस और द गोल ऑफ़ द एजेंट विल बी टू

30:33

मैक्सिमाइज़ द रिवॉर्ड। तो ठीक है बीच में

30:35

एक दो पेनल्टी हो सकती हैं। पर ओवरऑल हम

30:37

गेम को जीतेंगे तब जब हमारे रिवॉर्ड्स

30:39

मैक्सिमाइज़ होंगे। तो हमारे एजेंट का गोल

30:41

होता है टू मैक्सिमाइज़ द रिवॉर्ड्स बाय

30:43

मेकिंग करेक्ट प्रेडिक्शनंस। तो

30:44

रीइंफोर्समेंट लर्निंग एग्जैक्टली कैसे

30:46

वर्क करती है? हमारे पास एक एजेंट होता है

30:48

जो बेसिकली एक्शंस लेता है मतलब

30:50

प्रेडिक्शंस करता है। तो द एजेंट

30:51

इंटरेक्ट्स विद द एनवायरमेंट। और

30:54

डिपेंडिंग अपॉन द एक्शन अगर वो एक्शन

30:56

करेक्ट है तो उस केस में हमें रिवॉर्ड

30:58

मिलता है व्हिच इज़ द पॉजिटिव वैल्यू। पर

31:00

एक्शन अगर गलत है तो उस केस में रिवॉर्ड

31:01

की जगह हमें पेनल्टी मिलती है। तो

31:03

रीइंफोर्समेंट लर्निंग का एक बहुत सिंपल

31:05

सा एग्जांपल हम ले सकते हैं कि लेट्स सपोज

31:07

हमें एक ऐसा मॉडल बनाना है जो स्नेक एंड

31:10

लैडर्स गेम के अंदर हमें जिता सके। तो इस

31:13

गेम को जीतने के लिए हम रीइंफोर्समेंट

31:15

लर्निंग को यूज़ कर सकते हैं। तो लेट्स

31:16

सपोज गेम के अंदर हमने स्नेक को एनकाउंटर

31:18

किया। मतलब कोई नंबर, कोई डाइस रोल हुआ,

31:20

कोई नंबर प्रोड्यूस हुआ, स्नेक एनकाउंटर

31:22

हुआ तो वहां पर हमें पेनल्टी मिलेगी।

31:24

बिकॉज़ दैट इज़ नॉट अ गुड थिंग फॉर द

31:26

प्लेयर। पर कभी भी लैडर एनकाउंटर हुआ तो

31:28

वहां पर हमें रिवॉर्ड मिलेगा। इवेंचुअली

31:30

गेम के अंदर हम चाहते हैं ज्यादा से

31:31

ज्यादा लैडर्स को हम क्लाइम करें और एंड

31:33

पॉइंट तक पहुंच जाएं। तो बेसिकली द

31:34

ऑब्जेक्टिव इज टू विन द गेम। अब ये तो खैर

31:37

प्रैक्टिकली ये वाला गेम रियल लाइफ के

31:38

अंदर काफी ज्यादा लक बेस्ड होता है। पर

31:40

जैसे चेस हो गया या गो हो गया। इस तरीके

31:42

के गेम्स जो होते हैं वो स्किल बेस्ड होते

31:45

हैं या वो पैटर्न बेस्ड होते हैं। तो वहां

31:46

पर गेम को विन करने के लिए हम

31:48

रीइंफोर्समेंट लर्निंग को यूज़ कर सकते

31:49

हैं। इसके अलावा भी रीइंफोर्समेंट लर्निंग

31:51

की काफी सारी प्रैक्टिकल एप्लीकेशनेशंस

31:52

हैं। जैसे इट इज़ यूज़्ड इन सेल्फ ड्राइविंग

31:54

कार्स। इट इज़ आल्सो यूज्ड इन रोबोटिक्स।

31:57

रोबोट्स किस तरीके से मूव करते हैं, वॉक

31:59

करते हैं, किस तरीके से ऑब्जेक्ट्स को पिक

32:00

करते हैं, वहां पर रीइंफोर्समेंट लर्निंग

32:02

का काफी ज्यादा यूज़ होता है। एंड इफ वी

32:04

टॉक अबाउट रीइंफोर्समेंट लर्निंग

32:05

एल्गोरिथ्म्स, तो हमारे पास क्यू लर्निंग

32:07

है, वी हैव डीप क्यू नेटवर्क्स, वी हैव

32:08

पॉलिसी ग्रेडियंट मेथड्स एंड प्रॉक्सिल

32:10

पॉलिसी ऑप्टिमाइजेशन। एंड इसके अलावा भी

32:12

और भी काफी सारे हमारी रीइंफोर्मेंट

32:14

लर्निंग के एल्गोरिथ्म्स होते हैं। तो अभी

32:16

तक हमने मशीन लर्निंग के अंदर सुपरवाइज्ड,

32:18

अनसुपरवाइज्ड एंड रीइंफोर्समेंट लर्निंग

32:20

को डिटेल के अंदर कवर कर लिया है। अब यहां

32:22

तक हमने कांसेप्ट्स को पढ़ लिया है।

32:23

एप्लीकेशनेशंस को पढ़ लिया है। डिफरेंट

32:25

एल्गोरिदम्स के नाम पढ़ लिए हैं। पर

32:26

एक्चुअली प्रैक्टिकली इन डिफरेंट

32:28

एल्गोरिदम्स को हम इंप्लीमेंट कैसे करते

32:30

हैं? तो इन डिफरेंट एल्गोरिथ्म्स को

32:31

इंप्लीमेंट करने के लिए देयर आर मल्टीपल

32:33

टूल्स दैट वी नीड टू यूज़। इन टूल्स के

32:35

अंदर सबसे पहली तो हमारी प्रोग्रामिंग

32:37

लैंग्वेज एक हमें आनी चाहिए। तो उसके अंदर

32:39

Python इज़ वन ऑफ द मोस्ट पॉपुलर

32:40

प्रोग्रामिंग लैंग्वेज जिसको यूज़ करके

32:42

हमारी हम मशीन लर्निंग एल्गोरिदम्स को

32:44

लिखते हैं। डेटा पर ट्रेन करते हैं

32:45

एल्गोरिदम को और प्रेडिकशंस करते हैं। आर

32:48

इज़ आल्सो अनदर पॉपुलर लैंग्वेज। पर

32:50

मेजॉरिटी केसेस में आपको पाइथन ही यूज़

32:52

होते हुए दिखेगी इंडस्ट्री के अंदर भी एंड

32:54

एकेडमिक्स के अंदर भी। वी हैव अ टूल व्हिच

32:56

इज़ कॉल्ड जुपिटर नोटबुक। जुपिटर नोटबुक के

32:58

अंदर हम अपना डिफरेंट पाइथन का कोड लिखते

33:00

हैं। वी हैव मल्टीपल लाइब्रेरीज़ एंड

33:02

मॉड्यूल्स जिनको एमएल के अंदर हम यूज़ करते

33:04

हैं। जैसे नमपाई एंड बांडाज़ को हम यूज़

33:05

करते हैं फॉर डेटा प्री प्रोसेसिंग। वी

33:07

यूज़ सीबॉर्न एंड मैट प्लॉट लिब फॉर डेटा

33:09

विजुअलाइज़ेशन। वी यूज़ लाइब्रेरीज़ लाइक

33:11

स्काईट लर्न एंड एक्सजी बूस्ट टू ट्रेन

33:13

आवर मशीन लर्निंग मॉडल्स। तो इन डिफरेंट

33:15

टूल्स की हेल्प से जितनी भी एल्गोरिदम्स

33:16

की अभी तक हमने बात की है, हम उनको

33:18

इंप्लीमेंट करते हैं। नेक्स्ट वी आर गोइंग

33:20

टू लर्न अबाउट द डिफरेंट कॉन्सेप्ट्स

33:22

रिलेटेड टू डीप लर्निंग। सो डीप लर्निंग

33:24

इज़ द सबसेट ऑफ़ मशीन लर्निंग जिसके अंदर वी

33:26

स्टडी ऑल अबाउट न्यूरल नेटवर्क्स।

33:30

अभी तक जितनी भी मशीन लर्निंग हमने की है

33:33

उसे हम कहते हैं स्टैटिस्टिकल मशीन

33:35

लर्निंग। स्टैटिस्टिकल मशीन लर्निंग

33:37

एल्गोरिदम्स को जनरली हम अपने स्ट्रक्चर

33:39

डेटा के ऊपर अप्लाई करते हैं। स्ट्रक्चर

33:41

डेटा मतलब जो भी टैबुलर डाटा हमारे पास

33:42

होता है टेबल की फॉर्म में जितने भी डेटा

33:45

को अभी तक हमने देखा है वो सारा का सारा

33:46

हमारा ऑलमोस्ट टैबुलर डेटा होता था। तो इस

33:49

डेटा पर स्टैटिस्टिकल मशीन लर्निंग बहुत

33:51

अच्छा परफॉर्म करती है। पर जब भी हमारे

33:53

पास अनस्ट्रक्चरर्ड डेटा आ जाता है वहां

33:55

पर हमारी स्टैटिस्टिकल मशीन लर्निंग

33:56

एल्गोरिथ्म्स उतना अच्छा परफॉर्म नहीं

33:58

करती। अनस्ट्रक्चर डेटा के केस में डीप

34:00

लर्निंग एल्गोरिदम स्टैटिस्टिकल मशीन

34:02

लर्निंग से काफी ज्यादा बेटर परफॉर्म करती

34:04

हैं। क्योंकि उन केसेस के अंदर

34:05

स्टैटिस्टिकल मशीन लर्निंग में हमें बहुत

34:07

ज्यादा ह्यूमन इंटरवेंशन करना पड़ता है।

34:09

नाउ व्हाट एग्जैक्टली डू वी मीन बाय

34:10

अनस्ट्रक्चरर्ड डेटा। अनस्ट्रक्चर डेटा के

34:12

एग्जांपल्स हैं। जैसे हमारे पास बहुत सारे

34:14

कैमरा की रिकॉर्डिंग है या फिर हमारे पास

34:16

बहुत सारी वीडियो रिकॉर्डिंग्स हैं। फॉर

34:18

एग्जांपल हम YouTube के अंदर काम करते हैं

34:19

और YouTube के लिए हमें कोई मशीन लर्निंग

34:21

मॉडल बिल्ड करना है जो YouTube की ही

34:23

वीडियोस के डेटा को एज इनपुट लेता है। अब

34:26

YouTube की जो वीडियोस का डेटा है दैट इज़

34:27

नॉट टैबुलर डेटा। दैट इज़ अनस्ट्रक्चर्ड

34:29

डेटा। क्योंकि उसके अंदर बहुत सारे

34:31

डिफरेंट पैरामीटर्स हैं। या फिर हमारे पास

34:33

बहुत सारी इमेजेस का डेटा है, हमारे पास

34:35

बहुत सारी ऑडियो फाइल्स हैं, तो दैट कैन

34:36

आल्सो बी अनस्ट्रक्चरर्ड डेटा। या फिर अगर

34:38

हमारे पास किसी एप्लीकेशन के बहुत सारे

34:40

चैट मैसेजेस हैं व्हिच आर नॉट इन अ

34:42

फिक्स्ड फॉर्मेट। सो दीज़ आर ऑल एग्जांपल्स

34:44

ऑफ अनस्ट्रक्चरर्ड डेटा जिसके ऊपर हमारी

34:46

डीप लर्निंग एल्गोरिदम्स काफी बेटर

34:48

परफॉर्म करती हैं। जैसे फॉर एग्जांपल अगर

34:50

हमारे पास कोई भी मॉडल है लेट्स सपोज़ उस

34:52

मॉडल के अंदर हम बहुत सारी इमेजज़ को फीड

34:54

करना चाहते हैं। एंड दीज़ आर ऑल ह्यूमन

34:56

फसेस। तो इस तरीके की एक इमेज का हम

34:58

एग्जांपल ले सकते हैं जिसमें देयर इज़ अ

35:00

फेस। अब इस तरीके की इमेज अगर हम किसी

35:02

नॉर्मल स्टैटिस्टिकल मशीन लर्निंग मॉडल को

35:04

फील करेंगे तो वहां पर मॉडल का काम होगा

35:06

टू एनालाइज दिस इमेज। अब इस इमेज को

35:09

एनालाइज करने के लिए मॉडल को पता होना

35:11

चाहिए कि आईज एग्जैक्टली होती क्या है? एक

35:14

नोज एग्जैक्टली क्या होता है? एक माउथ

35:16

एग्जैक्टली क्या होता है? इस तरीके की

35:18

चीजें हमें इन टर्म्स ऑफ़ फीचर्स अपने मॉडल

35:21

को डिफाइन करके बतानी पड़ेंगी। एंड दैट इज़

35:23

समथिंग व्हिच कैन बी डिफिकल्ट। जैसे फॉर

35:25

एग्जांपल हम एक मशीन लर्निंग मॉडल को कैसे

35:27

बताएं एज अ ह्यूमन कैसे प्रोग्राम करें

35:29

उसके अंदर कि दिस इज एन आई। क्या हम उसे

35:32

ये बताएं कि फेस के ऊपर जो भी राउंड शेप

35:34

हो दैट इज़ एन आई बट दैट इज़ नॉट कंप्लीटली

35:37

एक्यूरेट बिकॉज़ माउथ कैन आल्सो बी राउंड।

35:39

इनफैक्ट दी एंटायर शेप ऑफ द फेस कैन आल्सो

35:42

बी राउंड। तो अनस्ट्रक्चरर्ड डेटा के जो

35:44

फीचर्स होते हैं, वो किसी भी मॉडल के अंदर

35:46

प्रोग्राम करना कैन बी क्वाइट डिफिकल्ट।

35:48

तो यहां पर हमारे डीप लर्निंग मॉडल्स बहुत

35:50

ज्यादा यूज़फुल होते हैं। क्योंकि डीप

35:52

लर्निंग मॉडल स्पेशलाइज करते हैं इन

35:54

एक्सट्रैक्टिंग इंफॉर्मेशनेशन फ्रॉम रॉ

35:56

डेटा। वो बहुत आसानी से इस तरीके के डेटा

35:59

से जो यूज़फुल इनेशन है उसको एक्सट्रैक्ट

36:01

कर पाते हैं। एंड हाउ डू दे डू दैट? हाउ

36:03

डू डीप लर्निंग मॉडल्स वर्क? दे बेसिकली

36:06

यूज़ न्यूरल नेटवर्क्स। न्यूरल नेटवर्क्स

36:08

आर नेटवर्क्स व्हिच आर इंस्पायर्ड फ्रॉम द

36:10

ह्यूमन ब्रेन। हमारे ह्यूमन ब्रेन के अंदर

36:12

हमारे पास न्यूरॉन्स होते हैं और हमारी

36:14

ब्रेन के अंदर न्यूरॉन्स के नेटवर्क होते

36:16

हैं। तो इसी तरीके के आर्टिफिशियल नेटवर्क

36:19

जब हम बनाते हैं तो उसको कंप्यूटर साइंस

36:21

के अंदर हम न्यूरल नेटवर्क्स कहते हैं।

36:23

एंड यही न्यूरल नेटवर्क्स आर एट द कोर ऑफ

36:25

डीप लर्निंग। इन न्यूरल नेटवर्क्स के अंदर

36:27

बहुत सारी हिडन लेयर्स होती हैं जो डेटा

36:29

को बहुत अच्छे तरीके से प्रोसेस करती हैं।

36:31

लेट्स लर्न इन डेप्थ अबाउट व्हाट न्यूरल

36:34

नेटवर्क्स आर। तो न्यूरॉन नेटवर्क्स को जब

36:35

हम विजुअलाइज़ करते हैं, हम उन्हें कुछ इस

36:37

तरीके से विजुअलाइज़ कर सकते हैं। हमारे

36:39

पास डिफरेंट-डिफरेंट न्यूरॉन्स होते हैं।

36:41

हर एक जो सर्कल यहां पर हमें दिख रहा है,

36:43

दिस इज़ अ न्यूरॉन। दिस इज़ ऑल्सो अ न्यूरॉन

36:47

एंड दिस इज़ आल्सो अ न्यूरॉन। हर एक जो

36:49

सर्कल हमें यहां पर दिख रहा है इस नेटवर्क

36:52

के अंदर, इस एग्जांपल के अंदर, हर एक

36:53

सर्कल इज़ अ न्यूरॉन। एंड इन न्यूरॉन्स के

36:56

डिफरेंट-डिफ़ेंट कनेक्शंस होते हैं विद ईच

36:58

अदर। एंड इन कनेक्शन से ही हमारा प्रॉपर

37:00

एक न्यूरल नेटवर्क फॉर्म होता है। अब इस

37:02

न्यूरल नेटवर्क के अंदर डिफरेंट-डिफरेंट

37:04

लेयर्स होती हैं। जैसे हमारे नेटवर्क के

37:06

अंदर हमारी जनरली जो इनेशन होती है वो इस

37:08

डायरेक्शन के अंदर फ्लो करती है। तो जब भी

37:10

हम अपना इनपुट अपने मॉडल को अपने न्यूरल

37:12

नेटवर्क को पास करते हैं वो हम पास करते

37:14

हैं थ्रू द फर्स्ट लेयर एंड दिस फर्स्ट

37:17

लेयर इज़ कॉल्ड द इनपुट लेयर। ये जो हमारी

37:21

पूरी लेयर है दिस इज़ कॉल्ड द इनपुट लेयर।

37:23

एंड हमारी जो लास्ट लेयर है जो फाइनली

37:25

हमारे लिए आउटपुट को प्रेडिक्ट करती है।

37:27

कुछ हमारे लिए प्रेडिक्शन देती है। कुछ

37:29

रिजल्ट देती है। दिस लेयर इज कॉल्ड द

37:31

आउटपुट लेयर। एंड बीच वाली जितनी भी

37:33

लेयर्स हैं इनको हम अपनी हिडन लेयर्स कहते

37:35

हैं। हमारे पास एक नेटवर्क के अंदर कितनी

37:37

भी हिडन लेयर्स हो सकती हैं। हमने यहां पे

37:39

सिंगल हिडन लेयर का एग्जांपल लिया है।

37:41

क्योंकि हमने एक बहुत छोटा न्यूरल नेटवर्क

37:42

रखा है। पर न्यूरल नेटवर्क्स के अंदर रियल

37:44

प्रैक्टिकल लाइफ के अंदर मिलियंस,

37:46

बिलियंस, इवन ट्रिलियंस कनेक्शंस हैं जो

37:48

एग्ज़िस्ट कर सकते हैं। बट दिस इज़ व्हाट द

37:50

न्यूरल नेटवर्क लुक्स लाइक इन इट्स

37:51

सिंपलेस्ट फॉर्म। अब यह तो हमने समझ लिया

37:53

कि हमारा न्यूरल नेटवर्क दिखता कैसा है।

37:55

बट हाउ डस दी न्यूरल नेटवर्क एग्जैक्टली

37:57

वर्क? उसके लिए हम एक सिंपल सा एग्जांपल

38:00

लेंगे। लेट्स सपोज हम एक कॉलेज के टीचर

38:02

हैं एंड एज अ टीचर हमें स्टूडेंट्स के लिए

38:04

उनका सीजीपीए कैलकुलेट करना है। तो हम सब

38:07

ने देखा होगा, स्कूल के अंदर देखा होगा,

38:08

कॉलेज के अंदर देखा होगा हमारे डिफरेंट

38:10

सेट्स ऑफ एग्जाम्स होते हैं और हर एग्जाम

38:12

के मार्क्स पर हमारे सीजीपीए जो होते हैं

38:14

वो कैलकुलेट होते हैं। जैसे एग्जांपल के

38:16

लिए हमारे कॉलेज के अंदर एक हमारे मिड

38:18

सेमेस्टर्स होते हैं। एक हमारे एंड

38:20

सेमेस्टर्स होते हैं। तो उसके कुछ मार्क्स

38:23

हैं और एक हमारे पास होते हैं हमारे कुछ

38:25

क्लास टेस्ट्स। तुम्हारे कॉलेज ने क्या

38:28

किया है? हर एक एग्जाम को कुछ ना कुछ

38:30

वेटेज दिया है। जैसे हो सकता है कॉलेज ने

38:33

सीजीपीए कैलकुलेशन के लिए मिड सेमेस्टर्स

38:35

को वेटेज दिया है 0.4 का। हमारे एंड

38:38

सेमेस्टर्स को भी वेटेज दिया है 0.4 का।

38:40

क्लास टेस्ट को वेटेज दिया है 0.2 का। तो

38:43

मिड सेमेस्टर में हमारे जितने भी मार्क्स

38:45

आते हैं उसको टोटल मार्क्स उसको हम 0.4 से

38:47

मल्टीप्लाई करेंगे। एंड सेमेस्टर वालों को

38:49

0.4 से मल्टीप्लाई करेंगे। क्लास टेस्ट

38:50

वालों को 2 से मल्टीप्लाई करेंगे। एंड इस

38:52

तरीके से कुछ ना कुछ कैलकुलेशन होगी जिसके

38:54

बाद हमारी सीजीपीए कैलकुलेट होगी। सो दिस

38:56

इज़ हाउ वी आर ट्राइंग टू कैलकुलेट आ

38:58

जीपीए। अब इस वेटेज को देखकर काफी सारे

39:00

स्टूडेंट्स सोचते हैं कि क्लास टेस्ट की

39:01

तो काफी कम वेटेज है। तो हम क्या करेंगे?

39:03

मिड सेमेस्टर एंड सेमेस्टर के अंदर तैयारी

39:05

कर लेंगे और क्लास टेस्ट को स्किप कर लेते

39:07

हैं। तो जब क्लास टेस्ट को स्टूडेंट्स ने

39:09

स्किप करना स्टार्ट किया तो स्टूडेंट्स की

39:10

अटेंडेंस काफी लो हो गई। उससे टीचर्स ने

39:12

देखा कि स्टूडेंट्स क्लासेस ही नहीं अटेंड

39:14

कर रहे। तो उन्होंने क्या डिसाइड किया कि

39:15

हम क्या करेंगे? क्लास टेस्ट की वेटेज हम

39:17

इंक्रीस कर देंगे। तो इस तरीके से एक

39:19

पर्टिकुलर पैरामीटर की वेटेज भी इंक्रीस

39:22

हो सकती है सीजीपीए कैलकुलेट करने के लिए।

39:23

तो उन्होंने इस वेटेज को इंक्रीस करके कर

39:26

दिया 0.3 अब इसको इंक्रीस किया है एंड

39:28

इसको काउंटर करने के लिए मिड सेमेस्टर की

39:30

वेटेज को डिक्रीज कर दिया टू 0.3 तो अब

39:33

क्लास टेस्ट की भी काफी अच्छी खासी वेटेज

39:36

है जिससे टीचर्स को लगा कि नाउ द

39:37

स्टूडेंट्स आर अटेंडिंग क्लासेस एंड द

39:39

अटेंडेंस इज़ गोइंग अप। सो नाउ दे आर

39:41

सेटिस्फाइड। तो इस तरीके का एक सिस्टम

39:43

हमारे कॉलेज ने डिजाइन किया जिसमें हर एक

39:46

टाइप ऑफ टेस्ट के लिए एक पर्टिकुलर सेट ऑफ

39:48

वेटेज है। मिड सेमेस्टर्स की 30% वेटेज

39:51

है। क्लास टेस्ट की भी 30% वेटेज है।

39:53

एनसीएम्स की भी 40% वेटेज है। तो ये जो

39:56

पूरा प्रोसेस अभी हमने डिस्कस किया जिसमें

39:58

एक कॉलेज के टीचर्स ने लॉजिकली एक

40:00

ग्रेडिंग सिस्टम बनाने की कोशिश की। हमारे

40:02

न्यूरल नेटवर्क्स कुछ इसी तरीके से वर्क

40:04

करते हैं। तो इस प्रोसेस के अंदर कुछ

40:06

इनपुट गया जो हमारे स्टूडेंट्स के

40:07

डिफरेंट-डिफरेंट एग्जाम्स में मार्क्स

40:09

हैं। तो ऐसे ही हमारे न्यूरल नेटवर्क के

40:11

अंदर भी हम डिफरेंट-डिफरेंट इनपुट्स हैं

40:13

जिनको पास करते हैं। एंड हर एक जो इनपुट

40:16

नेक्स्ट लेवल पर पास होता है उसके लिए

40:17

उसका कुछ पर्टिकुलर वेटेज होता है। तो इफ

40:20

दीज़ आर आर इनपुट न्यूरॉन्स। हमारी ये जो

40:22

वैल्यू्यूज हैं जिसको हम वेटेज कह रहे थे

40:24

अभी तक हमारे न्यूरल नेटवर्क के अंदर इसको

40:26

हम वेट पैरामीटर कहते हैं। और वेट

40:29

पैरामीटर बताता है कि ये जो इनपुट वैल्यू

40:31

है ये कितनी इंपॉर्टेंट है हमारे आउटपुट

40:33

को कैलकुलेट करने के लिए या फिर नेक्स्ट

40:35

न्यूरॉन के लिए। तो हमारे न्यूरल

40:37

नेटवर्क्स में कनेक्शंस के साथ हमारे पास

40:38

एसोसिएटेड वेट्स होते हैं। और जैसे हमने

40:40

ये ग्रेडिंग सिस्टम डेवलप किया। हमने काफी

40:42

ज्यादा ट्रायल एंड एरर यूज़ किया। हमारे

40:44

पास हो सकता है पहले हमने कोई मिस्टेक कर

40:46

दी। गलत वैल्यू ले ली। उसके बाद हमने अपने

40:48

वेट को अपडेट किया। हमने कुछ एडजस्टमेंट्स

40:50

किए। इसी तरीके से हमारे आर्टिफिशियल

40:52

न्यूरल नेटवर्क्स भी वर्क करते हैं। मतलब

40:54

मशीनंस के अंदर जो हम न्यूरल नेटवर्क्स

40:55

करते हैं उसमें भी हम काफी ज्यादा ट्रायल

40:57

एंड एरर करते हैं। कई बार हम गलत वेट ले

40:59

लेते हैं। उसको हम थोड़ा सा करेक्ट करने

41:00

की कोशिश करते हैं और इवेंचुअली अपने

41:02

नेटवर्क को इस तरीके से डिजाइन करते हैं

41:04

कि एट दी एंड हमारे पास जो प्रेडिक्शन आई,

41:06

जो आउटपुट आई वो एज क्लोज टू द

41:09

एक्सपेक्टेड वैल्यू हो एज क्लोज एज

41:11

पॉसिबल। मतलब जितना सही आउटपुट हो सके,

41:14

जितनी हाई उसकी एक्यूरेसी हो सके, उतना

41:16

अच्छा हम न्यूरल नेटवर्क बिल्ड करने की

41:17

कोशिश करते हैं। तो ये हमारा बेसिक आईडिया

41:19

है अबाउट हाउ डू न्यूरल नेटवर्क्स वर्क?

41:21

उसके अंदर हम कुछ इनपुट पास करते हैं।

41:23

अपने वेट्स को एडजस्ट करते हैं। एक

41:24

फार्मूला बनाने की कोशिश करते हैं। और फिर

41:26

फाइनली नेक्स्ट टाइम जितने भी इनपुट

41:28

आएंगे, उसके हिसाब से हम अपनी करेक्ट

41:29

प्रेडिक्शनंस को कैलकुलेट करेंगे। नाउ

41:31

लेट्स अंडरस्टैंड द इन डेप्थ प्रोसेस ऑफ़

41:34

ट्रेनिंग अ न्यूरल नेटवर्क। जब भी न्यूरल

41:36

नेटवर्क्स को हम ट्रेन करते हैं, उसके

41:38

अंदर दो इंपॉर्टेंट स्टेप्स हैं जो

41:39

परफॉर्म होते हैं। सबसे पहला इज फॉरवर्ड

41:41

प्रोपगेशन व्हिच इज मूविंग फॉरवर्ड इन द

41:44

न्यूरल नेटवर्क एंड सेकंड स्टेप इज़

41:46

बैकवर्ड प्रोपगेशन व्हिच इज़ मूविंग

41:48

बैकवर्ड्स इन द न्यूरल नेटवर्क। तो

41:50

फॉरवर्ड प्रोपगेशन व्हिच इज़ द फर्स्ट

41:52

स्टेप। फॉरवर्ड प्रोपगेशन के अंदर हमारे

41:54

न्यूरल नेटवर्क का काम होता है टू मेक अ

41:56

गेस या गेस कह सकते हैं इसको या फिर

41:59

प्रेडिक्शन कह सकते हैं। मतलब बेस्ड ऑन द

42:01

इनपुट हमारा जो न्यूरल नेटवर्क होता है वो

42:03

हमारे लिए एक आउटपुट एक प्रेडिक्शन होता

42:05

है जिसको प्रोड्यूस करता है। सो दिस इज़

42:06

आवर आउटपुट लेयर जहां से हमारे पास एक

42:08

प्रेडिक्शन आएगा आंसर आएगा। और सेकंड

42:10

स्टेप होता है बैकवर्ड प्रोपगेशन। बैकवर्ड

42:12

प्रोपगेशन में जो भी हमारा प्रेडिक्शन था

42:14

हम उसको कंपेयर करते हैं विद द

42:15

एक्सपेक्टेड वैल्यू कि सही आंसर क्या होना

42:17

चाहिए था। एंड उस हिसाब से अपने नेटवर्क

42:20

के अंदर हम एडजस्टमेंट्स करते हैं। हम

42:22

अपने नेटवर्क को एडजस्ट करते हैं। या

42:24

बेसिकली बैकवर्ड प्रोपगेशन में वी आर

42:27

लर्निंग फ्रॉम आवर मिस्टेक्स। वी आर

42:30

लर्निंग फ्रॉम आवर मिस्टेक्स। तो इनिशियली

42:32

जब हम अपने न्यूरल नेटवर्क को ट्रेन करना

42:34

स्टार्ट करते हैं। हर एक जो न्यूरॉन होता

42:36

है एक्सेप्ट फॉर द इनपुट लेयर। हर एक

42:38

न्यूरॉन के पास अपनी एक स्पेशल वैल्यू

42:40

होती है। व्हिच इज़ कॉल्ड बायस वैल्यू। तो

42:42

हर एक न्यूरॉन के पास अपनी एक बायस वैल्यू

42:44

होती है। लेट्स सपोज एक सिंगल न्यूरॉन का

42:46

एग्जांपल लेते हैं। लेट्स सपोज दिस इज द

42:48

न्यूरॉन और इसकी जो बायस वैल्यू है दैट इज

42:50

b. अब इस न्यूरॉन के पास कहां-कहां से

42:52

इनेशन आ रही है? एक ये इनपुट वैल्यू है जो

42:55

यहां पर जा रही है। हम अपने इनपुट्स को

42:56

कुछ वैल्यूज़ ले लेते हैं। लेट्स सपोज यहां

42:58

पर x1 इनपुट है। यहां पर x2 इनपुट है।

43:00

यहां पर x3 इनपुट है। ये सिंगल इनपुट के

43:02

मल्टीपल पैरामीटर्स हैं जो हम अपने न्यूरल

43:04

नेटवर्क को फीड कर सकते हैं। तो x1 इनपुट

43:06

इस चैनल के थ्रू इस कनेक्शन के थ्रू हमारे

43:08

इस न्यूरॉन तक पहुंचेगा। तो लेट्स सपोज ये

43:11

जो कनेक्शन है इसका कोई वेट है व्हिच इज़

43:13

W1 सिमिलरली X2 में भी कुछ एक वेट है फॉर

43:17

दिस पर्टिकुलर कनेक्शन व्हिच इज़ W2 X3 में

43:19

भी कुछ वेट है फॉर दिस पर्टिकुलर कनेक्शन

43:22

व्हिच इज़ W3 तो इस सिंगल न्यूरॉन तक ये

43:25

तीन डिफरेंट इनपुट्स की जो इनफेशन है वो

43:28

यहां तक रीच कर रही है। जैसे इस न्यूरॉन

43:30

के अंदर इनेशन जा रही है वैसे ही

43:32

इंफॉर्मेशन का फ्लो फॉरवर्ड डायरेक्शन में

43:34

होता है इन द फर्स्ट स्टेप व्हिच इज़

43:35

फॉरवर्ड प्रोपगेशन। तो हर एक न्यूरॉन क्या

43:37

करता है? अपने लेवल पर कुछ ना कुछ

43:39

कंप्यूटेशंस को परफॉर्म करता है। सबसे

43:41

जनरल कंप्यूटेशन क्या परफॉर्म होती है? एक

43:42

न्यूरल नेटवर्क के अंदर। बेसिकली फर्स्ट

43:44

स्टेप के अंदर एक वेटेड सम होता है जो

43:47

कैलकुलेट होता है हर एक सिंगल न्यूरॉन के

43:49

लिए। वेटेड सम कहने का मतलब है अगर हम इस

43:50

न्यूरॉन का एग्जांपल लें तो हर एक इनपुट

43:52

का हम वेटेड सम कैलकुलेट करेंगे। व्हिच

43:54

विल बेसिकली बी x1 * w1 + x2 * w2 + x3 *

44:00

w3 एंड इस पूरे वेटेड सम के अंदर हम अपनी

44:03

बायस को भी ऐड कर देते हैं। तो इस तरीके

44:05

से हमारे पास एक वेटेड सम होता है एंड फिर

44:07

इस वैल्यू को हम पास करते हैं टू अ स्पेशल

44:09

फंक्शन व्हिच इज़ कॉल्ड एन एक्टिवेशन

44:11

फंक्शन। तो ये f कोई भी एक्टिवेशन फंक्शन

44:14

हो सकता है। हमारे पास मल्टीपल एक्टिवेशन

44:16

फंक्शनंस हैं जो एग्जिस्ट करते हैं। इनमें

44:17

से एक काफी कॉमन एक्टिवेशन फंक्शन है

44:19

हमारा सिग्मोइड फंक्शन व्हिच इज़ बेसिकली 1

44:21

/ 1 + e टू दी पावर ज़ वी हैव अनदर

44:24

एक्टिवेशन फंक्शन व्हिच इज़ रेल यू

44:26

रेक्टिफाइड लीनियर यूनिट। तो इस तरीके से

44:28

हमारे पास मल्टीपल एक्टिवेशन फंक्शनंस

44:29

होते हैं। डिपेंडिंग अपॉन हम किस तरीके की

44:31

प्रॉब्लम है जिसको सॉल्व कर रहे हैं। किस

44:33

तरीके का मॉडल है जिसको हम बिल्ड कर रहे

44:34

हैं। तो वेटेड सम को हम कैलकुलेट करके

44:36

एक्टिवेशन फंक्शन में पास करते हैं। और जो

44:38

फाइनल वैल्यू आती है फिर उसको हम अपनी

44:40

नेक्स्ट लेयर की तरफ पास ऑन करते हैं। तो

44:42

इस तरीके से हर एक जो न्यूरॉन होता है

44:44

अपने लिए अपनी वैल्यूज़ को कैलकुलेट करता

44:46

है। कुछ कंप्यूटेशंस, कुछ लॉजिक को

44:47

परफॉर्म करता है और अपने नेक्स्ट लेवल पर

44:49

वैल्यूज़ को पास ऑन करता है। तो इस तरीके

44:51

से एव्री सिंगल न्यूरॉन इज़ मेकिंग सम

44:54

कंप्यूटेशंस। अ लॉट ऑफ़ कंप्यूटेशंस आर

44:55

हैपनिंग इन द न्यूरल नेटवर्क। और फाइनली

44:57

आउटपुट लेयर हमारे लिए कुछ प्रेडिक्शन

44:59

परफॉर्म करती है। कुछ आउटपुट को जनरेट

45:02

करती है। सो दिस इज़ फॉरवर्ड प्रोपगेशन

45:04

जिसमें हमने कुछ इनपुट पास किया और फाइनली

45:06

हमें कुछ कंप्यूटेशंस के बाद अपना

45:08

प्रेडिक्शन मिल गया। अब बैकवर्ड प्रोपगेशन

45:10

में क्या होता है? बैकवर्ड प्रोपगेशन में

45:12

इस प्रेडिक्शन को हम कंपेयर करते हैं विद

45:14

व्हाट द एक्सपेक्टेड वैल्यू वाज़। अभी हम

45:16

ट्रेन कर रहे हैं मॉडल को। मॉडल को जब हम

45:18

ट्रेन कर रहे हैं, हमारे पास पुराना डेटा

45:20

है। पुराने डेटा के बेसिस पर हमें पता है

45:21

कि एक्सपेक्टेड वैल्यू क्या होनी चाहिए।

45:23

एंड इफ आवर प्रेडिक्शन वाज़ रॉन्ग तो एक

45:25

तरीके से हम क्वांटिफाई करने की कोशिश

45:27

करते हैं। ठीक है? हमारा प्रेडिक्शन गलत

45:29

था पर कितना गलत था। हम बेसिकली अपना लॉस

45:32

कैलकुलेट करने की कोशिश करते हैं विद अ

45:34

स्पेशल फंक्शन व्हिच इज़ कॉल्ड अ लॉस

45:36

फंक्शन। तो लॉस फंक्शन से हम क्वांटिफाई

45:39

करते हैं कि ठीक है हमारे मॉडल ने गलत

45:40

प्रेडिक्शन दिया। कंप्लीटली एक्यूरेट

45:42

प्रेडिक्शन नहीं दिया। क्योंकि कंप्लीटली

45:44

एक्यूरेट दे देता तो तब तो हमारा मॉडल

45:45

फुल्ली ट्रेन हो गया। पर हर एक इनपुट के

45:47

लिए कंप्लीटली एक्यूरेट प्रेडिक्शन नहीं

45:49

आता। तो प्रेडिक्शन अगर एक्यूरेट नहीं है

45:51

तो हमें कैलकुलेट करना पड़ेगा कितनी

45:52

इनक्यूरेसी है। जितनी भी हमारे पास

45:54

इनक्यूरेसी आएगी मतलब जितना हमारा मॉडल

45:56

गलत है उसी हिसाब से हम अपने बायस एंड

45:58

अपने वेट्स को अपडेट करेंगे। एडजस्ट कर

46:01

देंगे। जैसे हमने अपने सीजीपीए वाले

46:03

एग्जांपल के अंदर एडजस्टमेंट किए थे वैसे

46:05

ही हम अपने न्यूरल नेटवर्क के अंदर अपने

46:06

वेट्स को अपडेट करते हैं। अपनी बायस को

46:09

एडजस्ट करते हैं। तो अब हम क्या करेंगे?

46:11

बैकवर्ड प्रोपगेशन में लॉस फंक्शन से वी

46:12

विल कैलकुलेट आवर लॉस। एंड बैकवर्ड्स हम

46:15

मूव करेंगे फ्रॉम द आउटपुट लेयर टू द हिडन

46:17

लेयर्स। मल्टीपल हिडन लेयर्स और हर एक

46:20

लेवल पर हम अपने वेट्स को बायसेस को

46:21

एडजस्ट करते हुए चले जाएंगे। पर यह जो

46:23

एडजस्टमेंट है यह इनपुट लेयर के लिए नहीं

46:25

होता क्योंकि इनपुट में तो फिक्स्ड इनपुट

46:26

है जो पास होता है। तो बाकी सारी लेयर्स

46:28

के लिए हम बैकवर्ड प्रोपगेशन करते हैं और

46:30

अपनी वैल्यूज को एडजस्ट करते हैं। एंड यही

46:32

जो फॉरवर्ड बैकवर्ड प्रोपगेशन का प्रोसेस

46:34

है इसको हम हर एक सिंगल डेटा एंट्री के

46:37

लिए अपने नेटवर्क के अंदर रिपीट करते हैं।

46:38

अगर हमारे पास बहुत सारा डेटा है। एक

46:40

सिंगल एंट्री के लिए फॉरवर्ड प्रोपगेशन भी

46:41

होगा, बैकवर्ड भी होगा। थोड़ा सा वेट

46:43

एडजस्ट करेंगे। फिर नेक्स्ट डेटा एंट्री

46:44

के लिए दोबारा फॉरवर्ड बैकवर्ड प्रोपगेशन

46:46

होगा। थोड़ा सा एडजस्टमेंट करेंगे। तो इस

46:48

तरीके से हर बार इस तरीके से हम

46:49

एडजस्टमेंट करते हैं कि लॉस फंक्शन में जो

46:51

डेविएशन कैलकुलेट हो रहा है, वी ट्राई टू

46:53

मिनिमाइज दैट वैल्यू। सो दैट वी कैन गेट

46:55

मोर एंड मोर करेक्ट प्रेडिक्शन या मोर एंड

46:58

मोर एक्यूरेट प्रेडिक्शंस। इसीलिए न्यूरल

47:00

नेटवर्क्स को हम जितना ज्यादा डेटा फीड

47:02

करते हैं, उतना ज्यादा वो करेक्ट

47:04

प्रेडिक्शनंस करते हैं। क्योंकि हर बार

47:06

जैसे-जैसे एक डेटा एंट्री हमारे न्यूरल

47:08

नेटवर्क को ट्रेन करती है, वैसे-वैसे

47:09

हमारा मॉडल जो है वो और ज्यादा एक्यूरेट

47:12

होना स्टार्ट हो जाता है। सो दिस इज़ हाउ

47:14

वी ट्रेन आवर न्यूरल नेटवर्क। और एक बार

47:16

ये नेटवर्क ट्रेन हो गया। नेटवर्क ट्रेन

47:17

होने का मतलब है हमने वेट वैल्यूज़ को फिगर

47:20

आउट कर लिया। हमने बायस की करेक्ट वैल्यूज़

47:21

को फिगर आउट कर लिया। उसके बाद वी कैन यूज़

47:23

दिस मॉडल टू मेक प्रेडिक्शनंस फॉर द न्यू

47:25

डेटा। तो जैसे हमने ग्रेडिंग सिस्टम

47:27

डिज़ाइन किया था वैसे ही हम अपने न्यूरल

47:29

नेटवर्क्स को डिज़ाइन करते हैं। फिर वो नई

47:30

प्रेडिक्शनंस करते हैं एंड नए कैलकुलेशंस

47:32

करते हैं। अब व्हाट आर द डिफरेंट टूल्स

47:34

दैट वी यूज़्ड टू वर्क विद न्यूरल

47:35

नेटवर्क्स। उसमें दो मेन लाइब्रेरीज़ हमारे

47:37

पास आ जाती हैं। टेंसर फ्लो एंड पाई

47:39

टॉर्च। पाई टॉर्च जो है इसको मेटा ने

47:41

बनाया है। टेंसर फ्लो को Google ने बनाया

47:43

है। तो ये काफी दो सबसे पॉपुलर लाइब्रेरीज़

47:45

हैं। टूल्स हैं जिनको हम यूज़ करते हैं

47:46

न्यूरल नेटवर्क्स के साथ वर्क करने के

47:48

लिए। इसमें पाई टॉर्च इज़ मोर एकेडमिक एंड

47:51

टेंसर फ्लो इज़ मोर इंडस्ट्रियल इन नेचर।

47:53

तो इट इज़ माज़ माय पर्सनल सजेशन कि अगर हम

47:55

डीप लर्निंग एल्गोरिदम्स को सीख रहे हैं,

47:56

देन वी शुड स्टार्ट लर्निंग इट विद पाईटच

47:58

बिकॉज़ इट विल बी मोर सिंपलर एंड मोर

48:00

इंट्यूटिव फॉर अस एज़ अ बिगिनर। इसके साथ

48:02

में वी आल्सो हैव अनदर प्लेटफार्म व्हिच

48:04

इज़ कैगल। कैगल को हम डिफरेंट डेटा सेट्स

48:06

के लिए यूज़ करते हैं। क्योंकि मशीन

48:08

लर्निंग एल्गोरिथ्म्स को डीप लर्निंग

48:09

एल्गोरिथम्स को बहुत सारा डेटा चाहिए होता

48:10

है। तो ये डेटा एक काफी पॉपुलर वेबसाइट है

48:13

जिसके ऊपर अवेलेबल होता है। मल्टीपल डेटा

48:14

सेट्स हैं जिनको हम यूज़ कर सकते हैं। तो

48:16

कैगल इज़ समथिंग जिसको हम डीप लर्निंग के

48:18

लिए भी यूज़ करते हैं एंड जिसको हम

48:19

स्टैटिस्टिकल मशीन लर्निंग के लिए भी यूज़

48:20

कर सकते हैं। अब उसके साथ में डीप लर्निंग

48:22

के अंदर क्योंकि बहुत सारा डेटा यूज़ होता

48:24

है। तो नॉर्मल CPU के अंदर इतना डेटा

48:26

स्टोर करना पॉसिबल नहीं है। तो जब भी हम

48:28

न्यूरॉन नेटवर्क्स को ट्रेन करते हैं या

48:30

तो हमें अपने सिस्टम के अंदर एक्स्ट्रा

48:31

GPU चाहिए होता है। नहीं तो हम क्लाउड पर

48:34

मशीनंस हैं जिनको ओरेंट कर सकते हैं। वी

48:36

कैन यूज़ डिफरेंट प्लेटफॉर्म्स। वी कैन गेट

48:38

मशीनंस एंड ट्रेन आवर मॉडल्स ऑन क्लाउड।

48:40

सो दीज़ आर द डिफरेंट टूल्स दैट वी यूज़।

48:42

नेक्स्ट वी आर गोइंग टू लर्न अबाउट द

48:43

डिफरेंट न्यूरल नेटवर्क आर्किटेक्चर्स।

48:45

न्यूरल नेटवर्क्स के अंदर वी हैव मल्टीपल

48:47

आर्किटेक्चर्स। जैसे एफएनएन हो गए फीड

48:49

फॉरवर्ड न्यूरल नेटवर्क, रेकरेंट न्यूरल

48:50

नेटवर्क्स हो गए, आरएनए, सीएनएन हो गए,

48:52

कॉन्वोल्यूशनल न्यूरल नेटवर्क्स एंड हमारे

48:54

ट्रांसफार्मर्स हो गए। दीज़ आर द फोर मोस्ट

48:57

पॉपुलर एंड मोस्ट यूज़फुल न्यूरल

48:58

नेटवर्क्स। पर इसके अलावा भी और बहुत सारे

49:00

यूज़फुल नेटवर्क्स होते हैं। जैसे रेन

49:02

न्यूरल नेटवर्क्स का ही एक एडवांस्ड वर्जन

49:04

हमारे पास होते हैं। लॉन्ग शॉर्ट टर्म

49:05

मेमोरी नेटवर्क्स। उसके अलावा वी आल्सो

49:08

हैव गैंस व्हिच आर जनरेटिव एडवर्सियल

49:10

नेटवर्क्स। तो वी हैव अ लॉट ऑफ न्यूरल

49:12

नेटवर्क टाइप्स। हम चार पॉपुलर नेटवर्क

49:14

टाइप्स को पढ़ने वाले हैं। सबसे पहले

49:16

नेटवर्क टाइप है फीड फॉरवर्ड न्यूरल

49:18

नेटवर्क। एक बार हमारा न्यूरल नेटवर्क

49:20

ट्रेन हो गया। तो प्रेडिक्शन के टाइम पर

49:22

जिन नेटवर्क्स के अंदर इंफॉर्मेशन एक ही

49:24

सिंगल फ्लो के अंदर मूव करती है एंड देयर

49:27

आर नो लूप्स, नो साइकिल्स। इस तरीके के

49:29

न्यूरल नेटवर्क्स को हम फीड फॉरवर्ड

49:31

न्यूरल नेटवर्क कहते हैं एफएन। तो इस

49:33

न्यूरल नेटवर्क में एक बार हमने अपने डेटा

49:35

को प्रोसेस किया तो डेटा पाससेस थ्रू

49:37

मल्टीपल लेयर्स और फाइनली हमारे पास एक

49:38

प्रेडिक्शन निकल कर आ जाता है। दीज़ टाइप

49:40

ऑफ़ न्यूरल नेटवर्क्स आर नॉट गुड फॉर

49:42

सीक्वेंशियल डेटा और टाइम डिपेंडेंट डेटा।

49:44

तो इन्हें हम जो हमारे सिंपल प्रेडिक्शनंस

49:46

होते हैं उनके लिए यूज़ करते हैं। जैसे हम

49:47

इन्हें मेडिकल डायग्नोसिस के लिए यूज़ कर

49:49

सकते हैं या फिर इफ वी हैव अ लोन अप्रूवल

49:51

एप्लीकेशन तो उस तरीके के मॉडल्स को बिल्ड

49:53

करने के लिए हम एफएन को यूज़ कर सकते हैं।

49:56

सेकंड टाइप ऑफ न्यूरल नेटवर्क्स आर

49:57

रेकरेंट न्यूरल नेटवर्क्स। रेकरेंट न्यूरल

50:00

नेटवर्क्स के अंदर देयर इज़ अ स्पेशल थिंग

50:03

दैट कम्स अप व्हिच इज़ मेमोरी। तो आरएनए जो

50:06

होते हैं दे रिमेंबर द इनफेशन फ्रॉम

50:08

प्रीवियस स्टेप्स एंड दैट इनेशन इज़ यूज्ड

50:10

टू इन्फ्लुएंस द करंट स्टेप्स आउटपुट। तो

50:13

आरएनएस के अंदर हम लूप बैक कर सकते हैं टू

50:15

रीयूज द इनफेशन। एंड इसीलिए इन नेटवर्क्स

50:17

को हम रेकरेंट कहते हैं। तो आरएनएस को

50:19

हैवली हम सीक्वेंशियल डेटा के लिए यूज़ कर

50:21

सकते हैं। जहां पर कॉन्टेक्स्ट मैटर करता

50:23

है। जैसे फॉर एग्जांपल हमारे पास

50:24

टेक्सचुअल डेटा है। टेक्सचुअल डेटा के

50:26

अंदर हमारे पास एक सेंटेंस है राज इज़

50:28

हैप्पी। तो इस तरीके का जो डेटा है इसको

50:30

हम सीक्वेंशियल डेटा कहेंगे। अब इस डेटा

50:32

में हमें अगर कॉन्टेक्स्ट ढूंढना है कि

50:33

ठीक है समबडी इज़ हैप्पी बट वी वांट टू

50:35

फाइंड आउट द कॉन्टेक्स्ट हु इज़ हैप्पी। तो

50:37

अगर हमें फिगर आउट करना है हु एग्जैक्टली

50:39

इज़ हैप्पी। तो उसके लिए हमें प्रीवियस

50:41

इनेशन की जरूरत पड़ेगी कि राज अ पर्सन इज़

50:44

द पर्सन हु इज़ हैप्पी इन दिस सेंटेंस। तो

50:47

इस तरीके का डेटा जहां पर कॉन्टेक्स्ट

50:49

काफी ज्यादा मैटर करता है वहां पर हम अपने

50:51

आरएनएस को यूज़ करते हैं। तो आरएनएस को हम

50:53

लैंग्वेज ट्रांसलेशन के लिए यूज़ कर सकते

50:54

हैं। स्पीच रिकॉग्निशन के लिए यूज़ कर सकते

50:56

हैं। इनफैक्ट स्टॉक प्रेडिक्शनंस के लिए

50:58

भी यूज़ कर सकते हैं। क्योंकि स्टॉक के

50:59

अंदर हमें पुराना डेटा चाहिए होता है टू

51:01

मेक सम प्रेडिक्शनंस। अब आरएस का ड्रॉबैक

51:04

इज़ दैट दे आर गुड इट सीक्वेंसेस बट दे आर

51:05

बैड एट लॉन्ग टर्म मेमोरी। तो इन्हीं का

51:07

हम एक एडवांस्ड वर्जन यूज़ करते हैं व्हिच

51:08

इज़ लॉन्ग शॉर्ट टर्म मेमोरी नेटवर्क। तो

51:10

इस नेटवर्क को लॉन्ग टर्म मेमोरी के लिए

51:12

हम ज्यादा यूज़ करते हैं एज़ कंपेयर टू

51:13

ट्रेडिशनल आरएनएस। थर्ड टाइप ऑफ़ न्यूरल

51:16

नेटवर्क्स आर कॉनवोल्यूशनल न्यूरल

51:17

नेटवर्क्स। अब सीएनएन को वैसे इन डेप्थ

51:19

में समझने में थोड़ा सा टाइम लग सकता है

51:20

बिकॉज़ दे आर कॉम्प्लेक्स नेटवर्क्स। बट वी

51:22

विल ट्राई टू गेट एन ओवरव्यू आईडिया ऑफ़

51:24

व्हाट सीएनएस आर। सीएनएन कॉन्वोल्यूशनल

51:27

न्यूरल नेटवर्क्स जो होते हैं इनको हम

51:28

डेडिकेटेडली स्पेशली यूज़ करते हैं फॉर आवर

51:31

इमेजज़, फॉर आवर वीडियोस। तो इस तरीके का

51:33

जो डेटा होता है जो ग्रिड की फॉर्म में

51:35

ग्रिड की फॉर्म में रिप्रेजेंट हो सकता है

51:37

उस डेटा के लिए सीएनएन बहुत अच्छा परफॉर्म

51:39

करते हैं। जैसे एक एग्जांपल लेते हैं।

51:41

लेट्स सपोज़ हमारे पास एक ब्लैक एंड वाइट

51:44

इमेज है। हमारे पास कोई डेटा है जो ब्लैक

51:47

एंड वाइट इमेजज़ की फॉर्म में है। और उस

51:49

डेटा को हम रिप्रेजेंट करते हैं इन द

51:51

फॉर्म ऑफ़ अ 6/6 ग्रिड। तो हमारी वो ग्रिड

51:53

कैसी दिखेगी? वो हमारी ग्रिड ऐसी दिखेगी।

51:56

अब जितनी भी हमारे पास ब्लैक एंड वाइट

51:57

फोटो होती हैं हमें पता है उन फोटोस को

51:59

अगर हमें किसी भी नेटवर्क को फीड करना है

52:01

या अगर हम कंप्यूटर को सिस्टम को अपनी कोई

52:03

इमेजेस फीड करना चाहते हैं या वीडियोस को

52:05

भी फीड करना चाहते हैं। अब क्योंकि

52:07

कंप्यूटरटर्स के पास तो हमारी तरह आईज

52:08

नहीं होती तो कंप्यूटरटर्स इमेजज़ को

52:10

वीडियोस को कैसे रीड करता है? वो उन्हें

52:12

रीड करता है इन द फॉर्म ऑफ़ ग्रिड्स। जैसे

52:14

इफ दिस एस इफ आई टेक दिस एस एज़ अ पिक्चर

52:17

तो इस पिक्चर को मेरा जो कंप्यूटर है वो

52:20

एज़ अ ग्रिड ऑफ़ पिक्सल्स की फॉर्म में रीड

52:22

करेगा। तो ऐसे ही हम ब्लैक एंड वाइट जो

52:24

इमेज हैं उनको उनकी एक पिक्सल्स की ग्रिड

52:27

है उसे इमेजिन कर सकते हैं। अब इस ग्रिड

52:28

के ऊपर लेट्स सपोज हमारे बहुत सारे नंबर्स

52:30

हैं। हमने एक फोटो फीड की एंड हमारी जो

52:32

पिक्चर है उसके ऊपर हमने एक नंबर लिखा हुआ

52:34

है व्हिच इज़ इक्वल टू वन। तो इस तरीके से

52:36

वी कैन इमेजिन दिस टू बी अ ब्लैक एंड वाइट

52:38

पिक्चर जिसके ऊपर एक वन लिखा हुआ है। तो

52:41

जब हमारी इमेज हमारे सिस्टम के अंदर फीड

52:43

होगी। इस ग्रिड के अंदर जिन भी पिक्सल्स

52:45

पर नंबर आ रहा है, दोज़ पिक्सल्स कैन बी

52:48

डिप्टेड विद वैल्यू वन। कि इन पिक्सल्स

52:50

में तो ग्रिड के अंदर वैल्यू वन होगी और

52:52

बाकी सारे पिक्सल्स क्योंकि खाली हैं, तो

52:54

वो सारे के सारे हमारी वैल्यू ज़ीरो होंगी।

52:57

तो इस तरीके से हमारी जो ब्लैक एंड वाइट

52:58

इमेजज़ हैं उनको हम सिस्टम को फीड करते

53:00

हैं। अब लेट्स सपोज ये जो इमेज का डेटा है

53:02

इसको हम किसी नॉर्मल न्यूरल नेटवर्क को

53:04

फीड करना चाहते हैं। तो हमें हर एक पिक्सल

53:06

का डेटा अपने न्यूरल नेटवर्क को देना

53:08

पड़ेगा। तो अगर इफ वी हैव अ 6/6 ग्रिड तो

53:11

हमारे पास कितने पिक्सल्स हो जाएंगे जो

53:13

हमें फीड करने पड़ेंगे? वी विल हैव 36

53:14

वैल्यूज़। तो इसके लिए हमें 36 डिफरेंट

53:16

इनपुट पॉइंट्स चाहिए होंगे टू फीड दिस

53:19

डेटा टू द नेटवर्क। अब रियल लाइफ के अंदर

53:21

जो हमारा एक सिंगल इमेज होती है, 6/6 साइज

53:24

बहुत छोटा होता है उसके अंदर हम इमेज को

53:27

नहीं लेके आ सकते। हम बहुत बड़ी-बड़ी इमेजज़

53:30

के साथ डील करते हैं रियल लाइफ के अंदर।

53:31

तो अगर हम एक बड़ी वैल्यू का भी एग्जांपल

53:33

लें तो उसमें लेट्स सपोज हमारी जो इमेज का

53:35

साइज है दैट इज 1000/ 1000 तो उस केस में

53:38

हमें कितने डिफरेंट इनपुट्स चाहिए होंगे

53:39

हमें 10 टू दी पावर सिक्स एंड यहां पर ये

53:41

समझना बहुत जरूरी है कि जब हम 10 टू दी

53:43

पावर सिक्स वाले नंबर की बात कर रहे हैं

53:44

जब हमने फॉरवर्ड एंड बैकवर्ड प्रोपगेशन की

53:46

बात की थी तो हमने देखा था कि किसी भी

53:48

न्यूरल नेटवर्क के अंदर हिडन लेयर में

53:50

सिंगल न्यूरॉन के लिए सारे के सारे इनपुट

53:52

वैल्यूज़ के लिए एक कंप्यूटेशन होता है जो

53:54

परफॉर्म होता है। तो बिकॉज़ ऑफ़ दिस 10 टू

53:56

दी पावर सिक्स वैल्यू अ सिंगल न्यूरॉन इन

53:58

द हिडन लेयर इज गोइंग टू कंप्यूट 10 टू दी

54:01

पावर सिक्स टाइम्स। तो 10 टू दी पावर

54:03

सिक्स कंप्यूटेशंस सिर्फ एक सिंगल न्यूरॉन

54:05

के लिए होंगी। और नेटवर्क के अंदर तो बहुत

54:07

सारे न्यूरॉन्स हैं जो अलग-अलग

54:09

कंप्यूटेशंस करती हैं। तो द साइज ऑफ

54:11

कंप्यूटेशंस इज़ गोइंग टू बी अ लॉट। और ये

54:13

तो सिर्फ हमने ब्लैक एंड वाइट इमेज का

54:15

एग्जांपल लिया। यहां पर अगर हमारे पास एक

54:16

कलर्ड इमेज होती। कलर्ड इमेजज़ को सिस्टम

54:19

कैसे रिकॉग्नाइज़ करता है? उसके लिए हम

54:21

आरजीबीस को यूज करते हैं। जैसे अगर हमें

54:24

कंप्यूटरटर्स को कलर्ड इमेज फीड करनी होती

54:26

है तो उसके लिए एक सिंगल ग्रिड की जगह

54:28

ब्लैक एंड वाइट पिक्सल्स की जगह हम रेड,

54:31

ग्रीन एंड ब्लू तीन अलग-अलग ग्रिड्स हैं

54:33

जो अपने कंप्यूटर को पास ऑन करते हैं। तो

54:35

वहां पर ये जो साइज हो जाएगा दिस विल बी 3

54:38

* 10 टू दी पावर 6। तो हमारी जो नंबर ऑफ

54:40

कंप्यूटेशंस हैं वो कलर्ड इमेजज़ के लिए और

54:42

ज्यादा बढ़ गई। और ये तो सिर्फ हमने इमेजज़

54:44

का एग्जांपल लिया है। अगर हमारे पास

54:45

वीडियोस हैं तो वीडियोस को हम पास करते

54:47

हैं इन द फॉर्म ऑफ डिफरेंट फ्रेम्स। हर एक

54:49

फ्रेम अपने आप में एक बड़ी कलर्ड इमेज

54:51

होती है। तो इतना सारा डेटा अगर हम नॉर्मल

54:53

न्यूरल नेटवर्क्स को पास करते हैं, देन

54:55

दैट इज़ गोइंग टू बी वेरी इंप्रैक्टिकल।

54:57

एंड यहां पर हमारे सीएनएस हमें बहुत

54:59

ज्यादा हेल्प करते हैं बाय प्रोसेसिंग ऑल

55:01

द इमेजज़ एंड प्रोसेसिंग ऑल द वीडियोस इन अ

55:03

मोर ऑप्टिमाइज्ड फैशन। सीएनएस बेसिकली

55:06

क्या करते हैं? हमारी इमेज के एक स्मॉल

55:08

पैच को एक बार में एनालाइज़ करते हैं। उसके

55:10

अंदर पैटर्न्स देखने की कोशिश करते हैं।

55:12

रिगार्डिंग कॉर्नर्स, रिगार्डिंग एजेस,

55:14

रिगार्डिंग शेप्स। एंड उस तरीके से वो

55:16

इनपुट साइज को रिड्यूस करते हैं जिसकी वजह

55:18

से डेटा बेटर ऑप्टिमाइज्ड वे में प्रोसेस

55:20

हो पाता है। सो दैट इज व्हाई वी यूज़

55:23

सीएनएस एंड दैट इज़ व्हाई सीएनए आर वेरीेंट

55:25

इन मॉडर्न एप्लीकेशनेशंस ऑफ़ एआई। तो

55:26

सीएनएस ट्राई टू लुक एट अ स्मॉल पैच ऑफ़ द

55:29

इमेज एंड दे ट्राई टू एनालाइज़ द ओवरव्यू

55:31

पिक्चर फ्रॉम इट। अब वी टॉक अबाउट द

55:32

सीएनएन आर्किटेक्चर, तो वो कुछ इस तरीके

55:34

का दिखता है जिसके अंदर वी हैव मल्टीपल

55:36

लेयर्स। तो वी कैन लुक एट द डायग्राम कि

55:38

यहां पर हमारी जो इमेज है उसके लिए एक

55:40

स्मॉल पैच को एनालाइज़ किया जा रहा है एट अ

55:42

टाइम। एंड दिस इज़ डन विथ द हेल्प ऑफ़

55:44

कर्नल। तो हमारे पास मल्टीपल लेयर्स होती

55:45

हैं। वी हैव द पुूलिंग लेयर, वी हैव द

55:47

फुल्ली कनेक्टेड लेयर, वी हैव द

55:48

कॉन्वोल्यूशन लेयर। एंड इस तरीके से हमारा

55:50

जो आर्किटेक्चर है वो वर्क करता है। अब वी

55:52

आर नॉट गोइंग टू डाइव डीप इंटू दिस लेक्चर

55:54

राइट नाउ बट इफ यू वांट अ डिटेल लेक्चर ऑन

55:56

हाउ सीएनएन वर्क्स। किस तरीके से

55:58

आर्किटेक्चर कंप्लीटली वर्क करता है? यू

56:00

कैन लेट मी नो इन द कमेंट्स एंड वी विल

56:01

हैव अ सेपरेट लेक्चर अबाउट दिस। तो सीएनएस

56:03

को हम बहुत हैवीली यूज़ करते हैं फॉर

56:05

ऑब्जेक्ट क्लासिफिकेशन, फॉर ऑब्जेक्ट

56:06

डिटेक्शन एंड फॉर वीडियो एनालिसिस।

56:08

नेक्स्ट टाइप ऑफ न्यूरल नेटवर्क्स जो काफी

56:10

ज्यादा इंपॉर्टेंट होते हैं। इनफैक्ट आज

56:12

की डेट में इनका हम काफी ज्यादा यूजेज

56:14

देखते हैं। दोज़ आर कॉल्ड ट्रांसफॉर्मर्स।

56:16

ट्रांसफॉर्मर्स बहुत इंपॉर्टेंट टाइप ऑफ

56:18

न्यूरल नेटवर्क आर्किटेक्चर होते हैं।

56:19

इनफैक्ट दे आर द ड्राइविंग फोर्स बिहाइंड

56:22

जीपीटी। जीपीटी की फुल फॉर्म है जनरेटिव

56:26

प्रीटेंड

56:29

ट्रांसफॉर्मर।

56:31

सो जीपीटी बेसिकली बिहाइंड द सीन

56:33

ट्रांसफॉर्मर्स को ही यूज़ करता है टू बी

56:35

एबल टू इंटरेक्ट विद अस। तो

56:37

ट्रांसफॉर्मर्स को स्पेशली डिजाइन किया

56:39

गया है टू एनालाइज सीक्वेंशियल डेटा

56:41

विदाउट आरएनएस। ट्रांसफॉर्मर्स कैसे डिफर

56:43

करते हैं? ट्रांसफॉर्मर्स हमारे पास इस

56:44

तरीके का कोई सीक्वशियल डेटा होता है।

56:46

उसको स्टेप बाय स्टेप एनालाइज़ नहीं करते।

56:48

वो ओवरऑल डेटा को देखते हैं। एंड फिर

56:51

बिकॉज़ ऑफ़ अ मैकेनिज़्म व्हिच इज़ कॉल्ड

56:53

अटेंशन। देयर इज़ अ स्पेशल मैकेनिज़्म इन

56:55

ट्रांसफॉर्मर्स व्हिच इज़ कॉल्ड अटेंशन। वो

56:58

डिसाइड करते हैं ओवरऑल डेटा के अंदर कि

57:00

कौन से पार्ट पर स्पेशल फोकस देना है।

57:02

व्हाट इज़ गोइंग टू बी मोर रेलेवेंट।

57:05

बेसिकली न्यूरल नेटवर्क्स के पास अगर कोई

57:07

भी टेक्स्ट आता है, कोई भी स्ट्रिंग आती

57:08

है, तो सबसे पहले दिस थिंग इज कनवर्टेड

57:10

इनू टोकंस। तो कोई भी टेक्स्ट होता है,

57:12

इसके अंदर हम मल्टीपल टोकंस क्रिएट करते

57:15

हैं। ये अलग टोकन हो जाएगा, ये अलग टोकन

57:16

हो जाएगा। तो इस तरीके से एक स्ट्रिंग के

57:18

अंदर से मल्टीपल टोकंस डिराइव होते हैं।

57:20

एंड देन फॉर ऑल द टोकंस वी कंप्यूट समथिंग

57:22

कॉल्ड दी अटेंशन स्कोर। सो फॉर ऑल द टोकंस

57:25

वी ट्राई टू कैलकुलेट देयर अटेंशन स्कोर

57:27

विथ ईच अदर। तो उससे हमारे पास जो

57:29

सीक्वेंशियल डेटा होता है उससे हमारे पास

57:30

जो टेक्स्ट होता है उसके अंदर हमें

57:32

कॉन्टेक्स्ट एंड मीनिंग समझने में बहुत

57:34

ज्यादा हेल्प होती है। जैसे फॉर एग्जांपल

57:36

यहां पर इफ वी हैव अ सेंटेंस जिसमें द डॉग

57:39

चज़ द कैट बिकॉज़ इट वाज़ स्केर्ड। तो अगर हम

57:41

जानना चाहते हैं यहां पर इट कौन है तो

57:43

उसके लिए कॉन्टेक्स्ट एंड मीनिंग ऑफ़ द

57:46

डेटा मैटर्स अ लॉट। तो हमें एनालाइज़ करके

57:49

पता चलेगा इट बेसिकली इज़ रिलेटिंग विथ दिस

57:52

डॉग कीवर्ड। तो ट्रांसफॉर्मर्स गिव अस अ

57:54

स्ट्रांग सेंस ऑफ़ द मीनिंग एंड

57:56

कॉन्टेक्स्ट बिहाइंड द डेटा। इफ वी टॉक

57:58

अबाउट द आर्किटेक्चर तो ट्रांसफॉर्मर्स का

57:59

आर्किटेक्चर कुछ ऐसा होता है। इस

58:01

आर्किटेक्चर को भी अभी हम डिटेल में कवर

58:03

नहीं करेंगे। इफ यू वांट अ स्पेशल

58:05

डेडिकेटेड सेशन अबाउट ट्रांसफॉर्मर्स देन

58:07

यू कैन लेट मी नो इन द कमेंट्स एंड वी विल

58:08

ब्रिंग अनदर लेक्चर जिसके अंदर वी कैन

58:10

डेडिकेटेडली टॉक अबाउट द आर्किटेक्चर ऑफ़

58:12

ट्रांसफॉर्मर्स। सो दिस वाज़ ऑल अबाउट

58:13

न्यूरल नेटवर्क आर्किटेक्चर्स। नेक्स्ट वी

58:15

आर गोइंग टू लर्न अबाउट जनरेटिव एआई। तो

58:18

अभी तक हमने ओवरव्यू के अंदर अपने एआई की

58:21

बात की थी। एंड एआई के अंदर हमने मशीन

58:23

लर्निंग को डिटेल में स्टडी किया। मशीन

58:26

लर्निंग के अंदर हमने एक और उसके सबडोमेन

58:28

को डिटेल में डिस्कस किया व्हिच वाज़ डीप

58:30

लर्निंग जिसमें वी टॉक्ड अबाउट न्यूरल

58:32

नेटवर्क्स। कैसे उन्हें ट्रेन करते हैं?

58:33

व्हाट आर द डिफरेंट आर्किटेक्चर्स। एंड

58:35

इसी की अब एक सबसेट या सबडोमेन या

58:37

एप्लीकेशनेशंस के बारे में हम डिटेल में

58:39

बात करने वाले हैं। व्हिच इज़ कॉल्ड जेन

58:42

एआई। दैट इज़ जनरेटिव एआई। जनरेटिव एआई इज

58:45

दैट पार्ट ऑफ एआई जिसके अंदर हम टेक्स्ट

58:48

को, ऑडियो को, वीडियो को, इमेजज़ को जनरेट

58:50

करने का काम करते हैं। तो अभी तक जितनी भी

58:52

ट्रेडिशनल मशीन लर्निंग को हमने डिस्कस

58:54

किया वहां पर हम कुछ ना कुछ इनपुट के

58:56

बेसिस पर अपनी कुछ क्लासिफिकेशंस कर रहे

58:58

थे। कुछ हम प्रेडिक्शनंस कर रहे थे बेस्ड

58:59

ऑन द पैराटर्स। बट जेरेटिव एआई के अंदर हम

59:02

कोई नई चीज जनरेट करने की कोशिश करते हैं।

59:04

एंड दैट इज़ हाउ जेन एआई इज़ स्पेशल। एंड आज

59:07

की डेट में देयर आर अ लॉट ऑफ़ एआई टूल्स

59:09

व्हिच यूज़ जेन एआई बिहाइंड द सीन्स। इसमें

59:11

चैट जीपीटी इज़ अ वेरी पॉपुलर एग्जांपल

59:13

जिसको हम अपने होमवर्क्स सॉल्व करने के

59:15

लिए यूज़ कर सकते हैं। GitHub कोपायलट इज़

59:17

आल्सो अनदर पॉपुलर एग्जांपल जो हमारे लिए

59:19

कोड को जनरेट करता है। सोरा इज़ अनदर

59:21

पॉपुलर एग्जांपल जो हमारे लिए वीडियोस को

59:23

जनरेट करता है। तो इस तरीके से वी हैव

59:24

मल्टीपल टूल्स इन द मार्केट व्हिच जनरेट

59:26

डिफरेंट काइंड्स ऑफ़ डेटा फॉर अस। सो इफ वी

59:28

लुक एट ऑल द डिफरेंट टूल्स फॉर जनरेटिव

59:30

एआई। टेक्स्ट के लिए वी हैव जीपीटी।

59:32

जीपीडी इज़ क्रिएटेड बाय ओपन एआई एंड ओपन

59:34

एआई इज़ फंडेड बाय Microsoft. देन वी हैव

59:36

क्लॉड व्हिच इज़ बिल्ट बाय अ कंपनी कॉल्ड

59:38

एंथ्रोपिक व्हिच इज़ फंडेड बाय Amazon. देन

59:40

वी हैव जेमिनाई व्हिच इज़ बिल्ट बाय

59:42

Google, वी हैव लामा व्हिच इज़ बिल्ट बाय

59:44

मेटा। एंड इसके अलावा भी बहुत सारी टूल्स

59:46

हमारे पास अवेलेबल हैं। इमेजेस में वी हैव

59:48

मिड जर्नी। वी हैव डैली, वी हैव स्टेबल

59:50

डिफ्यूज़। इसके अंदर स्टेबल डिफ्यूज़न इज़

59:52

ओपन सोर्स एंड रेस्ट आर क्लोज सोर्स।

59:54

ऑडियो के लिए वी हैव 11 लैब्स, बार्क,

59:56

म्यूजिक जैन। वीडियोस के लिए वी हैव सोरा,

59:58

रनवे, वेहेन। कोड के लिए वी हैव गेट हब को

60:00

पायलट, वी हैव कोड लामा, वी हैव कोड

60:02

विस्पर बाय Amazon व्हिच इज़ स्पेसिफिकली

60:04

फोकस्ड ऑन एडब्ल्यूएस एंड क्लाउड

60:06

डेवलपमेंट। तो इस तरीके से आज की डेट में

60:08

देयर आर अ लॉट ऑफ जनरेटिव एआई टूल्स व्हिच

60:11

आर अवेलेबल इन द मार्केट एंड दैट वी कैन

60:13

यूज़ टू जनरेट न्यू काइंड्स ऑफ़ कंटेंट। अब

60:15

जब भी हम जनरेटिव एआई को समझना चाहते हैं,

60:17

दो और इंपॉर्टेंट टर्म्स हैं जिनको समझना

60:19

बहुत जरूरी है। व्हिच आर एनएलपी एंड

60:21

एलएलएम्स। अब सिंस दीज़ आर बिग कॉन्सेप्ट्स

60:23

वी कांट रियली अंडरस्टैंड एवरीथिंग इन

60:26

डेप्थ अबाउट देम इन अ शॉर्ट पीरियड ऑफ़

60:27

टाइम। बट वी विल ट्राई टू अंडरस्टैंड द

60:29

ओवरव्यू मीनिंग ऑफ एनएलपी एंड एलएलएम्स।

60:32

ताकि नेक्स्ट टाइम जब किसी कन्वर्सेशन के

60:33

अंदर, किसी सेशन के अंदर हम एनएलपी या

60:35

एलएलएम वर्ड्स को सुने तो उनके मतलब उनके

60:38

एक्चुअल इंट्यूशन हमारे अंदर हो। सबसे

60:40

पहले बात करते हैं अबाउट एनएलपी। एनएलपी

60:42

स्टैंड्स फॉर नेचुरल

60:44

लैंग्वेज

60:46

प्रोसेसिंग। एनएलपी इज अ फील्ड इज अ डोमेन

60:50

ऑफ मशीन लर्निंग जिसके अंदर हम लैंग्वेज

60:53

के साथ डील करते हैं। सो दिस इज़ अ फील्ड

60:55

ऑफ मशीन लर्निंग व्हेयर वी टीच मशीनंस टू

60:57

अंडरस्टैंड, इंटरप्रेट एंड जनरेट ह्यूमन

60:59

लैंग्वेजज़। जैसे इंग्लिश हो गई, हिंदी हो

61:01

गई या फ्रेंच हो गई। तो जब भी हम इस तरीके

61:04

के सिस्टम्स के साथ डील करते हैं या इस

61:05

तरीके के मॉडल्स के साथ डील करते हैं जो

61:07

ह्यूमन लैंग्वेज से रिलेट करते हैं।

61:09

ह्यूमन लैंग्वेज को जनरेट करने का काम

61:11

करते हैं। ह्यूमन लैंग्वेज को इंटरप्रेट

61:13

करने का, अंडरस्टैंड करने का काम करते

61:14

हैं। तो बैक ऑफ द माइंड पे हमें ये याद

61:16

रखना है वहां पर हम एनएलपी को यूज़ कर रहे

61:18

हैं व्हिच इज़ नेचुरल लैंग्वेज प्रोसेसिंग।

61:20

एंड एलएलएम्स आर वन टाइप ऑफ़ मॉडल्स व्हिच

61:22

कैन बी यूज़्ड टू सॉल्व एनएलपी टास्क। तो

61:24

एलएलएम्स की फुल फॉर्म होती है लार्ज

61:27

लैंग्वेज मॉडल्स। अब ऐसा नहीं है कि सिर्फ

61:31

एलएलएम्स हैं जो एनएलपी टास्क को सॉल्व

61:33

करने में हेल्प करते हैं। इसके अलावा भी

61:34

हमारे पास काफी सारे मॉडल्स होते हैं जो

61:36

एनएलपी टास्क को सॉल्व करते हैं। व्हिच आर

61:37

नॉट एलएलएम्स। पर एलएलएम्स आर वन ऑफ़ द

61:40

मोस्ट पॉपुलर मॉडल्स इन टुडेज़ टाइम।

61:42

क्योंकि जब भी हम जीपीटी की बात करते हैं,

61:44

जब भी हम क्लॉड की बात करते हैं, वी आर

61:45

बेसिकली यूज़िंग एलएलएम्स। अगर हम जीपीटी

61:48

की बात करें, जीपीटी फोर की बात करें, दिस

61:49

इज़ एन एलएलएम। अगर हम क्लॉड की बात करें,

61:51

दिस इज़ एन एलएलएम। अगर हम लामा की बात

61:53

करें, दिस इज़ एन एलएलएम। तो वी आर

61:55

एक्चुअली यूजिंग अ लॉट ऑफ एलएलएम्स इन द

61:58

फील्ड ऑफ एआई और इन टर्म्स ऑफ़ प्रैक्टिकल

62:00

कंज्यूमर फेसिंग टेक्नोलॉजीस टुडे। तो

62:02

लार्ज लैंग्वेज मॉडल्स बहुत ज्यादा

62:03

इंपॉर्टेंट टाइप ऑफ टूल होते हैं जिनको हम

62:05

एनएलपी इस फील्ड के अंदर यूज़ करते हैं। तो

62:08

लार्ज लैंग्वेज मॉडल्स को हम लार्ज क्यों

62:10

कहते हैं? बिकॉज़ एक तो इनके अंदर बहुत

62:12

ज्यादा लार्ज डेटा फीड होता है टू ट्रेन

62:15

देम। दे हैव अ लॉट ऑफ़ डेटा व्हिच दे आर

62:17

ट्रेंड ऑन। अगर हम सिर्फ टेक्स्ट की बात

62:19

करें तो किसी भी एलएलएम को ट्रेन करने के

62:21

लिए हम बहुत सारा इंटरनेट पर जो टेक्स्ट

62:23

अवेलेबल है उसको यूज करते हैं, बुक्स को

62:25

यूज़ करते हैं, आर्टिकल्स को यूज़ करते हैं।

62:26

सो देयर इज़ अ लॉट ऑफ़ डेटा दैट इज़

62:28

कंज्यूम्ड इन ट्रेनिंग दीज़ मॉडल्स। प्लस

62:30

ये जो मॉडल्स होते हैं इनके अंदर लार्ज

62:32

नंबर ऑफ पैराटर्स होते हैं। अगर हम वेट्स

62:34

की बात करें, अगर हम बायसेस की बात करें,

62:36

अगर हम न्यूरॉन्स की बात करें, तो ये जो

62:37

एलएलएम्स के पूरे नेटवर्क होते हैं, बहुत

62:39

बड़े-बड़े नेटवर्क्स होते हैं जिसके अंदर

62:41

बिलियंस एंड इनफैक्ट ट्रिलियंस ऑफ

62:42

पैरामीटर्स भी यूज़ हो सकते हैं। एंड दैट

62:44

इज व्हाई दीज़ मॉडल्स आर कॉल्ड लार्ज

62:46

लैंग्वेज मॉडल्स। तो जब भी हम कहते हैं कि

62:48

हम जेएनएआई को यूज़ कर रहे हैं फॉर

62:49

टेक्स्ट रिलेटेड टास्क। तो वी कैन ऑलमोस्ट

62:51

से विद श्योरिटी कि वहां पर एनएलपी एंड

62:54

एलएलएम्स को यूज किया जा रहा है। सो दैट

62:56

वी आर एबल टू जनरेट टेक्स्चुअल कंटेंट। अब

62:59

जब भी हम एलएलएम्स को यूज़ करने की बात

63:01

करते हैं ऐसा नहीं है कि सिर्फ हमने एक

63:02

सिंगल मॉडल बना लिया। एंड उसके बाद हमारा

63:04

जो मॉडल है हमारा जो एंड यूजर फेसिंग

63:05

प्रोडक्ट है वो प्रिपेयर हो जाता है।

63:07

मल्टीपल कंपनीज़ मल्टीपल डिफरेंट टेक्निक्स

63:09

होती हैं जो एलएलएम्स के साथ में एंप्लॉय

63:11

करती हैं टू मेक देम बेटर एज़ एन एंड यूजर

63:14

फेसिंग प्रोडक्ट। जैसे व्हेन ओपन एआई

63:16

क्रिएटेड चैट जीपीटी तो यह दे यूज़्ड

63:18

समथिंग कॉल्ड आरएलएचएफ व्हिच इज़

63:20

रीइंफोर्समेंट लर्निंग विथ ह्यूमन फ़ीडबैक।

63:23

बेसिकली हमें नहीं पता कि एलएलएम्स

63:25

एक्चुअली क्या आउटपुट है जिसको प्रोड्यूस

63:27

करने वाले हैं क्योंकि इतने सारे

63:28

पैरामीटर्स हो जाते हैं तो उसको कंट्रोल

63:30

करना सारी चीजों को एनालाइज़ करना इज़ नॉट

63:32

वेरी ईजी। तो ओपन एआई ने एक डेडिकेटेड टीम

63:34

रखी जो एलएलएम्स जो भी आउटपुट प्रोड्यूस

63:36

करते हैं उसको एनालाइज़ करने के लिए कि इफ

63:38

दिस आउटपुट इज़ रेलेवेंट और इफ द आउटपुट इज़

63:41

नॉन टॉक्सिक और इट इज़ सूटेबल फॉर द एंड

63:44

यूज़र्स। जैसे फॉर एग्जांपल अगर हम एलएलएम

63:45

को ट्रेन कर रहे हैं और हम उसे कहते हैं

63:47

टू टेल अस अ जोक एंड इफ इट टेल्स अस एन

63:49

ऑफेंसिव जोक जो किसी लेट्स सपोज एथेनिक

63:52

ग्रुप के अगेंस्ट जा रहा है व्हिच इज़

63:54

हर्टिंग द सेंटीमेंट्स ऑफ़ पीपल। तो हमें

63:56

ह्यूमन फीडबैक देना पड़ेगा टू द एलएलएम टू

63:58

रिमूव सच कंटेंट। तो इस तरीके से मल्टीपल

64:00

प्रोसेससेस लाइक रीइंफोर्समेंट लर्निंग

64:02

विद एडिशनल फीडबैक इज़ आल्सो समथिंग दैट

64:04

कैन बी यूज्ड इन द ट्रेनिंग ऑफ़ एलएलएम्स।

64:06

सो दिस वाज़ ऑल अबाउट एनएलपीस एंड

64:08

एलएलएम्स। अब जैसे एनएलपी इज अ फील्ड ऑफ

64:11

मशीन लर्निंग जिसके अंदर हम लैंग्वेजज़ के

64:12

साथ डील करते हैं। वैसे ही वी हैव अनदर

64:15

एआई की ब्रांच एआई की फील्ड जिसके अंदर हम

64:17

इमेजज़ के साथ हम वीडियोस के साथ डील करते

64:19

हैं। व्हिच इज़ कॉल्ड कंप्यूटर विज़न।

64:21

कंप्यूटर विज़न के अंदर वी अलाउ द

64:23

कंप्यूटरटर्स और द सिस्टम्स टू सी एंड

64:25

इंटरप्रेट इमेजज़। जैसे हम अपनी ह्यूमन आईज

64:28

से देखते हैं। तो कंप्यूटर विज़न के अंदर

64:30

जो भी डेटा होता है मेजॉरिटी डेटा जिसके

64:32

साथ डील किया जाता है वो हमारी इमेजज़ होती

64:35

हैं। वो हमारी वीडियोस होती हैं। तो

64:37

बेसिकली ये ऐसा डेटा होता है जिसको हम

64:38

रियल लाइफ के अंदर देखते हैं। तो कंप्यूटर

64:40

विज़न के अंदर सीएनएस आर वेरी पॉपुलर। हमने

64:43

पहले भी बात की थी कि कन्वोल्यूशन एंड

64:44

न्यूरल नेटवर्क्स काफी अच्छे होते हैं एट

64:46

प्रोसेसिंग इमेजेस एंड वीडियोस। तो सीएनएस

64:49

का बहुत ज्यादा रोल होता है कंप्यूटर विज़न

64:51

के अंदर। एंड कंप्यूटर विज़न इज़ अनदर

64:52

ब्रांच ऑफ़ मशीन लर्निंग जिसके अंदर

64:54

डेडिकेटेडली वी टॉक अबाउट द विजुअल्स एंड

64:56

द विजुअल इंटरप्रिटेशंस। तो कंप्यूटर विज़न

64:58

के भी काफी सारे प्रैक्टिकल रियल लाइफ

64:59

एप्लीकेशंस हैं जैसे फेस रिकॉग्निशन हो

65:01

गया या सेल्फ ड्राइविंग कार्स के अंदर भी

65:03

बहुत ज्यादा यूज़ होता है टू एक्चुअली सी द

65:05

रोड टू इंटरप्रेट कि रोड पर क्या-क्या

65:07

ऑब्जेक्ट्स हैं, वेयर आर द पेडेस्ट्रिंस।

65:09

तो इस तरीके की जो इनेशन होती है, उसको हम

65:11

कंप्यूटर विज़न के थ्रू प्रोसेस करते हैं।

65:12

सो नाउ वी हैव रेड अ पॉइंट व्हेयर वी कैन

65:14

कलनेट दिस सेशन। तो आज के सेशन के अंदर आज

65:16

के लेक्चर के अंदर हमने बहुत सारे

65:18

कॉन्सेप्ट्स के बारे में डिटेल में बात

65:19

की। वी स्टार्टेड विद आर्टिफिशियल

65:21

इंटेलिजेंस। उसके बाद हमने मशीन लर्निंग

65:23

को डिटेल में डिस्कस किया। मशीन लर्निंग

65:24

के कौन-कौन से डिफरेंट टाइप्स होते हैं?

65:26

उनके अंदर कौन सी सब प्रॉब्लम्स होती हैं

65:28

जिनको हम सॉल्व करते हैं। उसके बाद वी

65:29

डिस्कस्ड अबाउट डीप लर्निंग। डीप लर्निंग

65:31

में न्यूरल नेटवर्क्स क्या होते हैं? कैसे

65:33

ट्रेन होते हैं? व्हाट आर द डिफरेंट

65:34

आर्किटेक्चर्स एंड देन वी लर्नड अबाउट

65:36

टर्म्स लाइक जनरेटिव एआई, एनएलपी,

65:38

कंप्यूटर विज़न एंड एलएलएम्स। तो आई होप कि

65:41

आज के लेक्चर से हमें डिटेल में समझ में

65:43

आया होगा कि व्हाट एग्जैक्टली इज एi एंड

65:45

हाउ आर द डिफरेंट थिंग्स द डिफरेंट टूल्स

65:47

द डिफरेंट एल्गोरिदम्स व्हिच आर वर्किंग

65:49

इन द फील्ड ऑफ एi एंड किस तरीके से जो भी

65:52

टूल्स जो भी एप्लीकेशनेशंस को आज की डेट

65:53

में हम यूज़ कर रहे हैं जो बैक एंड में एआई

65:55

को मशीन लर्निंग को यूज़ करते हैं वो

65:57

एक्चुअली किस तरीके से वर्क करते हैं और

65:58

उनके बैक एंड में कैसा-कसा लॉजिक है जो

66:00

अप्लाई होता है। तो आई हैव ट्राइड माय

66:02

बेस्ट टू एक्सप्लेन ऑल ऑफ़ द डिफरेंट

66:03

कॉन्सेप्ट्स इन दिस शॉर्ट अमाउंट ऑफ़ टाइम।

66:05

अब इसके अलावा अगर किसी और कॉन्सेप्ट पर

66:06

हमें डेडिकेटेड सेशन चाहिए तो उसके लिए यू

66:08

कैन लेट मी नो इन द कमेंट्स। एंड उसके साथ

66:10

में यू कैन आल्सो लेट मी नो व्हाट वाज़ द

66:11

मोस्ट रेलेवेंट पार्ट फॉर यू इन टुडे

66:13

सेशन। कौन सा पार्ट है? कौन से

66:14

कॉन्सेप्ट्स हैं जिनको सीखने में आज के

66:16

सेशन में हमें सबसे ज्यादा मजा आया एंड

66:17

व्हिच वर मोस्ट यूज़फुल एंड रेलेवेंट टू

66:19

यू। यू कैन लेट मी नो अबाउट देम इन द

66:21

कमेंट टू। आज के लिए इतना ही। मिलते है

66:22

नेक्स्ट सेशन के अंदर। टिल देन कीप

66:23

लर्निंग एंड कीप एक्सप्लोरिंग।

UNLOCK MORE

Sign up free to access premium features

INTERACTIVE VIEWER

Watch the video with synced subtitles, adjustable overlay, and full playback control.

SIGN UP FREE TO UNLOCK

AI SUMMARY

Get an instant AI-generated summary of the video content, key points, and takeaways.

SIGN UP FREE TO UNLOCK

TRANSLATE

Translate the transcript to 100+ languages with one click. Download in any format.

SIGN UP FREE TO UNLOCK

MIND MAP

Visualize the transcript as an interactive mind map. Understand structure at a glance.

SIGN UP FREE TO UNLOCK

CHAT WITH TRANSCRIPT

Ask questions about the video content. Get answers powered by AI directly from the transcript.

SIGN UP FREE TO UNLOCK

GET MORE FROM YOUR TRANSCRIPTS

Sign up for free and unlock interactive viewer, AI summaries, translations, mind maps, and more. No credit card required.