"कृपया हमें स्लॉप मत कहिए" - माइक्रोस्लॉप

TThe PrimeTime
Computing/SoftwareBusiness NewsInternet Technology

Transcript

00:00:00- मेरे पास कहने के लिए दो बहुत ज़रूरी बातें हैं।
00:00:01पहली बात, इस दाढ़ी को देखो।
00:00:03ओके, मुझे किसी तरह अचानक दाढ़ी आ रही है।
00:00:06दूसरी बात, मैंने LinkedIn पर कुछ पढ़ा, ठीक है?
00:00:09मुझे माफ़ करना, लेकिन हम यहाँ हैं।
00:00:11इसे देखो।
00:00:12हमारे उद्योग के आगे आने वाले साल पर एक चिंतन।
00:00:15ये बेशक Microsoft के CEO का है।
00:00:17और अगर आप वो पत्र पढ़ें,
00:00:19तो बेशक,
00:00:19ये आगे बढ़ता है और ये मूल रूप से बस एक chat GPT inspo जैसा अनुभव है,
00:00:23जहाँ आप बस सच में बहुत बढ़िया महसूस करना चाहते हैं,
00:00:26है ना?
00:00:27एक नया कॉन्सेप्ट जो दिमाग के लिए साइकिलों को विकसित करता है।
00:00:29ताकि हम हमेशा AI को मानव क्षमता के लिए एक ढाँचे के रूप में सोचें,
00:00:33न कि विकल्प के रूप में।
00:00:35वाह यार, अरे, यो Satya, ये बहुत प्रेरणादायक है।
00:00:38यार, कितने chat GPT prompts?
00:00:40तुम्हारा prompt क्या है भाई?
00:00:41भाई, तुम्हारा prompt क्या है?
00:00:42ये तो वाकई प्रेरणा है।
00:00:44लेकिन इस सब में एक चीज़ जिसने सबकी नज़र खींची और ढेर सारे memes बनाए,
00:00:50जिसमें ये मेरा पसंदीदा है,
00:00:52Micro Slop,
00:00:53ये लाइन है।
00:00:54हमें slop बनाम sophistication की बहस से आगे बढ़ना होगा और एक नया संतुलन विकसित करना होगा theory of mind की शर्तों में,
00:00:59जो इस बात को ध्यान में रखे कि मनुष्य इन नए cognitive amplifier टूल्स से लैस हैं जब हम एक-दूसरे से संबंध रखते हैं।
00:01:05सबसे पहले तो,
00:01:06मेरा मतलब है,
00:01:06AI हमें किसी से भी relate करने में मदद नहीं कर रहा है,
00:01:08लेकिन हम इसे अलग रख सकते हैं।
00:01:09ठीक है, हम उस हिस्से को अलग रख देंगे।
00:01:11लेकिन ये विचार कि हमें बस slop की बहस से आगे बढ़ना है।
00:01:14हमें अब slop शब्द का इस्तेमाल नहीं करना चाहिए।
00:01:15अरे, slop, एक slop की ज़रूरत ही नहीं है।
00:01:17हमें ऐसा कहने की ज़रूरत नहीं है, है ना?
00:01:19सही है ना भाइयों?
00:01:20ठीक है, तो अब मैं इस समस्या को समझाने की कोशिश करूँगा।
00:01:22और मैं वास्तव में एक अलग नज़रिया दूँगा जो आमतौर पर नहीं देता।
00:01:25जिस वजह से मुझे लगता है कि हम बहुत सारे लोगों को देख रहे हैं,
00:01:28यहाँ तक कि normies को भी,
00:01:29है ना,
00:01:30tech लोग नहीं,
00:01:31बस औसत व्यक्ति कहता है,
00:01:32"ओह,
00:01:32अरे,
00:01:33वो slop है।
00:01:33"मैं अपनी पूरी कोशिश करूँगा कि क्यों मुझे लगता है कि लोग ऐसा महसूस करते हैं और यहाँ क्या हो रहा है।"
00:01:38क्योंकि मुझे इस पूरे बयान से जो मुख्य समस्या है वो ये है कि अगर कोई चीज़ सच में अच्छी है,
00:01:43तो आपको कभी किसी से उसे गाली न देने के लिए नहीं कहना पड़ा।
00:01:46जैसे कोई भी अच्छे products को किसी तरह की गाली नहीं देता,
00:01:50है ना?
00:01:50हम उन्हें refer नहीं करते।
00:01:52ऐसा कोई समूह नहीं है जो कहे,
00:01:54"ओह हाँ,
00:01:54वो बकवास चीज़ है।" जैसे,
00:01:56नहीं,
00:01:56ऐसा नहीं होता।
00:01:57इसकी वजह ये है कि व्यक्ति का उसके साथ औसत अनुभव सच में बहुत अच्छा होता है।
00:02:02और इसलिए जब Satya हमें बताने की कोशिश कर रहे हैं,
00:02:05"अरे,
00:02:05हमें ये चीज़ें कहना बंद करना होगा।" ये ऐसा है जैसे,
00:02:08क्यों न आप बस एक product दें जो सच में बहुत अच्छा हो।
00:02:11और फिर लोग ऐसा नहीं कहेंगे।
00:02:12वो कहेंगे, "ओह हाँ, हाँ, हाँ, ये वास्तव में काफी उपयोगी है।
00:02:15हाँ, उसे उपयोगी कहते हैं।
00:02:16वो उपयोगी है।
00:02:17"ये कोशिश करना मेरे दिमाग को उड़ा देता है जैसे,"
00:02:19"अरे,
00:02:20ऐसा मत करो।
00:02:20तुम ऐसा मत करो।" क्योंकि Microsoft के नज़रिए से,
00:02:23ये स्पष्ट है कि वो कहाँ जा रहे हैं,
00:02:24है ना?
00:02:25उन्होंने अभी-अभी अपने Microsoft के 360 office का नाम बदला है।
00:02:29याद है, उनका productivity suite?
00:02:32इसका नाम 360 office से बदलकर co-pilot कर दिया गया है।
00:02:34बिल्कुल सही।
00:02:35इसका मतलब है कि co-pilot ही office software suite है।
00:02:39Co-pilot वो चीज़ है जो text documents के अंदर सुझाव दे रही है।
00:02:43Co-pilot वो चीज़ है जो GitHub पर PRs बना सकती है और आपके साथ interact कर सकती है।
00:02:46Co-pilot वो auto-complete है जो आपके VS code editor के अंदर है।
00:02:50आपको क्यों लगता है कि हम नहीं चाहते कि लोग AI को गाली दें?
00:02:55ठीक है,
00:02:55हम चाहते हैं कि वो इसे एक अच्छी चीज़ के रूप में देखें।
00:02:57लेकिन हम programmers के रूप में,
00:02:59हमें इस पर खास insights होनी चाहिए,
00:03:00है ना?
00:03:01ठीक है,
00:03:01अरे,
00:03:02मेरे सभी pro AI लोगों के लिए,
00:03:03मैं यहाँ कुछ नकारात्मक भी नहीं कहने वाला।
00:03:05आप AI से सिर्फ कुछ करने के लिए नहीं कह सकते, है ना?
00:03:08जैसे आपको बहुत सारी planning करनी पड़ती है।
00:03:11आपके पास है,
00:03:11आप लोग इसे context engineering,
00:03:13prompt engineering,
00:03:14जो भी engineering चल रही है,
00:03:16कहते हैं,
00:03:16है ना?
00:03:17ये कुछ इतना सरल नहीं है जैसे,
00:03:18"अरे,
00:03:19मेरे लिए ये काम करो।" और फिर,
00:03:20क्योंकि कभी-कभी ये काम करता है,
00:03:22कभी-कभी बिल्कुल काम नहीं करता,
00:03:23है ना?
00:03:24वो समस्या का हिस्सा है।
00:03:25हम,
00:03:25जिन लोगों ने इसके साथ प्रयोग किया है,
00:03:28उस समस्या को समझते हैं।
00:03:29औसत व्यक्ति को यही अनुभव मिलता है।
00:03:32तो ये Microsoft की छोटी finder चीज़ है ताकि आप अपने system में search कर सकें।
00:03:36देखो ये क्या कहती है।
00:03:37"Try my mouse pointer is too small।" ठीक है,
00:03:40तो आप एक दादी हैं।
00:03:42आप AI के बारे में कुछ नहीं जानते।
00:03:43आप यहाँ जाएँगे और आप टाइप करेंगे,
00:03:46"My mouse pointer is too small।" क्या हुआ?
00:03:49खैर,
00:03:50आप वहाँ बैठे रहते हैं और फिर आप बैठे रहते हैं और कुछ नहीं होता।
00:03:54कुछ नहीं होता।
00:03:55ये बस वहीं बैठा रहता है।
00:03:56और तो ये वो अनुभव है जो औसत व्यक्ति को मिल रहा है।
00:03:58उन्हें Windows के औसत अनुभव में हर जगह इस तरह का घुसाया हुआ AI अनुभव मिलता है।
00:04:04और ये बस अधूरे मन से काम कर रहा है।
00:04:07कभी काम करता है।
00:04:08कभी नहीं करता।
00:04:09लोग कहते हैं, "हाँ, ये sloppy है।" Sloppy का यही मतलब है।
00:04:12हम इसे slop कह रहे हैं क्योंकि ये वही है।
00:04:16लेकिन मुझे लगता है कि इस तर्क का एक उलटा पक्ष भी है,
00:04:19जो सिर्फ ये नहीं है कि,
00:04:20"अरे,
00:04:20आपको इसे slop नहीं कहना चाहिए।
00:04:22"मुझे लगता है कि लोगों का औसत अनुभव,"
00:04:24खासकर जो लोग ज़्यादा online हैं,
00:04:26ये है कि उनके पास ये सभी thought leaders हैं,
00:04:28है ना?
00:04:29वो लगातार आपको बताते रहते हैं,
00:04:30"अरे भाई,
00:04:30तुम गलत हो।" जैसे,
00:04:31"अरे,
00:04:31मुझे पता है तुम वहाँ बैठे हो और तुमने कुछ code generate किया है।
00:04:34"और तुम कहते हो,"
00:04:35"ओह,
00:04:35ये सच में अच्छा था।
00:04:36ठीक है, ये सच में बुरा था।
00:04:37ठीक है,
00:04:37मुझे सच में ये इन कारणों से पसंद नहीं है,
00:04:38लेकिन मुझे ये इन कारणों से पसंद है,
00:04:39" है ना?
00:04:40जैसे आपकी एक सूक्ष्म,
00:04:41सामान्य राय है क्योंकि आप सूक्ष्म और सामान्य हैं।
00:04:44लेकिन फिर आप Twitter पर ये सारी चीज़ें देखते हैं जो लगातार आपको बता रही हैं,
00:04:48"यार भाई,
00:04:48ये अंत है।
00:04:49हे भगवान।
00:04:50देखो एक साल का काम एक घंटे में हो गया।
00:04:53"तो लोगों की उम्मीदें बस इतनी बेतुकी हैं।"
00:04:56और मुझे लगता है कि मेरे पूरे जीवनकाल में इस tweet से बदतर कोई उदाहरण नहीं रहा है।
00:05:03मैं इसे आपके लिए पढ़ूँगा।
00:05:04"मैं मज़ाक नहीं कर रहा।
00:05:05ये मज़ाकिया नहीं है।" ठीक है, गंभीर tweet लोग।
00:05:08हम नहीं कर रहे...
00:05:09अरे, ये कोई हल्की-फुल्की बात नहीं है, ठीक है?
00:05:10ये बड़ी बात है।
00:05:11"हम पिछले साल से Google में distributed agent orchestrators बनाने की कोशिश कर रहे हैं।
00:05:15कई विकल्प हैं और हर कोई aligned नहीं है।
00:05:18मैंने Claude code को समस्या का description दिया।
00:05:20इसने जो हमने पिछले साल बनाया था वो एक घंटे में generate कर दिया।
00:05:23"तो स्पष्ट रूप से,"
00:05:24आप वहाँ क्या पढ़ते हैं?
00:05:26आप दो चीज़ें पढ़ते हैं।
00:05:27एक,
00:05:28ये principal engineer और उनका group A होना चाहिए,
00:05:32अक्षम क्योंकि कई लोगों ने एक साल बिताया और इसे Claude में एक घंटे में reproduce कर दिया गया।
00:05:38ठीक है, तो मुझे कहना होगा, भाई, ये थोड़ा पागलपन है।
00:05:42ऐसा लगता है जैसे...
00:05:43Google में किस तरह की अक्षमता चल रही है?
00:05:45मुझे पता है कि Google अब engineering का वो गढ़ नहीं रहा जो कभी था,
00:05:48लेकिन ये सही नहीं हो सकता,
00:05:49है ना?
00:05:50जैसे इसे इस तरह नहीं पढ़ा जा सकता।
00:05:51बेशक,
00:05:52इसे पढ़ने का दूसरा तरीका ये है कि Claude code इतना amazing है।
00:05:57शाब्दिक रूप से इसे समस्या का थोड़ा सा description दिया और bada-bing,
00:06:01bada-boom।
00:06:02आपका पूरे साल का प्रयास एक घंटे में और शायद 50 डॉलर के tokens में हल हो गया।
00:06:09अब ये tweet अकेले,
00:06:10मैं उस घबराहट और समस्याओं की मात्रा की कल्पना नहीं कर सकता जो मुझे हुई है,
00:06:14मेरे पास वास्तव में इस एक चीज़ की वजह से कई लोगों ने संपर्क किया है और मुझसे सवाल पूछे हैं,
00:06:19क्या अभी भी सीखना सुरक्षित है?
00:06:21जैसे मुझे शायद सीखना बंद कर देना चाहिए, है ना?
00:06:23मुझे बस vibe code करना चाहिए।
00:06:24मुझे ये करना छोड़ देना चाहिए क्योंकि जाहिर है ये अब तक की सबसे अच्छी चीज़ है।
00:06:26जैसे ये tweet लोगों के करियर और ज़िंदगियाँ बर्बाद कर देता है।
00:06:30इस tweet की सबसे बुरी बात, 28 घंटे बाद, हमें ये मिलता है।
00:06:34इस विषय पर शोर को काटने के लिए,
00:06:36कुछ और संदर्भ देना मददगार है।
00:06:38हाँ, ओह, ठीक है, ठीक है, ठीक है।
00:06:40शायद पहले का tweet उतना सटीक नहीं था जितना हमें विश्वास दिलाया गया था।
00:06:44हमने पिछले साल system के कई versions बनाए हैं।
00:06:46Trade-offs हैं और कोई स्पष्ट विजेता नहीं रहा है।
00:06:49जब सबसे अच्छे ideas के साथ prompted किया जाता है जो बचे रहे,
00:06:51coding agents बहुत दूर जाने में सक्षम होते हैं और एक घंटे या उसके आसपास में एक अच्छा,
00:06:55सभ्य toy version generate कर लेते हैं।
00:06:57ठीक है, तो अब ये एक घंटा नहीं है।
00:07:00ये डेढ़ घंटा हो सकता है।
00:07:01ये 45 मिनट हो सकता है।
00:07:02ये बस कुछ समय की अवधि है।
00:07:03ठीक है,
00:07:04समय सीमा थोड़ी बदल जाती है,
00:07:06लेकिन ज्यादातर एक अच्छा खिलौना संस्करण।
00:07:08जब मैं खिलौना संस्करण सुनता हूं,
00:07:09तो मुझे वो नहीं सुनाई देता जो मैंने पिछले साल बनाया था।
00:07:11मुझे उस चीज़ की एक छाया सुनाई देती है जो बनाई गई थी,
00:07:14कुछ ऐसा जो उसकी तरह दिखता है,
00:07:16लेकिन बिल्कुल भी उसके जैसा नहीं है।
00:07:18इसके अलावा,
00:07:19उन बेहतरीन विचारों के साथ जो बचे रहे,
00:07:21तो मुझे यह सीधा समझने दो,
00:07:23न केवल समस्या का विवरण,
00:07:24तो तुम यहां तक कि नहीं,
00:07:26पूरी चीज़ झूठ थी,
00:07:27है ना?
00:07:28क्योंकि तुमने समस्या का विवरण कहा था।
00:07:29मैंने बस उन्हें विवरण दिया।
00:07:30नहीं,
00:07:31तुमने उसे ढेर सारे विचार दिए जिन पर तुमने एक साल तक शोध किया था।
00:07:35तुम शायद इस सब के बारे में एक वाकई शानदार तकनीकी दस्तावेज़ लेकर आए और फिर उसे क्लाउड कोड में डाला और फिर ऐसा था,
00:07:40हे भगवान,
00:07:41इसने कुछ वैसा ही बनाया जैसा हमने कहा था कि इसे बनाना चाहिए और इसने इसका एक खिलौना संस्करण बनाया।
00:07:46बस इस तरह की चीजें मुझे AI से नफरत करवा देती हैं, है ना?
00:07:50और ऐसा इसलिए नहीं है कि AI बढ़िया नहीं है या कुछ भी नहीं,
00:07:52टेक्स्ट जनरेशन,
00:07:53सब बहुत शानदार है।
00:07:53मेरा मतलब है, गंभीरता से, उस Vim लोगो को देखो, ठीक है?
00:07:56अब जिसके लिए एक जंगल जला दिया, लेकिन यह ओवरसेलिंग है।
00:08:02और इसलिए इसका मतलब है कि हर बार जब मैं AI का उपयोग करता हूं,
00:08:06तो मेरी उम्मीद इतनी ऊंची होती है,
00:08:08लेकिन मेरी वास्तविकता इतनी अलग होती है।
00:08:11मैंने हाल ही में लगातार नौ घंटे वाइब कोडिंग की है,
00:08:13बस इस CloudFlare शुरुआती एप्लिकेशन को फिर से बनाने की कोशिश में।
00:08:17एक, एक वर्कर और एक कंटेनर।
00:08:19मैंने इस पर लगभग 75 से $100 खर्च किए हैं।
00:08:22नौ घंटों में से,
00:08:23मुझे कुछ ऐसा मिला जो शायद 15 मिनट में बनाया जा सकता था अगर आप परिचित हैं।
00:08:27और हां,
00:08:27प्रॉम्प्ट की समस्याएं,
00:08:28मैं प्लानिंग का उपयोग कर रहा था,
00:08:30मैं Opus 4.5 Max का उपयोग कर रहा था।
00:08:32मैं वाकई बहुत सारे सवाल पूछ रहा था।
00:08:34यह कई बार पटरी से उतर गया।
00:08:36तुम्हें पता है, शायद मैं गलत काम कर रहा था, जो भी हो।
00:08:39इससे कोई फर्क नहीं पड़ता।
00:08:40मैंने कुछ किया और मुझे एक ठीक-ठाक परिणाम मिला।
00:08:42इसके कुछ हिस्से थे जो मुझे वाकई पसंद आए।
00:08:44कुछ हिस्से थे जो मुझे पसंद नहीं आए।
00:08:45CloudFlare के कुछ ऐसे हिस्से हैं जिनसे मैं परिचित नहीं हूं और जिसने मुझे लगभग एक घंटे की रिसर्च बचाई।
00:08:50कुछ ऐसे हिस्से थे जिनसे मैं परिचित था और इसने बस भयानक काम किया।
00:08:53और इसलिए यह ऐसा है, अरे, वो एक अच्छा अनुभव था।
00:08:55मैंने बहुत कुछ सीखा।
00:08:56मैं इसके बारे में और चीजें जानता हूं,
00:08:58लेकिन यह ऐसा नहीं था,
00:08:59हे भगवान,
00:08:59इसने वह सब कुछ किया जो मैंने एक साल में किया और इसने सब कुछ पूरी तरह से मिटा दिया।
00:09:03यह ऐसा है, अरे, कुछ तेज किनारे हैं।
00:09:05कुछ अच्छे हिस्से हैं।
00:09:06कुछ अच्छे हिस्से नहीं हैं।
00:09:07मुझे बस यह समझ नहीं आता कि लोग इसे कुछ शानदार के रूप में बेचने की कोशिश क्यों करते रहते हैं।
00:09:12यह सचमुच इतने सारे लोगों को चीजों को घटिया कहना बंद करवा देगा और बस कहेंगे,
00:09:16ओह हां,
00:09:16हां,
00:09:17आपको उसके बारे में सावधान रहना होगा,
00:09:19है ना?
00:09:19जैसे हां,
00:09:20हम इसके बारे में सामान्य रूप से बात करेंगे अगर हमें लगातार हाइप नहीं मिलता।
00:09:24मैं इससे बहुत तंग आ गया हूं कि मेरी उम्मीदें यहां हैं और मेरी वास्तविकता यहां है।
00:09:29वैसे भी, मैं बस इस बारे में बोलना चाहता था।
00:09:30मुझे माफ करना।
00:09:31मैं पूरी चीज़ से निराश महसूस कर रहा हूं क्योंकि मुझे ऐसा लगता है कि Twitter पर ये पिछले दो हफ्ते मेरे पूरे जीवनकाल में Claude code की सबसे पागल मात्रा में चमकाने के अलावा कुछ नहीं रहे हैं।
00:09:42मैंने TUI ऐप का उपयोग किया।
00:09:43बस ऐसा था,
00:09:43मेरा मतलब है,
00:09:44मुझे इसमें इतने सारे छोटे बग्स का सामना करना पड़ा,
00:09:46जो चौंकाने वाला भी है।
00:09:47फ्लिकरिंग,
00:09:47अल्ट्रा थिंक वास्तव में अल्ट्रा थिंक को इंद्रधनुष के साथ ठीक से रंगना भी नहीं।
00:09:52यह बस, यार।
00:09:54मेरा मतलब है,
00:09:54वो तो भी नहीं हैं,
00:09:55मेरा मतलब है,
00:09:56यहां क्या हो रहा है?
00:09:57अगर AGI आ गया है,
00:09:58तो मुझे एक काम करने वाला TUI ऐप चाहिए,
00:10:00ठीक है?
00:10:01स्क्रॉल, स्क्रॉल ठीक से काम भी नहीं करता।
00:10:03कंट्रोल O ठीक से काम नहीं करता।
00:10:05आप कंट्रोल O से खोल या विस्तार नहीं कर सकते।
00:10:07मेरा मतलब है,
00:10:08बस इतनी सारी समस्याएं थीं,
00:10:09लेकिन फिर से,
00:10:10यह मेरी ओर से कौशल की समस्याएं हो सकती हैं।
00:10:12नाम ही कौशल की समस्या है, विजिन।
00:10:15इसके अलावा, क्या आपने एक बात देखी है?
00:10:17कम्युनिस्ट और वे लोग जो AI के बारे में बेहद उत्साहित हैं,
00:10:21हमेशा एक जैसा क्यों बोलते हैं?
00:10:23वे हमेशा ऐसे होते हैं,
00:10:24ओह,
00:10:24खैर,
00:10:24आपने वास्तव में इसे सही नहीं किया।
00:10:26देखो समस्या यह थी कि आपने वास्तव में,
00:10:28देखो आपने इसे सही नहीं किया।
00:10:29यह बस ऐसा है,
00:10:30ठीक है,
00:10:30हम सभी यहां 'कोई सच्चा स्कॉट्समैन नहीं' वाले हैं।
00:10:32मुझे यह एहसास नहीं था।
00:10:33हर बुरा अनुभव एक 'कोई सच्चा स्कॉट्समैन नहीं' है।
00:10:35हर अच्छा अनुभव है,
00:10:36हां,
00:10:36इसीलिए सभी हारने वाले पीछे छूट रहे हैं।
00:10:39मुझे समझ नहीं आता।
00:10:40मुझे नहीं पता।
00:10:40अतिरिक्त के लिए खेद है, बाय बाय।
00:10:42अरे, क्या आप कोड करना सीखना चाहते हैं?
00:10:43क्या आप एक बेहतर बैकएंड इंजीनियर बनना चाहते हैं?
00:10:45खैर, आपको boot.dev देखना होगा।
00:10:47अब, मैंने व्यक्तिगत रूप से उनसे कुछ कोर्स बनाए हैं।
00:10:49मेरे पास लाइव वॉकथ्रू हैं,
00:10:51YouTube पर पूरे कोर्स के मुफ्त उपलब्ध,
00:10:53boot.dev पर सब कुछ।
00:10:54आप मुफ्त में जा सकते हैं,
00:10:56लेकिन अगर आप गेमीफाइड अनुभव चाहते हैं,
00:10:58अपनी सीख की ट्रैकिंग और वह सब,
00:10:59तो आपको पैसे देने होंगे,
00:11:01लेकिन अरे,
00:11:01उन्हें देखें।
00:11:02यह शानदार है।
00:11:03किसी भी कंटेंट क्रिएटर्स के लिए जिन्हें आप जानते हैं और पसंद करते हैं,
00:11:06वहां कोर्स बनाएं,
00:11:07boot.dev/prime पर 25% की छूट के लिए।

Key Takeaway

AI टूल्स की अत्यधिक मार्केटिंग और वास्तविकता के बीच भारी अंतर है, जहां कंपनियां उपयोगकर्ताओं को 'slop' शब्द न बोलने के लिए कहती हैं बजाय वास्तव में बेहतर उत्पाद बनाने के

Highlights

Microsoft के CEO ने LinkedIn पर 'slop' शब्द का उपयोग न करने की अपील की, जो AI-जनित सामग्री की खराब गुणवत्ता को दर्शाता है

एक Google इंजीनियर ने दावा किया कि Claude Code ने एक साल का काम एक घंटे में कर दिया, लेकिन बाद में स्पष्ट किया कि यह केवल 'toy version' था

AI टूल्स की अत्यधिक मार्केटिंग और हाइप वास्तविक उपयोगकर्ता अनुभव से मेल नहीं खाती, जिससे निराशा होती है

Microsoft ने Office 365 का नाम बदलकर Copilot कर दिया, जो AI को हर जगह एकीकृत करने की रणनीति दर्शाता है

स्पीकर ने CloudFlare ऐप बनाने में 9 घंटे और $75-100 खर्च किए, जबकि मैन्युअल रूप से यह 15 मिनट में हो सकता था

AI उत्साही लोग हमेशा असफलताओं को 'गलत उपयोग' बताते हैं, जबकि सफलताओं को क्रांतिकारी मानते हैं

वास्तविक AI अनुभव में बग्स, असंगत परिणाम और अधूरे कार्यान्वयन शामिल हैं, जो प्रचारित क्षमताओं से बहुत दूर हैं

Timeline

Microsoft CEO का 'Slop' पर विवादास्पद बयान

वीडियो की शुरुआत Microsoft के CEO सत्य नडेला के LinkedIn पोस्ट पर प्रतिक्रिया से होती है, जहां उन्होंने AI को 'मानव क्षमता के लिए ढांचा' बताया और 'slop versus sophistication' की बहस से आगे बढ़ने की बात कही। स्पीकर इस पोस्ट को ChatGPT-जनित और अत्यधिक प्रेरणादायक भाषा से भरा बताता है। सबसे विवादास्पद हिस्सा यह है कि Microsoft लोगों से AI-जनित सामग्री को 'slop' (घटिया/बेकार) न कहने की अपील कर रहा है। यह बयान 'Micro Slop' जैसे मीम्स को जन्म देता है और दर्शाता है कि कंपनी उत्पाद सुधारने की बजाय धारणा बदलने पर ध्यान केंद्रित कर रही है।

अच्छे उत्पादों को बचाव की जरूरत नहीं पड़ती

स्पीकर एक महत्वपूर्ण तर्क देता है कि यदि कोई उत्पाद वास्तव में अच्छा होता है, तो कभी किसी को यह कहने की जरूरत नहीं पड़ती कि 'इसे गाली मत दो'। अच्छे उत्पादों का औसत उपयोगकर्ता अनुभव इतना बेहतरीन होता है कि लोग स्वाभाविक रूप से उनकी प्रशंसा करते हैं। Microsoft को लोगों से 'slop' शब्द न बोलने के लिए कहने की बजाय ऐसा उत्पाद बनाना चाहिए जो वास्तव में उपयोगी हो। यह रुख दर्शाता है कि कंपनी को पता है कि उनका AI अनुभव संतोषजनक नहीं है, इसलिए वे भाषा बदलने की कोशिश कर रहे हैं न कि समस्या को सुलझाने की।

Microsoft की Copilot रणनीति और वास्तविक अनुभव

Microsoft ने अपने Office 365 का नाम बदलकर Copilot कर दिया है, जो दर्शाता है कि AI अब उनके सभी उत्पादों का केंद्र है। Copilot हर जगह है - text documents में, GitHub PRs में, VS Code में। स्पीकर एक व्यावहारिक उदाहरण देता है जहां Windows search में 'my mouse pointer is too small' टाइप करने पर कुछ नहीं होता - सिस्टम बस लोड होता रहता है। यह औसत उपयोगकर्ता का वास्तविक अनुभव है - AI हर जगह है लेकिन असंगत रूप से काम करता है, कभी ठीक तो कभी बिल्कुल नहीं। इसीलिए लोग इसे 'sloppy' (लापरवाह) कहते हैं क्योंकि यह वास्तव में वैसा ही है।

Google इंजीनियर का विवादास्पद Tweet और उसका सच

एक Google Principal Engineer ने tweet किया कि Claude Code ने एक घंटे में वह काम कर दिया जो उनकी टीम ने पूरे साल में किया था। यह tweet दो तरह से पढ़ा जा सकता है - या तो Google टीम अक्षम है, या Claude Code अविश्वसनीय रूप से शक्तिशाली है। इस tweet ने कई लोगों में घबराहट पैदा की कि क्या उन्हें प्रोग्रामिंग सीखना बंद कर देना चाहिए। हालांकि, 28 घंटे बाद स्पष्टीकरण आया कि वास्तव में उन्होंने केवल 'toy version' बनाया था, न कि पूरा सिस्टम, और उन्होंने सिर्फ समस्या का विवरण नहीं बल्कि पूरे साल के शोध के सभी विचार दिए थे। यह दर्शाता है कि मूल tweet कितना भ्रामक और अतिरंजित था।

AI की Overselling और वास्तविकता का अंतर

स्पीकर बताता है कि AI की सबसे बड़ी समस्या overselling है - लोग लगातार 'एक साल का काम एक घंटे में' जैसे दावे करते हैं जो उम्मीदें बहुत ऊंची कर देते हैं। Twitter पर thought leaders लगातार यह बताते रहते हैं कि यह सब कुछ बदल देगा। स्पीकर अपना व्यक्तिगत अनुभव साझा करता है जहां उसने CloudFlare ऐप बनाने में 9 घंटे और $75-100 खर्च किए, जबकि मैन्युअली यह 15 मिनट में हो सकता था। उसने Opus 4.5 Max और planning का उपयोग किया, फिर भी परिणाम मिश्रित थे - कुछ अच्छा, कुछ बुरा। यह वास्तविक AI अनुभव है - न तो पूरी तरह बेकार, न ही चमत्कारिक।

Claude Code TUI की समस्याएं और AGI का मिथक

स्पीकर ने Claude Code के TUI (Terminal User Interface) ऐप में कई बग्स का अनुभव किया - flickering, रंग समस्याएं, scroll और Control+O ठीक से काम नहीं करते। यह विडंबना है कि लोग AGI (Artificial General Intelligence) आने की बात करते हैं, लेकिन एक बुनियादी TUI ऐप भी ठीक से काम नहीं करता। स्पीकर को दो हफ्तों में Twitter पर Claude Code की अभूतपूर्व मात्रा में 'polish' (चमकाना/प्रचार) दिखाई दी, जबकि वास्तविक अनुभव बहुत अलग था। यह दर्शाता है कि AI उत्पादों की मार्केटिंग और वास्तविकता में कितना बड़ा अंतर है।

'No True Scotsman' तर्क और निष्कर्ष

स्पीकर एक पैटर्न की ओर इशारा करता है कि AI उत्साही लोग और कम्युनिस्ट एक जैसी भाषा का उपयोग करते हैं - हर बुरा अनुभव 'आपने इसे सही नहीं किया' के रूप में खारिज कर दिया जाता है ('No True Scotsman' fallacy)। वहीं हर अच्छा अनुभव इस बात का सबूत है कि 'सभी हारने वाले पीछे छूट रहे हैं'। स्पीकर चाहता है कि लोग AI के बारे में सामान्य रूप से बात करें - न अति-आलोचनात्मक, न अति-उत्साही। यदि कंपनियां लगातार हाइप करना बंद कर दें और वास्तविक, उपयोगी उत्पाद बनाएं, तो लोग स्वाभाविक रूप से 'slop' जैसे शब्दों का उपयोग करना बंद कर देंगे। वीडियो Boot.dev के प्रायोजन के साथ समाप्त होता है।

Community Posts

View all posts