मई 2023 में, Google के एसईओ के ऑफ़िस आवर्स वाले सेशन की ट्रांसक्रिप्ट

यह ट्रांसक्रिप्ट, मई 2023 में, Google के एसईओ के ऑफ़िस आवर्स वाले सेशन की है. अगर आपको अपनी साइट के लिए कोई मदद चाहिए, तो हमारा सुझाव है कि Google Search Central के सहायता समुदाय में अपना सवाल पोस्ट करें.

डुई: खोलिज़ियो ने पूछा: अगर किसी डोमेन पर जुर्माना लगाया जाता है, तो क्या इससे उस डोमेन पर आउटबाउंड लिंक पर असर पड़ता है?

मुझे लगता है कि 'जुर्माना' लगाने का मतलब है कि हमारे स्पैम एल्गोरिदम या मैन्युअल ऐक्शन से डोमेन का दर्जा कम कर दिया गया है. आम तौर पर, हम उन साइटों के लिंक पर भरोसा नहीं करते, जिनके बारे में हमें पता है कि वे स्पैम हैं. इससे हमें अपने ऐंकर सिग्नल की क्वालिटी बनाए रखने में मदद मिलती है.

क्या अलग-अलग यूआरएल टेस्टिंग टूल में नतीजे अलग-अलग तरह से जनरेट होते हैं?

मार्टिन: ऐलन एडमंड्स का सवाल है: क्या यूआरएल जांचने वाले टूल से रेंडर किए गए एचटीएमएल टैब और ज़्यादा बेहतर नतीजों (रिच रिज़ल्ट) को जांचने वाले टूल से रेंडर किए गए एचटीएमएल टैब में मौजूद नतीजे अलग-अलग तरह से जनरेट होते हैं?

आम तौर पर, दोनों एक ही तरह जनरेट होते हैं. हालांकि, इन्हें दो तरीकों से बनाया जा सकता है: Google Search Console में "क्रॉल किया गया पेज देखें" टैब का इस्तेमाल करते समय, इंडेक्स की जा रही पाइपलाइन या Google Search Console में लाइव टेस्ट इस्तेमाल करके या रिच रिज़ल्ट टेस्टिंग टूल में लाइव टेस्ट करके. दोनों लाइव टेस्ट में कैश मेमोरी में सेव होने की प्रोसेस पूरी नहीं की जाती. ऐसा इसलिए, ताकि यह पता चल सके कि पेज का मौजूदा वर्शन किस तरह रेंडर होगा. इसलिए, इसे कैश मेमोरी में सेव नहीं किया जाता और कैश मेमोरी में सेव न होने से पर टाइम आउट हो सकते हैं, जिनसे रेंडर किए गए आउटपुट पर असर पड़ेगा. ये टाइम आउट कहां होते हैं या अगर ये टाइम आउट होते हैं, तो उस आधार पर आपको अलग-अलग रेंडर किए गए एचटीएमएल मिल सकते हैं. हालांकि, इन्हें हमारे इन्फ़्रास्ट्रक्चर के ज़रिए एक जैसे पाथ का इस्तेमाल करके बनाया जाता है.

क्या डायरेक्ट्री और सोशल बुकमार्किंग साइट पर सबमिट किए जाने वाले ऑफ़ पेज एसईओ की कोई अहमियत है?

गैरी: शांतनु का सवाल है: क्या डायरेक्ट्री और सोशल बुकमार्किंग साइट पर सबमिट किए जाने वाले ऑफ़ पेज एसईओ की कोई अहमियत है?

मुझे यह सवाल पसंद आया, क्योंकि इसने मुझे उस समय की याद दिलाई जब 15 साल पहले मैं एसईओ का काम कर रहा था! कम शब्दों में कहें, तो मैं अपना समय डायरेक्ट्री सबमिशन और सोशल बुकमार्किंग में खराब नहीं करूंगा. शायद आप उन चीज़ों पर समय बर्बाद कर रहे हैं जो आपके बिलकुल काम की नहीं हैं.

मेरी साइट पर, कलेक्शन वाले पेजों को noindex के तौर पर शामिल क्यों नहीं किया गया है?

जॉन: मेरी साइट पर कलेक्शन वाले पेजों को noindex के तौर पर शामिल क्यों नहीं किया गया है?

मैंने उस साइट को देखा है जिसे आपने दोबारा देखने के लिए कहा था. कम शब्दों में कहें, तो इसकी वजह आपकी साइट पर पेजिनेटेड कैटगरी वाले पेजों का होना है. साथ ही, इनमें noindex रोबोट <meta> टैग शामिल है. इस तरह की चीज़ों के लिए, मैं Search Console में दिए गए सटीक यूआरएल की मदद लेता हूं. इसे जांचने का सबसे आसान तरीका है कि आप ब्राउज़र में पेज खोलकर व्यू सोर्स का इस्तेमाल करें. इसके बाद, रोबोट <meta> टैग ढूंढने के लिए "robots" का इस्तेमाल करें और Googlebot <meta> टैग खोजने के 'googlebot' इस्तेमाल करें. कुछ पेजों में इन दोनों में से कई टैग हो सकते हैं. आपके मामले में, मुझे पता चला है कि आपके पास दो अलग-अलग रोबोट <meta> टैग हैं और दूसरे में noindex है. बेहतर मामलों में, आपको Chrome में मोबाइल एम्युलेशन का इस्तेमाल करना चाहिए. साथ ही, लोड हो चुके DOM को देखने के लिए, डेवलपर टूल में जांच करने वाले एलिमेंट का इस्तेमाल करें या Search Console की यूआरएल जांचने की सुविधा इस्तेमाल करें. इस मामले में, मुझे लगता है कि आपकी साइट के ई-कॉमर्स प्लैटफ़ॉर्म में कोई प्लगिन या सेटिंग है जिसकी वजह से ऐसा हो रहा है और शायद इसे ऐसा ही रखना आपके लिए सही है.

डुई: किसी ने पूछा है: मेरी साइट के लिंक रशियन वेबसाइटों से आए हैं - मैं इन लिंक को कैसे ब्लॉक करूं? मुझे लगता है कि वे खोज नतीजों में साइट की रैंकिंग कम करके, मेरी साइट को नुकसान पहुंचाना चाहते हैं.

आम तौर पर, हमारे एल्गोरिदम इंटरनेट पर मौजूद स्पैम या खराब लिंक को पहचानने और अनदेखा करने में बहुत अच्छी भूमिका निभाते हैं. कुछ मामलों में, स्पैम या खराब लिंक बड़ी संख्या में मौजूद हो सकते हैं. आपको उनके बारे में चिंता करने की ज़रूरत नहीं है. आप बस हमारे सिस्टम को अपना काम करने दें और अपनी वेबसाइट को बेहतर बनाने पर ध्यान दें.

क्या किसी वेबसाइट का बैकएंड, रैंकिंग के लिए ज़रूरी है?

मार्टिन: ऐशरैख ने पूछा है: क्या किसी वेबसाइट का बैकएंड, रैंकिंग के लिए ज़रूरी है? उदाहरण के लिए, क्या इससे फ़र्क़ पड़ता है कि एचटीएमएल रेंडर करने के लिए हम WordPress या पसंद के मुताबिक बनाया गया कॉन्टेंट मैनेजमेंट सिस्टम या किसी खास प्रोग्रामिंग भाषा का इस्तेमाल कर रहे हैं?

नहीं, आम तौर पर इससे कोई फ़र्क़ नहीं पड़ता है. हालांकि, बैकएंड की परफ़ॉर्मेंस और व्यवहार से फ़र्क़ पड़ता है. उदाहरण के लिए, अगर आपका सर्वर कुछ ज़्यादा ही धीमा है, तो इससे रैंकिंग पर कुछ असर पड़ सकता है.

क्या आपको स्निपेट के लिए एक से ज़्यादा साइट के नाम की अनुमति देनी है?

जॉन: मैडलिन ने पूछा है: क्या आपको स्निपेट के लिए एक से ज़्यादा साइट के नाम (उदाहरण के लिए, रूट डोमेन और सबडोमेन के लिए) की अनुमति देनी है?

साइट के नाम वाले अपने दस्तावेज़ों में हमने बताया है कि यह सुविधा सिर्फ़ डोमेन नेम के लिए है, सबडोमेन के लिए नहीं. हालांकि, आने वाले समय में होने वाले बदलावों के बारे में कुछ कहा नहीं जा सकता. कुछ बदलावों के बाद, टीम में शामिल लोग समस्या हल करने के लिए उसके हिस्से पर काम करते हैं. इसके बाद, आकलन करके यह देखा जाता है कि वह कैसे काम कर रही है और फिर वहां से समस्या हल करने की प्रोसेस को आगे बढ़ाया जाता है. हालांकि, हम भविष्य में होने वाले बदलावों के बारे में अभी वादा नहीं कर सकते.

क्या मेरे 16,000 पेजों को इंडेक्स करने में छह महीने से ज़्यादा का समय लगेगा?

गैरी: टॉम बेकर ने पूछा है: क्या मेरे 16,000 पेजों को इंडेक्स करने में छह महीने से ज़्यादा का समय लगेगा? मुझे हर हफ़्ते शायद 5 से 15 पेजों की बढ़ोतरी दिखती है और यह रफ़्तार मुझे धीमी लगती है.

किसी साइट को कितनी तेज़ी से इंडेक्स किया जाता है, यह कई चीज़ों पर निर्भर करता है. हालांकि, इनमें सबसे ज़रूरी है साइट की क्वालिटी और फिर इंटरनेट पर उस साइट की लोकप्रियता. एक बार जब आप यह पक्का कर लें कि आपके हिसाब से आपका कॉन्टेंट सबसे अच्छी क्वालिटी का है, तो सोशल मीडिया पर अपने कॉन्टेंट का प्रमोशन करें. इससे, शायद लोग आपकी साइट के बारे में बात करना शुरू कर देंगे. इससे मदद मिल सकती है.

क्या स्थायी लिंक में, छोटा रूप डालना बेहतर होता है, जैसे कि यूआरएल में "-will-not-" की जगह "-wont-" इस्तेमाल करना बेहतर है?

जॉन: माइकल का सवाल है: क्या स्थायी लिंक में, छोटा रूप डालना बेहतर होता है, जैसे कि यूआरएल में "-will-not-" की जगह "-wont-" इस्तेमाल करना बेहतर है? "Wont" का असल मतलब कुछ और है, लेकिन आम तौर पर don't के लिए "-do-not-" या "-dont-" किसका इस्तेमाल करना सबसे सही तरीका है?

इससे कोई फ़र्क़ नहीं पड़ता. आम तौर पर, यूआरएल में मौजूद शब्दों का Search पर न के बराबर असर पड़ता है. मैं आपको शब्दों को लिखने का एक जैसा तरीका अपनाने का सुझाव दूंगा, ताकि आप एक पेज को गलती से अलग-अलग तरह लिंक न कर दें. इसके अलावा, शब्दों से कोई खास असर नहीं पड़ता और एक साइट पर यूआरएल बदलना एक बहुत बड़ा काम होता है, इसलिए मैं साइट के यूआरएल को एसईओ के उस डावांडोल वादे की वजह से बदलने का सुझाव नहीं दूंगा जो शायद कहीं आपने पढ़ा हो.

अगर इमेज यूआरएल में कई लेवल हैं, तो Googlebot के लिए इमेज को क्रॉल और इंडेक्स करना मुश्किल होता है?

मार्टिन: अमन का सवाल है: अगर इमेज यूआरएल में कई लेवल हैं, तो Googlebot के लिए इमेज को क्रॉल और इंडेक्स करना मुश्किल होता है? उदाहरण के लिए, https://www.abc.com/ab/cd/content/category/image/hires/imagefilename.jpg

अच्छी खबर यह है कि इससे कोई फ़र्क़ नहीं पड़ता.

गैरी: पहचान छिपाकर सवाल पूछा गया है: स्पैम वाले बहुत सारे बैकलिंक मेरी वेबसाइट पर रीडायरेक्ट होते हैं. इन्हें कैसे रोकें?

आसान: आप उन पर ध्यान न दें. इंटरनेट काफ़ी बड़ा है और आपको उस जगह से लिंक मिल सकते हैं जो इंटरनेट के बुरे हिस्से से हैं. हम 25 सालों से इस तरह के लिंक से निपट रहे हैं और हम उन्हें नज़रअंदाज़ करने में माहिर हो चुके हैं. इसलिए, मैं इन्हें नज़रअंदाज़ करता हूं. अगर वे आपको परेशान करते हैं, तो Search Console में लिंक अनदेखा करने वाले टूल का इस्तेमाल किया जा सकता है.

क्या यह मुमकिन है कि Google Search Console मुझे गलत क्वेरी दिखाए?

जॉन: अलेक्सिस ने पूछा है: क्या यह संभव है कि Google Search Console मुझे गलत क्वेरी दिखाए?

जब आपकी साइट को किसी खास क्वेरी के लिए दिखाया जाता है, तब Search Console में परफ़ॉर्मेंस डेटा इकट्ठा किया जाता है. यह डेटा थिअरी के बजाय इस बात पर आधारित है कि खोज के समय लोगों को कौनसे नतीजे दिखाए गए थे. जब मुझे कोई ऐसा डेटा दिखता है जो मुझे समझ नहीं आता, तो मैं खास जानकारी को खोजने के लिए रिपोर्ट की सेटिंग को सीमित करता हूं. क्या यह किसी एक देश में हुआ था? या शायद खोज के खास टाइप की वजह से? क्या ऐसा बहुत कम समय में हुआ था? कभी-कभी इस खास जानकारी की वजह से खोज के नतीजों को फिर से जनरेट किया जा सकता है. हालांकि, ऐसा भी हो सकता है कि यह कुछ और हो जिसे अब दिखाया न जाता हो या फिर यह समय-समय पर ही दिखाया जाए. कभी-कभी यह किसी मज़ेदार पहेली की तरह लगता है और कभी-कभी आपको यह मानना पड़ता है कि फ़िलहाल इन्हें दोबारा जनरेट नहीं किया जा सकता.

सर्च इंजन के लिए सर्वर साइड रेंडरिंग की मदद से पूरा एचटीएमएल पेज डिलीवर करना और उपयोगकर्ताओं के लिए क्लाइंट-साइड रेंडरिंग का इस्तेमाल करना. क्या यह ठीक है?

मार्टिन: मैडलिन का सवाल है: सर्च इंजन के लिए सर्वर साइड रेंडरिंग (एसएसआर) की मदद से पूरा एचटीएमएल पेज डिलीवर करते हैं और उपयोगकर्ताओं के लिए क्लाइंट-साइड रेंडरिंग का इस्तेमाल करते हैं. क्या JavaScript एसईओ के हिसाब से यह तरीका सही है?

इस तरीके को डाइनैमिक रेंडरिंग कहा जाता है. इससे आपके सेटअप और मेंटेनेंस की प्रोसेस में जटिलता आ जाती है, लेकिन अगर आपके लिए यह काम करता है, तो इसे इस्तेमाल किया जा सकता है. हम नए प्रोजेक्ट में इसे इस्तेमाल करने का सुझाव नहीं देते हैं, क्योंकि इससे वेबसाइट के मालिकों को भी जटिलता का सामना करना पड़ता है. यह सबसे सही तरीका नहीं है, लेकिन अगर यह काम करता है, तो मुझे इसे बदलने की कोई वजह नहीं नज़र आती.

इमेज के बारे में जानकारी देने वाले फ़ाइल के नाम कितने ज़रूरी हैं?

गैरी: ऐल जी॰ का सवाल है: इमेज के लिए जानकारी देने वाले फ़ाइल के नाम कितने ज़रूरी हैं?

यह अच्छा सवाल है! आम तौर पर वे कुछ हद तक मददगार होते हैं, लेकिन अगर आपके पास लाखों इमेज हैं, तो कभी न कभी आपको यह तय करना होगा कि वह फ़ायदा इस लायक है या नहीं. अगर आपके पास कुछ ही फ़ाइले हैं, तो उनके नाम अच्छे रखे जा सकते हैं, लेकिन अगर फ़ाइलों की संख्या बहुत ज़्यादा है, तो आपको सही नाम चुनने की फ़िक्र नहीं करनी चाहिए. इमेज के लिए एसईओ के सबसे सही तरीके भी देखें.

वेबसाइट को फिर से डिज़ाइन करने के बाद अपना ट्रैफ़िक बढ़ाने का सबसे अच्छा तरीका क्या है?

जॉन: अगला सवाल यह है: वेबसाइट को फिर से डिज़ाइन करने के बाद अपना ट्रैफ़िक बढ़ाने का सबसे अच्छा तरीका क्या है?

वेबसाइट को फिर से डिज़ाइन करने के कई अलग-अलग तरीके हैं. फिर से डिज़ाइन करने के बाद कुछ साइटें बिलकुल नई हो जाती हैं. इनमें नए यूआरएल और एकदम नए पेज स्ट्रक्चर शामिल होते हैं. ऐसे मामलों में, आपको इसे साइट मूव की तरह मानना होगा. साथ ही, रीडायरेक्ट भी शामिल करने होंगे, नहीं तो फिर से लॉन्च करने के बाद आपको तुरंत गिरावट दिख सकती है. आपके मामले में, ऐसा लगता है कि समय के साथ गिरावट बहुत धीमी हो गई है. मेरे हिसाब से, फिर से डिज़ाइन करना समस्या नहीं है, बल्कि खोज, वेब या लोगों ने समय के साथ अपने व्यवहार या उम्मीदों को बदल लिया है. आम तौर पर, यह किसी तकनीकी समस्या की वजह से कम और आपकी साइट के बारे में समझने की वजह से ज़्यादा होता है. साथ ही, अपनी साइट को सुधारने का भी फ़र्क़ पड़ता है. माफ़ करें, यह हमेशा आसान नहीं होता!

क्या ऑर्गैनिक सर्च के लिए Googlebot, क्रॉल किए गए हर पेज को रेंडर करता है? अगर नहीं, तो ऐसा कितनी बार होता है?

मार्टिन: जेसन ने पूछा है: क्या ऑर्गैनिक सर्च के लिए Googlebot, क्रॉल किए गए हर पेज को रेंडर करता है? अगर नहीं, तो ऐसा कितनी बार होता है?

हां और नहीं. हम क्रॉल किए गए हर पेज को रेंडर नहीं करते हैं. उदाहरण के लिए, ऐसा क्रॉल रेंडर नहीं किया जाएगा जो 404 गड़बड़ी वाले पेज पर ले जाता है. अगर हम सही पेज को क्रॉल करते हैं, तो वह रेंडर हो जाता है.

क्या किसी ऐसे पेज पर स्कीमा मार्कअप का इस्तेमाल करने से परेशानी हो सकती है जो अमान्य है?

गैरी: मैथियस का सवाल है: क्या किसी ऐसे पेज पर स्कीमा मार्कअप का इस्तेमाल करने से परेशानी हो सकती है जो अमान्य है? (जैसे, offer / review / aggregateRating के बिना product मार्कअप)

कम शब्दों में कहें, तो नहीं. ज़्यादा शब्दों में कहें, तो भी नहीं, क्योंकि अगर हम उसे पार्स नहीं कर सकते, तो हम उसे इस्तेमाल नहीं करेंगे. इसका मतलब है कि आपको खोज के नतीजे पाने की कुछ सुविधाएं नहीं मिलेंगी, जैसे कि आपके स्निपेट में रिच एट्रिब्यूट.

रीडायरेक्ट 302 से रीडायरेक्ट 301 में कैसे बदलें?

जॉन: हज़ीम ने पूछा है: रीडायरेक्ट 302 से रीडायरेक्ट 301 में कैसे बदलें?

यह कुछ ऐसा है जिसे आपको अपनी साइट के होस्टर या डोमेन रजिस्ट्रार पर देखना होगा. हालांकि, अच्छी खबर यह है कि Google Search, लंबे समय से चले आ रहे रीडायरेक्ट को स्थायी रीडायरेक्ट मानता है. इसलिए, फ़िलहाल यह आपकी साइट के लिए ज़रूरी नहीं है. सैद्धांतिक तौर पर सही रीडायरेक्ट का इस्तेमाल करना अच्छा माना जाता है. हालांकि, Search तब तक इसके साथ काम करने की कोशिश करता रहता है, जब तक यह रीडायरेक्ट है.

क्या बॉयलरप्लेट वाला ज़्यादा कॉन्टेंट वेबसाइट को नुकसान पहुंचाता है?

गैरी: ऐनन ने पूछा है: नमस्ते, क्या बॉयलरप्लेट वाला ज़्यादा कॉन्टेंट वेबसाइट को नुकसान पहुंचाता है? मैंने संपर्क जानकारी, निजता नीति वगैरह के बारे में बात नहीं की है. धन्यवाद.

आम तौर पर, Search पर आपकी वेबसाइट की मौजूदगी पर बॉयलरप्लेट वाले ज़्यादा कॉन्टेंट का फ़र्क़ नहीं पड़ता. हालांकि, इस बात पर विचार किया जा सकता है कि बॉयलरप्लेट वाले ज़्यादा कॉन्टेंट की वजह से लोगों का अनुभव कैसा है; यह मुमकिन है कि वह लोगों को बिलकुल पसंद न आए.

पेज पर JavaScript को रेंडर करते समय, Googlebot को ऐसे किसी भी बाहरी एपीआई को कॉल करने से कैसे रोका जा सकता है जो काफ़ी महंगा है?

मार्टिन: मैथ्यू पूछ रहे हैं: पेज पर JavaScript को रेंडर करते समय, Googlebot को ऐसे किसी भी बाहरी एपीआई को कॉल करने से कैसे रोका जा सकता है जो काफ़ी महंगा है?

robots.txt का इस्तेमाल करके, एपीआई को क्रॉल करने पर रोक लगाई जा सकती है. हालांकि, ध्यान रखें: अगर क्लाइंट-साइड रेंडरिंग का इस्तेमाल किया जाता है और पेज का कॉन्टेंट इन एपीआई पर निर्भर करता है, तो Googlebot को कॉन्टेंट देखने के लिए एपीआई का इस्तेमाल करना होगा. नहीं तो, आपके पेजों पर वह कॉन्टेंट तब नहीं दिखेगा, जब Googlebot उसे रेंडर करेगा. तीसरे पक्ष के ऐसे यूआरएल जिनके लिए robots.txt का इस्तेमाल करके, ऐक्सेस की अनुमति नहीं दी जा सकती, वहां आपके पास इन एपीआई को कुछ समय के लिए अपनी JavaScript में लोड करने का विकल्प होता है. Googlebot के पेज का अनुरोध करने पर इन यूआरएल को छोड़कर आगे बढ़ने का विकल्प भी होता है.

क्या एसईओ रैंकिंग को खोए बिना डोमेन नेम बदलने का कोई खास तरीका है?

गैरी: mu.se से D.ray: ने पूछा है: क्या एसईओ रैंकिंग को खोए बिना डोमेन नेम बदलने का कोई तरीका है?

अगर किसी साइट को एक जगह से दूसरी जगह अच्छी तरह से ले जाया जाता है, तो डोमेन में होने वाले बदलावों की वजह से ट्रैफ़िक में गिरावट नहीं आती है. इसलिए, एसईओ रैंकिंग को खोए बिना डोमेन नेम बदलने का कोई तरीका है. साइट को नई जगह पर ले जाने से जुड़े हमारे दस्तावेज़ देखें; हमने अन्य विशेषज्ञों की बनाई हुई गाइड को भी दस्तावेज़ में लिंक किया हुआ है.

मेरा ब्रैंड फ़ेविकॉन, एक महीने पहले अपलोड किया गया था. हालांकि, Google पर मेरा वेबफ़्लो फ़ेविकॉन अब भी मौजूद है?

जॉन: जॉश ने पूछा है: मेरा ब्रैंड फ़ेविकॉन, एक महीने पहले अपलोड किया गया था. हालांकि, Google पर मेरा वेबफ़्लो फ़ेविकॉन अब भी मौजूद है. क्या आपको पता है कि कैसे ठीक करना है, ताकि यह वही ब्रैंड रहे जिसे मैंने पहले अपलोड किया था?

हमारे पास फ़ेविकॉन का सहायता दस्तावेज़ है. मैं उसे पढ़कर फ़ेविकॉन की जांच करूंगा. मैं यह भी पक्का करूंगा कि पुराना फ़ेविकॉन अब आपकी साइट पर न हो और न ही आपकी साइट से जुड़ा हुआ हो. साथ ही, यह भी पक्का करूंगा कि आप पुरानी फ़ाइल को नई फ़ाइल पर रीडायरेक्ट कर दें. कम शब्दों में कहें, तो यह पक्का करें कि सब कुछ एक जैसा हो. साथ ही, सर्च इंजन की ओर से उसे गलत तरीके से समझने की कोई संभावना न हो. इसके बाद, इन बदलावों को दिखने में थोड़ा समय लगता है. आम तौर पर, एक महीने का समय काफ़ी होता है, लेकिन अगर आपको कोई और चीज़ ठीक करनी है, तो उसे सही करने के लिए मैं कुछ समय रुकने का सुझाव दूंगा. आखिर में, Google के बाहर, Glenn Gabe ने फ़ेविकॉन की समस्याओं को हल करने के बारे में बताने वाली एक बेहतरीन गाइड बनाई है. आपको इसमें और सुझाव मिल सकते हैं.

अगर किसी वेबसाइट पर पोस्ट कई भाषाओं में लिखी जाती है यानी मैन्युअल तरीके से अनुवाद किया जाता है, तो कॉन्टेंट को अलग-अलग करने का सबसे सही तरीका क्या होना चाहिए?

गैरी: वी का सवाल है: अगर किसी वेबसाइट पर पोस्ट कई भाषाओं में लिखी जाती है यानी मैन्युअल तरीके से अनुवाद किया जाता है, तो कॉन्टेंट को अलग-अलग करने का सबसे सही तरीका क्या होना चाहिए?

यह फ़ैसला पूरी तरह से आपका होता है. चाहे आप हमारे सहायता केंद्र की तरह यूआरएल पैरामीटर का इस्तेमाल करें, जैसे कि ?hl=ja या फिर यूआरएल पाथ में भाषा का कोड डालें. खोज के नज़रिए से देखें, तो यह बिलकुल भी मायने नहीं रखता. यह ज़रूर देख लें कि हर भाषा के वर्शन का एक यूनीक यूआरएल है.

जॉन: मिखैल का सवाल है: क्या Google, ड्रॉपडाउन में लिंक डालने की अनुमति देता है, जैसे कि <select><option value="https://www.examplepage.com">Page</option> ? क्या यह काम करता है?

हम इसे लिंक नहीं मानते. हालांकि, हम यूआरएल की पहचान कर सकते हैं और इसे अलग से क्रॉल कर सकते हैं. अगर आप किसी चीज़ को लिंक की तरह इस्तेमाल करना चाहते हैं, तो आपको यह पक्का करना चाहिए कि वह सामान्य लिंक है. हमने हाल ही में, लिंक बनाने के दिशा-निर्देश पब्लिश किए थे. इसलिए, अगर आपके वेब डेवलपर का इस बारे में कोई सवाल है, तो मैं उन्हें वह देखने के लिए कहूंगा. हालांकि, ज़रूरी नहीं है कि एचटीएमएल का यह कॉम्बिनेशन, ब्राउज़र में लिंक के तौर पर काम करे. इसका इस्तेमाल किसी फ़ॉर्म में ड्रॉपडाउन के तौर पर किया जा सकता है.

Google Search Console में robots.txt तक पहुंचा नहीं जा सकता. ऐसा क्यों?

गैरी: असलम खान का सवाल है, असल में वह बता रहे हैं: Google Search Console में robots.txt तक पहुंचा नहीं जा सकता.

अगर Search Console में आपकी प्रॉपर्टी के लिए robots.txt तक पहुंचा नहीं जा सकता समस्या रिपोर्ट की जा रही है, तो इसका मतलब है कि आपकी साइट या सर्वर पर कोई समस्या है. अगर आपको अपनी साइट Google Search पर खोज के नतीजों में दिखानी है, तो आपको उस समस्या को ठीक करना होगा. असल में, इस समस्या को ठीक करने के लिए हम अपनी तरफ़ से कुछ नहीं कर सकते. इस समस्या को ठीक करने के लिए मैं सबसे पहले आपके सर्वर के लिए फ़ायरवॉल नियमों को देखूंगा. अगर रोकने के नियमों में कुछ अनचाही चीज़ मिलती है, तो सर्वर की कॉन्फ़िगरेशन फ़ाइलें देखें. अगर आपको यह करने का तरीका नहीं पता है, तो सर्वर देने वाली संस्था के पास सहायता टिकट दर्ज करें. वे ही आपकी मदद कर सकते हैं.

अगर किसी साइटमैप में hreflang यूआरएल डाले गए हैं, तो <lastmod> या <priority> जैसी प्रॉपर्टी से इस पर क्या असर पड़ता है?

जॉन: कार्लोस का सवाल है: अगर किसी साइटमैप में hreflang यूआरएल डाले गए हैं, तो <lastmod> या <priority> जैसी प्रॉपर्टी से इस पर क्या असर पड़ता है?

जब किसी साइटमैप फ़ाइल में hreflang एनोटेशन जोड़े जाते हैं, तो आप दरअसल अन्य यूआरएल को रेफ़र कर रहे होते हैं. hreflang सेट के हर यूआरएल पर इसकी पुष्टि करना ज़रूरी है. हालांकि, किसी यूआरएल को कब क्रॉल करना है, यह एक बिलकुल अलग चीज़ है. क्रॉल करने के लिए, हम अन्य चीज़ों के अलावा उन यूआरएल के एट्रिब्यूट को भी देखते हैं, जैसे कि पिछली बार बदलाव करने की तारीख. उदाहरण के लिए, ऐसा हो सकता है कि अनुवाद से जुड़ी गड़बड़ियां ठीक होने की वजह से, किसी एक भाषा का वर्शन अलग से बदल जाए. इसके बावजूद, पिछली बार बदलाव करने की तारीख, अन्य सिग्नल में से बस एक अनुमानित सिग्नल है. यह एट्रिब्यूट इस बात की गारंटी नहीं देता कि किसी पेज को जल्द ही फिर से क्रॉल किया जाएगा. ध्यान देने वाली बात यह भी है कि बार-बार क्रॉल होने का मतलब यह नहीं है कि पेज की रैंकिंग बेहतर होगी. इसलिए, आपको क्रॉल फ़्रीक्वेंसी को ज़बरदस्ती बढ़ाने की कोशिश नहीं करनी चाहिए.

गैरी: निक वन साइक का सवाल है: क्या मुझे (क्रॉल बजट को मैनेज करने के लिए) robots.txt में अफ़िलिएट लिंक को ब्लॉक करना चाहिए या robots.txt Disallow नियम को हटाकर, (noindex टैग का इस्तेमाल करके) अफ़िलिएट लिंक को इंडेक्स होने से बचाना चाहिए?

robots.txt में अफ़िलिएट लिंक को ब्लॉक करना एक सही तरीका हो सकता है. हालांकि, हम भी उन्हें पहचानने और अनदेखा करने में माहिर हैं. robots.txt Disallow नियम से आप तय सीमा में रहते हैं. साथ ही, आप क्रॉल बजट में असल में आसानी से कुछ बचत कर पाते हैं.