Google is de marktleider, boekhouding voor meer dan tweederde van alle online zoekopdrachten wereldwijd. De zoeken motor reus heeft zich ontwikkeld tot de Wereld Breed De centrale interface van het web met miljarden dagelijkse bezoekers. Aanwezigheid in de zoekresultaten van Google is een essentiële voorwaarde voor personen die beroepsmatig internet initiatieven, en het is een fundamentele voorwaarde voor een succesvolle online business. Websites kunnen alleen worden gevonden op de zoekmachine als ze zijn opgenomen in de index van Google. Wie in de databank wil worden opgenomen, heeft twee mogelijkheden: ofwel wachten op een zoekmachine crawler om uw webruimte op te pikken via een externe verbinding of neem het heft in eigen handen door uw site zelf bij Google aan te melden.
Om uw website bij Google in te dienen, uploadt u een bijgewerkte sitemap naar uw Google-account of gebruik Fetch as Google om een indexering verzoek voor de doel-URL. Site-eigenaren moeten zich registreren bij Google Zoek Console voor beide processen.
Hieronder volgen de details van elke optie:
Als het je eerste poging is om een website te bouwen, moet je het volgende controleren Google Zoek Console om er zeker van te zijn dat u de eigenaar bent. Als u op deze pagina bent aangekomen, klikt u op de optie "een sitemap indienen".
Zelfs als uw website al is gepubliceerd, kunt u nog steeds nieuwe pagina's indienen voor Google om te indexeren en rang. Voorheen kon iedereen doe dit met een pagina die ze wilden laten crawlen, ongeacht of ze de eigenaar van de pagina waren of niet. Naar vraag Als Google de URL opnieuw wil crawlen, moet je de eigenaar van de URL zijn, net zoals je zou doen bij het starten van een nieuwe URL. nieuwe website.
Natuurlijk behandelt Google uw inzending als slechts een suggestie. Het doet echter direct Google's aandacht voor uw pagina's en zou de komst van Googlebot.
Uw website moet zichtbaar zijn voor gebruikers in de SERP's, dat wil zeggen, en hij moet indexeerbaar zijn door Google om uw online bedrijf succesvol te laten zijn. Er zijn verschillende methoden om te bepalen of uw website indexeerbaar is of niet. Niets zal voorkomen dat uw website met succes wordt geïndexeerd, wat resulteert in meer verkeer en conversies als u deze processen eenmaal dubbel hebt gecontroleerd en de nodige wijzigingen hebt aangebracht.
Dit is een fout die zelfs de meest doorgewinterde SEO'er kan maken: Je hebt misschien verzuimd om verwijderen de meta tag "noindex, follow" van uw subpagina's, of u hebt deze misschien per ongeluk geplaatst. Deze tag wordt toegevoegd aan het head>-gebied van een webpagina om ervoor te zorgen dat zoekmachines een URL niet indexeren. Deze tag kan u helpen dubbele URL's te voorkomen. inhoud en kan ook worden gebruikt om een website te testen voordat deze live gaat, zoals voor een domein transfer. (Natuurlijk, zodra uw site online is, zult u de Noindex tag willen verwijderen).
Door de Googlebot specifieke instructies te geven over die mappen en URL's het zou moeten kruipen, kunt u actief de kruipend en indexeren van uw website met behulp van de robots. txt bestand.
Het kan echter zijn dat u bij het definiëren van het bestand per ongeluk belangrijke mappen hebt uitgesloten van crawling of hele pagina's hebt beperkt. De Googlebot kan uw URL's vinden, crawlen en indexeren via backlinks van andere websites. Dit voorkomt dus niet dat ze direct worden geïndexeerd. Echter, als uw robots.txt bestand onjuist is, zal de Googlebot niet in staat zijn om alle regio's van uw website grondig te scannen tijdens het regelmatig crawlen ervan.
Crawling kan worden gezien als illegale toegang door u. htaccess bestand, waardoor uw pagina niet in de zoekresultaten verschijnt. Het. htaccess bestand is een controlebestand dat is opgeslagen in de directory van de Apache server.
Wanneer verschillende URL's dezelfde inhoud hebben, zal een Canoniek tag helpt Google de oorspronkelijke URL te ontdekken om de juiste URL te indexeren. Het Canonical element is een HTML-tag die een link bevat naar de "canonieke" URL, de oorspronkelijke pagina. Er kunnen verschillende fouten optreden bij het maken van Canonical tags, waardoor indexeringsproblemen ontstaan.
A server storing kan er ook de oorzaak van zijn dat een website of URL niet wordt geïndexeerd. Dit maakt de toegang tot een pagina technisch onmogelijk. Om verschillende redenen zijn servers ook van vitaal belang voor zoekmachineoptimalisatie. Een snelle en efficiënte server is nodig voor goede rankings.
Deze nieuwe pagina's kunnen intern niet verbonden zijn als u uw website herschikt of nieuwe categorieën aanmaakt. Bovendien, als deze nieuwe URL's niet vermeld staan in de sitemap.xml of niet gelinkt zijn vanuit andere bronnen, is de kans groot dat ze niet geïndexeerd zullen worden. Probeer daarom koste wat kost weg te blijven van verweesde pagina's.
Kortom, uw website of individuele URL's kunnen om verschillende redenen niet geïndexeerd worden. U kunt problemen opsporen en verhelpen, waardoor de indexeerbaarheid van uw website zal verbeteren, wat zal resulteren in hogere rangen en meer website succes. Controleer de Google Search Console op waarschuwingen over gecompromitteerde pagina's en reset, indien nodig, uw aanmeldingsgegevens. Controleer of uw sitemap alle URL's bevat die geïndexeerd moeten worden, evenals hun statuscodes. Al uw materiaal zal in Google verschijnen zodra u uw nieuwe site voor de wereld zichtbaar maakt.
Dit bericht is het laatst bewerkt op 28 december 2022
In de digitaal verbonden wereld van vandaag, waar elk bedrijf concurreert om een...
In een tijdperk waarin vrijwel elk antwoord online wordt gezocht, is de zichtbaarheid van...
Inleiding tot SEO carrières Op reis door het steeds veranderende landschap van zoekmachines...
In de bruisende wereld van autodetailing is het opvallen van potentiële klanten...
Stel je dit eens voor: een goed doel dat levens kan veranderen, een positieve invloed kan hebben op de gemeenschap of...
Deze website maakt gebruik van cookies.
Meer lezen