URL der Google-Suchmaschine mit „S“ anstelle der Suchanfrage
Veröffentlicht: 2020-09-04Ich hoffe, es geht Ihnen allen gut, es ist ein schwieriger Artikel, da viele Leute nach diesem Begriff suchen, der im Titel angegeben ist. Wir werden versuchen, die Frage entsprechend zu beantworten.
Wenn Sie etwas im Google-Browser suchen oder Ihr Schlüsselwort eingeben, erscheint das Wort „S“ nach „Google.com/“, zum Beispiel „ https://www.google.com/search?q=solutionhow “.
Sie müssen nicht zur Google-Suchleiste gehen, Sie können suchen, ohne zur Google-Suchleiste zu gehen, schreiben Sie einfach Ihre Suchanfrage nach „q=“ wie https://www.google.com/search?q=solutionhow.
Wenn Sie „s“ anstelle von „query“ oder „q“ eingeben, zeigt Google Ihnen einen Fehler oder eine leere Seite an .
Sie können mit „s“ anstelle von „query“ oder „q“ suchen.
Dies ist eine kurze Anleitung für diejenigen, die danach suchen, und es gibt auf keiner Website eine Antwort darauf.
Heute werden mehr als 90 % der Anfragen über Google gestellt . Aber wir sollten den Rest der anderen sehr interessanten Alternativen (insbesondere in Datenschutzfragen) mit großem Potenzial nicht ignorieren, wie Firefox , Qwant oder Duckduckgo . Letzteres besonders hervorzuheben, wäre ein großer Fehler, da es derzeit 30 Millionen tägliche Suchanfragen hat und grünes Gras für SEO ist.
Vor einigen Wochen sprach Luis Calvo mit uns darüber, wie wichtig es ist, dass unsere Single Page Applications (SPA) von Google indexierbar sind. Heute werden wir uns eingehender mit der Funktionsweise von Google (und den anderen Suchmaschinen) befassen.
Wie funktioniert die Suchmaschine?
Wir können eine Suchmaschine als ein Informationsabrufsystem definieren, bei dem der Benutzer eine Reihe von Schlüsselwörtern eingibt und dies eine Reihe von Ergebnissen zurückgibt, die auf der Grundlage einer Reihe von Kriterien geordnet sind .
Heutzutage präsentieren Suchmaschinen zunehmend personalisierte Ergebnisse für jeden Benutzer, abhängig von der Art der Suche (informativ, lokal, transaktional) und basierend auf Hunderten von Variablen, wie wir später sehen werden.
Nehmen wir zum Beispiel die Suche „Turnschuhe kaufen“, sehen wir, dass 207 Millionen Ergebnisse in nur 0,53 Sekunden erhalten werden. In diesem Fall werden die Ergebnisse aufgeteilt in:
- Google-Shopping
- Google Ads
- Google Maps
- Und schließlich organische Ergebnisse
Es ist wichtig zu erwähnen, dass diese Suche gegen eine eigene Datenbank durchgeführt wird, mit den Ergebnissen, die sie gespeichert und nach ihren eigenen Kriterien (ihrem Suchalgorithmus) geordnet hat .
Daher unterscheiden sich die Ergebnisse zwischen den Suchmaschinen und den Versionen von Google, wobei jedes Land seine eigene Version der Suchmaschine (z. B. Google.es für Spanien oder Google.co.uk für das Vereinigte Königreich) und seine eigene Datenbank hat von Dateien.
Um in Suchmaschinen zu erscheinen, ist es daher eine notwendige Bedingung, dass sie unsere Inhalte in ihrer Datenbank gespeichert haben und eine Reihe von Crawling- und Indexierungs- und Qualitätsbedingungen erfüllen, um unter den ersten Positionen zu erscheinen.
Suche „s“ Abfrage „q“ Prozess
Bevor Suchmaschinen in den Suchergebnissen erscheinen, durchlaufen sie einen Prozess, der in drei Phasen unterteilt ist, wie von Matt Cutts im folgenden Video zusammengefasst:
Die drei Phasen, die sowohl Google als auch jede Suchmaschine durchführen, sind die folgenden:
Informationssuche oder Tracking
In der Crawling -Phase versuchen Bots oder Spider, neue Webseiten zu entdecken und in ihre Datenbank aufzunehmen. Da es keine zentrale Webregistrierung gibt, handelt es sich um ein kontinuierliches Ermittlungsverfahren.
Die Bots müssen den Links der Websites folgen, die sich bereits in ihrem Index befinden, zusätzlich zu den Sitemaps, die wir über das Search Console-Tool bereitstellen.
Da es sich um einen kontinuierlichen Zyklus handelt, registrieren und aktualisieren die Bots ihre Datenbank mit neuen Websites, den daran vorgenommenen Änderungen und entfernen veraltete Links oder gelöschte Seiten, immer begrenzt durch ein „Tracking-Budget“, das markiert, welche Websites gecrawlt werden sollen, und ihre Häufigkeit und die Anzahl der Seiten pro Crawl.
In diesem Artikel ging es darum, warum die URL der Google-Suchmaschine ein „S“ anstelle der Suchanfrage enthält, und ich hoffe, Sie haben sich darüber im Klaren gewesen.
Tipps zur Verbesserung des Trackings unserer Website
Dies sind einige Tipps, um das Tracking Ihrer Websites zu erleichtern:
- Erstellen Sie eine Sitemap.xml mit den Seiten, aus denen Ihre Website besteht, und reichen Sie sie über die Search Console ein.
- Definieren Sie in der Datei Robots.txt die Navigationspfade, denen Bots nicht folgen sollen. Auge! Dies bedeutet nicht, dass die URLs nicht indexiert werden können, da dies passieren kann, wenn auf diese URLs Links verweisen.
- Verwenden Sie einfache Routen mit freundlichen URLs und internen Links mit einem Status von 200 (ok).
- Zeigt die Paginierung des Inhalts deutlich an.
- Es steuert und informiert Google über die Behandlung der Parameter der URLs.
- Verwenden Sie auf internationalen Websites mit mehreren Sprachen das Hreflang-Meta-Tag .
- Verwenden Sie das kanonische Tag , um Original- und Duplikatversionen von Inhalten zu kontrollieren.
Nützliche Tools zum Crawlen unserer Website
Tools wie ScreamingFrog oder Sitebuld können uns helfen, potenzielle Tracking-Probleme zu identifizieren.
Diese Tools simulieren ein Crawlen durch unsere Website, d. h. sie identifizieren und verfolgen alle Links auf unserer Website, wobei sie zwischen den verschiedenen Elementen, aus denen sie besteht, dem Antwortcode und den darin enthaltenen Anweisungen unterscheiden.
Dies sind sehr nützliche und leistungsstarke Tools, wenn es darum geht, unsere Website in den frühen Phasen des Betriebs der Suchmaschine (Crawling und Indexierung) zu prüfen, und sie haben ein gewisses Maß an Anpassung an die Art des Crawlings, das wir basierend auf unseren Bedürfnissen wünschen.
Indexierung von Inhalten
Bei der Indizierung erkennen Suchmaschinen die verschiedenen Seiten, aus denen sich eine Website zusammensetzt, und speichern sie auf ihrem System . Sie analysieren den Inhalt jeder Seite, die enthaltenen Ressourcen (Videos und Bilder) und die Meta-Tags wie Titel oder den „ALT“- oder Alternativtext der Bilder.
Der zu Beginn des Beitrags erwähnte Artikel von Luis konzentriert sich auf die Schwierigkeiten, die Single Page Applications (SPA) und die JavaScript-Sprache in der Indizierungsphase haben, da die Bots bei nicht korrekter Konfiguration ein leeres HTML erhalten und mehrere Lösungen angeboten werden zu diesem Problem.
Tipps zur Verbesserung der Indexierung unserer Website
An dieser Stelle müssen wir die Bedeutung der SEO-Strategie hervorheben, die wir auf unserer Website anwenden möchten, und die URLs mit dem größten Potenzial für die Ziele des Webs indizieren.
1. Wir hinterlassen Ihnen einige Tipps zur Verbesserung der Indexierung des Webs:
- Verwenden Sie Noindex- Meta- Tags , um Inhaltsverfolgung zu vermeiden. Es wird nicht empfohlen, es in die Inhalte aufzunehmen, die von robots.txt blockiert werden, da es möglich ist, dass die Bots diese Anweisung nicht „sehen“ und den indizierten Inhalt erreichen.
- Fügen Sie beschreibende und eindeutige Titel für jeden Inhalt hinzu.
- Strukturieren Sie die Inhalte durch Überschriften entsprechend der Wichtigkeit der einzelnen Inhalte.
- Verwenden Sie Inhalte mit Text und fügen Sie Bildern und Videos beschreibende Attribute hinzu.
- Binden Sie strukturierte Daten ein, um die Suchergebnisse anzureichern und mehr Informationen an Google zu übermitteln.
2. Wie kann ich die Indizierung meiner Website analysieren?
Im Falle der Indexierung können wir zusätzlich zum Tool „URL-Inspektor“ auf den von der Search Console bereitgestellten „Coverage“-Bericht zugreifen, mit dem wir den spezifischen Zustand einer URL analysieren können.
Der Abdeckungsbericht bietet uns sehr wertvolle Informationen über den Status unserer URLs und die Gründe für diese Zustände.
So können wir beispielsweise für die verschiedenen Fehler auf unserer Website feststellen, ob es sich um Server- oder Clientfehler handelt, ob sie von der robots.txt-Datei blockiert wurden oder ob sie ein Tracking-Problem haben, das wir analysieren müssen Tiefe. Aus diesem Grund können Sie „S“ nicht anstelle von „q“ oder „query“ verwenden.
3. Positionierung oder Klassifizierung von Ergebnissen
Dieser letzte Teil bringt uns zurück zur Suche „Turnschuhe kaufen“ und zu den 207 Millionen erzielten Ergebnissen und insbesondere zu der Art und Weise, wie sie klassifiziert werden.
Der Google -Algorithmus verfügt über mehr als 200 Faktoren in ständigen Aktualisierungen, die darauf abzielen, die Ergebnisse auf die am besten geeignete Weise für die Suchanfrage des Benutzers darzustellen, um dem Benutzer die bestmögliche Erfahrung zu bieten .
Etwa 250 Faktoren greifen in die Darstellung der Ergebnisse ein, darunter der Standort des Nutzers, seine Sprache und das Gerät, von dem aus gesucht wird.
Techniken zur Verbesserung der Positionierung unserer Website
- Optimieren Sie die Ladegeschwindigkeit , insbesondere für mobile Geräte.
- Fügen Sie relevante , hochwertige und aktualisierte Inhalte hinzu .
- Ermöglichen Sie eine gute Benutzererfahrung beim Surfen im Internet.
- Bewerten Sie die Möglichkeit , AMP zu implementieren , um die Geschwindigkeit auf Mobilgeräten zu verbessern und im vorgestellten Nachrichtenkarussell erscheinen zu können.
In der folgenden Bildergalerie stellen wir eine Reihe von Beispielen personalisierter Google-Ergebnisse für verschiedene Arten von Suchen bereit, von der Marke, Persönlichkeit des öffentlichen Lebens, Wegen bis hin zu lokalisierteren Suchen wie der Filmplakatwand oder Restaurants in der Nähe.