Crawler sind Programme, die das Internet durchsuchen und Webseiten indexieren. Sie folgen Links, sammeln Texte, Bilder und andere Daten, die sie dann in einem Index speichern. Diese gesammelten Informationen helfen Suchmaschinen wie Google, relevante Ergebnisse für Suchanfragen bereitzustellen. Für Dich als Website-Betreiber sind Crawler wichtig, um Deine Webseite in den Suchergebnissen sichtbar zu machen. Es ist entscheidend zu verstehen, wie Crawler funktionieren und wie Du Deine Webseite so optimieren kannst, dass sie effektiv von Crawlern erfasst und indexiert wird, um mehr Traffic und eine bessere Platzierung in den Suchmaschinen zu erreichen.
Crawler, auch als Spiders oder Webcrawler bezeichnet, sind Programme, die das Internet durchsuchen, um Webseiten und deren Inhalte zu indizieren. Sie folgen den Links von einer Seite zur nächsten und erfassen dabei Informationen wie Texte, Bilder, Links und Meta-Daten. Diese gesammelten Daten werden anschließend in einem Index gespeichert, sodass Suchmaschinen wie Google in der Lage sind, relevante Ergebnisse für Suchanfragen bereitzustellen.
Der Prozess des Crawlers beginnt in der Regel mit einer Start-URL, von der aus er weitere Links auf der Seite extrahiert und diese dann wiederum besucht. Auf diese Weise ermöglichen Crawler Suchmaschinen eine systematische Durchsuchung des Internets und das Aktualisieren von Suchergebnissen in Echtzeit.
Für die Suchmaschinenoptimierung (SEO) sind Crawler von entscheidender Bedeutung, da sie maßgeblich darüber entscheiden, welche Webseiten in den Suchergebnissen erscheinen und in welcher Reihenfolge. Durch die Indexierung von Webseiten und die Bewertung ihrer Inhalte tragen Crawler dazu bei, die Relevanz von Websites für bestimmte Suchanfragen zu bestimmen und das Ranking in den Suchergebnissen zu beeinflussen.
Obwohl die Begriffe oft synonym verwendet werden, gibt es einen Unterschied zwischen Crawlern, Bots und Spidern. Während Crawler für die Durchsuchung und Indexierung von Webinhalten zuständig sind, bezieht sich der Begriff "Bot" allgemein auf automatisierte Programme, die vielfältige Aufgaben im Internet ausführen können. Spiders sind spezielle Arten von Crawlern, die vor allem dazu dienen, die Verlinkungsstruktur von Webseiten zu analysieren und Inhalte zu erfassen.
Die Indexierung von Webseiten ist ein zentraler Bestandteil des Suchmaschinenrankings. Crawler spielen dabei eine Schlüsselrolle, da sie dafür verantwortlich sind, Webinhalte zu erfassen und in den Index der Suchmaschine aufzunehmen. Durch die regelmäßige Aktualisierung des Index können Suchmaschinen sicherstellen, dass die Suchergebnisse aktuell und relevant bleiben. Eine effektive Indexierung durch Crawler ist daher für die Auffindbarkeit und Sichtbarkeit von Webseiten von großer Bedeutung.
Webcrawler sind die am häufigsten eingesetzten Crawler in der Welt des Internets. Sie durchsuchen das Web, indem sie von einer Seite zur nächsten navigieren und dabei Links folgen, um Webinhalte zu indexieren. Webcrawler sind so konzipiert, dass sie eine große Anzahl von Seiten effizient erfassen können, um Suchmaschinen wie Google zu ermöglichen, relevante Ergebnisse für Suchanfragen bereitzustellen.
Webcrawler sind auch bekannt für ihre Fähigkeit, regelmäßig das Web zu durchsuchen, um Änderungen an Webseiten zu erfassen und den Suchmaschinenindex entsprechend zu aktualisieren. Dieser kontinuierliche Prozess trägt dazu bei, dass Suchmaschinen stets aktuelle und relevante Suchergebnisse liefern können.
Desktop-Crawler sind speziell darauf ausgerichtet, Webseiten von Desktop-Computern aus zu durchsuchen. Sie sind darauf optimiert, den Desktop-Browser zu simulieren und die Inhalte von Webseiten entsprechend zu indexieren. Desktop-Crawler können beispielsweise die Desktop-Version einer Website durchsuchen und sicherstellen, dass alle Inhalte korrekt erfasst und indexiert werden.
Mit dem zunehmenden Trend zur mobilen Internetnutzung sind Mobile-Crawler immer wichtiger geworden. Diese Crawler sind darauf ausgerichtet, speziell mobile Webseiten zu durchsuchen und zu indexieren. Da Suchmaschinen wie Google die mobile Nutzererfahrung immer stärker berücksichtigen, sind Mobile-Crawler entscheidend, um sicherzustellen, dass mobile Websites korrekt indexiert werden und in den mobilen Suchergebnissen optimal erscheinen.
Spezialisierte Crawler werden für spezifische Aufgaben oder Anwendungen entwickelt. Sie können beispielsweise dazu verwendet werden, bestimmte Arten von Inhalten zu erfassen, wie Bilder, Videos oder Dokumente. Spezialisierte Crawler können auch für die Analyse von Social-Media-Profilen, Online-Shops oder anderen spezifischen Webseiten eingesetzt werden. Durch die gezielte Ausrichtung auf bestimmte Inhalte oder Anwendungen können spezialisierte Crawler die Effizienz und Genauigkeit der Indexierung verbessern.
Der Einsatz von Crawlern im SEO bietet eine Vielzahl von Vorteilen für Website-Betreiber. Durch die systematische Durchsuchung und Indexierung von Webinhalten tragen Crawler dazu bei, die Relevanz von Webseiten für bestimmte Suchanfragen zu bestimmen. Dies wiederum kann zu einer besseren Platzierung in den Suchergebnissen führen und die Sichtbarkeit der Website erhöhen.
Ein weiterer Vorteil ist die Möglichkeit, Änderungen an Webseiten schnell zu erfassen und den Suchmaschinenindex entsprechend zu aktualisieren. Durch regelmäßige Crawler-Durchläufe können Website-Betreiber sicherstellen, dass ihre Inhalte stets aktuell sind und die Nutzer stets relevante Informationen erhalten.
Die Arbeit von Crawlern hat direkte Auswirkungen auf das Ranking von Webseiten in den Suchmaschinenergebnissen. Indem Crawler Webinhalte indexieren und bewerten, entscheiden sie mit darüber, welche Seiten für bestimmte Suchanfragen relevant sind und in welcher Reihenfolge sie in den Suchergebnissen erscheinen. Eine effektive Nutzung von Crawlern kann daher dazu beitragen, das Ranking einer Website zu verbessern und ihre Sichtbarkeit in den Suchmaschinen zu steigern.
Für die erfolgreiche Nutzung von Crawlern im SEO ist es wichtig, bestimmte Best Practices zu beachten. Dazu gehören unter anderem die regelmäßige Überwachung der Crawler-Aktivitäten, die Überprüfung von Indexierungsfehlern und die Optimierung von Meta-Tags und Strukturierungen, um Crawlern die Indexierung von Webseiten zu erleichtern. Durch die Anwendung dieser Best Practices können Website-Betreiber sicherstellen, dass ihre Websites optimal in den Suchmaschinen indexiert werden und die bestmögliche Sichtbarkeit erhalten.
Es ist wichtig, sich mit den Crawler-Richtlinien der Suchmaschinen vertraut zu machen und diese zu beachten. Jede Suchmaschine hat spezifische Richtlinien für die Durchsuchung und Indexierung von Webinhalten, die es zu berücksichtigen gilt. Indem Website-Betreiber die Crawler-Richtlinien befolgen, können sie sicherstellen, dass ihre Websites reibungslos indexiert werden und keine Probleme bei der Anzeige in den Suchergebnissen auftreten.
Der Prozess des Auffindens neuer Seiten beginnt in der Regel mit einer Start-URL, von der aus der Crawler ausgeht, um weitere Links auf der Seite zu extrahieren. Indem er diese Links folgt, gelangt der Crawler zu neuen Seiten und erfasst fortlaufend die Inhalte dieser Seiten. Dabei überprüft er auch, ob die Seiten bereits im Index vorhanden sind oder ob es sich um neue Inhalte handelt, die in den Index aufgenommen werden müssen.
Sobald der Crawler eine neue Seite identifiziert hat, beginnt er damit, den Inhalt dieser Seite zu durchsuchen und zu analysieren. Der Crawler extrahiert Texte, Bilder, Links, Meta-Daten und andere relevante Informationen, die für die Indexierung der Seite von Bedeutung sind. Dabei berücksichtigt der Crawler auch die Strukturierung der Seite und die Beziehungen zwischen verschiedenen Elementen, um den Inhalt korrekt zu interpretieren und dem Suchmaschinenindex hinzuzufügen.
Metadaten spielen eine wichtige Rolle für Crawler, da sie zusätzliche Informationen über eine Webseite liefern und deren Relevanz für bestimmte Suchanfragen bestimmen können. Crawler verarbeiten Metadaten wie Titel-Tags, Meta-Beschreibungen, Meta-Keywords und andere Daten, um den Inhalt einer Seite besser zu verstehen und entsprechend zu bewerten. Durch die Verarbeitung von Metadaten können Crawler die Relevanz einer Seite für bestimmte Suchanfragen besser einschätzen und deren Platzierung in den Suchergebnissen beeinflussen.
Nachdem der Crawler den Inhalt einer Seite erfasst und analysiert hat, wird dieser in den Suchmaschinenindex aufgenommen. Der Index speichert die Informationen über Webseiten und deren Inhalte, sodass Suchmaschinen sie bei Bedarf schnell abrufen und relevante Suchergebnisse bereitstellen können. Durch regelmäßige Crawler-Durchläufe wird der Index kontinuierlich aktualisiert, um sicherzustellen, dass die Suchergebnisse stets aktuell und relevant sind.
Die Strukturierung einer Website spielt eine entscheidende Rolle für die SEO-Freundlichkeit und die Indexierung durch Crawler. Eine klare und logische Struktur ermöglicht es Crawlern, die verschiedenen Seiten einer Website effizient zu erfassen und deren Zusammenhang zu verstehen. Durch die Verwendung von sinnvollen Menüs, internen Verlinkungen und einer flachen Hierarchie können Website-Betreiber die Struktur ihrer Website optimieren und Crawlern dabei helfen, die Webseiten besser zu indexieren.
Eine XML-Sitemap ist ein wichtiger Bestandteil einer SEO-freundlichen Gestaltung, da sie Crawlern eine Übersicht über die Struktur einer Website bietet und es ihnen erleichtert, alle Seiten zu erfassen. Durch die Erstellung einer XML-Sitemap können Website-Betreiber sicherstellen, dass auch tiefere Unterseiten von Crawlern gefunden und indexiert werden. Zudem ermöglicht eine XML-Sitemap eine bessere Indexierung von neuen Inhalten und Änderungen auf der Website.
Meta-Tags wie Titel-Tags, Meta-Beschreibungen und Meta-Keywords sind wichtige Elemente für die SEO-Freundlichkeit einer Website. Indem Website-Betreiber relevante und aussagekräftige Meta-Tags verwenden, können sie Crawlern Hinweise über den Inhalt einer Seite geben und deren Relevanz für bestimmte Suchanfragen steigern. Durch die Optimierung von Meta-Tags können Website-Betreiber nicht nur die Indexierung ihrer Seiten verbessern, sondern auch die Klickrate in den Suchmaschinenergebnissen erhöhen.
Duplicate Content, also doppelte Inhalte auf verschiedenen Webseiten, kann zu Problemen bei der Indexierung führen und die SEO-Performance negativ beeinflussen. Um Crawlern die indexierung von Webseiten zu erleichtern, ist es wichtig, Duplicate Content zu vermeiden und den Fokus auf einzigartige und hochwertige Inhalte zu legen. Durch die regelmäßige Überprüfung und Entfernung von Duplicate Content können Website-Betreiber sicherstellen, dass ihre Webseiten reibungslos indexiert werden und eine bessere Platzierung in den Suchmaschinenergebnissen erzielen.
Das Crawl-Budget bezeichnet die Menge an Ressourcen oder Aufwand, den Suchmaschinen für das Durchsuchen und Indexieren einer Website zur Verfügung stellen. Es legt fest, wie oft und wie intensiv Crawler eine Website durchsuchen, um neue Inhalte zu erfassen und den Index zu aktualisieren. Ein effizientes Crawl-Budget ermöglicht es Suchmaschinen, relevante Inhalte regelmäßig zu indexieren und bereitzustellen, während ein ineffizientes Crawl-Budget zu einer unzureichenden Indexierung und geringeren Sichtbarkeit führen kann.
Das Crawl-Budget einer Website kann von verschiedenen Faktoren beeinflusst werden, die Website-Betreiber beachten sollten. Zu den wichtigsten Faktoren gehören die Geschwindigkeit und Erreichbarkeit der Website, die technische Struktur und Performance, die Qualität und Aktualität der Inhalte sowie die Verlinkung innerhalb der Website. Websites, die leicht zugänglich, schnell ladend und mit hochwertigen Inhalten ausgestattet sind, erhalten in der Regel ein höheres Crawl-Budget und werden regelmäßiger von Crawlern besucht.
Um das Crawl-Budget effizient zu nutzen und die Indexierung zu maximieren, können Website-Betreiber verschiedene Maßnahmen ergreifen. Dazu gehören die Verbesserung der Ladezeiten der Website, die Optimierung der Seitenstruktur und internen Verlinkung, die regelmäßige Aktualisierung von Inhalten und die Behebung von technischen SEO-Fehlern. Indem Website-Betreiber ihr Crawl-Budget optimieren, können sie sicherstellen, dass ihre Website regelmäßig und umfassend von Crawlern durchsucht wird und eine optimale Sichtbarkeit in den Suchmaschinen erzielt.
Ein effizientes Crawl-Budget kann direkte Auswirkungen auf die SEO-Leistung einer Website haben. Websites mit einem hohen Crawl-Budget werden regelmäßig von Crawlern besucht, indexiert und in den Suchmaschinen gut platziert. Durch eine optimierte Nutzung des Crawl-Budgets können Website-Betreiber die Auffindbarkeit und Sichtbarkeit ihrer Webseiten in den Suchmaschinen verbessern, die Indexierung neuer Inhalte beschleunigen und die SEO-Performance insgesamt steigern.
Es gibt verschiedene Crawler-Fehler, die die Indexierung und Sichtbarkeit von Webseiten beeinträchtigen können. Dazu gehören unter anderem Fehler beim Crawlen von Seiten aufgrund von technischen Problemen wie Serverfehlern, blockierten Seiten oder defekten Links. Ebenso können Crawler-Fehler durch Duplicate Content, fehlende Metadaten, langsame Ladezeiten, unstrukturierte URL-Parameter und andere Faktoren verursacht werden. Durch die Identifizierung und Behebung dieser häufigen Crawler-Fehler können Website-Betreiber sicherstellen, dass ihre Webseiten reibungslos indexiert werden und eine optimale Sichtbarkeit in den Suchmaschinen erhalten.
Um Crawler-Probleme effektiv zu beheben, ist es wichtig, diese zunächst zu diagnostizieren und ihre Ursachen zu identifizieren. Website-Betreiber sollten regelmäßig ihre Website und deren Indexierung überwachen, um mögliche Crawler-Fehler frühzeitig zu erkennen. Tools wie Google Search Console, Screaming Frog oder Deepcrawl können dabei helfen, Crawler-Probleme zu analysieren, Fehlerquellen zu identifizieren und geeignete Lösungsansätze zu entwickeln. Durch die kontinuierliche Überwachung und Diagnose von Crawler-Problemen können Website-Betreiber ihre SEO-Performance verbessern und ihre Webseiten optimal in den Suchmaschinen platzieren.
Die Behebung von Crawler-Problemen erfordert oft technische Maßnahmen, um die Funktionalität und Indexierung der Webseiten zu optimieren. Dazu gehören die Behebung von Serverfehlern und blockierten Ressourcen, die Aufhebung von Canonical-Tags und Redirect-Fehlern, die Optimierung von Meta-Tags und Strukturierungen sowie die Entfernung von Duplicate Content. Darüber hinaus können Maßnahmen zur Verbesserung der Ladezeiten, zur Bereinigung von defekten Links und zur Strukturierung von URL-Parametern dazu beitragen, Crawler-Fehler zu beheben und die SEO-Performance zu steigern.
Ein kontinuierliches Monitoring und die regelmäßige Kontrolle der Crawler-Aktivitäten sind entscheidend, um Crawler-Fehler frühzeitig zu erkennen und zu beheben. Website-Betreiber sollten die Crawler-Aktivitäten ihrer Webseiten überwachen, Indexierungsfehler analysieren, Crawling-Logs überprüfen und gezielt nach Fehlerquellen suchen. Durch ein effektives Monitoring und die Kontrolle der Crawler-Aktivitäten können Website-Betreiber die Indexierung ihrer Webseiten optimieren, Crawler-Probleme schnell identifizieren und ihre SEO-Strategie kontinuierlich verbessern.
Die Weiterentwicklung von Crawlern wird durch verschiedene technologische Trends und Entwicklungen beeinflusst. Zu den aktuellen Trends zählen unter anderem die verstärkte Nutzung von KI und maschinellem Lernen für intelligente Crawling-Algorithmen, die Anpassung von Crawlern an mobile Endgeräte und Voice Search, die Entwicklung von JavaScript-fähigen Crawlern und die Integration von strukturierten Daten und semantischen Suchtechnologien. Diese Entwicklungen ermöglichen es Crawlern, Webinhalte noch effizienter zu erfassen, zu indexieren und auf die Bedürfnisse der Nutzer anzupassen.
Die Weiterentwicklung von Crawlern hat direkte Auswirkungen auf die SEO-Strategie von Website-Betreibern. Durch die Berücksichtigung technologischer Trends und Entwicklungen können Website-Betreiber ihre SEO-Strategie optimal anpassen und von den neuesten Technologien profitieren. Die Integration von KI- und maschinellem Lernen in Crawler-Algorithmen kann beispielsweise die Indexierungsgenauigkeit verbessern und die Relevanz von Suchergebnissen steigern. Durch das Verständnis und die Nutzung moderner Crawler-Technologien können Website-Betreiber ihre Sichtbarkeit in den Suchmaschinen erhöhen und ihre SEO-Performance kontinuierlich verbessern.
Die Weiterentwicklung von Crawlern bietet sowohl Chancen als auch Risiken für Website-Betreiber. Zu den Chancen zählen eine verbesserte Indexierungsgenauigkeit, schnellere Aktualisierungen im Index, eine höhere Relevanz von Suchergebnissen und eine bessere Nutzererfahrung. Risiken können hingegen in der Komplexität der Technologien, potenziellen Fehlern bei der Implementierung neuer Features, Datenschutzfragen und Abhängigkeiten von Drittanbietern bestehen. Website-Betreiber sollten daher die Chancen und Risiken der Weiterentwicklung von Crawlern abwägen und gezielt Maßnahmen ergreifen, um von den positiven Entwicklungen zu profitieren und potenzielle Risiken zu minimieren.
Ein zukunftsweisender Ausblick für Crawler-Technologien deutet auf eine weiterhin fortschreitende Entwicklung und Anpassung an die sich verändernden Anforderungen im Bereich der Suchmaschinenoptimierung hin. Die Integration von KI, maschinellem Lernen, Voice Search, Mobile-Optimierung und semantischen Suchtechnologien in Crawler-Algorithmen wird voraussichtlich weiter vorangetrieben. Zudem könnten neue Technologien wie Augmented Reality, KI-gestützte Content-Analyse oder personalisierte Suchergebnisse das Potenzial haben, die Funktionalität von Crawlern zukünftig zu erweitern. Website-Betreiber sollten sich auf kontinuierliche Veränderungen und Innovationen in der Crawler-Technologie einstellen und ihre SEO-Strategie entsprechend anpassen.
Datenschutzbestimmungen für Crawler legen fest, wie Daten bei der Indexierung und Analyse von Webinhalten durch Crawler behandelt werden müssen. Da Crawler große Mengen an Daten erfassen und verarbeiten, ist es wichtig, Richtlinien für den Umgang mit personenbezogenen Daten, Cookies, Tracking-Mechanismen und anderen sensiblen Informationen festzulegen. Website-Betreiber sollten sicherstellen, dass ihre Crawler den Datenschutzbestimmungen entsprechen und die Privatsphäre der Nutzer respektieren.
Tracking-Methoden, die von Crawlern eingesetzt werden, um das Nutzerverhalten zu analysieren, könnten Datenschutzbedenken aufwerfen. Daher ist es wichtig, klare Datenschutzrichtlinien zu definieren und transparente Informationen darüber bereitzustellen, wie Daten erfasst, verarbeitet und gespeichert werden. Website-Betreiber sollten Nutzer über die Verwendung von Cookies, das Tracking von Aktivitäten und die Weitergabe von Daten informieren, um das Vertrauen der Nutzer zu gewinnen und die Einhaltung der Datenschutzbestimmungen sicherzustellen.
Die Einhaltung von Datenschutzgesetzen, wie der Datenschutz-Grundverordnung (DSGVO) in der Europäischen Union oder dem California Consumer Privacy Act (CCPA) in den USA, ist für Website-Betreiber von großer Bedeutung. Diese Gesetze legen genaue Anforderungen an den Umgang mit personenbezogenen Daten fest und haben auch Auswirkungen auf die Verwendung von Crawlern. Website-Betreiber sollten sicherstellen, dass ihre Crawler mit den geltenden Datenschutzgesetzen konform sind und die Privatsphäre der Nutzer schützen.
Für einen sicheren Betrieb von Crawlern sollten Website-Betreiber bestimmte Empfehlungen befolgen. Dazu gehören die Anonymisierung von Nutzerdaten, die Verschlüsselung von übertragenen Daten, die Implementierung von Zugriffsbeschränkungen, die regelmäßige Überprüfung der Datenschutzrichtlinien und die Schulung der Mitarbeiter im Umgang mit sensiblen Daten. Durch die Umsetzung dieser Empfehlungen können Website-Betreiber sicherstellen, dass ihre Crawler datenschutzkonform betrieben werden und den Datenschutz der Nutzer respektieren.
Crawler spielen eine zentrale Rolle für die Auffindbarkeit und Sichtbarkeit von Webseiten in den Suchmaschinen. Im Online-Marketing und der SEO ist es entscheidend, die Funktionsweise von Crawlern zu verstehen, um eine effektive SEO-Strategie zu entwickeln und die Performance der eigenen Website zu optimieren. Crawler dienen nicht nur zur Indexierung von Webinhalten, sondern haben auch Einfluss auf das Ranking in den Suchmaschinenergebnissen. Die verschiedenen Arten von Crawlern, die Nutzung von Crawler im SEO, die Gestaltung von Webseiten für eine optimale Indexierung, die Bedeutung von Crawl-Budget, die Behebung von Crawler-Fehlern, die Weiterentwicklung von Crawlern und der Datenschutz sind bedeutende Themen, die Website-Betreiber im Blick behalten sollten.
Es ist entscheidend, die technologischen Trends und Entwicklungen im Bereich der Crawler im Auge zu behalten und die SEO-Strategie kontinuierlich anzupassen, um von den Vorteilen moderner Crawler-Technologien zu profitieren. Die Integration von KI, maschinellem Lernen, Voice Search und anderen innovativen Technologien in Crawler-Algorithmen bieten Chancen, die Sichtbarkeit der eigenen Website zu steigern und die Indexierungsgenauigkeit zu verbessern.
Ein Bereich, dem besondere Beachtung gewidmet werden sollte, ist der Datenschutz im Zusammenhang mit der Nutzung von Crawlern. Datenschutzbestimmungen, Tracking-Richtlinien, die Einhaltung von Datenschutzgesetzen und Empfehlungen für den sicheren Betrieb von Crawlern sind unerlässlich, um die Privatsphäre der Nutzer zu schützen und datenschutzkonform zu agieren.
In einem zunehmend digitalisierten Umfeld sind Website-Betreiber gefordert, ihre Website für die effektive Nutzung von Crawlern zu optimieren und somit die Sichtbarkeit und Auffindbarkeit ihrer Inhalte zu maximieren. Die kontinuierliche Weiterentwicklung von Crawlern und die Berücksichtigung neuer Technologien eröffnen zahlreiche Möglichkeiten, die SEO-Performance zu steigern und die eigenen Ziele im Online-Marketing zu erreichen.
Die Berücksichtigung aller Aspekte rund um Crawler, von der Funktionsweise bis hin zur Datenschutzkompatibilität, ist unerlässlich, um die eigenen Ziele im Online-Marketing zu realisieren und die Sichtbarkeit der eigenen Webseite nachhaltig zu verbessern. Durch eine ganzheitliche Betrachtung und eine kontinuierliche Optimierung der SEO-Strategie können Website-Betreiber langfristig erfolgreich im digitalen Wettbewerb bestehen.