Kleinanzeigen.de ist eine beliebte Online-Plattform in Deutschland, die es Benutzern ermöglicht, kostenlose Kleinanzeigen zu veröffentlichen oder nach lokalen Angeboten zu suchen. Die Website dient als Vermittler zwischen Verkäufern und Käufern und bietet eine breite Palette von Kategorien, darunter Immobilien, Fahrzeuge, Haustiere, Jobs, Dienstleistungen, Elektronik, Möbel und vieles mehr.
Um Daten aus Kleinanzeigen zu scrapen, können Sie die vorgestellten Templates über Octoparse verwenden. Wir haben schon sowohl Listing-Template als auch Details-Template über Kleinanzeigen. Mit den beiden Templates können Sie direkt die Daten wie Titel, Versandsmethode, Zufriedenheit, Grad usw. erhalten. In diesem Tutorial können Sie auch erfahren, wie man die Produktdaten aus Kleinanzeigen mit Octoparse einen Scraper erstellen kann.
Prüfen Sie bitte die folgenden Schritte, wenn Sie wissen möchten, wie man von Anfang an mit Octoparse ein Task erstellen kann. Wir würden die folgende URL verwenden, um die Daten wie Titel, Adresse, Telefonnummer usw. scrapen.
In der rechten Seitenleiste sind die hauptsächlichen Schritte in diesem Tutorial. [Hier können Sie die Beispiel-Datei downloaden.]
Schritt 1: „Zur Website“ - um die Ziel-Webseite zu öffnen
Geben Sie die URL auf die Startseite ein und dann klicken Sie auf „Starten“.
Schritt 2: „Auf Button klicken“ - um das Cookies-Fenster zu schließen
Wählen Sie den Button „Alle akzeptieren“ im Screen, dann klicken Sie auf „Auf Button klicken“ unter Tipps-Platte, um Cookies zu akzeptieren und danach das Fenster zu schließen.
Schritt 3: Verwendung der Auto-Detektionsfunktion - um einen Workflow zu erstellen
Wählen Sie „Daten der Webseite automatisch detektieren“ und warten Sie darauf, bis die Detektion abgeschlossen ist.
Mit „Automatische Detektionsergebnisse wechseln“ können Sie verschiedenen Workflow erhalten. Einfach nach Bedarf eine geeignete Ergebnisse auswählen!
Klicken Sie auf „Workflow erstellen“. Jetzt wird ein Workflow automatisch erstellt.
Nachdem die Einstellung fertig gemacht wird, können Sie die ausgewählten Datenfelder in der Datenvorschau prüfen und nach Ihren Bedarf sie umbennen, löschen oder bearbeiten, wie Veränderung von XPath oder Hinzufügen von RegEx, damit werden die Daten in struktuierte Formate umgewandelt.
TIPPS
Außer automatischer Detektionsfunktion können Sie auch manuell einen grundlegenden Workflow erstellen.
Prozess 1: Schweben Sie Ihren Mauszeigner auf den Workflow und klicken Sie auf „+“-Zeichen. Fügen Sie eine Schleife im Workflow hinzu.
Prozess 2: Unter Loop-Item wechseln Sie den Modus in „Variable Liste“ und dann geben Sie diesen Matching-XPath in den Kasten ein: //UL[@id="srchrslt-adtable"]/li[position()!="4" and position()!="9" and position()!="14" and position()!="19" and position()!="24"]
Prozess 3: Wählen Sie das Feld wie gewünscht zur Erfassung, dann unter „Daten extrahieren“-Teil können Sie ein entsprechendes Format wählen.
Prozess 4: Scrollen Sie auf diese Seite nach unten. Klicken Sie auf den nächsten Button „>“ und wählen Sie unter Tipps-Platte „Schleife klicken“.
Schritt 4: „Auf URL klicken“- um in die Detailseiten einzugehen
Nachdem wir die Daten aus der Listenseite gescrapt haben, können wir auch weiter in jede Detailseite eingehen, um mehr detaillierte Infos zu erhalten, die nicht auf die Listing enthält werden.
Klicken Sie auf belibige Titel-URL in der Liste und schließlich wählen Sie „Auf URL klicken“ unter Tipps-Platte.
Stellen Sie die Wartezeit als 2s und das AJAX-Timeout als 10s ein, um Kleinanzeigen die genuge Zeit geben zu lassen, dass die Detailseite ganz und voll geladen ist.
Klicken Sie auf „Übernehmen“ zur Speicherung der Einstellungen.
Notiz
Die Funktion von Wartezeit und AJAX-Timeout können Sie in diesem Tutorial ansehen: Umgang mit AJAX
Schritt 5: Elemente auswählen - um Daten aus Detailseiten zu scrapen
Bekommen Sie die Elemente, die Sie scrapen möchten. Die Schritte sind ganz ähnlich wie die auf die Listing, zuerst Elemente anklicken und danach ein Format unter Tipps-Platte wählen.
Gehen Sie zur Datenvorschau, um zu sehen, ob Sie mit dem aktuellen Daten-Output zufrieden sind. In der Datenvorschau können Sie überprüfen, ob Sie nun mit dem Daten-Output zufrieden sind.
Wenn Sie die extrahierten Datenfelder bearbeiten möchten, können Sie einfach auf „...“ klicken und die ausgewählten Datenfelder duplizieren, löschen, verfeinern usw.
Wenn Sie den Namen eines Felder umbenennen möchten, können Sie doppelt auf den Titel des Feldes klicken.
Notiz!
Einige Felder werden nicht genau lokalisiert oder als struktuierte Daten gescrapt, dann benötigen Sie manuell die Anpassung von XPath oder das Hinzufügen des regulären Ausdruckes.
Schritt 6: Starten der Extraktion - um Task durchzuführen und Daten zu erhalten
Klicken auf „Speichern“.
Klicken auf „Starten“.
Wählen „Auf Ihrem Gerät ausführen“, um das Task mit Ihrem lokalen Gerät auszuführen, oder Wählen „In der Cloud ausführen“, um das Task auf unseren Cloud-Servern auszuführen (nur für Premium-Benutzer).
Es ist ein Beispiel-Output: