[PYTHON] Scrapy-Redis wird zum Crawlen einer großen Anzahl von Domänen empfohlen

Scrapy-Redis

https://github.com/rolando/scrapy-redis

pip install scrapy_redis

Und ersetzen Sie einfach die Grundeinstellungen.py

Vorteile der Einführung

Abhängig von der Abstimmung kann Scrapy mit 1 Kern etwa 1000 Seiten / Minute erreichen (100% CPU können verbraucht werden). Mit Scrapy-Redis können Sie die Anzahl der Kerne * 1000 Seiten / Minute crawlen.

Recommended Posts

Scrapy-Redis wird zum Crawlen einer großen Anzahl von Domänen empfohlen
Verbinde eine große Anzahl von Videos miteinander!
ETL-Verarbeitung für eine große Anzahl von GTFS-Echtzeitdateien (Python Edition)
Laden Sie eine große Anzahl von Bildern in Wordpress hoch
Organisieren Sie eine große Anzahl von Dateien in Ordnern
Beschleunigen Sie eine große Anzahl einfacher Abfragen in MySQL
[Python] Generieren Sie zufällig eine große Anzahl englischer Personennamen
Das Ausführen einer großen Anzahl von Python3 Executor.submit verbraucht möglicherweise viel Speicher.
TensorFlow Aus einer großen Anzahl von Bildern lernen ... ~ (fast) Lösung ~
Konvertieren Sie eine große Anzahl von PDF-Dateien mit pdfminer in Textdateien
[Beispiel für eine Python-Verbesserung] Was ist die empfohlene Lernseite für Python-Anfänger?
TensorFlow Aus einer großen Anzahl von Bildern lernen ... (ungelöstes Problem) → 12/18 Gelöst
Maximale durchschnittliche Anzahl täglicher Besucher (groß)
Inject wird für DDD in Python empfohlen
Eindrücke von der Verwendung von Flask für einen Monat
[Python] [Meta] Ist der Python-Typ ein Typ?
Einzeiler, der unter Linux eine große Anzahl von Testdateien gleichzeitig erstellt