Ich bin ** Shun ** und studiere Programmieren. Vor kurzem habe ich mich für Python interessiert, also habe ich "** Python verstehen " gelesen. In diesem Buch lernen Sie die grundlegende Syntax von Python und das Web-Scraping kennen. [ Ein Python-Buch, das Sie fließend verstehen können **] (https://www.amazon.co.jp/%E3%82%B9%E3%83%A9%E3%82%B9%E3%83%A9%E3%82%8F%E3%81%8B%E3%82%8BPython-%E5%B2%A9%E5%B4%8E-%E5%9C%AD/dp/4798151092/ref=asc_df_4798151092/?tag=jpgo-22&linkCode=df0&hvadid=295686767484&hvpos=1o1&hvnetw=g&hvrand=17010285472902510266&hvpone=&hvptwo=&hvqmt=&hvdev=c&hvdvcmdl=&hvlocint=&hvlocphy=1009343&hvtargid=pla-526272651553&psc=1&th=1&psc=1/)
Einfach ausgedrückt handelt es sich um eine Technologie, die die gewünschten Informationen auf einer Website extrahiert.
Nachdem ich Web Scraping gelernt habe, werde ich es versuchen. Die Website zum Scraping ist diesmal die offizielle Website von Bandoli (https://bang-dream.com/). Warum haben Sie diese Seite ausprobiert? .. .. Ich wollte das Bild unten.
Ich habe einen Ordner namens Qiita mit VScode erstellt. Ich möchte es in diesem Ordner namens Qiita speichern. Öffnen Sie dann eine Eingabeaufforderung und führen Sie den folgenden Befehl aus. Die Installation wird gestartet.
$ > pip install requests --user
$ > pip install BeautifulSoup4 --user
Nach Abschluss der Installation möchte ich ein Terminal öffnen und prüfen, ob die Installation erfolgreich war.
$ >>> import requests
>>>
$ >>> from bs4 import BeautifulSoup
>>>
Wenn zu diesem Zeitpunkt keine Meldung angezeigt wird, ist die Installation erfolgreich. Wenn hier die folgende Fehlermeldung angezeigt wird, ist die Installation fehlgeschlagen. Überprüfen Sie in diesem Fall, ob der Computer mit dem Internet verbunden ist, und installieren Sie ihn erneut mit dem Befehl pip.
$ >>> import requests
Traceback (most recent call last ) :
File "<stdin>" , line 1 , in <module>
ModuleNotFoundError : No module named " requests "
>>>
Ich habe den folgenden Inhalt im Qiita-Ordner als Qiita01.py gespeichert. Ein Kommentar wird ebenfalls veröffentlicht.
Qiita01.py
import requests
from bs4 import BeautifulSoup
result = requests.get("https://bang-dream.com/")
soup = BeautifulSoup(result.text, "html.parser")
img = soup.find_all('img')
print(img)
import requests
Erklärung zur Verwendung der Anforderungsbibliothek
from bs4 import beautifulsoup
Importieren einer schönen Bibliothek für externe Bibliotheken
result = requests.get("https://bang-dream.com/")Geben Sie hier die URL ein, die Sie kratzen möchten
#### **` soup = BeautifulSoup(result.text, "html.parser")Geben Sie die Zeichenfolge an, die Sie analysieren möchten, und die Art der Verarbeitung, die bei der Verarbeitung von Beautiful Soup tatsächlich analysiert werden soll`**
img = soup.find_all('img')in der find-Methode[img]Geben Sie den Charakter an
|Mesot|Funktion|
|:--------|------|
| find_all() |Sucht nach dem im Zitat angegebenen Tag und gibt eine Liste mit allen Übereinstimmungen zurück|
``` print(img) ```Ausgabe
### Ausgabeergebnis
![キャプチャ03_LI.jpg](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/541905/797a1cf9-34e4-e62a-2cba-6396c4dedbed.jpeg)
Wenn Sie es sich im Terminal ansehen, werden Sie so etwas sehen. Öffnen wir den durch die rote Linie gezeichneten Link. Wenn Sie das folgende Bild sehen, ist das Scraping erfolgreich.
![579de894-5bc4-4371-a0a0-da781af22bfa.jpg](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/541905/68492ed6-94b2-a5ca-f52b-055d71f3eef5.jpeg)
## Impressionen
Warum hast du einen Artikel über rudimentäre Dinge geschrieben? ?? Einige Leute mögen das denken. Die Antwort ist einfach, ich hatte nur so viele Artikel ... Ich möchte Python weiter vertiefen.
Recommended Posts