[PYTHON] Ich habe versucht zu kratzen

Freut mich, dich kennenzulernen Das ist Nagamasa Yamada. Ich habe versucht, ein Programm zu erstellen, um Wörter mit einem Schaber nachzuschlagen Ich habe es mit Google Cola Boratory gemacht https://colab.research.google.com/notebooks/welcome.ipynb?hl=ja

Zweck

Erstellen Sie ein Programm, das mit Python nach der Bedeutung von Wörtern sucht

Wie das funktioniert

Eingabe ➡ Informationen im Online-Wörterbuch mit Scraping abrufen ➡ Anzeige

Online-Wörterbuch zu verwenden

1C5E273B-9F1A-4C57-9270-162562B6628E.png

Programm

python


from bs4 import BeautifulSoup
import urllib
import urllib.parse
#Uenoha ist derjenige, der Japanisch codiert
g=input()
m= urllib.parse.quote(g)
url =f'https://dictionary.goo.ne.jp/srch/all/{m}/m0u/'
headers = {
          "User-Agent": "Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:47.0) Gecko/20100101 Firefox/47.0",
          }
request = urllib.request.Request(url, headers=headers)
html = urllib.request.urlopen(request)
soup = BeautifulSoup(html, 'html.parser')
a = soup.select('div[class="example_sentence"] ul[class="content_list idiom lsize"] p[class="text"]')
for x in a:
  print(x.text)

python


from bs4 import BeautifulSoup
import urllib

Dies ist die, die Sie kratzen müssen

python


import urllib.parse

Dies ist die, die Sie codieren müssen

python


g=input()
m= urllib.parse.quote(g)

Dies codiert, was Sie eingeben. Ich habe es hier vergessen und es hat nicht funktioniert

python


url =f'https://dictionary.goo.ne.jp/srch/all/{m}/m0u/'
headers = {
          "User-Agent": "Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:47.0) Gecko/20100101 Firefox/47.0",
          }
request = urllib.request.Request(url, headers=headers)
html = urllib.request.urlopen(request)
soup = BeautifulSoup(html, 'html.parser')
a = soup.select('div[class="example_sentence"] ul[class="content_list idiom lsize"] p[class="text"]')
for x in a:
  print(x.text)

Die URL des Online-Wörterbuchs ersetzt die URL Das Wort, das Sie nachschlagen möchten, steht in {m}

python


a = soup.select('div[class="example_sentence"] ul[class="content_list idiom lsize"] p[class="text"]')

Dies identifiziert den Ort, den Sie kennen möchten.

python


for x in a:
  print(x.text)

Jetzt nehme ich alles in einem heraus (das Ende) Es mag schwer zu verstehen sein, weil ich zum ersten Mal geschrieben habe, aber danke fürs Lesen.

Recommended Posts

Ich habe versucht zu kratzen
Ich habe versucht, mit Python zu kratzen
Ich habe versucht, mit Python zu kratzen
Ich habe PyQ ausprobiert
Ich habe versucht, WebScraping mit Python.
Ich habe AutoKeras ausprobiert
Ich habe es mit Papiermühle versucht
Ich habe versucht, Django-Slack
Ich habe es mit Django versucht
Ich habe es mit Spleeter versucht
Ich habe es mit cgo versucht
Ich habe versucht, Konversationsdaten von ASKfm zu kratzen
Ich habe versucht, Yahoo Wetter zu kratzen (Python Edition)
Ich habe versucht, Argparse zu verwenden
Ich habe versucht, anytree zu verwenden
Ich habe versucht, aiomysql zu verwenden
Ich habe versucht, Summpy zu verwenden
Ich habe Python> autopep8 ausprobiert
Ich habe versucht, Coturn zu verwenden
Ich habe versucht, Pipenv zu verwenden
Ich habe versucht, Matplotlib zu verwenden
Ich habe versucht, "Anvil" zu verwenden.
Ich habe versucht, Hubot zu verwenden
Ich habe versucht, ESPCN zu verwenden
Ich habe PyCaret2.0 (pycaret-nightly) ausprobiert.
Ich habe versucht, openpyxl zu verwenden
Ich habe versucht, tief zu lernen
Ich habe AWS CDK ausprobiert!
Ich habe versucht, Ipython zu verwenden
Ich habe versucht zu debuggen.
Ich habe versucht, PyCaret zu verwenden
Ich habe versucht, Cron zu verwenden
Ich habe Kivys Kartenansicht ausprobiert
Ich habe versucht, ngrok zu verwenden
Ich habe versucht, face_recognition zu verwenden
Ich habe versucht, Jupyter zu verwenden
Ich habe versucht, EfficientDet zu verschieben
Ich habe versucht, Shell zu programmieren
Ich habe versucht, doctest zu verwenden
Ich habe Python> Decorator ausprobiert
Ich habe versucht, TensorFlow auszuführen
Ich habe Auto Gluon ausprobiert
Ich habe versucht, Folium zu verwenden
Ich habe versucht, jinja2 zu verwenden
Ich habe AWS Iot ausprobiert
Ich habe die Bayes'sche Optimierung ausprobiert!
Ich habe versucht, Folium zu verwenden
Ich habe versucht, das Zeitfenster zu verwenden
Ich habe Web Scraping versucht, um die Texte zu analysieren.
Ich habe versucht, Web-Scraping mit Python und Selen
Ich habe versucht, durch Schaben ein Bild zu bekommen
Ich habe Value Iteration Networks ausprobiert
Ich habe fp-Wachstum mit Python versucht
Ich habe die Bildklassifizierung von AutoGluon ausprobiert
Ich habe versucht, mit Elasticsearch Ranking zu lernen!
[Ich habe versucht, Pythonista 3 zu verwenden] Einführung