Il a été rédigé de manière facile à comprendre sur l'importance de l'analyse des données et de l'apprentissage automatique. En outre, il décrit comment et combien d'efforts sont consacrés au ciblage et à l'optimisation des utilisateurs de Gnocy.
J'étais absent de la programmation pendant environ un mois sur le stagiaire, mais j'ai décidé d'étudier dans le but de créer un site de curation gastronomique.
Objectif à court terme: créer un site de curation simple Objectif ultime: un site de curation qui va au-delà de Guru Navi. Fonction de recommandation pour que vous puissiez choisir un magasin sans perdre de temps
L'objectif de cet article: Gratter le journal alimentaire et afficher le nom du magasin et l'URL dans SCV
Je vais l'épeler comme un mémo et un journal
first.py
import csv
import requests
from bs4 import BeautifulSoup
import re
urlName = "https://tabelog.com/osaka/A2701/A270103/rstLst/?SrtT=rt&Srt=D&sort_mode=1"
dataHTML = requests.get(urlName)
soup = BeautifulSoup(dataHTML.content, "html.parser")
elems = soup.select('a.list-rst__rst-name-target.cpy-rst-name')
#data = elems.text
with open(r'C:\Users\daisuke\Desktop\python\first.csv', 'w') as f:
for i in elems:
url = re.search(r'"http.*/"', str(i))
url = re.sub(r'"', '', str(url.group()))
name = re.search(r'target="_blank">.*</a>', str(i))
name = re.sub(r'target="_blank">', '', str(name.group()))
name = re.sub(r'</a>', '', name)
print(url)
print(name)
writer = csv.writer(f)
writer.writerow([name,url])
Recommended Posts