[PYTHON] Ich habe die neuartige API von Naruro ausprobiert

Auslösen

https://qiita.com/dely13/items/5e949a384161c961d8ce Wenn Sie diesen Artikel lesen und nach dem Üben von ~~ play ~~ selbst ausprobieren, ist das Ergebnis anders → Dieser Artikel 2017 Also habe ich versucht, das Neueste herauszubringen (Stand: 29. Juni 2020, 10:00 Uhr)

Die erste Hälfte bleibt wie sie ist

Ich werde den Artikel von @ dely13 so verwenden, wie er ist

dely13.py


import pandas as pd
import requests
import numpy as np
import seaborn as sns
from scipy import stats
import matplotlib.pyplot as plt
%matplotlib inline

url = "http://api.syosetu.com/novelapi/api/"
#Geben Sie die API-Parameter im Wörterbuch an
#Unter dieser Bedingung werden Daten im JSON-Format in der Reihenfolge der Gesamtbewertung ausgegeben.
payload = {'of': 't-gp-gf', 'order': 'hyoka','out':'json'}

st = 1
lim = 500

data = []
while st < 2000:
    payload = {'of': 't-gp-gf-n', 'order': 'hyoka',
          'out':'json','lim':lim,'st':st}
    r = requests.get(url,params=payload)
    x = r.json()
    data.extend(x[1:])
    st = st + lim
df = pd.DataFrame(data)

#Vorverarbeitung ('year'Spalte hinzufügen,'title_len'Spalte hinzufügen)
df['general_firstup'] = pd.to_datetime(df['general_firstup'])
df['year'] = df['general_firstup'].apply(lambda x:x.year)

df['title_len'] = df['title'].apply(len)

Bitte lesen Sie den Originalartikel für Details, da es wirklich so ist, wie es ist

Hauptthema

Im Jahr 2017

Interessante Zahlen. Der Durchschnittswert beträgt 17 Zeichen, was der Anzahl der Zeichen im Haiku entspricht. Mit anderen Worten, der Titel von Naruro war Haiku! Das Geräusch alter Teiche und Frösche, die ins Wasser springen ...

Mir wurde gesagt, aber im Jahr 2020 ...?

df['title_len'].hist()

df['title_len'].describe()

Histogrammdiagramm df ['title_len']. Hist () image.png Daten df ['title_len']. Description ()

count 2000.000000 mean 24.179500 std 15.528356 min 2.000000 25% 12.000000 50% 21.000000 75% 32.000000 max 100.000000 Name: title_len, dtype: float64

Wwwwwww, das durchschnittlich 7 Zeichen erhöht

Und was wirklich interessant ist, ist von hier

per_year.py


title_by_year = df.groupby('year')['title_len'].agg(['mean','count','std']).reset_index()
#Handlung
title_by_year.plot(x='year',y='mean') 
#Daten
title_by_year

Plot title_by_year.plot (x = 'Jahr', y = 'Mittelwert') * Mittelwert = Durchschnitt image.png

Aggregieren Sie "title_by_year"

year mean count std
2008 7.500000 2 2.121320
2009 12.428571 7 8.182443
2010 10.882353 17 5.278285
2011 10.180000 50 4.684712
2012 13.294737 95 6.963237
2013 14.115942 138 8.541930
2014 16.065476 168 8.780176
2015 18.218009 211 9.701245
2016 21.577358 265 12.326472
2017 24.476015 271 11.750113
2018 29.425856 263 13.890288
2019 31.327327 333 15.861156
2020 40.483333 180 22.348053

Fazit

** Der Titel von 2019 wird ein kurzes Lied sein ** Die Person, die ich im Artikel 2017 erraten habe, ist unglaublich. Es ist Don Pisha.

Neben 1

Da es eine große Sache ist, werde ich versuchen, das Maximum und das Minimum zu finden

title_by_year = df.groupby('year')['title_len'].agg(['mean','min','max']).reset_index()
#Handlung
title_by_year.plot(x='year')
#Daten
title_by_year.plot

Plotten Sie title_by_year.plot (x = 'year') image.png

Daten title_by_year

year mean min max
2008 7.500000 6 9
2009 12.428571 5 25
2010 10.882353 2 23
2011 10.180000 4 26
2012 13.294737 3 40
2013 14.115942 3 54
2014 16.065476 4 63
2015 18.218009 3 59
2016 21.577358 2 77
2017 24.476015 4 69
2018 29.425856 5 74
2019 31.327327 4 100
2020 40.483333 4 100

Überschreiten diese 100-Zeichen-Daten nicht die Anzahl der Zeichen ...?

max_100.py


df[['ncode','title','year','title_len']].set_index('ncode').query('title_len==100')
ncode title year title_len
N7855GF Als inkompetent behandelt und von meiner Kindheitsparty verbannt, nutze ich das Geschenk "Übersetzung" voll aus.... 2020 100
N6203GE Ein Schmied, der aus der Diktatur verbannt wurde, tatsächlich unter dem Schutz der "Schmiedegöttin", plötzlich mit voller Ausrüstung der "Super Legendary Class" -Rüstung... 2020 100
N0533FS [Serienversion] Ich habe gesehen, wie das jagende Idol mit einem gutaussehenden Mann spazieren ging, also habe ich mir einen Teilzeitjob gekauft... 2019 100
N4571GF In der 7. Woche der Runde erfuhr ich, dass ich mit meinen gläubigen Freunden ausgestattet war, und in der 8. Runde feierte ich aktiv... 2020 100

... das sind nicht mehr als 100 Zeichen ...?

Als ich nach dem Schreiben des Artikels nachgeschlagen habe, waren es genau 100 Zeichen image.png

Gibt es eine Zeichenbeschränkung? Das ist es, was ich am Limit kämpfe.

Neben 2

Im Gegenteil, ich interessierte mich für Kurztitel

mini_len.py


df.groupby('title_len')['title_len'].agg(['count']).head(9).T

Liste der Korrespondenz zwischen der Anzahl der Zeichen und der Anzahl der Werke Da es länger geworden ist, wird es horizontal platziert

title_len 2 3 4 5 6 7 8 9 10
count 2 8 18 35 41 38 64 75 89

title2_4.py


df[['title','year','title_len']].set_index('title').sort_values('title_len').query('title_len<5')

4 Zeichen sind einige Auszüge

title year title_len
Brief 2016 2
Dämmerung 2010 2
Bogen und Schwert 2013 3
Wasser Grund 2012 3
Grabkönig! 2013 3
Freund aus Kindertagen 2016 3
Sucher 2013 3
Schatten des Turms 2012 3
Vernichtungsperson 2015 3
Katze und Drache 2013 3
Vergessener Heiliger 2020 4
J/53 2012 4
Schwarzer Dämonenkönig 2011 4
Mein Diener 2019 4
Mobs Liebe 2015 4
Salbei Enkel 2015 4
Siebte 2014 4

Sogar ein paar Buchstaben sind berühmt. Ich war beeindruckt von den ehemaligen Moba-Leuten, dass die vier Buchstaben einen "Titel" enthielten.

Impressionen

Ist es der Einfluss der Animation mobiler Romane, den viele Anfänger eingeben, wenn nicht sogar so viel wie Moba (derzeit Ebu)? Ich wurde von Moba trainiert. Selbst wenn es etwas schwierig zu lesen ist, werde ich es lesen, wenn der Inhalt interessant ist, aber trotzdem ist der Titel lang. Ich bin süchtig nach diesem und diesem sind ebenfalls lange Titel. (Ebudato this * Stemmer)

Ich wollte verschiedene Dinge ausprobieren, weil ich die Suchbedingungen mit der Naro-API eingrenzen kann. Was ist, wenn Sie mehr als 2000 Elemente extrahieren möchten ...

Recommended Posts

Ich habe die neuartige API von Naruro ausprobiert
Ich habe die Naro-Roman-API 2 ausprobiert
Ich habe versucht, die checkio-API zu verwenden
Ich habe versucht, die COTOHA-API zu berühren
Ich habe versucht, die BigQuery-Speicher-API zu verwenden
Ich habe versucht, die Qiita-API von Anfang an zu aktivieren
Ich habe versucht, die Google Cloud Vision-API zu verwenden
Ich habe versucht, die Qiita-API zu berühren
Ich habe die Changefinder-Bibliothek ausprobiert!
Ich habe versucht, die API von Sakenowa Data Project zu verwenden
Ich habe versucht, die API mit dem Python-Client von echonest zu erreichen
Ich habe versucht, die Emotionen des gesamten Romans "Wetterkind" zu analysieren
[Erste COTOHA-API] Ich habe versucht, die alte Geschichte zusammenzufassen
Ich habe das TensorFlow-Tutorial als erstes ausprobiert
Ich habe versucht, eine Quip-API zu erstellen
Ich habe das 2. TensorFlow-Tutorial ausprobiert
Ich habe Teslas API berührt
Ich habe versucht, die API-Bibliothek NAPALM für Router-Steuerungen mehrerer Hersteller zu berühren
[Python] Ich habe versucht, Daten mit der API von Wikipedia zu sammeln
Ich habe die Google Cloud Vision-API zum ersten Mal ausprobiert
Ich habe versucht, verschiedene Informationen von der Codeforces-API abzurufen
Ich habe versucht, den Ball zu bewegen
Ich habe versucht, den Abschnitt zu schätzen.
[Für Anfänger] Ich habe versucht, die Tensorflow-Objekterkennungs-API zu verwenden
Ich habe versucht, die COTOHA-API zu verwenden (es gibt auch Code auf GitHub).
TensorFlow Tutorial Ich habe MNIST 3rd ausprobiert
Ich habe den asynchronen Server von Django 3.0 ausprobiert
Ich habe versucht, den Befehl umask zusammenzufassen
Ich habe zum ersten Mal Tensorflow ausprobiert
Ich versuchte das Weckwort zu erkennen
Ich habe versucht, YOUTUBE Data API V3 zu verwenden
Ich bin auf die Hatena Keyword API gestoßen
Ich habe das OSS-Visualisierungstool superset ausprobiert
Ich habe versucht, die UnityCloudBuild-API von Python zu verwenden
Ich habe versucht, die grafische Modellierung zusammenzufassen.
Ich habe versucht, das Umfangsverhältnis π probabilistisch abzuschätzen
Python: Ich habe das Problem des Handlungsreisenden ausprobiert
Ich habe versucht, mit Pillow mit dem Bild zu spielen
Ich habe eine Web-API erstellt
Ich habe das Python Tornado Testing Framework ausprobiert
Ich habe versucht, die Vorhersage-API des maschinellen Lernmodells von WordPress aus aufzurufen
Ich habe versucht zu kratzen
Ich habe PyQ ausprobiert
Ich habe AutoKeras ausprobiert
Ich habe versucht, verschiedene Sätze mit der automatischen Zusammenfassungs-API "summpy" zusammenzufassen.
Ich habe es mit Papiermühle versucht
Ich habe versucht, den Text des Romans "Wetterkind" mit Word Cloud zu visualisieren
Ich habe versucht, die Filminformationen der TMDb-API mit Python abzurufen
Ich habe versucht, Django-Slack
Ich habe es mit Django versucht
Ich habe es mit Spleeter versucht
Ich habe es mit cgo versucht
Ich habe versucht, das Bild mit Python + OpenCV zu "glätten"
Ich habe Web Scraping versucht, um die Texte zu analysieren.
Ich habe versucht, die Detect Labels-API von AWS Rekognition zu verwenden
Ich habe die Pivot-Table-Funktion von Pandas ausprobiert
Ich habe in der Bibliothek nach der Verwendung der Gracenote-API gesucht
Ich habe versucht, Remote API mit GAE / J zu verwenden
[Python] Ich habe versucht, den Funktionsnamen durch den Funktionsnamen zu ersetzen