[PYTHON] Streamlit tutorial traduction japonaise

La traduction japonaise suivante. https://docs.streamlit.io/en/latest/tutorial/create_a_data_explorer_app.html#create-an-app

Créer une application

uber_pickups.py


import streamlit as st
import pandas as pd
import numpy as np

st.title('Uber pickups in NYC')

streamlit run uber_pickups.py Un nouvel onglet s'ouvrira automatiquement.

Obtenez des données

DATE_COLUMN = 'date/time'
DATA_URL = ('https://s3-us-west-2.amazonaws.com/'
         'streamlit-demo-data/uber-raw-data-sep14.csv.gz')

def load_data(nrows):
    data = pd.read_csv(DATA_URL, nrows=nrows)
    lowercase = lambda x: str(x).lower()
    data.rename(lowercase, axis='columns', inplace=True)
    data[DATE_COLUMN] = pd.to_datetime(data[DATE_COLUMN])
    return data

# Create a text element and let the reader know the data is loading.
data_load_state = st.text('Loading data...')
# Load 10,000 rows of data into the dataframe.
data = load_data(10000)
# Notify the reader that the data was successfully loaded.
data_load_state.text('Loading data...done!')

Cette fonction prend un paramètre (nrows) qui spécifie le nombre de lignes que vous souhaitez charger dans le bloc de données.

Dans le coin supérieur droit de l'application, vous verrez plusieurs boutons vous demandant si vous souhaitez réexécuter l'application. Si vous sélectionnez Toujours réexécuter, vos modifications s'afficheront automatiquement à chaque enregistrement.

Économie de travail en espèces

Ajouté comme suit

@st.cache
def load_data(nrows):

Streamlit réexécutera automatiquement l'application lorsque vous enregistrez le script. C'est la première fois que je lance ce script sur @ st.cache, donc rien n'a changé. Jouons un peu plus avec le fichier pour ressentir la puissance du cache.

Modifié comme suit

#Changer avant
data_load_state.text('Loading data...done!')

#Après le changement
data_load_state.text("Done! (using st.cache)")

Pouvez-vous voir que la ligne ajoutée est sortie immédiatement? Prendre du recul, c'est en fait très surprenant. Quelque chose de magique se passe dans les coulisses et il suffit d'une seule ligne de code pour le lancer.

Examiner les données brutes

Ajoutez ce qui suit à la fin

st.subheader('Raw data')
st.write(data)

Dessinez un histogramme

st.subheader('Number of pickups by hour')
hist_values = np.histogram(
    data[DATE_COLUMN].dt.hour, bins=24, range=(0,24))[0]
st.bar_chart(hist_values)

Après un rapide contrôle, il semble que l'heure la plus chargée soit 17h00 (17h00).

J'ai utilisé la méthode native bar_chart () de Streamlit pour dessiner ce diagramme, mais il est important de savoir que Streamlit prend en charge des bibliothèques de graphiques plus complexes telles que Altair, Bokeh, Plotly et Matplotlib. est. Consultez les bibliothèques de graphiques prises en charge pour une liste complète.

Tracer les données sur la carte

En utilisant des histogrammes dans l'ensemble de données d'Uber, nous avons pu identifier les heures les plus chargées du ramassage, mais que se passe-t-il si nous voulions savoir où dans la ville les ramassages étaient concentrés? Ces données peuvent être affichées sous forme de graphique à barres, mais elles ne sont pas faciles à interpréter si vous ne connaissez pas les coordonnées de latitude et de longitude de la ville. Utilisons la fonction Streamlit st.map () pour superposer les données sur une carte de la ville de New York pour montrer la concentration des micros.

st.subheader('Map of all pickups')
st.map(data)

Après avoir dessiné l'histogramme, j'ai trouvé que le moment le plus chargé pour les micros Uber était 17h00. Redessinons la carte pour montrer que les micros sont concentrés à 17h00.

Ajoutez ce qui suit à la fin.

hour_to_filter = 17
filtered_data = data[data[DATE_COLUMN].dt.hour == hour_to_filter]
st.subheader(f'Map of all pickups at {hour_to_filter}:00')
st.map(filtered_data)

Utilisez le curseur

#Changer avant
hour_to_filter = 17

#Après le changement
hour_to_filter = st.slider('hour', 0, 23, 17)  # min: 0h, max: 23h, default: 17h

Utilisez le bouton

#Changer avant
st.subheader('Raw data')
st.write(data)

#Après le changement
if st.checkbox('Show raw data'):
    st.subheader('Raw data')
    st.write(data)

Recommended Posts

Streamlit tutorial traduction japonaise
streamlit explication traduction japonaise
Tutoriel Biopython et traduction japonaise du livre de recettes (4.3)
Tutoriel Biopython et traduction japonaise de Cookbook (4.1)
Tutoriel Biopython et traduction japonaise de Cookbook (4.5)
Tutoriel Biopython et traduction japonaise du livre de recettes (4.8)
Tutoriel Biopython et traduction japonaise du livre de recettes (4.7)
Tutoriel Biopython et traduction japonaise du livre de recettes (4.9)
Tutoriel Biopython et traduction japonaise du livre de recettes (4.6)
Tutoriel Biopython et traduction japonaise du livre de recettes (4.2)
Tutoriel Biopython et traduction japonaise de Cookbook
Traduction japonaise sosreport
[Français] tutoriel hyperopt
Tutoriel Biopython et traduction japonaise du livre de recettes (Chapitre 1, 2)
traduction japonaise man systemd
man systemd.service traduction japonaise
man nftables traduction japonaise
Dockerfile Reference traduction japonaise
docker-compose --aide à la traduction en japonais
docker help traduction en japonais
Notes japonaises du didacticiel SymPy
Tutoriel [PyTorch] (version japonaise) ② ~ AUTOGRAD ~
docker build --aider la traduction en japonais
Traduction japonaise du manuel sysstat
Tutoriel [PyTorch] (version japonaise) ① ~ Tensol ~
Traduction japonaise du manuel Linux
docker run --aider la traduction en japonais
[Français] scicit-learn 0.18 Tutorial Manipulation des données de texte
Docker mysql Quick Reference traduction japonaise
Traduction japonaise du manuel e2fsprogs
[Français] Table des matières du didacticiel scikit-learn 0.18
Traduction japonaise du manuel man-db
Traduction japonaise appropriée de pytorch tensor_tutorial
Traduction japonaise du manuel util-linux
Traduction japonaise du manuel iproute2
Traduction japonaise de documents Apache Spark - Soumission d'applications
Traduction japonaise de documents Apache Spark - Démarrage rapide
[Google App Engine] Objets utilisateur (traduction en japonais)
[Français] scikit-learn 0.18 Tutorial Ressources externes, vidéos, discussion
Mise en route: 30 secondes de traduction en japonais Keras
Tutoriel [PyTorch] (version japonaise) ③ ~ NEURAL NETWORKS (Neural Network) ~
[Français] Tutoriel scikit-learn 0.18 Choisir le bon modèle
Traduction japonaise: PEP 20 - Le Zen de Python