[PYTHON] Ich habe den Nutzungsstatus des Parkplatzes anhand von Satellitenbildern überprüft.

Überblick

Bisher haben wir Beobachtungsbilder vom Copernicus-Hub, dem Hub der Sentinel-Satellitenbilder, aufgenommen und die Bilder analysiert.

So erhalten Sie kostenlos die neuesten Satellitenbilder. Ich habe versucht, das Beobachtungsbild des künstlichen Satelliten (Sentinel-2) mithilfe der API automatisch zu erfassen.

Ich habe die beobachteten Bilder mit den früheren Bildern und der Gif-Animation der Zeitreihenänderung verglichen, aber die vergangenen Bilder, die von der API erfasst werden können, beziehen sich auf das vergangene Jahr. Wenn Sie längerfristige Trends sehen möchten, verwalten Sie Copernicus separat Ich musste jemanden kontaktieren, um es fertig zu machen. Ich fragte mich, ob dies in Ordnung wäre, weil ich die neuesten Beobachtungsbilder erhalten könnte, aber ein Bekannter fragte mich: "Ich möchte die langfristigen Trends kennen", und ich dachte daran, manuell zu arbeiten. Zu diesem Zeitpunkt, als ich den folgenden Artikel kennenlernte, erfuhr ich, dass ** die früheren Beobachtungsbilder des Sentinel-Satelliten mithilfe von Google Earth Engine online erfasst und analysiert werden können **. Vielen Dank.

[Fortsetzung] Künstliche Satellitenbildanalyse von Google Earth Engine und Google Colab-Satellitenbildanalyse ab kostenlos (Übung) -

Ich kannte Google Earth Engine (im Folgenden GEE), habe es jedoch vermieden, da es nur in der GEE-Umgebung verwendet werden kann und die Sprache nicht Python ist. Dies ist jedoch nicht praktisch, da es mit Google Colaboratory aus dem obigen Artikel verwendet werden kann und Sie es nach dem Erfassen des Beobachtungsbilds von Sentinel nicht wie zuvor verarbeiten müssen! Ich fand, dass es relativ einfach war, also werde ich es vorstellen.

Ein Beispiel für eine Analyse sind die folgenden ** Trends bei der Nutzung von Parkplätzen in Tokyo Disneyland **.

Screenshot from 2020-08-16 10-01-50.png

Ich werde es in diesem Artikel einschließlich der Erläuterung dieses Diagramms vorstellen. Der im Artikel eingeführte Code befindet sich auch auf Github. Wenn Sie ihn also selbst ausprobieren möchten, verwenden Sie ihn bitte. ** Google Colaboratory wird verwendet **, sodass Sie es unabhängig vom PC verwenden können, solange Sie über eine Netzwerkumgebung verfügen **.

1. Zuallererst

Für die Methode zur Schätzung des Nutzungsstatus des Parkplatzes anhand des Satellitenbilds kann beispielsweise der folgende Artikel hilfreich sein.

Wann bist du frei? Disneyland Congestion Prediction Challenge mit kostenlosen Satellitendaten (Teil 1)

Daraus ist ersichtlich, dass das Beobachtungsbild des SAR-Satelliten, der der Satellit des Funkwellensensors ist, auch im Satellitenbild verwendet wird. Das heißt, das optische Beobachtungsbild erfordert ein hochauflösendes Bild von ** 50 cm oder weniger **, um das Fahrzeug zu bestätigen, und ** der Zielbereich muss klar und klar ohne Wolken sein **. Es wird gesagt, dass die Wolkendeckungsrate im asiatischen Raum etwa 30% beträgt. Je nach Standort kann sie viele Tage lang mit Wolken bedeckt sein und ist in Satellitenbildern nicht zu sehen. Im Vergleich dazu ist es bei ** SAR-Bildern schwierig, den Fahrzeugtyp wie ein Auto oder einen LKW ** zu identifizieren. Sie können jedoch qualitativ bewertet werden, wenn eine große Anzahl von Fahrzeugen auf dem Parkplatz geparkt ist. Und weil es nicht von Wolken beeinflusst wird, kann es stabil ausgewertet werden. Im Gegensatz zur Schätzung der Verteilung der Anzahl der Autos anhand von Luftbildern werden wir diesmal den relativen Trend feststellen, wie sich der Nutzungsstatus basierend auf dem Nutzungsstatus des Autos zu einem bestimmten Datum und einer bestimmten Uhrzeit ändert. Daher können auch SAR-Bilder analysiert werden. Es gibt jedoch auch bei demselben SAR-Bild einen Unterschied in der Auflösung, und ich möchte, wenn möglich, ein hochauflösendes SAR-Bild verwenden, aber ** das Beobachtungsbild des Sentinel-1-Satelliten, das frei ist und regelmäßig beobachtet wird ** Ich werde es benutzen. Die Dichte von Strukturen wie Autos auf dem Parkplatz basierend auf dem SAR-Bild kann zu einem gewissen Grad aus dem Bild abgeleitet werden. Ich habe kein zeichnendes Herz, daher werde ich auf verwandte Artikel verweisen.

Screenshot from 2020-08-16 10-34-57.png Kihon der Satellitendaten - Verständnis, Typ, Frequenz, Auflösung, Anwendungsfall ~

Der SAR-Satellit bestrahlt die Erde mit Radiowellen und bildet die Intensität des reflektierten Signals ab. Zu diesem Zeitpunkt werden ** Radiowellen aus einer schrägen Richtung in Bezug auf die Bodenoberfläche emittiert **. Wenn also die Bodenoberfläche flach ist, wie in der Abbildung gezeigt, liegen viele Dinge in der Einfallsrichtung der Radiowellen, dh des Satelliten, der die emittierten Radiowellen empfängt. Es reflektiert in die entgegengesetzte Richtung. Daher ** Wenn die Zielbodenfläche flach ist, ist das empfangene Signal schwach und das Bild dunkel. Die Wasseroberfläche von Seen und Meer ist extrem flach, daher sieht es dunkler aus **. Wenn es dagegen eine Struktur wie ein Gebäude, ein Gebäude oder ein Auto gibt, ist das Objekt uneben, sodass mehr Funkwellen in die gleiche Richtung wie die Einfallsrichtung reflektiert werden und das Bild hell aussieht. Zum Beispiel ist das Beobachtungsbild des Radiosatelliten von Tokyo Disneyland wie folgt.

Screenshot from 2020-08-16 10-41-01.png

Sie können die Einrichtungen in Disneyland sehen. Wie Sie wahrscheinlich wissen, wenn Sie nach Disneyland gefahren sind, können Sie sehen, dass es einen Parkplatz gibt, der breit und flach ist, so dass es dunkel aussieht. Wenn ein Auto auf diesem Parkplatz geparkt ist, sieht es hell aus. Daher besteht die Bewertungsmethode dieses Mal darin, den Nutzungsstatus des Parkplatzes relativ zu schätzen, indem die Helligkeit des Parkplatzbereichs bewertet wird. Die diesmal verwendeten künstlichen Satelliten sind Sentinel-1 und 2, die von der Europäischen Weltraumorganisation entwickelt und betrieben werden. Einzelheiten hierzu finden Sie in den folgenden Artikeln.

So erhalten Sie kostenlos die neuesten Satellitenbilder.

Das beobachtete Bild der Analysebewertung ist Sentinel-1, ein SAR-Satellit. Sentinel-1 besteht aus zwei Satelliten, ** einer hat 12 Tage Rückgabetage ** (was bedeutet, dass er alle 12 Tage unter denselben Bedingungen denselben Bereich durchquert), aber er besteht aus zwei. Daher beobachten wir viele Gebiete ** einmal alle 6 Tage **. Diese ** regelmäßige Beobachtung ** ist ein Hauptmerkmal des Sentinel-Satelliten und ein Vorteil für die Benutzer. Screenshot from 2020-08-16 10-50-29.png [Sentinel-1 Observation Scenario] (https://sentinel.esa.int/web/sentinel/missions/sentinel-1/observation-scenario)

Außerdem ist die Beobachtungszeit künstlicher Satelliten nahezu festgelegt ** für optische Satelliten gegen 10:30 Uhr und für SAR-Satelliten gegen 6:00 Uhr und 18:00 Uhr **.  Screenshot from 2020-08-16 10-54-14.png Kannst du Leute vom künstlichen Satelliten sehen? ~ Per Satellit, Bodenauflösung / Ortszeitzusammenfassung ~

In Sentinel-1, das zuvor eingeführt wurde, beträgt die Beobachtungszeit 6:00 Uhr für Satellit A und 18:00 Uhr für Satellit B. Wenn daher Satellit A verwendet wird, wird die Parksituation am frühen Morgen bewertet. Ich denke, dass es selten vorkommt, dass Leute ab diesem Zeitpunkt auf dem Parkplatz warten, deshalb habe ich dieses Mal nur das Beobachtungsbild des ** B-Satelliten ** verwendet. Zusätzlich zu dieser Parkplatzbewertung wird empfohlen, dass diejenigen, die den Sentinel-1-Satelliten für die Zeitreihenbewertung verwenden, nur die Beobachtungsbilder des A-Satelliten oder des B-Satelliten verwenden. Da sich die Beobachtungsrichtung je nach Satellit unterscheidet, ist bei der Bewertung einer hohen Struktur wie eines Gebäudes die Bestrahlungsrichtung der Funkwelle unterschiedlich und der Schatten ändert sich, sodass ein einfacher Vergleich von vorne nach hinten einen anderen Unterschied als die Zeitkomponente verursacht. .. Als nächstes werden wir die Erfassung von Satellitenbildern von GEE und deren Auswertung vorstellen.

2. Erfassung und Auswertung von Satellitenbildern

2.1 Umweltvorbereitung (Bau).

Weitere Informationen zum Erfassen von Satellitenbildern mit GEE finden Sie im folgenden Artikel. Künstliche Satellitenbildanalyse durch Google Earth Engine und kostenlose Google Colab-Satellitenbildanalyse (Einführung) - ** Einfach kostenlos zu verwenden, wenn Sie ein Google-Konto haben **. Es ist eine erstaunliche Welt geworden. Die erfassten Daten wie Satellitenbilder werden in Google Drive gespeichert. Da der Code und die Daten bei jeder Verwendung von Google Colaboratory gelöscht werden, ist es praktisch, die Daten in Ihrem eigenen Google Drive zu haben. Da die Kapazität von Google dirve für die kostenlose Nutzung jedoch 20 GB beträgt, wird es leer, sobald ein großes Satellitenbild heruntergeladen wird. Löschen Sie es daher gegebenenfalls. Lassen Sie mich nun den Code vorstellen.

import ee
import numpy as np
import matplotlib.pyplot as plt

ee.Authenticate()
ee.Initialize()

Führen Sie dies zunächst aus, um die GEE-Verbindung zu authentifizieren. Wenn Sie es ausführen, wird der Link zurückgegeben. Klicken Sie darauf, um den Authentifizierungsvorgang durchzuführen, kopieren Sie den Zugangscode und geben Sie ihn ein.

Authentifizieren Sie anschließend die Verbindung zu Google Drive. Auch hier entspricht der Ablauf der GEE-Zertifizierung.

from google.colab import drive
drive.mount('/content/drive')

Als Nächstes führen wir Aufgaben wie das Anzeigen der erfassten Satellitenbilder und das Installieren der für deren Digitalisierung und Analyse erforderlichen Module aus.

#Paketinstallation&importieren
!pip install rasterio
import numpy as np
import matplotlib.pyplot as plt
import rasterio

import json
import os
import glob

import time
from datetime import datetime
from dateutil.parser import parse

Häufig verwendete Module sind bereits in Google Colaboratory installiert, sodass keine zusätzlichen Arbeiten erforderlich sind. Dieses Mal verwenden wir jedoch Geotiff, ein Bild mit hinzugefügten Karteninformationen, das für die Bildverarbeitung erforderlich ist ** Rasterio Installieren **.

Installieren Sie als Nächstes ein Modul namens ** folium **, um den festgelegten Zielbereich auf der Karte zu überprüfen.

!pip install folium

import folium

Nachdem die Umgebung bereit ist, nehmen Sie das Satellitenbild von GEE auf.

2.2 Festlegen des interessierenden Bereichs (Zielbereich)

Um Satellitenbilder von GEE zu erfassen, müssen Sie die Breiten- / Längengrade des Zielgebiets eingeben, an dem Sie interessiert sind. Ich erinnere mich irgendwie an den Breiten- und Längengrad Japans aus dem Geographieunterricht in der Schule und auf der ganzen Welt, aber wie groß ist der Längen- und Breitengrad meines Zuhauses? Selbst wenn es gesagt wird, denke ich, dass Sie es endlich herausfinden können, indem Sie suchen und suchen. (Natürlich erinnere ich mich auch nicht.) Deshalb habe ich Folgendes gemacht, damit der Breiten- und Längengrad des interessierenden Gebiets leicht untersucht und ermittelt werden kann.

#Erfassung von Polygoninformationen des interessierenden Bereichs.
from IPython.display import HTML
HTML(r'<iframe width="1000" height="580" src="https://gispolygon.herokuapp.com/" frameborder="0"></iframe>')

Wenn Sie dies ausführen, wird der folgende Bildschirm angezeigt.

Screenshot from 2020-08-16 11-17-18.png

Wählen Sie nach dem Erweitern des interessierenden Bereichs das quadratische Polygon aus dem Symbol links aus, um das Polygon des interessierenden Bereichs anzuzeigen. Klicken Sie anschließend auf ** Features anzeigen **, um die geografischen Informationen des Polygons im rechten Fenster anzuzeigen. Klicken Sie dann unten auf ** Kopieren **, um diese geografischen Informationen zu kopieren. Im Fall des Parkplatzes von Tokyo Disneyland, der das Ziel dieser Zeit ist, wird dies beispielsweise wie folgt sein. Screenshot from 2020-08-16 11-21-39.png

Fügen Sie dann die kopierten Karteninformationen unten ein und geben Sie sie ein.

A = {"type":"FeatureCollection","features":[{"properties":{"note":"","distance":"1127.16 m","drawtype":"rectangle","area":"11.71 ha"},"type":"Feature","geometry":{"type":"Polygon","coordinates":[[[139.87487004138532,35.63225823758155],[139.87487004138532,35.6360949926148],[139.87790093757215,35.6360949926148],[139.87790093757215,35.63225823758155],[139.87487004138532,35.63225823758155]]]}}]}

Diese geografischen Informationen werden im Eingabeformat für GEE und zur Anzeige in Folium verarbeitet.

#Legen Sie einen beliebigen Dateinamen fest, der in Zukunft verwendet werden soll. Zum Beispiel der Name des Gebiets.
object_name = 'Tokyo_TDL2'
with open(str(object_name) +'_2.geojson', 'w') as f:
    json.dump(A, f)

json_file = open(str(object_name) +'_2.geojson')
json_object = json.load(json_file)

#Nur die Breiten- / Längengradinformationen des interessierenden Gebiets werden aus json extrahiert.
AREA = json_object["features"][0]["geometry"]['coordinates'][0]

area = pd.DataFrame(AREA, columns=['longtitude', 'latitude'])

area_d =[[area['longtitude'].min(), area['latitude'].max()],
 [area['longtitude'].max(), area['latitude'].max()],
 [area['longtitude'].max(), area['latitude'].min()],
 [area['longtitude'].min(), area['latitude'].min()],
 [area['longtitude'].min(), area['latitude'].max()]]

AREA = area_d

Lassen Sie uns nun den eingestellten Bereich von Interesse überprüfen.

m = folium.Map([(AREA[0][1]+AREA[len(AREA)-2][1])/2,(AREA[0][0]+AREA[len(AREA)-3][0])/2], zoom_start=15)

folium.GeoJson(str(object_name) +'_2.geojson').add_to(m)
m

Ausgabe Screenshot from 2020-08-16 11-28-17.png

2.3 Aufnahme von Satellitenbildern von GEE

Viele Satellitenbilder und viele bereits analysierte Informationen werden in GEE eingestellt. Weitere Informationen finden Sie unter Datenkatalog. Sentinel-1 und 2 sind wie folgt.

Sentinel-1 SAR GRD: C-band Synthetic Aperture Radar Ground Range Detected, log scaling Sentinel-2 MSI: MultiSpectral Instrument, Level-1C

Auf dieser Seite können ** Sentinel-1-Beobachtungsbilder ab dem 3. Oktober 2014 ** und ** Sentinel-2-Daten ab dem 23. Juni 2015 ** verwendet werden. Für das Beobachtungsbild von Sentinel-2 wird auch ein Bild der Stufe 2A der atmosphärischen Korrektur mit entferntem Nebel der Atmosphäre erstellt, aber nur das Bild nach dem 28. März 2017, als die Analyse zum Standard wurde, wird anvisiert. Es wird. Wenn Sie ein älteres Beobachtungsbild verwenden möchten, verwenden Sie dieses Bild.

Holen Sie sich jetzt die Bilder von Sentinel-1 und 2 von GEE und speichern Sie sie im Google-Labor.

Bereiten Sie zunächst das Format der in GEE einzustellenden geografischen Informationen vor.

region=ee.Geometry.Rectangle(area['longtitude'].min(),area['latitude'].min(), area['longtitude'].max(), area['latitude'].max())

Stellen Sie als Nächstes die Parameter der zu erfassenden Informationen ein. Dieses Mal werden der Zeitraum des erfassten Bildes und das Speicherziel des erfassten Bildes angegeben.

#Geben Sie den Zeitraum an
from_date='2019-01-01'
to_date='2020-08-31'

#Ordnername zum Speichern
dir_name_s1 = 'GEE_Sentinel1_' + object_name
dir_name_s2 = 'GEE_Sentinel2_' + object_name

Lassen Sie uns nun die Bildbedingungen für Sentinel-1 und 2 festlegen.

def cloudMasking(image):
    qa = image.select('QA60')
    cloudBitMask = 1 << 10  
    cirrusBitMask = 1 << 11
    mask = qa.bitwiseAnd(cloudBitMask).eq(0).And(qa.bitwiseAnd(cirrusBitMask).eq(0))
    return image.updateMask(mask).divide(10000)

def ImageExport(image,description,folder,region,scale):
    task = ee.batch.Export.image.toDrive(image=image,description=description,folder=folder,region=region,scale=scale)
    task.start()

Sentinel1 = ee.ImageCollection('COPERNICUS/S1_GRD').filterBounds(region).filterDate(parse(from_date),parse(to_date)).filter(ee.Filter.eq('orbitProperties_pass', 'ASCENDING')).select(['VV'])
Sentinel2 = ee.ImageCollection('COPERNICUS/S2').filterBounds(region).filterDate(parse(from_date),parse(to_date)).filterMetadata('CLOUDY_PIXEL_PERCENTAGE','less_than', 20).map(cloudMasking).select(['B4','B3','B2'])

imageList_s1 = Sentinel1.toList(300)
imageList_s2 = Sentinel2.toList(300) 

Informationen zu den obigen Einstellungen finden Sie in diesem Artikel. [6. Lokale GEE-Ausführung durch Python](https://sites.google.com/site/mizuochipublic/%E5%AE%9F%E8%B7%B5%E3%82%B3%E3%83%B3 % E3% 83% 86% E3% 83% B3% E3% 83% 84-Fernerkundungs-Tutorials / Google Earth-Engine% E5% 85% A5% E9% 96% 80/6-Python% E3% 81 % AB% E3% 82% 88% E3% 82% 8B% E3% 83% AD% E3% 83% BC% E3% 82% AB% E3% 83% AB% E3% 81% 8B% E3% 82% 89 % E3% 81% AEgee% E5% AE% 9F% E8% A1% 8C) Basierend auf dem Obigen werden die Einstellung des Beobachtungsbildes von Sentinel-1 und das Löschen des Wolkenbildes in Sentinel-2 hinzugefügt.

Da das Beobachtungsbild von Sentinel-1 nur das Beobachtungsbild von Satellit B um 18:00 Uhr verwendet, wird hier 'ASCENDING' in'orbitProperties_pass 'ausgewählt. Wenn Sie "Absteigend" einstellen, wird das Beobachtungsbild um 6:00 Uhr angezeigt.

Unter den oben genannten Bedingungen für die Satellitenbildaufnahme werden nun die Bilder der interessierenden Bereiche von Sentinel-1 und Sentinel-2 aufgenommen.

for i in range(imageList_s1.size().getInfo()):
    image = ee.Image(imageList_s1.get(i))
    ImageExport(image.reproject(crs='EPSG:4326',scale=10),image.get('system:index').getInfo(),dir_name_s1,region['coordinates'][0],10)
for i in range(imageList_s2.size().getInfo()):
    image = ee.Image(imageList_s2.get(i))
    ImageExport(image.reproject(crs='EPSG:4326',scale=10),image.get('system:index').getInfo(),dir_name_s2,region['coordinates'][0],10)

2.4 Anzeige von Satellitenbildern und Auswertung von Zeitreihendaten

Zeigen Sie das aufgenommene Satellitenbild an und bestätigen Sie es. Satellitenbilder werden in dem Verzeichnis (Ordner) gespeichert, das auf meinem Laufwerk von Google Drive festgelegt ist. Rufen Sie es an und zeigen Sie es an. Zunächst aus dem Beobachtungsbild von Sentinel-2.

#Visualisierung in chronologischer Reihenfolge
s2_path = '/content/drive/My Drive/' + dir_name_s2 + '/'
files =os.listdir(s2_path)
files.sort()

plt.figure(figsize=(25, 25))
j=0

v = len(files)//5 +1 
for i in range(len(files)):
  #Erfassen und visualisieren Sie Bilder Szene für Szene
  with rasterio.open(s2_path + files[i]) as src:
      arr = src.read()
  j+=1#Verschieben und platzieren Sie die Plotposition des Bildes
  plt.subplot(v,5,j)
  arrayImg = np.asarray(arr).transpose(1,2,0).astype(np.float32)*2 #Die Helligkeit wird durch Verdoppeln der Helligkeit korrigiert.
  plt.imshow(arrayImg)
  plt.title(files[i][0:8])#Datum vom Dateinamen abrufen
  #plt.tight_layout()

Screenshot from 2020-08-16 11-52-58.png

** Die Auflösung des beobachteten Bildes von Sentinel-2 beträgt 10 m **, was es schwierig macht, das Modell des Autos zu identifizieren. Dieses Mal wird das Beobachtungsbild von Sentinel-2 nicht zur Auswertung verwendet, aber Sie können sich einen Überblick darüber verschaffen, wie der Parkplatz war, als das Beobachtungsbild von Sentinel-1 aufgenommen wurde. Die aktuelle Situation ist nicht bekannt, da Tokyo Disneyland vor mehr als ein paar Jahren nicht mehr besucht wurde. Auf dem Straßenparkplatz wurde jedoch ein mehrstöckiger Parkplatz oder eine Art Gebäude (oben links) gebaut, und 2019, als das Beobachtungsbild aufgenommen wurde. Es könnte im Januar im Bau sein. Als nächstes wird das beobachtete Bild von Sentinel-1 angezeigt.

#Visualisierung in chronologischer Reihenfolge
s1_path = '/content/drive/My Drive/' + dir_name_s1 + '/'
files =os.listdir(s1_path)
files.sort()

plt.figure(figsize=(20, 40))
j=0

v = len(files)//5 +1 
for i in range(len(files)):
  #Erfassen und visualisieren Sie Bilder Szene für Szene
  with rasterio.open(s1_path + files[i]) as src:
      arr = src.read()
  j+=1#Verschieben und platzieren Sie die Plotposition des Bildes
  plt.subplot(v,5,j)
  plt.imshow(arr[0], cmap='gray')
  plt.title(files[i][33:41])#Datum vom Dateinamen abrufen
  plt.tight_layout()

Screenshot from 2020-08-16 11-57-09.png Das beobachtete Bild des SAR-Satelliten ist ein Schwarzweißbild, und es ist allein daraus nicht klar. Das zuvor bestätigte Beobachtungsbild von Sentinel-2 ist nützlich, um dieses Bild zu verstehen.

Als nächstes finden Sie den integrierten Wert des Signals (Helligkeit) jedes beobachteten Bildes von Sentinel-1 und erfassen den Trend.

#Zeitreihendiagramm des Gesamtwerts der Reflexionsintensität in der Fläche
sum_signal = []
label_signal = []
for i in range(len(files)):
  #Erfassen und visualisieren Sie Bilder Szene für Szene
  with rasterio.open(s1_path + files[i]) as src:
      arr = src.read()
  sum_signal.append(arr.sum())
  label_signal.append(files[i][33:41])

#Visualisierung
fig,ax = plt.subplots(figsize=(15,6))
plt.plot(sum_signal, marker='o')
ax.set_xticks(np.arange(0,len(files)))
ax.set_xticklabels(label_signal, rotation=90)
plt.title('Trend in parking lot usage at TDL.')
plt.xlabel('date')
plt.show()

Screenshot from 2020-08-16 12-00-03.png

Die horizontale Achse ist das Beobachtungsdatum und die vertikale Achse ist der integrierte Wert der Signale des beobachteten Bildes (der integrierte Wert der Signale des gesamten Bildes). Der Wert auf der vertikalen Achse hat keine physikalische Bedeutung, wird jedoch anhand des Werts vom 18. Januar 2019 bewertet. Der Wert steigt von Januar bis März 2019. Betrachtet man das Beobachtungsbild von Sentinel-2, so wurde in diesem Zeitraum auf dem Parkplatz ein Gebäude (dreidimensionaler Parkplatz?) Errichtet, und diese Struktur erhöhte das Signal des SAR-Bildes (erhöhte Gebäudedichte im Zielgebiet). ) Wahrscheinlich deswegen. Danach gab es bis Ende Januar 2020 keine wesentlichen Änderungen, obwohl sie leicht schwankten, aber bis Februar 2020 fiel der Wert stark und blieb erhalten. Dies wird als ** Auswirkung der Ausbreitung des neuen Koronavirus ** angesehen. Tatsächlich wurde ** Tokyo Disneyland ab dem 29. Februar 2020 ** suspendiert und hat den Betrieb ab dem 1. Juli wieder aufgenommen. Mit der Wiederaufnahme des Betriebs stieg der Wert, ging aber im August wieder zurück. Ich denke, dies hat den Effekt, dass sich die Infektion erneut ausbreitet. Ich denke, es wurde erwartet, dass viele Leute während der Sommerferien zum Veranstaltungsort kommen würden, aber ich denke, die schwierige Situation hält an. Wir hoffen, dass der Themenpark wieder an einen unterhaltsamen Ort zurückkehrt und gleichzeitig versucht, die Ausbreitung der Infektion zu verhindern.

3. Schließlich

Wir haben ein Beispiel für die Erfassung und Analyse von Satellitenbildern mit der von Google bereitgestellten Google Earth Engine vorgestellt. Dieses Mal haben wir den Nutzungsstatus von Parkplätzen in Disneyland angestrebt, aber ** das SAR-Signal wird mit zunehmender Anzahl von Strukturen im Zielgebiet zunehmen **, sodass es auch für Trends im Entwicklungsstatus von anderen städtischen Gebieten als Parkplätzen verwendet werden kann. Ich denke, es kann angewendet werden. Ich hoffe, dass dies eine Gelegenheit für mehr Menschen sein wird, sich für Satellitenbilder zu interessieren. Wenn Sie Kommentare oder Fragen haben, können Sie diese gerne kommentieren. Ich bin glücklich.

Referenzartikel

So erhalten Sie kostenlos die neuesten Satellitenbilder. Ich habe versucht, das Beobachtungsbild des künstlichen Satelliten (Sentinel-2) mithilfe der API automatisch zu erfassen. Erstellen Sie eine geschätzte Verbreitungskarte von Autos aus künstlichen Satellitenbildern von PyTorch.

[Fortsetzung] Künstliche Satellitenbildanalyse von Google Earth Engine und Google Colab-Satellitenbildanalyse ab kostenlos (Übung) - Künstliche Satellitenbildanalyse durch Google Earth Engine und kostenlose Google Colab-Satellitenbildanalyse (Einführung) - [6. Lokale GEE-Ausführung durch Python](https://sites.google.com/site/mizuochipublic/%E5%AE%9F%E8%B7%B5%E3%82%B3%E3%83%B3 % E3% 83% 86% E3% 83% B3% E3% 83% 84-Fernerkundungs-Tutorials / Google Earth-Engine% E5% 85% A5% E9% 96% 80/6-Python% E3% 81 % AB% E3% 82% 88% E3% 82% 8B% E3% 83% AD% E3% 83% BC% E3% 82% AB% E3% 83% AB% E3% 81% 8B% E3% 82% 89 % E3% 81% AEgee% E5% AE% 9F% E8% A1% 8C)

Kihon der Satellitendaten - Verständnis, Typ, Frequenz, Auflösung, Anwendungsfall ~ Kannst du Leute vom künstlichen Satelliten sehen? ~ Per Satellit, Bodenauflösung / Ortszeitzusammenfassung ~

Sentinel-1 SAR GRD: C-band Synthetic Aperture Radar Ground Range Detected, log scaling Sentinel-2 MSI: MultiSpectral Instrument, Level-1C

Recommended Posts

Ich habe den Nutzungsstatus des Parkplatzes anhand von Satellitenbildern überprüft.
Lassen Sie uns den Entwicklungsstatus der Stadt anhand des Satellitenbildes erraten.
Ich habe versucht, den Trend der Anzahl der Schiffe in der Bucht von Tokio anhand von Satellitenbildern zu ermitteln.
Ich habe den Inhalt des Docker-Volumes überprüft
Ich habe die Optionen von copyMakeBorder von OpenCV überprüft
Ich habe die Liste der Tastenkombinationen von Jupyter überprüft
Ich habe die Sitzungsaufbewahrungsdauer von Django überprüft
Ich habe die Verarbeitungsgeschwindigkeit der numpy eindimensionalisierung überprüft
Visualisierte den Nutzungsstatus der Spüle im Unternehmen
Ich möchte Bilder von Katzen von Instagram erkennen
Ich verglich die Identität der Bilder nach Hu Moment
Ich habe die Ausgabespezifikationen von Bidirectional LSTM von PyTorch überprüft
Ich habe das Standardbetriebssystem und die Shell der Docker-Maschine überprüft
Ich möchte viele Prozesse von Python aus starten
Ich habe vom Terminal getwittert!
Ich habe das Bild der Science University auf Twitter mit Word2Vec überprüft.
Existenz aus Sicht von Python
Visualisieren Sie den Antwortstatus der Volkszählung 2020
Ich habe den Betrag der Schenkungssteuer überprüft
Ich habe versucht, die Vorhersage-API des maschinellen Lernmodells von WordPress aus aufzurufen
Identifizieren Sie den YouTube-Kanal des Hikakin-Videos anhand von Miniaturbildern mithilfe von CNN
Ich habe die Anzahl der bundesweit geschlossenen und eröffneten Geschäfte von Corona überprüft