Hallo allerseits, das Spiel Play-by-Play-Video: TV: Spaß: Lächeln: Jetzt, wo uns kalt geworden ist Seien Sie vorsichtig beim Management der körperlichen Verfassung: Tee: Pazudora, Monsuto, Gacha: Edelstein: Haben Sie gezeichnet? Wie war Pazudoras Godfest? Grüner Odin kam heraus: +1:
Übrigens von O'Reilly [Praktisches maschinelles Lernsystem (Amazon)](http://www.amazon.co.jp/gp/product/4873116988/ref=as_li_tf_tl?ie=UTF8&camp=247&creative=1211&creativeASIN=4873116988&linkCode=as& 22) wurde veröffentlicht. Da ich es ausleihen konnte, werde ich etwas schreiben, das beim Starten des maschinellen Lernens hilfreich sein wird, unter Bezugnahme auf "Klassifizierung des Musikgenres": music_note: in diesem Kapitel 9: Lächeln: Für Anfänger: Ausruf: Schwieriger Überlassen Sie die Theorie und Anwendung großartigen Menschen
Lassen Sie den Computer etwas erkennen! ⇒ Für ⇒ Lassen Sie uns vorerst die Eigenschaften des Ziels erfassen! Wenn die Funktionen nahe beieinander liegen, sind sie ähnlich! ⇒ Für ⇒ Wir analysieren und analysieren und machen das Ziel numerisch!
Es ist seltsam japanisch, das Ziel zu einer Zahl zu machen: heat_drops: Es scheint in schwierigen Worten wie "Extrahiere die Feature-Menge" zu sagen.
Kapitel 9 von Buch: Praktisches maschinelles Lernsystem Ich werde die Klassifizierung des Musikgenres in aufgreifen. Es gibt aber nur 20 Seiten. Sie können nicht alles auf Seite 20 verstehen, daher kommt es nach und nach mit dem Gefühl, die Lautstärke zu erhöhen.
** Wenn Sie keine peripheren Kenntnisse haben, wird es aufgrund eines Fehlers nicht funktionieren, daher werde ich diesen Bereich ergänzen **
Musikgenres sind im Buch klassifiziert. Ich interessiere mich nicht für das Musikgenre, deshalb werde ich es mit einem Live-Video des Spiels auf YouTube versuchen. Ich weiß nicht, ob es funktionieren wird: schreien:
Entschuldigung an alle MAC-Benutzer: schluchzen:
--ffmpeg (wird verwendet, um Audio von Video zu trennen)
--windows7 (64bit)
Es ist an der Reihe von ffmpeg, die jeder liebt.
ffmpeg -i input.mp4 -map 0:1 test.wav
Extrahieren Sie die Stimme mit einer solchen Welle.
** Ein Modul namens scipy, das für die Analyse verwendet wird, kann Dateien im WAV-Format direkt lesen. Bereiten Sie sich daher unbedingt im WAV-Format vor. ** ** **
Ich denke mp3, aac sind wohl nicht gut
Starten Sie Python Interpreter über das Startmenü.
>>>
Die Eingabeaufforderung sieht folgendermaßen aus.
>>> import os
>>> os.getcwd()
>>> os.chdir("/work/tmp")
Ich werde das Gefühl haben, dass es in dem Buch vorgestellt wird
import scipy
from matplotlib.pyplot import specgram
sample_rate, X = scipy.io.wavfile.read("test.wav")
print sample_rate, X.shape
specgram(X, Fs=sample_rate, xextent=(0,30))
↑ ist ein Beispiel, das im Buch erscheint, aber wenn ich das so gemacht habe, ist ein Fehler aufgetreten.
AttributeError: 'module' object has no attribute 'io'
Oder sowas ähnliches. Ich werde importieren, was ich brauche.
from scipy import io
from scipy.io import wavfile
Danach wieder
specgram(X, Fs=sample_rate, xextent=(0,30))
Dann sind die Zahlen durcheinander: + 1: Es hat funktioniert. Sie werden hier jedoch wahrscheinlich denken: "Es ist kein Diagramm! Sie können kein Diagramm erstellen, selbst wenn Sie das tun, was ich im Buch geschrieben habe: Buch :!"
Ja, ich kann nicht.
import matplotlib.pyplot as plt
pxx, freq, bing, t = plt.specgram(X, Fs=sample_rate, xextent=(0,30))
plt.show()
Wenn Sie dies mögen, wird ein neues Fenster geöffnet und Sie sehen eine Grafik.
pxx, freq, bing, t = plt.specgram(X, Fs=sample_rate, xextent=(0,30))
Bei der Ausführung von ↑ kann ein Fehler auftreten
Die von Ihnen verwendete WAV-Datei ist möglicherweise zu groß. Mit ffmpeg schneiden: Schere :. Audacity: Sound: Sie können es verwenden. Audacity ist möglicherweise einfacher, da es über eine grafische Benutzeroberfläche verfügt.
ffmpeg -ss 0 -i test.wav -t 30 -c:a copy short.wav
Lassen Sie es uns in den ersten 30 Sekunden so schneiden. Nachdem,
sample_rate, X = scipy.io.wavfile.read("short.wav")
pxx, freq, bing, t = plt.specgram(X, Fs=sample_rate, xextent=(0,30))
plt.show()
Hat es funktioniert?
Der Helfer kann einen Fehler geben. Wenn die von Ihnen verwendete WAV-Datei Stereo ist, funktioniert dieser Code nicht, sodass nur das linke Ohr extrahiert wird. Sie können es mit ffmpeg tun, aber Sie können es auch mit Audacity tun.
ffmpeg -i short.wav -map_channel 0.0.0 left.wav
Seit damals
sample_rate, X = scipy.io.wavfile.read("left.wav")
pxx, freq, bing, t = plt.specgram(X, Fs=sample_rate, xextent=(0,30))
plt.show()
Sie sollten die Grafik sehen.
Für diejenigen, die zu nisch sind, um 1000 Pelica zu erreichen: weinen:
Recommended Posts