Ich bin ein super Anfänger im maschinellen Lernen, daher habe ich eine Webanwendung entwickelt, die Bilder verwendet. "Wenn du tiefes Lernen verwendest, kannst du etwas dagegen tun ~" Ich dachte, dass es nicht funktioniert, und beriet mich mit einem berühmten Senior für maschinelles Lernen in der Firma.
** Eine Website, auf der Sie antworten können, wenn Sie gefragt werden: "Wer ist Ihr Lieblingsunterhalter?" Auf einer Trinkparty **
Willst du es nicht wirklich? Diese Standardfrage auf einer Trinkparty war ziemlich problematisch, seit ich Mitglied der Gesellschaft geworden bin. Ich möchte wirklich, dass Sie in der Lage sind, eine solche Geschichte zu beantworten.
Vorläufig hatte ich einige Kenntnisse über tiefes Lernen, also dachte ich darüber nach, um diese Anforderung zu realisieren
Damit
――Sie können vorhersagen, welche der fünf Ebenen für das "Image einer Berühmtheit" bewertet wird.
Es sollte ein solches Lernmodell erstellt werden. Wenn jedoch Zehntausende von Trainingsdatenblättern wie JINS BRAIN vorhanden sind, erhöht sich die Vorhersagegenauigkeit erneut, diesmal jedoch um 50 Blätter. Da es aus "dem Bild des Modells von" gelernt wird, war die Anzahl der Blätter zu gering und die Vorhersage konnte überhaupt nicht gemacht werden.
Als ich im internen Tagesbericht kommentierte, dass "ich leide, dass ich die Lerngenauigkeit mit 50 Blättern nicht verbessern kann", erhielt ich Kommentare von leitenden Ingenieuren, die über Kenntnisse der KI im Unternehmen und der Synchronisation verfügen, und kombinierte die Inhalte mit meinen Eindrücken Ich möchte es zusammenfassen. Es ist nur ein Memo, also gibt es nichts Besonderes, aber ich hoffe, dass ähnliche Super-Anfänger des maschinellen Lernens es sehen und die Tiefe dieser Welt erkennen können.
Erstens, obwohl dies keine grundlegende Lösung für diesen Fall ist, besteht die Standardtechnik bei einer geringen Anzahl von Blättern darin, ähnliche Bilder auf programmierbare Weise zu erzeugen und sie aufzublasen. http://qiita.com/bohemian916/items/9630661cd5292240f8c7 Sie können lernen, indem Sie den Kontrast ändern, indem Sie auf diesen Artikel verweisen. Wenn Sie sich jedoch zu sehr auf Polsterung verlassen, kann dies leicht zu Überlernen führen und sollte nicht zu selbstsicher sein.
Ich habe auch einen solchen Kommentar erhalten.
Wenn dies durch eine einfache DNN-Implementierung bestimmt wird, sind 50 Blatt nicht möglich. Die Genauigkeit kann jedoch auch bei kleinen Datenmengen verbessert werden, indem nicht nur Bilder, sondern auch Funktionen hinzugefügt werden, die einfach als Trainingsdaten eingefügt werden können. Wenn Sie beispielsweise anhand eines Bilds von der Außenseite des Gebäudes bestimmen möchten, ob es sich um eine Wohnung, eine Wohnung oder ein Einfamilienhaus handelt, aber nur 50 Bilddaten erfasst werden können, können die Bilddaten sowie die Anzahl der Stockwerke und die Menge des Gebäudes separat erfasst werden. Wenn Sie mehr hinzufügen, erhalten Sie mehr Genauigkeit.
Ich sehe in diesem Beispiel, dass die Merkmalsmenge schwarze Haare oder große Augen sind.
Ich denke, es gibt eine Möglichkeit, Feature-Punkte aus einem Bild zu extrahieren und zu verarbeiten (in einen Klassifikator wie SVM einfügen).
Hmmm, neben DNN gibt es noch andere Methoden zur Bildklassifizierung. Natürlich hatte ich nach SVM gefragt, aber ich persönlich dachte, dass dies in der Entwicklung der künstlichen Intelligenz liegt und dass es ein Erbe der Vergangenheit geworden ist.
Wenn es zum Beispiel so etwas wie "Wenn ein bestimmtes Logo enthalten ist, wird es eindeutig sein" ist, denke ich, dass die Menge der gesiebten Surffunktionen verwendet werden kann. Persönlich habe ich das Gefühl, dass "Bilderkennung = maschinelles Lernen" aufgehört hat zu denken.
Korrekt. Es gibt auch die Ansicht, dass maschinelles Lernen nicht notwendig ist, wenn Sie in Worten erklären können, welche Eigenschaften ein menschliches Gesicht hat. Ich hatte noch nie von Sirf- und Surf-Features gehört. Referenz: https://www.slideshare.net/lawmn/siftsurf
Da wir diesmal versuchen, Menschen, die es in Zukunft mögen werden, auf der Grundlage früherer Eingaben auszugeben, haben wir die Meinung erhalten, dass es den Empfehlungen sinnlich nahe kommt. ▼ Referenz http://qiita.com/ynakayama/items/59beb40b7c3829cc0bf2
Wenn es jedoch um die Co-Filterung geht, treffen wir Vorhersagen in Bezug auf die Eingabeinformationen anderer Personen. Daher haben wir festgestellt, dass diesmal die Serviceanforderungen nicht erfüllt wurden. In einer Musik-App sollten Benutzer, die diesen Song mögen, nach einiger Zeit seit ihrer Veröffentlichung im Allgemeinen auch diesen Song mögen.
Wenn es um diesen Bereich ging, bekam ich meinen Kopf nicht wirklich. Ich werde jedoch vorerst eine Notiz machen. http://blog.amedama.jp/entry/2017/04/02/130530 Ich habe keine Ahnung, aber ist es ein Mechanismus, der die Dimension mehrdimensionaler Daten reduzieren und den Bedeutungsverlust so weit wie möglich reduzieren kann? Wenn dies möglich ist, können die Merkmale des Bildes in zwei Dimensionen ausgedrückt werden ...?
Factorization Machines http://qiita.com/wwacky/items/b402a1f3770bee2dd13c ???? Es ist nicht mehr klar, ob es für irgendeinen Zweck verwendet wird. .. .. Ich werde dich noch einmal fragen. Ich kann es nicht einmal verstehen. .. ..
http://pythondatascience.plavox.info/scikit-learn/%E3%82%AF%E3%83%A9%E3%82%B9%E3%82%BF%E5%88%86%E6%9E%90-k-means Dies kam mir, als ich diesmal über die Service-Spezifikationen nachdachte. Es scheint, dass es als unbeaufsichtigtes Lernen eingestuft wird Es scheint möglich zu sein, die Modellbilder zu klassifizieren und im Voraus herauszufinden, welchem Bild das Bild des Prominenten nahe kommt. Mit anderen Worten, Sie können überlegen, welche der Klassen Ihrem Geschmack in dem vom Benutzer eingegebenen Bild am nächsten kommt, und sie ausgeben. Anstatt ein trainiertes Modell zu erstellen, fühlt es sich wie eine wirklich einfache Klassifizierung an.
Es unterscheidet sich von dem Bild, das ich ursprünglich gedacht habe, aber wenn die Technologie, mit der Bilder klassifiziert werden können, anders als Deep Learning realisiert werden kann, scheint es nicht erforderlich zu sein, Deep Learning zu verwenden.
Das Problem ist, wie man das klassifiziert, aber ... Ist es so, als würde man den Pixelwert des Bildes als Wert verwenden oder Hautfarbe, Haarfarbe, Augengröße usw. bewerten und quantifizieren, um sie zu klassifizieren?
http://qiita.com/PonDad/items/2410c55b2d21e7cad7bc Ich halte die Stärkung des Lernens auch für eine relativ mögliche Methode. Laden Sie das Bild, und wenn es "Typ" ist, geben Sie eine Belohnung, und wenn es "nicht gut" ist, geben Sie eine Strafe. Ich bin jedoch der Meinung, dass der Zweck anders ist, und bin daher zu dem Schluss gekommen, dass es keinen Grund gibt, dies anstelle einer Clusteranalyse zu übernehmen.
http://qiita.com/ynakayama/items/ca3f5e9d762bbd50ad1f Es scheint, dass Leute, die dieses Modell mögen, erfahren werden, dass es eine hohe Wahrscheinlichkeit gibt, dass sie dieses Modell auch mögen werden. Obwohl dies beim Erweitern des Dienstes verwendet werden kann, kann es meiner Meinung nach in der ersten Version nicht eingeführt werden. Es war ähnlich wie bei der kooperativen Filterung.
Als Erweiterung der Idee des Clustering wird sogar die Ähnlichkeit der Bilder berechnet, und die Ähnlichkeit zwischen dem Bild des Modells für die Stichprobe und dem Gesicht der Berühmtheit wird im Voraus berechnet und ist der Benutzereingabe am ähnlichsten. Es kam die Idee auf, dass wir eine Berühmtheit mit einem hohen Gesamtgrad wählen sollten. Ich habe das Gefühl, dass ich es schaffen kann, nachdem ich die folgenden Artikel gelesen habe.
――Lass uns mit AI "normal" anhand des Gesichtsbildes beurteilen! Future Tech Blog - Future Architect https://future-architect.github.io/articles/20170526/ #future_architect @future_techblog
--Berechnen Sie die Bildähnlichkeit mit Python + OpenCV von @best_not_best auf @Qiita http://qiita.com/best_not_best/items/c9497ffb5240622ede01
Insbesondere der Artikel, in dem Shiba-Hunde mit Python + OpenCV klassifiziert werden, scheint dem Anwendungsfall nahe zu kommen, einen Lieblingsunterhalter anhand eines menschlichen Gesichtsfotos zu finden.
Es fühlt sich wie eine schnelle Suche an, und die Artikel hier sind wahrscheinlich hilfreich.
Ich dachte, es gäbe nur tiefes Lernen, aber als ich verschiedene Mittel hörte, schien es am realistischsten, einen Algorithmus zu verwenden, der die Ähnlichkeit von Bildern findet.
Ich war überrascht, dass es so viele Möglichkeiten gab, weil ich nicht genug Mittel hatte. Obwohl ich den Namen und die Umrisse einiger von ihnen kannte, entschied ich, dass es sich um eine versteinerte Technologie bei der Herstellung von KI handelt, aber ich werde bedenken, dass es auch die richtige Person am richtigen Ort ist. Ich tat.
Recommended Posts