[PYTHON] Sammlung und Automatisierung erotischer Bilder durch Deep Learning

Einführung

Erotische Bilder sind die besten.

Jeder kann ungezogene Dinge frei machen, solange er erotische Bilder haben. Sie können von sich aus sexuell erregt sein, auch wenn Sie sie nicht haben. Sie können eine gewisse Befriedigung spüren und in das Glück eintauchen. Jeder Geschmack steht zu Ihrer Verfügung.

Daher ist das Sammeln erotischer Bilder für uns Menschen keine Übertreibung, um es als Spezies zu bezeichnen, genau wie ein Mistkäfer, der Kot rollt.

Wir sind jedoch die längsten Kreaturen von Primaten. Es sollte nicht dasselbe sein wie der Mistkäfer, der seit Zehntausenden von Jahren auf die gleiche Weise Kot rollt. Es ist die Menschheit, die erotische Bilder effizienter und enthusiastischer sammelt.

Trotzdem ist das Sammeln erotischer Bilder sehr schwierig. Es ist notwendig, verschiedene Standorte zu besuchen, sie sorgfältig zu untersuchen und dann die angepassten Gegenstände nach einem zuverlässigen Schema zu sammeln und zu strukturieren. Viele Menschen brauchen je nach Tag unterschiedliche.

Übrigens ist Deep Learning in letzter Zeit populär geworden.

Sowohl Katzen als auch Schöpflöffel lernen tief.

Was können Sie mit tiefem Lernen tun, wenn Sie ein schwieriges Projekt erreichen? Die Anzahl solcher Konsultationen hat zugenommen. Wenn Sie ein Projekt mit geringer Auftragsgenauigkeit treffen, können Sie vorerst nicht die Aufmerksamkeit von Kunden mit tiefem Lernen auf sich ziehen? Ist es nicht beliebt? Die Zahl der Verkäufer, die so tun, als wäre sie gestiegen.

Dies ist auch dann der Fall, wenn ich mich mit Ingenieuren außerhalb des Unternehmens treffe. Es ist also ein einfacher Sieg beim Deep Learning, oder? Es gibt mehr Möglichkeiten, über Dinge zu sprechen, die durch tiefes Lernen gelöst würden. Jeder und er dreht sich alles um tiefes Lernen.

Wenn es also so beliebt ist, muss man sich der Herausforderung stellen.

Ich habe versucht, erotische Bilder mit tiefem Lernen zu sammeln.

Implementierung

Ich habe Chainer für die Implementierung verwendet.

Es ist ein sicheres Inlandsprodukt.

Das Modell sieht folgendermaßen aus:

class NIN(chainer.Chain):

  def __init__(self, output_dim, gpu=-1):
    w = math.sqrt(2)
    super(NIN, self).__init__(
      mlpconv1=L.MLPConvolution2D(3, (16, 16, 16), 11, stride=4, wscale=w),
      mlpconv2=L.MLPConvolution2D(16, (32, 32, 32), 5, pad=2, wscale=w),
      mlpconv3=L.MLPConvolution2D(32, (64, 64, 64), 3, pad=1, wscale=w),
      mlpconv4=L.MLPConvolution2D(64, (32, 32, output_dim), 3, pad=1, wscale=w),
    )
    self.output_dim = output_dim
    self.train = True
    self.gpu = gpu

  def __call__(self, x, t):
    h = F.max_pooling_2d(F.relu(self.mlpconv1(x)), 3, stride=2)
    h = F.max_pooling_2d(F.relu(self.mlpconv2(h)), 3, stride=2)
    h = F.max_pooling_2d(F.relu(self.mlpconv3(h)), 3, stride=2)
    h = self.mlpconv4(F.dropout(h, train=self.train))
    h = F.average_pooling_2d(h, 10)

    h = F.reshape(h, (x.data.shape[0], self.output_dim))

    loss = F.softmax_cross_entropy(h, t)
    print(loss.data)
    return loss

Wie Sie sehen können, habe ich gerade mit dem NIN-Sample gespielt, das mit dem Chainer geliefert wurde. Außerdem habe ich damit gespielt, dass der Speicher des VPS für die Entwicklung klein war, sodass ich kein komplizierteres Modell trainieren konnte. Selbst mit diesem Modell werden beim Lernen etwa 2 GB benötigt.

Für die Daten zum Lernen habe ich die im Internet veröffentlichten Illustrationen verwendet. Von insgesamt 2000 Bildern sind 1000 Bilder, auf die der Sohn reagiert, seltene Bilder, und 1000 unerwartete Bilder sind häufige Bilder, und die Klassifizierung erfolgt zwischen den beiden Typen.

Bestätigung

Die folgenden drei Bilder wurden verwendet, um die Ergebnisse zu überprüfen.

91vw8GTN37L.jpg

無題.png

aaa.jpg

Das erste ist das Cover meines Buches "Tanaka-Age Equals, ein Zauberer, der keine Geschichte hat". Die zweite ist meine Schwiegertochter, die von einem 3D-Mädchen eine Geschäftsreise angefordert hat. Und der dritte war der, als ich das Schänderspiel mit ihr im Zug genoss.

Wir haben diese drei Bilder mit dem obigen Modell bewertet.

Als Ergebnis wurden die folgenden Bewertungen erhalten.

1

{
  "result": [
    [
      0.9290218353271484, 
      "1,rare"
    ], 
    [
      0.07097823172807693, 
      "0,common"
    ]
  ]
}

Zweites Stück

{
  "result": [
    [
      0.6085503101348877, 
      "0,common"
    ], 
    [
      0.3914496898651123, 
      "1,rare"
    ]
  ]
}

Drittes Stück

{
  "result": [
    [
      0.5935600399971008, 
      "1,rare"
    ], 
    [
      0.40644001960754395, 
      "0,common"
    ]
  ]
}

Ähnlich wie bei der mit dem Chainer gelieferten Imagenet-Probe ist diese umso näher, je höher der Wert für das entsprechende Etikett ist. Mit anderen Worten, je höher der seltene Wert, desto glücklicher wird der Sohn sein.

Zu diesem Zeitpunkt fühlte ich eine Reaktion.

Um erotische Bilder realistischer zu erfassen, greifen wir auf die oben genannte Modell-API zu, lesen das beim Echtzeit-Crawlen von Twitter erfasste Bild, speichern das Ergebnis in der Datenbank und ordnen die Webanwendung. erstellt.

Die Konfiguration ist wie folgt.

version: '2'

volumes:
  db-data:
    driver: local
  object-data:
    driver: local

services:
  db:
    container_name: db
    image: mysql
    volumes:
      - db-data:/var/lib/mysql
      # - ./dockerfiles/staging/mysql:/docker-entrypoint-initdb.d
    environment:
      MYSQL_ROOT_PASSWORD: $APP_DATABASE_PASSWORD
      MYSQL_DATABASE: app_staging
      MYSQL_USER: xxxx
      MYSQL_PASSWORD: $APP_DATABASE_PASSWORD
    expose:
      - "3306"
    restart: always

  app:
    build:
      context: ../../
      dockerfile: dockerfiles/staging/app/Dockerfile
    environment:
      RAILS_LOG_TO_STDOUT: 'true'
      RAILS_SERVE_STATIC_FILES: 'true'
      RAILS_ENV: 'staging'
      DISABLE_DATABASE_ENVIRONMENT_CHECK: $DISABLE_DATABASE_ENVIRONMENT_CHECK
      APP_SECRET_KEY_BASE: $APP_SECRET_KEY_BASE
      APP_DATABASE_USERNAME: xxxx
      APP_DATABASE_PASSWORD: $APP_DATABASE_PASSWORD
      APP_DATABASE_HOST: db
      TW_CONSUMER_KEY: $TW_CONSUMER_KEY
      TW_CONSUMER_SECRET: $TW_CONSUMER_SECRET
      TW_ACCESS_TOKEN: $TW_ACCESS_TOKEN
      TW_ACCESS_TOKEN_SECRET: $TW_ACCESS_TOKEN_SECRET

  minio:
    build:
      context: ../../
      dockerfile: dockerfiles/staging/minio/Dockerfile
    volumes:
      - object-data:/var/lib/minio
    environment:
      MINIO_ACCESS_KEY: 'xxx'
      MINIO_SECRET_KEY: 'xxx'
    ports:
      - '0.0.0.0:9000:9000'
    command: [server, /export]

  calc:
    container_name: calc
    build:
      context: ../../
      dockerfile: dockerfiles/staging/calc/Dockerfile
    command: python web.py
    expose:
      - "5000"

  web:
    container_name: web
    extends:
      service: app
    command: bin/wait_for_it db:3306 -- pumactl -F config/puma.rb start
    expose:
      - "3000"
    depends_on:
      - db

  crawler:
    container_name: crawler
    extends:
      service: app
    command: bin/wait_for_it db:3306 -- rails runner bin/crawler.rb
    depends_on:
      - calc
      - db

  nginx:
    container_name: nginx
    build:
      context: ../../
      dockerfile:  dockerfiles/staging/nginx/Dockerfile
    ports:
      - '80:80'
      - '443:443'
    depends_on:
      - web

Ich habe eine Weile versucht, Beilagen auf Twitter zu sammeln.

Die Ergebnisse sind wie folgt.

ranking.png

Einige von ihnen werden aus dem Ranking extrahiert, wenn ungefähr 5,60 Blätter gesammelt werden.

Der auf der rechten Seite des Bildes angezeigte Wert ist der Wert von selten.

Ich bin überrascht, dass die bisherigen Ergebnisse erzielt wurden, indem dem Modell die in A und B unterteilten Abbildungen gegeben wurden, ohne etwas zu tun. Ich hatte das starke Gefühl, dass es möglich sein würde, Bilder zu sammeln, die meinem Sohn besser gefallen, indem man sie etwas strenger kennzeichnet. Wenn Sie mehrere Modelle in Kombination verwenden, wird sich die Genauigkeit wahrscheinlich weiter verbessern.

Fazit

Vielleicht steht der Tag vor der Tür, an dem jeder Mensch einen für sich optimierten erotischen Sommelier hat.

Recommended Posts

Sammlung und Automatisierung erotischer Bilder durch Deep Learning
Untersuchung der Austauschprognosemethode mit Deep Learning und Wavelet-Konvertierung - Teil 2-
Bedeutung von Deep-Learning-Modellen und -Parametern
Untersuchung der Austauschprognosemethode mittels Deep Learning und Wavelet-Konvertierung
Ein Memorandum zum Studieren und Implementieren von Deep Learning
Paralleles Lernen von Deep Learning durch Keras und Kubernetes
Deep Learning 1 Übung des Deep Learning
DNN (Deep Learning) Library: Vergleich von Chainer und TensorFlow (1)
Deep Running 2 Tuning von Deep Learning
Tiefes Lernen der Verstärkung 2 Implementierung des Lernens der Verstärkung
[Deep Learning von Grund auf neu] Implementierung der Momentum-Methode und der AdaGrad-Methode
Klassifizieren Sie CIFAR-10-Bilddatensätze mithilfe verschiedener Modelle des Deep Learning
Vorteile und Beispiele für die Verwendung von Rabbit Mq
Bedeutung des maschinellen Lernens und des Mini-Batch-Lernens
Senden Sie Nachrichten und Bilder mit LineNotify
Ich habe versucht, mit Theano tief zu lernen
[Erkennung von Anomalien] Versuchen Sie es mit der neuesten Methode des Fernunterrichts
Diagramm der Geschichte der Anzahl der Ebenen des tiefen Lernens und der Änderung der Genauigkeit
Analysieren Sie die Mundpropaganda-Daten von Karriere-Change-Meetings mithilfe von Deep Learning emotional
Eine Sammlung von Tipps zur Beschleunigung des Lernens und Denkens mit PyTorch
Ich habe die übliche Geschichte ausprobiert, Deep Learning zu verwenden, um den Nikkei-Durchschnitt vorherzusagen
Deep Learning-Anfänger versuchten die Wettervorhersage aus meteorologischen Satellitenbildern mit Keras
Ich habe die gängige Geschichte der Vorhersage des Nikkei-Durchschnitts mithilfe von Deep Learning (Backtest) ausprobiert.
Automatische Erfassung von Aktienkursen mit Python
Halbüberwachtes Label-Lernen mit DBN und Label Spreading
Beispiel für die Verwendung von Klassenvariablen und Klassenmethoden
Othello-Aus der dritten Zeile von "Implementation Deep Learning" (3)
Einführung in Deep Learning ~ Falten und Pooling ~
Bilderkennungsmodell mit Deep Learning im Jahr 2016
Versuchen Sie mit Kipoi tiefes Erlernen der Genomik
Visualisieren Sie die Auswirkungen von Deep Learning / Regularisierung
Generiere automatisch Bilder von Koala und Bär
Lernbericht über das Lesen von "Deep Learning von Grund auf neu"
Othello-Aus der dritten Zeile von "Implementation Deep Learning" (2)
[Für Anfänger künstlicher Intelligenz] Maschinelles Lernen / Deep Learning Programming Lernpfad und Nachschlagewerke
Maschinelles Lernen: Bilderkennung von MNIST mithilfe von PCA und Gaussian Native Bayes
Deep Learning von Grund auf neu Die Theorie und Implementierung des mit Python erlernten Deep Learning Kapitel 3
Veröffentlichen und Verwenden eines Programms, das automatisch Gesichtsbilder bestimmter Personen sammelt
Erstellen Sie eine Python-Umgebung, um die Theorie und Implementierung von Deep Learning zu erlernen
[Deep Learning von Grund auf neu] Anfangswert des Gewichts des neuronalen Netzwerks unter Verwendung der Sigmoid-Funktion
Tiefes Lernen
Rekonstruktion von bewegten Bildern mit dem Autoencoder unter Verwendung von 3D-CNN
Klassifizierung von Gitarrenbildern durch maschinelles Lernen Teil 1
Chainer und Deep Learning durch Funktionsnäherung gelernt
Ein Amateur versuchte Deep Learning mit Caffe (Einführung)
Ein Amateur versuchte Deep Learning mit Caffe (Übung)
Eine Geschichte, bei der ich darüber nachdachte, die Informationen über die Fülle des Parkplatzes anhand des von der Webkamera und Razpai erhaltenen Bildes und durch tiefes Lernen zu ermitteln.
Deep Learning / Fehler-Backpropagation der Sigmoid-Funktion
[Lernnotiz] Deep Learning von Grund auf ~ Implementierung von Dropout ~
Rezeptsammlung zum Vergleich der Versionen 1 und 2 von TensorFlow (Teil 1)
Niedrigrangige Approximation von Bildern durch HOSVD und HOOI
Grundlegendes Verständnis der Stereo-Tiefenschätzung (Deep Learning)
Erweitern und erweitern Sie Ihren eigenen Deep Learning-Datensatz
Aktienkursprognose mit Deep Learning (TensorFlow) -Teil 2-
Rauschunterdrückung und Hintergrundtransparenz von binärisierten Bildern
Einführung in Deep Learning ~ Lokalisierungs- und Verlustfunktion ~
[Kausalsuche / Kausalinferenz] Führen Sie mit Deep Learning eine Kausalsuche (SAM) durch
Ein Amateur hat Deep Learning mit Caffe ausprobiert (Übersicht)
Anonymer Upload von Bildern mit der Imgur-API (mit Python)
Klassifizierung von Gitarrenbildern durch maschinelles Lernen Teil 2