Ich bin auf die Hatena Keyword API gestoßen. Das Skript selbst funktioniert einwandfrei, daher denke ich, dass es in Ordnung ist, wenn nur die Unicode-Verarbeitung funktioniert.
hatenaapi.py
#!/usr/bin/python2.7
# -*- coding: utf-8 -*-
import xmlrpclib
import sys, codecs
sys.stdout = codecs.getwriter("utf-8")(sys.stdout)
get_input = raw_input("prease keywords: ")
server = xmlrpclib.ServerProxy("http://d.hatena.ne.jp/xmlrpc")
res = server.hatena.getSimilarWord({"wordlist": get_input})
print res["wordlist"]
Wenn ich es starte, nimmt es es auf, aber es gibt ein Problem mit der Unicode-Verarbeitung. Der Unicode wird so angezeigt, wie er in der angezeigten Zeichenfolge ist.
Nun, wenn Sie nur verwandte Schlüsselwörter aufgreifen ... Mir wurde klar, dass ich nicht genug lernte, und ich beschloss, ein Memorandum zu schreiben.
*******************************************
Vorläufig dachte ich, ich könnte etwas gegen die Unicode-Flucht unternehmen. Ich habe es extern als txt gespeichert und gelesen.
hatenaapi.py
#!/usr/bin/python2.7
# -*- coding: utf-8 -*-
import xmlrpclib
import sys, codecs
sys.stdin = codecs.getreader("utf-8")(sys.stdin)
sys.stdout = codecs.getwriter("utf-8")(sys.stdout)
get_input = raw_input("prease keywords: ")
server = xmlrpclib.ServerProxy("http://d.hatena.ne.jp/xmlrpc")
res = server.hatena.getSimilarWord({"wordlist": get_input})
f = open("hatena.txt" , "aw")
lists = res["wordlist"]
for x in lists:
f.write(str(x) + "\n")
f.close
f = open("hatena.txt","rb")
data = f.read()
f.close()
print data.decode("unicode-escape")
Ist es nicht einfacher?
Recommended Posts