ここ半年でやったこと ~ディープラーニングをつまみ食い~

古いコーヒー豆で作ったカフェラテは激マズでした。HALです。


過去記事のレイアウト編集していて、画像を中央ぞろえにしたかったんだけど、
適当に<center></center>のタグでくくったら出来ました。
結構、柔軟に設計されているなと感心しました😃


さて、久しぶりの投稿ですが、この半年ぐらいの間
異常検知モデルを作ったり、
AWS、Azureを使い倒したり、
ラズパイで顔認識させたり、
unityちゃんを動かしてみたり、
色々なことをしてきました。


また、最近では
強化学習
ベイズ推論
あたりを勉強しています。


今、「ベイズ推論による機械学習 入門」って本を読んでいるのですが、
これが、非常に読みやすい。
ここ1年、数学書を読んできたおかげかもしれません。


今年こそは、趣味の方でも何らかの成果を出していきたいです。。!(゚д゚)

結局クラウド環境にすることに

FF14、もうすぐイシュガルドに到達しそうです。

久々の投稿になりました。


自宅のGPUマシンでDL環境を構築しようと思ってたけど、
chainerCVのサンプルが思った以上に重く、メモリ不足ったのでスタンドアロン環境はあきらめることに。


今後はクラウドの活用が進むことも見越して、
AWSやAzure上でDL環境を構築することにしました。


AWSなんかは、GPU環境は普通にインスタンス立てたままだと、月数万円いきそうだけど、スポットインスタンスにすれば価格は5分の1程度になるし、普段DLのプログラミングをするときは、無料のプランのインスタンスを立てて、学習や解析の時にGPUインスタンスを使うようにすれば、随分節約できることが分かった。


スポットインスタンスの市場価格が設定上限価格を超えて、インスタンスが強制終了するリスクに対しては、学習時に随時学習モデルファイルを生成して、github等にアップロードするようにしておけば、大きな手戻りリスクも回避できることがわかった。
意外とどうにかなるじゃん。ということです。


最近仕事では時系列波形データの異常検知をするNNモデルをためてしてみている。実際、NNなどで学習しなくとも、レトロな手法で異常検知することができることが分かった。
何より、フーリエ変換て何?だったのが理解できるようになったのが大きな収穫です。


あと最近、Raspberry Piを買ったので、IoTを楽しもうと思います。
((AIキャラクター作成計画はどうなった。。

ディープラーニング環境構築

f:id:hattokunnspiral:20170720000845p:plain

chainerCVのdemoモデルはフェレットを学習していなかったようです。

 

おうちでぼちぼちDeepLearning(DL)環境を構築しています。 

環境はこんな感じ

・DL用サーバ

windows10 pro

geforce 650Ti

vm player(ubuntu

 

とりあえず嫁のwindowsマシンなのでLinuxは諦めてwindows上でGPUを使ったDLができる環境にします。

 

windows版anaconda(pythonの統合パッケージみたいな)をいれて、追加でDLの下記フレームワークをインストールしました。

・chainer

・tensorflow

 

参考サイトはこちら。

cuda
https://developer.nvidia.com/cuda-gpus
GTX650 Tiは3.0ぎりぎりセーフ

 

☆☆☆☆☆☆☆

「chainer windows
chainerをインストールする参考サイト
http://qiita.com/samacoba/items/7fa5883d7d715aeabd53
(chainerインストールメモ( windows10 python3.5 cuda8.0 ))
・ Patch 2 (Released Jun 26, 2017) はインストールしないようにした。

「chainer windows
http://nixeneko.hatenablog.com/entry/2017/06/24/101542
WindowsでChainerCVのサンプルを動かしFaster R-CNNをトレーニングしてみる)

windowsでの時間計測
http://sgry.jp/blog/2016/09/18/3812/

powershellからanacondaを使用する。
http://qiita.com/ihlbbfbtr/items/097553ccd51543ee31fb

powershellのポリシーの変更
http://www.atmarkit.co.jp/ait/articles/0805/16/news139.html
measure-command { python train_mnist.py -g 0}

cupyをinstallする必要があった。
https://github.com/chainer/chainer#installation
pip install cupy

gpu 使用状況」
http://qiita.com/samacoba/items/368d67f2d7d4e11abdf7

 

☆☆☆☆☆

「tensorflow windows cuda」
http://h-sao.com/blog/2017/04/10/how-to-install-tensorflow-gpu-on-windows/
テンソルフローのインストール手順with anaconda
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/docs_src/install/install_windows.md

import時にエラー。。。
「\site-packages\tensorflow\python\pywrap_tensorflow_internal.py", line 18, in swig_import_helper」
https://github.com/tensorflow/tensorflow/issues/6055
↓が足りなかったらしい?
https://www.microsoft.com/ja-jp/download/confirmation.aspx?id=53587

動いた!

helloworld
http://dev.classmethod.jp/machine-learning/tensorflow-hello-world/

 

 

両方ともちゃんと動いて良かったです。

ではでは(・㉦・) ノシ

バーチャルAIキャラクターの開発スタート!

表題の通りなんだけど

こっち向いてしゃべってくれるAIのキャラクターを作りたい。

キャラクターの素材はmmdの物で!

ただ問題があって、
キャラクターがマイク、外部カメラ、webなどの情報を基に動く仕組みが必要。

どんなソフトで上記のような外部UIと接続すればいいんだろうか。

今日中には目処をつけたい所。。

ではでは(・㉦・) ノシ

はてなブログ始めました

f:id:hattokunnspiral:20170715162802j:plain

はじめましてこんにちは。HÅLです。

アメブロはキレイすぎるので、もっと(良い意味で)雑にブログを書くために
はてなブログ始めました。

AIとカフェ関連のことを中心に、小出しかつラフに書いていけたらいいなー

細かい技術的なことはQiitahatto - Qiitaへのリンクを貼るようにします。

ではでは(・㉦・) ノシ