2019年5月22日水曜日

Raspberry PiでDRV8830を動かした話

 研究室課題の論文輪講やマウスの通信線の断線と圧着に四苦八苦している中の人です。
 数か月前に投稿したこちらの記事ですが、DRV8830だけ自分でコードを書いた?(ライブラリ使っただけでは?)ので少し解説していきたいと思います。(数か月放置してたのは内緒)


ICについて

DRV8830は1chのモータドライバで、最大の特徴はI2Cのみで出力電圧の制御を行う点です。別段精度の良いPWMが出ればいいのですが(Raspberry Piでも結構精度の高いPWMを出すことのできるライブラリとかもあるようです)、あまりあてにならない部分があったためI2Cが使えるこのモータドライバを使いました。
 

回路について


 DRV8830周りの回路はこんな感じです。データシート上ではVCCとGNDPWR間には0.1uF(最小)を挟めと書いてありますが、どうやら容量不足になりやすいらしいので追加で10uFを載せてあります。ISENSEには0Ω抵抗を入れましたが、ここの抵抗を変えることで最大電流を変えることができます。FAULTnは障害通知用の端子で、障害が発生するとLowになるのでLEDはこの向きでつけてあります。
 A0/A1はアドレス設定用の端子で、Low/NC/Highの3パターン^2=9通りで設定し、それに応じて書き込み用のアドレスと読み取り用のアドレスが変わります(データシートのp.12)。ここで注意したいのが、データシートでのアドレスがプログラム上のアドレスと一致しない(正確には1つシフトされている)点です。これについては後述。
 SDA/SCLは一応10kΩのプルアップ抵抗を挟んであります(多分いらない気もする)。

PCBについて


 今回は秋月とかで販売しているブレークアウトボードを使わずに自前でプリント基板を設計したのですが、このICの裏面にはサーマルパッドがあるため、普通のはんだでやるには少し工夫が必要でした。ざっくりいえばサーマルパッドに穴をあけ、裏側から熱を与えてはんだ付けを行う方法です。注意してほしいのが、穴からはんだを流し込むのではなくICをつける前にはんだで穴をふさいでおき、その後はんだごてを裏から当てるということです(参考:QFNパッケージをリフローオーブンを使わずにハンダ付け)。配線は...酷いです。

この配線は何があっても参考にしないこと。
(こんなにひどい状態でも動くあたりがすごい)

プログラミングについて

 今回はPythonから操作することとしました。I2Cを使う場合、幸運なことにPython-smbusが提供されているのでこいつを使うことにします。

#-*-coding:utf-8-*-
import smbus
import time

DRV8830_addr = 0x60
i2c = smbus.SMBus(1)
min_pow = 0x06
max_pow = 0x26

try:
    #test DC motor
    for i in range(min_pow, max_pow + 1, 1):
        i2c.write_byte_data(DRV8830_addr, 0, (i<<2)+1)
 time.sleep(0.1)

こんな感じで書けば動くはず。データシートではA0/A1をLowにした場合、書き込み時のDRV8830_addrは0xC0になるはずです。ですがI2Cの仕様上、7bitのICを区別するためのアドレスにR/W用のビットをくっつけているため、実際には0xC0 >> 1 = 0x60となります。最後のR/W用のビットはライブラリ側でつけられるようです。出力電圧と回転方向に関してはデータシートのp.13を見つつ、D7-D2に電圧、D1とD0に回転方向が来るように設定しました。

最後に

そこまで難しいわけではありませんが、データシートと違うじゃんみたいなところもあったのでそこだけ気を付ければ大丈夫な気がします。で、結構重要な話がありまして、実はこのIC...



単品なくなってたのね...(´・ω・`)
モジュールの販売は続けているようなのでほしい方はぜひそちらをお求めください。(この記事の大半意味なくなったのは?)


©2018 shts All Right Reserved.

2019年5月12日日曜日

CubeIDE+STM32F413CHでprintfを使う話



 PYNQかZYBO Z7-20が欲しい中の人です(誰かくれないかなぁ)。前回からの続きで、printfでfloatを表示させる話です。


 マイコンのデバッグでは、UARTを出力先に指定したprintfを実行させることがあります(なんか変な感じするけど)。STM32の場合syscalls.cの__io_putchar()を書き換えてUARTに吐き出したり(weak定義に関してはこちらから)、_write()関数の中身を書き換えることで実装するのが楽なようです(こことかここを参照)。

1. とりあえずprintfをUARTで使えるようにする

*UARTが使えている前提で話を進めていきます。HAL_UART_Transmitとかが使えていれば大丈夫。

 CubeIDEでも同様にしてprintfの出力先をUARTに変更できます。/(プロジェクト名)/Srcの中にsyscalls.cがあるはずなので、それを開き_write()のところまで行きます。で、その中身をこんな感じで書き換えます。
__attribute__((weak)) int _write(int file, char *ptr, int len) {
 int DataIdx;

 for (DataIdx = 0; DataIdx < len; DataIdx++) {
//  __io_putchar(*ptr++);
  HAL_UART_Transmit(&huart1, ptr++, 1, 1);
 }
 return len;
}

 このままコンパイルすると"huart1ってなんだよ"って怒られるので、ヘッダと変数の宣言部分に

/* Includes */
#include 
#include 
#include 
#include 
#include 
#include 
...
と書き換えておきます。これでprintf()を実行するとTerminalとかになんか出てくるはずです(%fに関しては後述)。

2. %fを出力する

さて、ここまででprintfは%fフォーマットを除いて動くようになったはずです。で、%fはこのままでは動きません(TrueStudioやSW4STM32同様)。原因はリンカの設定なのでここを修正していきます。

*ここからの話はSTM32Cube FW_F4 V1.24.1での話です(2019/05/10時点で最新)。バージョンの違いに注意してください。

 とりあえず、リンカオプションの設定から。



Project->Propertiesを選択し、C++/C Buildを選択します。


 次にSettings->MCU GCC Linkerを選択し、Other flagsに"-u _printf_float"を追加します。
 ここまで終われば動きそうな気がしますが、うまくいかない(なぜいきなりTrueStudioやSW4STM32をNRNDにしたし)。この問題に気が付いたのがGWの中ごろで、そこから1週間ほどとかしました。(´・ω・`)
 この原因についてはまだわからないこともありますが、ここを参考にすることで%fを有効化できました。手順としては、STM32F413CHUX_FLASH.ldの_estackの値を0x2004FFFFから0x20050000に書き換えるだけです。この値に関しては、データシートの21ページに書いてある

"CPU can access SRAM1 memory via S-bus, when SRAM1 is mapped at the address range: 0x2000 0000 to 0x2003 FFFF. CPU can access SRAM2 memory via S-bus, when SRAM2 is mapped at the address range: 0x2004 0000 to 0x2004 FFFF."

を見ながら決めました。_estackにはRAM領域の終端アドレスを指定するのですが、どうやら奇数だと動かず、偶数でないと動かないらしいです(この辺検証とかもできていないので怪しいですが、0x20050000や0x2004e200、0x20040000の場合は動き、0x2003FFFF、0x2004FFFFでは動いていないことは説明できそう)。

2019/05/13追記
@osaboh さんからの指摘で、Application Binary Interface(ABI)の呼び出し規約の中に

5.2.1.1 Universal stack constraints At all times the following basic constraints must hold:
(中略)
 SP mod 4 = 0. The stack must at all times be aligned to a word boundary.
(中略)
5.2.1.2 Stack constraints at a public interface The stack must also conform to the following constraint at a public interface:
 SP mod 8 = 0. The stack must be double-word aligned.

とあるので、アドレスは4 or 8 Byteで割り切れる必要があるそうです。

参考:Procedure Call Standard for the ARM Architecture

謝辞

@osaboh さん@sora_siro1 さん、@Sakurai_Tatuyosさんには%fが表示できない件に関して、動作検証や改善手順の提案などで有益な情報をいただきました。本当にありがとうございます。


©2018 shts All Right Reserved.

2019年5月9日木曜日

朝起きたらTrueStudioがNRNDだったので、CubeIDEに乗り換えた話


 春の連休は何してましたか?寝てましたか?もう一度大型連休くれませんか?

 どうも中の人です。今回は、"朝起きたらTrueStudioがNRNDだったので、CubeIDEに乗り換えた話"です。CubeIDEに関しては、こちらを参照してください。基本的にTrueStudioにCubeMXをくっつけた感じですが(SW4STM32はいじったことないからわからない)、詰まったところもあったのでとりあえずカキカキしておきます。

1. ダウンロード&インストール


 まずはここからインストーラを落として、とりあえずインストールします。TrueStudioは残しておいてもとりあえず大丈夫でした。

2. プロジェクト作成


 インストールが終わったらプロジェクトを作成しますが、プロジェクトの作成段階でCubeMX用のファイル(.ioc)も同時に生成されるあたりがTrueStudioとは異なる点になります。



3.さあ、動かしてみよう


 プロジェクトの作成が終わると見慣れたCubeMXの画面が出てくるので、テキトーに設定しておきます。初期設定だとCtrl+sで保存するとGenerate Codeするかどうかを聞かれるので、Yesに入れておきましょう(手動でもGenerate Code可能)。あとはEclipseのエディタ画面が出てくる(またはmain.cあたりをクリック)ので、コードをカキカキすればOKです。

 TrueStudioにはRunボタンとDebugボタンがありましたが、CubeIDEではDebugボタンのみになっています(なんでだろ)。SWDで書き込むときはDebugボタンをポチりましょう。(UARTは使ってないんでワカラン)

 とりあえずこれでLチカはできるはずです。ただしこのままだとprintf周りができていないので、その話を今度しようと思います。
©2019 shts All Right Reserved.

2019年5月3日金曜日

ZYBO Z7 (Z7-20)でHDMI Paththroughを作る(IP使用)


 精神統一にははんだ付けとよく言われますが、

ただし0603(metric)、テメーはダメだ

 どうも中の人です。マウスの進捗はぼちぼちです。朝起きたらTrueStudioがNRNDになってCubeIDEが登場していましたね。そのうち部内向けに記事でも書こうかなぁ(現状printfでfloatが吐き出せないのでツラい)。
 今回は研究室に入って触り始めたFPGAの話です。単にFPGAといってもいろいろあるのですが、Digilentから発売されているZYBO Z7を使用して、HDMIの入力をただ出力するだけの回路を作成しようと思います(ZYBO Z7についてはこちらを参照)。まあ備忘録的なものなので、動かなくても責任は負えません。はい。



 このボードには入力用と出力用のHDMIが別々についており入出力用の回路を組むことで、FPGA(が入ったSoC)上でのデータ処理ができます。しゅごい。とりあえず今回組んだ回路はこんな感じ。

 回路構成自体はここのP.22 Figure 3.2を参照し、出力サイズは720pのみに限定しました。ここからは各IPの設定になります。


 Clocking Wizardの設定。Reference Clockとして200MHzを供給しています。(入力の125MHzは外部クロックを引き込んでいるためで、PSから持ってくるなら100MHzになるはず)


 DVI to RGBの設定。720pを使用しますがTMDSのClock Rangeは< 120MHzに設定しないと動きませんでした(なんでだろ)。


 Video in to AXI4-Streamの設定。Click ModeをIndependentにするのを忘れずに。FIFO Depthは適当に4096を選択。


 AXI4-Stream to Video Outの設定。Video in to AXI4-Streamの設定に合わせる形で設定。Timing ModeはSlave、Hysteresis Levelは推奨されている値のうちから12を選択。


 RGB to DVIの設定。DVI to RGBと同じく、TMDS Clock Range は< 120MHzにすること(入力と出力が同期している関係)。


 Constant基HDMIのHPDの設定。常にHIGHになるように設定。

2019/05/06追記:Video Timing Controlerの設定を載せ忘れてました...。



 ここまでで大体の設定が終了し、ここから配線作業になります。今回は時間を溶かしまくったPixel ClockとReference Clock、AXI4-Stream to Video OutのVTG_CEを置いておきます。




 制約ファイルに関しては、ここの必要なところだけ持ってきた感じです。あとはテキトーにBitstream生成すれば動く...はずです(動かなかったらすんません)。

2019年4月8日月曜日

SonyのNeural Network Libraries(NNabla)でGPUを使ってみる


 マウスの進捗は何も出ていないのに、パーツ代で貯金が吹き飛んで行っている中の人です。今回はNNablaでGPUを使う話です。

 前回まででCPU上での学習及び推論ができるようになりました。ですが学習などは結構時間がかかることが多いですよね(18コア36スレとかでやればまた違うのかもしれませんが)。そこで、どこのご家庭にも転がっているであろうNvidiaのGPUをNNablaで使い、高速化してみようというのが今回の主題。

 NNablaでGPUを使う場合、CUDA及びcuDNNのインストールが必要になります。ここで注意したいのがCUDA及びcuDNNのバージョンで、ここを確認しておきましょう。

 次にNNablaからCUDA/cuDNNを利用するためのライブラリのインストールですが、

pip install nnabla-ext-cudaxx

で終了(cudaxxはCUDA/cuDNNのバージョンで変わる。ここを参照)。

 最後にコードの変更については(コードは前々回を参照)、ライブラリの追加とデフォルトの環境を設定するコードのみになります。ライブラリは

環境設定は

となります。一応これだけで動くはずです...。

参考:20171212 Sony Neural Network Libraries and Console for GTC Japan 2017

p.s.
突然GPUが読めなくなる(カーネルモジュールのロードがうまくいかなくなる)ことがあったんですが、どうやらセキュアブートが有効になっている環境ではロードさせないようになっているようです(回避すればいいのですが)。

©2018 shts All Right Reserved.

2019年3月27日水曜日

SonyのNeural Network Libraries(NNabla)でFCNもどきを動かす



 いろいろなことを同時に走らせて、全部中途半端になっている中の人です。マウスの設計とFPGA入門、バイトの教材開発を同時に進めるのはやめておきましょう。前回に引き続き今回もNeural Network Libraries(NNabla)でFCNを動かす話です。
 今回は実装編ですが学習編と結構似たコードになるので、学習用のコードから流用できます。やったぜ。  とりあえず必要なライブラリ群を読み込みます。
#-*-coding:utf-8-*-

import nnabla as nn
import nnabla.functions as F
import nnabla.parametric_functions as PF

import os
import sys
import cv2
import numpy as np

 学習ではsolversやinitializer、データセットを載せるためのdata_iteratorをimportしていましたが、今回は不要なので削除。データセット(npz)の読み込みはこの前と同じものを使用します。学習時になかったものとしては各ピクセルに割り当てられたラベルを画像に変換する関数を実装しました。(もっと頭良く組めるはずなんですが、僕には難しいです。)

def label2img(label):
    """
    * 1 | road        | blue 
    * 2 | out of road | green
    * 3 | line        | red
    * 4 | backgrownd  | black
    * 5 | object      | yellow
    * 6 | other rane  | white
    *
    * out   : 3-dimensional numpy array([ch][y][x])
    * buff  : 3-dimensional numpy array([1][y][x])
    * label : 4-dimensional numpy array([1][6][y][x])
    * color : [[B,G,R]]
    """
    color = np.array([[255,0,0],[0,255,0],[0,0,255],[0,0,0],[0,255,255],[255,255,255]])
    buff = np.argmax(label, axis = 1)
    out = np.zeros((3,buff.shape[1],buff.shape[2]))
    
    for i in range(len(color)):
        out[0][buff[0] == i] = color[i][0]
        out[1][buff[0] == i] = color[i][1]
        out[2][buff[0] == i] = color[i][2]

    return out.astype(np.uint8)

 ネットワークは学習時と同じものを使用してください。ここまでで必要な関数がそろいました。では実際に推論を走らせるコードに移ります。


try:
    #Loading Dataset
    train, teach = load_data(NPZ,"img","img_test")
    
    #Set Params to network
    nn.clear_parameters()
    x = nn.Variable(train[0:1].shape)
    y = network(x, test=True)
    t = nn.Variable(teach[0:1].shape)
    print("x:",x.shape, "y:", y.shape, "t:", t.shape)

    #Search if Params file or not
    if os.path.exists(param_file) == True:
        nn.load_parameters(param_file)
    else:
        print("Parameter file was not found!!!")
        sys.exit()

    #Test
    for i in range(train.shape[0]):
        x.d, t.d = train[i:i+1], teach[i:i+1]
        y.forward()

        input_img = x.d[0].transpose(1,2,0).astype(np.uint8)

        predict_img = y.d
        predict_img = label2img(predict_img).transpose(1,2,0)
        
        ground_truth_img = t.d
        ground_truth_img = label2img(ground_truth_img).transpose(1,2,0)
        
        show_img = np.concatenate((input_img, 
                                   predict_img, 
                                   ground_truth_img,
                                   ),axis=1)
        cv2.imshow("imshow", show_img[::-1,:,:])
        
        cv2.waitKey(1)

except:
    import traceback
    traceback.print_exc()

finally:
    input(">>")
    cv2.destroyAllWindows()

 load_data関数で推論させるデータを取り込みます。今回は入力画像、推論結果に加えて教師画像も載せたいので、ついでに取り込みます。
 その後パラメータの読み込みまでは学習時とほぼ同じです。学習済みパラメータの読み込み部のみ、パラメータがなかったらプログラムを終了できるように変えてあります。
 for分の中では実際に推論をしています。t.dに教師画像を入れてありますが、推論のみを行うのであれば不要になります。
 また推論自体はy.forward()で行われ、y.dに推論結果が入っています。あとの部分はcv2での画像表示に関する部分です。そこまで難しくはないはずですが、cv2で画像を表示させる場合、データ構造がNNabla側の(1, color, row, col)から(row, col, color)に代わるのでそれをimg2label関数とnp.transposeで変換しています。

 ここまでで推論部分が完成しました。学習部分さえできればその応用で推論ができるのは結構楽ですね(Chainerも似てるけど)。あとはおまけでGPUあたりのお話ができればいいかなぁ。
©2018 shts All Right Reserved.

2019年3月9日土曜日

SonyのNeural Network Libraries(NNabla)でFCNもどきを学習させる







 研究室配属も無事終了した中の人です。研究室の本格始動は4月からなので、3月中はマウスの設計やFPGA、NNablaと戯れたいと思います。さて、前の投稿ではNeural Network Libraries(NNabla)でnumpy-arrayの読み込みを行いました。そこで今回は読み込んだデータを使用して、FCNもどきの学習を行いたいと思います。

今回のコードもこちらのサイトを参考に実装していきます。

NNabla(Neural Network Libraries)のシンプルチュートリアルをPython3.5でやってみる。

NNablaで学習を行う場合、
  • データセットの読み込み
  • モデルの構築
  • 損失関数の定義
  • 学習部の実装
が必要になります(この辺はほかのライブラリとあまり変わらない)。まずはデータセットの読み込み、と見せかけて必要なライブラリ群のimportとデータセットを入れたファイル名、パラメータファイルから

import nnabla as nn
import nnabla.functions as F
import nnabla.parametric_functions as PF
import nnabla.solvers as S
import nnabla.initializer as I
from nnabla.utils.data_iterator import data_iterator_simple

import os
import numpy as np

NPZ = "data/img2train_data_test.npz"
param_file = "nnabla_parameters.h5"

 データセットの読み込みはこんな感じで実装
#Read .npz File
def load_data(npz, input="img", teacher="img_test"):
    print("loading dataset for training")
    #loading data from NPZ file
    with np.load(npz) as data:
        tmp_train = data[input]
        tmp_train_label = data[teacher]
    
    print(tmp_train.shape)
    print(tmp_train_label.shape)

    return tmp_train, tmp_train_label

#Loading Data
def data_iterator_my_dateset(train, teach, batch_size=8, shuffle=False, rng=None):
    def load_func(index):
         """Loading an image and its label"""
         img = train[index]
         label = teach[index]
         return img, label
    return data_iterator_simple(load_func, train.shape[0], batch_size, shuffle, rng, with_file_cache=False)

 .npzでデータセットを保持している関係で、それを読み込む関数を実装しました。下のデータセットの取り込みは前回と同じ。
 モデルはこんな感じの奴。
#Define network
def network(x):
    with nn.parameter_scope("cnn"):
        with nn.parameter_scope("conv0"):
            h = F.relu(PF.convolution(x, 6, (2,2)))
        with nn.parameter_scope("deconv0"):
            h = F.relu(PF.deconvolution(h, 3, (2,2)))
        with nn.parameter_scope("conv1"):
            h = F.relu(PF.convolution(x, 6, (4,8), stride=(2,4)))
        with nn.parameter_scope("conv2"):
            h = F.relu(PF.convolution(h, 16, (9,9), stride=(3,3)))
        with nn.parameter_scope("deconv2"):
            h = F.relu(PF.deconvolution(h, 16, (9,9), stride=(3,3)))
        with nn.parameter_scope("deconv1"):
            h = PF.deconvolution(h, 6, (4,8), stride=(2,4))
    return h

 Raspberry Piでそこそこ速く動かそうと思うと、こうなりました。ここはもっと手を入れる予定。損失関数はSigmoid Cross Entropyを使用。

#Define Loss Function
def loss_func(y, t):
    loss_f = F.sigmoid_cross_entropy(y, t)
    return loss_f
実の話をすると損失関数に最初はSoftmax Cross Entropyを使っていたのですが、要素(今回はピクセル)ごとのクラス分類がうまくいきませんでした。(ここで1週間溶ける)
 そこで公式のDCGAN実装を見たところ Sigmoid Cross Entropyを使っていたので、使ってみたところうまく学習できました。やったね!
(1つのピクセルが各ラベルに属するかどうかを見ているのでこれでもよいってだけで、Softmax Cross Entropyでも原理的にはできるはず)(参考:損失関数の紹介 - renom.jp)
 学習部はこんな感じ。
#Define Training Function
def training(xt,tt,data,loss,steps):
     solver = S.Adam()
     solver.set_parameters(nn.get_parameters()) # Set parameter variables to be updatd.
         
     for i in range(steps):
         xt.d, tt.d = data.next()
         solver.zero_grad() # Initialize gradients of all parameters to zero.
         loss.forward()
         loss.backward()
         solver.update()
         if i % 100 == 0: # Print for each 10 iterations
              print(str(i) +":" + str(np.mean(loss.d)))


 教師データ読み込み→とりあえず勾配を初期化→推論する→誤差逆伝播→パラメータを更新、を繰り返す感じ。後はこれらを実行していく形になります。

try:
    #Loading Dataset
    train, teach = load_data(NPZ,"img","img_test")
    data = data_iterator_my_dateset(train, teach, batch_size=30, shuffle=True)

    #Set Params to network
    nn.clear_parameters()
    img, label = data.next()

    x = nn.Variable(img.shape)
    y = network(x)
    t = nn.Variable(label.shape)
    loss = loss_func(y, t)

    #Search if Params file or not
    if os.path.exists(param_file) == True:
        yn = input("parameter is exist! use this? y/n : ")
        if yn == "Y" or yn == "y":
            nn.load_parameters(param_file)

    #Training
    training(x,t,data,loss,500)
    
except:
    import traceback
    traceback.print_exc()

finally:
    #Save Params
    nn.save_parameters(param_file)
    input(">>")

パラメータのクリアをモデル構築前にするのを忘れなければうまく動くはず...です。次回は実装になるはず。この記事長すぎるのでは?
©2018 shts All Right Reserved.

2019年3月1日金曜日

SonyのNeural Network Libraries(NNabla)でnumpy_arrayの読み込み



研究室がいまだ決まってない(後数時間なんですけどね)中の人です。前に投稿したSTM32でduty比をDMAで転送する話でも少し触れた、SonyのNeural Network Libraries(NNabla)を使って、Fully Convolutional Networksをやってみようと思います。



 NNablaは元々Sony内部で使われていたライブラリを公開したものらしいです。(詳しくはここを見てくれ)実の話をすると、本来はNeural Network Console(NNC)を使いたかったのですが(GUIでネットワークを記述するとか面白そう)、npzファイルで保存されている手持ちのChainer向けデータセットを転用したかったので今回はNNablaを使ってみることにしました。
 NNablaは組込み向けを意識しているのか、量子化に関するレイヤーが標準で実装されているので、今までChainerでやってきたやつを転用しようと考えた次第です。

 とりあえずチュートリアルと先人たちの解説を読みあさりつつ、サンプルをやってみました。今回はPython3.6のIDLEを使用しているので、公式チュートリアルコピペだと動かないことがありましたが、IDLEで実行している人がいました。ラッキー


NNabla(Neural Network Libraries)のシンプルチュートリアルをPython3.5でやってみる。


 このコードを参考にしてtiny_digitsによる学習はできたのですが、今度は独自のデータセットに対応させる必要があります。
いろいろ考えても進まないので、このサンプルコードで使用されているtiny_digitsのデータ構造を見ていきます。...といっても実態はnumpy-ndarrayなので、shapeで配列の各次元の要素数を確認しました。(参考:The Digit Dataset)

入力(image):(1797,8,8)
出力(target):(1797,)

ここで、オレオレデータセットのフォーマットを確認すると、

入力:((データ数),3,32,64)
出力:((データ数),6,32,64)

おっ、これだったらオレオレデータセットも読み込めそう...なのか?次元数違うけど大丈夫か...?というわけで、NNablaの公式リファレンスに飛び込んでみる。すると、

nnabla.utils.data_iterator.data_iterator_simple

の欄にload_funcの例が載っており、それが(ch, h, w)の画像の読み出しになっていました。これはオレオレデータセットの構造とほぼ同じなのでいけそうです。
 とりあえずそれを参考にしつつデータ読み込みの関数を書いてみました。

def data_iterator_my_dateset(train, teach, batch_size=8, shuffle=False, rng=None):
    def load_func(index):
         """Loading an image and its label"""
         img = train[index]
         label = teach[index]
         return img, label
    return data_iterator_simple(load_func, train.shape[0], batch_size, shuffle, rng, with_file_cache=False)

とりあえずデータ読み込みはこれでできました。やったぜ。この辺の話をやっている人をインターネッツでは見かけなかったので、結構苦労しました。(これだけで3h吹き飛んでる)
 多分今度の話は学習部分(というよりも使い方がよくわからなかったsoftmax_cross_entropy)になりそうです。


©2018 shts All Right Reserved.

2019年2月21日木曜日

PWMのduty比設定をDMAで行う(STM32F4)



 絶賛ひきこもり生活中の中の人です。ひきこもっている間何してたかといえばGT6、Twitter巡回、Youtube再生業といった時間の浪費とてもアクティブなことです。はい。まあ、それ以外だとSTM32をいじったり、nnablaってライブラリを触ってました。今回はSTM32の話です。(nnablaはそのうちブログ書くかも)


 STM32で複数のPWMを出そうとする時(唐突)、大体は
 
if (HAL_TIM_PWM_Start(&htim1, TIM_CHANNEL_1) != HAL_OK) {
    Error_Handler();
}

if (HAL_TIM_PWM_Start(&htim1, TIM_CHANNEL_2) != HAL_OK) {
    Error_Handler();
}

if (HAL_TIM_PWM_Start(&htim1, TIM_CHANNEL_3) != HAL_OK) {
    Error_Handler();
}

while (1) {
     for (i = 0; i < 100; i++) {
         __HAL_TIM_SET_COMPARE(&htim1, TIM_CHANNEL_1, i);
         __HAL_TIM_SET_COMPARE(&htim1, TIM_CHANNEL_2, 100 - i);
         __HAL_TIM_SET_COMPARE(&htim1, TIM_CHANNEL_1, i);
         __HAL_TIM_SET_COMPARE(&htim1, TIM_CHANNEL_2, 100 - i);
    }
}

みたいにTIMの初期設定→PWMのduty比をテキトーに変えていく感じになりますよね。
まあこれでもいいんですが、CubeMXで設定欄を見ていたら

?

何なんだと、こいつもDMA設定あるのかよ...。
というわけで本題。(今までの前振りの時間を返せ!)
DMAを使ってPWMを吐き出してみましょう。まずはCubeMX側の設定で、TIM本体の設定は同じ。今回はTIM1を使用します。



TIM1のDMA設定。この辺よくわかってないんで、ワタシエスティーエムチョットデキル方がいたら教えてくだせぇ。
次はプログラム側での話。どうやらdutyを設定する関数がなくて、PWMスタートとduty比設定が一緒って感じです。(求ム、有識者。コノ辺、ワカラン。)

while (1) {
    for (i = 0; i < 100; i += 2) {
        HAL_TIM_PWM_Start_DMA(&htim1, TIM_CHANNEL_1, (uint32_t *) &i, 1);
        htim1.State = HAL_TIM_STATE_READY;
        HAL_TIM_PWM_Start_DMA(&htim1, TIM_CHANNEL_2, (uint32_t *) &j, 1);
        htim1.State = HAL_TIM_STATE_READY;
        HAL_TIM_PWM_Start_DMA(&htim1, TIM_CHANNEL_3, (uint32_t *) &j, 1);
        htim1.State = HAL_TIM_STATE_READY;
    }
}

TIM1のStateをいじっているのは、duty比設定用の関数がHAL_TIM_STATE_READYの時のみduty比のセットを行えるため...らしい。イーノック、こんな解説で大丈夫か?
これで動くはず...です...。少なくとも僕のNucleoは動いたんだ...。





おまけ:
CeleronG3900 + 4GB RAM + GTX1060(6GB)って変態構成の自作PCをどうにかしたい(後赤く光るファンを追加したい)


©2018 shts All Right Reserved.

2019年2月15日金曜日

STM32F411でDMAを使ってSPI通信する話(MPU9250使用)



 卒論発表を偵察しに行ったら、他学部の学生がずっと質問している修羅場場面に遭遇した中の人です。
 前回はポーリングでMPU9250とSPIでお話ししていました。実はHALでは割り込みとDMAによるSPI通信が実装されており、今回はDMAを使ってみたいと思います。

 DMAを使ったSPI通信に関して基本的にポーリングの時と同じですが、細々とした設定があるので注意が必要です。

1.CubeMXの設定


 CubeMXでは、SPI通信をDMAで使うための設定が必要です。SPIのDMA SettingsにSPIx_RXとSPIx_TXを登録しておきましょう。

2.コード

基本的にポーリングと同じなのですが、お話しに使う関数が

        HAL_SPI_Transmit_DMA()
        HAL_SPI_Receive_DMA()

になります。関数名がhoge_DMA()となるのでわかりやすいです。
 MPU9250でお話しする場合、読み込みたい(書き込みたい)レジスタを送り、そのあとでデータを読みだす(書き出す)形になるので、書き込みx1と読み込みx1の組み合わせまたは書き込みx2を行う必要があります。ポーリングの場合読み出しを行う時は
 
uint8_t read_MPU9250(uint8_t addr) {
 uint8_t reg, val;
 reg = addr | 0x80;

 HAL_GPIO_WritePin(GPIOB, GPIO_PIN_2, GPIO_PIN_RESET);//CS
 HAL_SPI_Transmit(&hspi2, &reg, 1, 100);//Select reg
 HAL_SPI_Receive(&hspi2, &val, 1, 100);//Read data
 HAL_GPIO_WritePin(GPIOB, GPIO_PIN_2, GPIO_PIN_SET);//CS

 return val;
}

みたいな書き方になります。これをDMAを使ったものにすると、
 
uint8_t read_MPU9250_DMA(uint8_t addr) {
 uint8_t reg, val;
 reg = addr | 0x80;

 HAL_GPIO_WritePin(GPIOB, GPIO_PIN_2, GPIO_PIN_RESET);//CS
    HAL_SPI_Transmit_DMA(&hspi2, &reg, 1);//Select reg
 while (HAL_SPI_GetState(&hspi2) != HAL_SPI_STATE_READY);
 HAL_SPI_Receive_DMA(&hspi2, &val, 1);//Read data
 while (HAL_SPI_GetState(&hspi2) != HAL_SPI_STATE_READY);
 HAL_GPIO_WritePin(GPIOB, GPIO_PIN_2, GPIO_PIN_SET);//CS
 return val;
}

となります。...なんか追加されてますね。

HAL_SPI_GetState(&hspi2)

はSPIの使用状況を確認する関数で、これを入れることでSPIの通信待ちをしています。
頭悪い実装ですね。
 ポーリングの時とは異なり、完了待ちを入れておかないと読み出し先のレジスタを指定しながらデータを受信することになります。MPU9250の場合、先にレジスタを指定しないといけないので、正常な読み出しを行うことができません。

ここまで書けば大体動く...はずです。はい。動かなかったら教えてくだせぇ

3.その他

SPI通信が終了するとコールバック関数が呼ばれます。

HAL_SPI_RxCpltCallback()
HAL_SPI_TxCpltCallback()

これらのコールバック関数は弱参照されているので、別のファイルで別途中身を定義するのが望ましいです。こいつらにグローバル変数を仕込んで、終了フラグにしてもいいと思います。(別に使わなくても動きます。)
©2018 shts All Right Reserved.

2019年2月12日火曜日

STM32F411REでMPU9250を動かす(SPI)



学校に行こうとしても体がついていかず、結局ひきこもる生活をしてる中の人です。STM32の勉強用としてお家に生えてた落ちてたMPU9250をいじりだしたのですが、MPU9250をSPIで使った例がなかったのでかきかきしてみようかと思います。

今回はSTM32F411RE(Nucleo)とMPU9250(中華拡張ボードなんで詳細不明)を使っていきます。MPU9250を動かす流れは、大まかにこんな感じ。
  • WHO_AM_Iの読み出し
  • 起動
  • 出力設定
  • ジャイロ・加速度の設定
  • 角速度、加速度の読み出し
MPU9250は3軸加速度・3軸ジャイロのMPU6500と3軸地磁気のAK8963がセットになった9軸IMUなので、MPU6500と同じような使い方ができます(レジスタとかが違う)。

MPU9250をSPIで使うとき気を付けたいのはボーレートで、レジスタの読み取りのみであれば20MHzまで行けるようですが、書き込みまで行う場合、1MHz程度が限界となっています。

今回使ったNucleoボードの場合、

 hspi2.Init.BaudRatePrescaler = SPI_BAUDRATEPRESCALER_32;

と設定することで(CubeMXであればSPIのプリスケーラを32にする)ことで大体1.3MHzになります。(これでも一応動くけど、値の読み出しに失敗することがありそう)
この設定が終わったらread関数とwrite関数を実装するのですが、それはここを参考にしてください。

で、ここまで出来たら次はWHO_AM_Iを読み出す作業です。MPU9250は0x75のレジスタを読みに行くと、0x71が返ってくるはずです。

ここまでできれば、データの読出しはもうすぐです。とりあえずこの後の流れをまとめると、
0x6B(PWR_MGMT_1)のレジスタに0x00を書き込む

0x1A(CONFIG)のレジスタに0x00を書き込む

0x1B()のレジスタに0x18を書き込む(フルレンジを2000dpsに設定)

0x1C()のレジスタに0x18を書き込む(フルレンジを16gに設定)

 参考:MPU9250 Register Map
    9軸加速度センサー MPU9250をArduinoで制御する その1(I2C)
ここまでで設定が終了して、実際にデータの読み出しとなります。
データの読出しは、上位8bitのデータが入っているレジスタと下位8bitのデータが入っているレジスタの両方を読み出すことで完了します。read関数を2回実行し、上位8bitをシフトして下位8bitとのorを取ることで16bit分のデータが取得できます。やったね。


©2018 shts All Right Reserved.

2019年2月8日金曜日

Raspberry Pi向け拡張基板を作った(n回目)







 マウスそっちのけでいろいろやってる中の人です。突然ですが、Raspberry Piでモータを回したりLEDをPWM点灯させたいと思ったことがある人は僕だけではないはず(ないと思いたい)。RPiから高精度のPWMを出すのも結構大変ですよね(最近ではRPiのGPIOすべてから高精度のPWMを吐き出せるライブラリもあるみたいですが)。ADCとかモタドラとなるともはや拡張しないとだめですよね。
 そこで今回はI2Cで制御できるモータドライバICやLEDドライバ、おまけでADCをまとめて載せたてんこ盛り拡張ボードを作成してみました。(n=1の時の奴はこちら)
今回作成したのは、こんなやつ


裏面はこんな感じ


この拡張ボードに載せた(載せる予定の)ICはこんな感じ
すべてのICがI2C対応のICでRPiでの動作例が結構あることから今回これらを選びました。あとADC用のADS1015以外はアキバで手に入るやつなのではんだ付けに失敗しても大丈夫だったのが良かった点ですね。(ADS1015はアキバだとブレークアウトボードでしか手に入らない...)
 回路図はこんな感じ


 今回はPCA9685の動作確認用にAdafruitのライブラリを使い、DRV8830はI2Cライブラリ(python-smbus)を使ってデータを投げてます。DRV8830はもしかしたら自作ライブラリにするかも。









 P.S.:IKEAのサメさんみたいにまとまった休みが欲しい


©2018 shts All Right Reserved.

2019年1月26日土曜日

USB PD対応バッテリー(CYGNETT ChargeUp Pro 20000 PD)でXPS13(9360)を充電する話


期末テストも終わったはずなのに(主にバイトの案件で)胃がキリキリしている中の人です。さて今回はいつもとは異なり、クソでかモバイルバッテリーのレビューみたいな話です。


※このバッテリーはPSE認証を受けているか不明です。
 (PSEマークは確認できていません)

※このバッテリーを使用したことで発生した損害等に関する責任は負いません。

※参考程度にお願いします。


 そもそもこの話の発端はメイン機であるXPS13(9360)にUSB PD対応のUSB-Cポートがついていたことでした。このモデルには一応ACアダプタと充電専用端子が付属しており、最初はそれで充電していました。その後諸般の事情によりUSB-C対応の充電アダプタを使用するようになり、充電速度などの問題がないことが確認できたのでどんどんUSB-Cを活用していこうと考えました。

 このマシンは電源に接続していなくてもそこそこバッテリーだけで連続稼働してくれるのですが、前日充電し忘れて電車の中で使えない事態などがよく発生していました。(さすがに24h連続稼働は難しい)
 そこで考えたのがモバイルバッテリーで充電できないかという、一昔前では考えられないことでした。"まあUSBって名前ついてるしなんかあるでしょ"なんて思ってないんだからネ。
 ここでXPS13を充電するのに必要なスペックを考えると

  • USB-C対応
  • USB PD対応
  • 45W(20V 2.25A)出力以上
となります。結構えぐい仕様だな。容量に関しては補助電源としての使用を前提にしていたのでそこまで考えていませんでした。
 で、こんなバッテリーが売っているわけもなく早数か月、とある日に某倉庫店に行ったら見つけたのがこいつ
\6750は魅力的すぎでした。(当時秋葉でもこのコスパの奴は見たことがなかった)。一応XPS13は対応機種に入ったのですが、モデルまでは不明でした。で、早速買ってきて(\3000引きだったのは想定外)試してみました...
充電できてるじゃん...なんだこいつ...
何度か使用してみて、XPSの場合大体10%から80%ぐらいまで充電できる感じでした。(正確な測定ではない)
とりあえず出先でのバッテリー切れは解決できそうです。


©2018 shts All Right Reserved.