oikakerublogの日記

知識ゼロから色々しらべてみた話し

設定 Macで隠しファイルが表示されるように設定変更する

Mac OS、隠しファイル、表示非表示、設定変更、ターミナル】

1. 表示するようにする
・「ターミナル」を起動
     ↓
・以下を入力
     ↓
 defaults write com.apple.finder AppleShowAllFiles -boolean true
     ↓
・Finderを再起動:
 killall Finder

2.戻す(非表示にする)
・上記の設定を削:
 defaults delete com.apple.finder AppleShowAllFiles
 killall Finder

広告を非表示にする

Tensorflow ロジスティック回帰による二項分類器(マイナビ本参考)

◆ ウィルスの感染を分類する。

【ロジスティック回帰、二項分類器、境界線、直線、確率0.5、シグモイド関数、データのランダム生成、確率の最大化、最尤推定法、統計学、誤差関数、log、pandas、DateFrame、行列T、ブロードキャスト、グラフの描画、濃淡、スパム、感染非感染、学習トレーニング】

・まずは、インポート・準備

# ロジスティック回帰の二項分類器、65頁参考

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt

# 乱数を使ってデータ生成、pandasのデータフレームとして格納

from numpy.random import multivariate_normal, permutation
import pandas as pd
from pandas import DataFrame, Series

・感染データ/非感染データを作る

# データを用意
# 感染していないデータ(t=0)の生成

np.random.seed(20170602)

n0, mu0, variance0 = 20, [10, 11], 20
data0 = multivariate_normal(mu0, np.eye(2)*variance0 ,n0)
df0 = DataFrame(data0, columns=['x1','x2'])
df0['t'] = 0

# 感染しているデータ(t=1)の生成
n1, mu1, variance1 = 15, [18, 20], 22
data1 = multivariate_normal(mu1, np.eye(2)*variance1 ,n1)
df1 = DataFrame(data1, columns=['x1','x2'])
df1['t'] = 1

df = pd.concat([df0, df1], ignore_index=True)

# データセット
# 上で生成したデータを表示して内容を確認、35コのサンプルデータ

train_set = df.reindex(permutation(df.index)).reset_index(drop=True)
train_set


f:id:oikakerublog:20170602125115p:plain

・変数を定義

# Tensorflowで計算できるようにデータを変形
# numpyのarrayオブジェクトとして変数に格納
# X・・・(x1n、x2n)の行列 、 t・・・正解ラベル

train_x = train_set[['x1','x2']].as_matrix()
train_t = train_set['t'].as_matrix().reshape([len(train_set),1])

# Step1_予測のための数式定義
# 確率Pを行列形式で計算
# f = x*w + w0
# 入力データは35行2列 but Noneでサイズ規定
# wは、w = (w1,w2)T 転置 ・・・横のw1、w2を縦に並べている 2行1列
# w0は、ブロードキャスト・・・1次元リストでも足せる
# tf.sigmoidはそれぞれの入力に対するシグモイド関数の一次元リスト

x = tf.placeholder(tf.float32, [None, 2])
w = tf.Variable(tf.zeros([2,1]))
w0 = tf.Variable(tf.zeros([1]))

f = tf.matmul(x,w) + w0

p = tf.sigmoid(f)

・誤差関数を定義

# Step2_誤差関数定義
# 数式自体は-logPを掛け合わていくような複雑なやつ,Σで表現@p70
# tf. reduce_sumは和集約

t= tf.placeholder(tf.float32, [None, 1])
loss = -tf.reduce_sum(t*tf.log(p) + (1-t)*tf.log(1-p))

# アダムオプティマイザーで上で定義したloss関数を最小化していく

train_step = tf.train.AdamOptimizer().minimize(loss)

・予測

# 正解or不正解の分別 Pn>=0.5であればt=1
#  tf.sign  符号を取り出す関数
# tf.equal  引数が等しいかを判定する関数 Bool値を返す
# ブロードキャストルールによって、Bool値の縦ベクトルが生成される

correct_prediction = tf.equal(tf.sign(p-0.5), tf.sign(t-0.5))

# tf.cast  Bool値を1,0の値に変換
# tf.reduce_mean  ベクトルの各成分の平均値、正解なら1、不正解なら0

accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

# パラメータの最適化
sess = tf.Session()
sess.run(tf.global_variables_initializer())

・勾配降下法

# 勾配降下法 20000回繰り返し

i = 0
for _ in range(20000):
    i += 1
    sess.run(train_step, feed_dict={x:train_x, t:train_t})
    
    if i % 2000 == 0:
        loss_val, acc_val = sess.run([loss, accuracy], feed_dict={x:train_x, t:train_t})
        print('Step: %d, Loss %f, Accuracy: %f' % (i, loss_val, acc_val))

(out)
Step: 2000, Loss 16.098034, Accuracy: 0.857143
Step: 4000, Loss 12.176691, Accuracy: 0.885714
Step: 6000, Loss 9.802266, Accuracy: 0.914286
Step: 8000, Loss 8.280571, Accuracy: 0.914286
Step: 10000, Loss 7.283283, Accuracy: 0.914286
Step: 12000, Loss 6.632703, Accuracy: 0.914286
Step: 14000, Loss 6.220951, Accuracy: 0.914286
Step: 16000, Loss 5.976564, Accuracy: 0.914286
Step: 18000, Loss 5.848728, Accuracy: 0.914286
Step: 20000, Loss 5.797661, Accuracy: 0.942857

# Variableの値を取得
# w0・・・1要素のみのリスト
# w ・・・2行1列の行列
# [0][0]は一行目を取り出し、[1][0]は2行目を取り出し

w0_val, w_val = sess.run([w0, w])
w0_val, w1_val, w2_val = w0_val[0], w_val[0][0], w_val[1][0]

print (w0_val, w1_val, w2_val)
-14.9617 0.322867 0.617867

# 結果をグラフに表示
# 境界線は、P(x1,x2)=0.5 の確率
# シグモイド関数はロジスティック関数とも。ロジスティック回帰。

#トレーニングセットのデータからt=0、1のデータを個別に取出し

train_set0 = train_set[train_set['t']==0]
train_set1 = train_set[train_set['t']==1]

# 散布図の記号etc

fig = plt.figure(figsize=(6,6))
subplot = fig.add_subplot(1,1,1)
subplot.set_ylim([0,30])
subplot.set_xlim([0,30])
subplot.scatter(train_set1.x1, train_set1.x2, marker='x')
subplot.scatter(train_set0.x1, train_set0.x2, marker='o')

・グラフの細かい描画設定

# 境界線の直線の描画

linex = np.linspace(0,30,10)
liney = - (w1_val*linex/w2_val + w0_val/w2_val)

subplot.plot(linex, liney)

# 確率の変化を濃淡で示す
# (x1,x2)平面を100x100のセルに分割
# それぞれのセルの確率P(x1、x2)の値を2次元リスト filedに格納 濃淡表示

field = [[(1 / (1 + np.exp(-(w0_val + w1_val* x1 + w2_val*x2))))
         for x1 in np.linspace(0,30,100)]
        for x2 in np.linspace(0,30,100)]

subplot.imshow(field, origin= 'lower', extent = (0,30,0,30), cmap=plt.cm.gray_r, alpha=0.5)

plt.show()

f:id:oikakerublog:20170531212947p:plain

広告を非表示にする

Tensorflow 身長・体重・BMIの学習(ソシム本、218ページ)

# 2017-5-21 ソシム スクレイピング本
# 218ページ〜 BMI計算、CSVファイル
# 予め用意したCSVファイルを使って、BMI分類を学習
# 交差エントロピ、ソフトマックス、勾配法

import pandas as pd
import numpy as np
import tensorflow as tf

# 身長,体重,ラベルのCSVデータを読み出す 
# pandas でCSVファイル読み出し
csv = pd.read_csv("bmi.csv")

# データを正規化 、0〜1に
csv["height"] = csv["height"] / 200
csv["weight"] = csv["weight"] / 100

# ラベルを三次元のクラスで表す --- (※3)
# 痩せ、普通、肥満を3つの三次元クラスデータで表す
# thin=(1,0,0) / normal=(0,1,0) / fat=(0,0,1)

bclass = {"thin": [1,0,0], "normal": [0,1,0], "fat": [0,0,1]}
csv["label_pat"] = csv["label"].apply(lambda x : np.array(bclass[x]))

# 正解率を求めるためにテストデータを準備 
# 2万件のうち末尾5000件をテストデータにする

test_csv = csv[15000:20000]
test_pat = test_csv[["weight","height"]]
test_ans = list(test_csv["label_pat"])

# データフローグラフを構築する
# データを入れるプレースホルダを宣言

x  = tf.placeholder(tf.float32, [None, 2]) # 身長,体重のデータを入れる
y_ = tf.placeholder(tf.float32, [None, 3]) # 答えのラベルを入れる

# 変数を宣言 --- (※6)
W = tf.Variable(tf.zeros([2, 3])); # 重み
b = tf.Variable(tf.zeros([3])); # バイアス

# ソフトマックス回帰を定義 
# y=softmax(Wb+b)
y = tf.nn.softmax(tf.matmul(x, W) + b)

# モデルを訓練する
cross_entropy = -tf.reduce_sum(y_ * tf.log(y))

# 降下法でWやbを学習する、tfに用意されているもの
optimizer = tf.train.GradientDescentOptimizer(0.01)
train = optimizer.minimize(cross_entropy)

# 正解率を求める
# 誤差関数:交差エントロピー
# SummaryWriter

predict = tf.equal(tf.argmax(y, 1), tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(predict, tf.float32))

# セッションを開始
sess = tf.Session()
sess.run(tf.global_variables_initializer()) #変数を初期化

# テストデータを用いて学習させる、100件ずつ3500回学習
# 最初30%くらいの正解率が、95%くらいまで向上

print("- トレーニング中 -")

for step in range(3500):
    i = (step * 100) % 14000
    rows = csv[1 + i : 1 + i + 100]
    x_pat = rows[["weight","height"]]
    y_ans = list(rows["label_pat"])
    fd = {x: x_pat, y_: y_ans}
    sess.run(train, feed_dict=fd)
    if step % 500 == 0:
        cre = sess.run(cross_entropy, feed_dict=fd)
        acc = sess.run(accuracy, feed_dict={x: test_pat, y_: test_ans})
    
        print("step=", step, "cre=", cre, "acc=", acc)

# =>
- トレーニング中 -
step= 0 cre= 109.101 acc= 0.3084
step= 500 cre= 52.4673 acc= 0.8688
step= 1000 cre= 46.4283 acc= 0.9226
step= 1500 cre= 38.8364 acc= 0.9472
step= 2000 cre= 35.4385 acc= 0.9588
step= 2500 cre= 31.0386 acc= 0.9494
step= 3000 cre= 31.2941 acc= 0.9532

# 最終的な正解率を求める

acc = sess.run(accuracy, feed_dict={x: test_pat, y_: test_ans})

print("正解率=", acc)
# =>
正解率= 0.966

広告を非表示にする

Tensorflow オートエンコーダ(Qiita記事を見ながら写経)

◆Mnistデータをオートエンコーダで学習してみる。

【Tensorflow、オートエンコーダ、エンコード、デコード、mnist】

☞ 参考にした記事
http://qiita.com/mokemokechicken/items/8216aaad36709b6f0b5c



f:id:oikakerublog:20170519165332p:plain

# 2017-5-19 Autoencoder、Tfチュートリアル
# 参考にした記事
# Qiita TensorFlowで機械学習と戯れる: AutoEncoderを作ってみる

import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
import matplotlib.pyplot as plt

# データ読込み
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
H = 50
BATCH_SIZE = 100
DROP_OUT_RATE = 0.5
Extracting MNIST_data/train-images-idx3-ubyte.gz
Extracting MNIST_data/train-labels-idx1-ubyte.gz
Extracting MNIST_data/t10k-images-idx3-ubyte.gz
Extracting MNIST_data/t10k-labels-idx1-ubyte.gz

#重みW、バイアスbの変数定義

def weight_variable(shape):
    initial = tf.truncated_normal(shape, stddev=0.1)
    return tf.Variable(initial)


def bias_variable(shape):
    initial = tf.constant(0.1, shape=shape)
    return tf.Variable(initial)

# 入力層 x 28*28=784
x = tf.placeholder(tf.float32, [None, 784])

# Variable: W, b1
W = weight_variable((784, H))
b1 = bias_variable([H])

# 隠れ層 h ソフトサイン関数
h = tf.nn.softsign(tf.matmul(x, W) + b1)
keep_prob = tf.placeholder("float")
h_drop = tf.nn.dropout(h, keep_prob)

# デコード側の変数、W2は転置、ReLu関数
W2 = tf.transpose(W)
b2 = bias_variable([784])

y = tf.nn.relu(tf.matmul(h_drop, W2) + b2)

# loss関数
loss = tf.nn.l2_loss(y - x) / BATCH_SIZE
In [34]:
# Adam Optimizer
train_step = tf.train.AdamOptimizer().minimize(loss)

# 初期化、Session
init = tf.global_variables_initializer()
sess = tf.Session()
sess.run(init)

# トレーニング
for step in range(2000):
    batch_xs, batch_ys = mnist.train.next_batch(BATCH_SIZE)
    sess.run(train_step, feed_dict={x: batch_xs, keep_prob: (1-DROP_OUT_RATE)})
    
    # Collect Summary
    summary_op = tf.merge_all_summaries()
    
    # Print Progress
    if step % 100 == 0:
        print(loss.eval(session=sess, feed_dict={x: batch_xs, keep_prob: 1.0}))

# => 
38.9964
20.0019
15.4875
12.9807
12.3335
10.0853
10.5489
10.4406
10.1243
9.82316
9.74813
9.9554
9.81496
10.0637
9.55074
9.21692
8.61834
8.72896
8.79601
9.06065

# Draw Encode/Decode Result
N_COL = 10
N_ROW = 2
plt.figure(figsize=(N_COL, N_ROW*2.5))
batch_xs, _ = mnist.train.next_batch(N_COL*N_ROW)
for row in range(N_ROW):
    for col in range(N_COL):
        i = row*N_COL + col
        data = batch_xs[i:i+1]

        # Draw Input Data(x)
        plt.subplot(2*N_ROW, N_COL, 2*row*N_COL+col+1)
        plt.title('IN:%02d' % i)
        plt.imshow(data.reshape((28, 28)), cmap="magma", clim=(0, 1.0), origin='upper')
        plt.tick_params(labelbottom="off")
        plt.tick_params(labelleft="off")

        # Draw Output Data(y)
        plt.subplot(2*N_ROW, N_COL, 2*row*N_COL + N_COL+col+1)
        plt.title('OUT:%02d' % i)
        y_value = y.eval(session=sess, feed_dict={x: data, keep_prob: 1.0})
        plt.imshow(y_value.reshape((28, 28)), cmap="magma", clim=(0, 1.0), origin='upper')
        plt.tick_params(labelbottom="off")
        plt.tick_params(labelleft="off")

plt.savefig("result.png")
plt.show()
広告を非表示にする

Python MLP 3層ニューラルネットワークの実装(Qiita記事を見ながらの写経)

◆ 参考とした記事「ディープじゃないディープラーニングをNumPyのみで超簡単実装してみた」
☞ フィッシャーのあやめデータセット使用する。
 ※3種類のあやめに関し、ガクの長さ、幅、花弁の長さ、幅等を測定したデータ
f:id:oikakerublog:20170519140847p:plain

# Qiita ディープじゃないディープラーニング
# 2017-5-19 numpyMLPでアイリスデータを学習

import numpy as np

# ハイパーパラメータ

TRAIN_DATA_SIZE = 50  # 150個のデータのうちTRAIN_DATA_SIZE個を訓練データとして使用。残りは教師データとして使用。
HIDDEN_LAYER_SIZE = 6  # 中間層(隠れ層)のノード数(1層なのでスカラー)
LEARNING_RATE = 0.1  # 学習率
ITERS_NUM = 1000  # 繰り返し回数
DELTA = 0.01

# データを読み込み
# デフォルトで'#'の行を飛ばすようになっている

x = np.loadtxt('iris.tsv', delimiter='\t', usecols=(0, 1, 2, 3))
raw_t = np.loadtxt('iris.tsv', dtype=int, delimiter='\t', usecols=(4,))
onehot_t = np.zeros([150, 3])
for i in range(150):
    onehot_t[i][raw_t[i]] = 1

train_x = x[:TRAIN_DATA_SIZE]
train_t = onehot_t[:TRAIN_DATA_SIZE]
test_x = x[TRAIN_DATA_SIZE:]
test_t = onehot_t[TRAIN_DATA_SIZE:]

# 重み・バイアス初期化
W1 = np.random.randn(4, HIDDEN_LAYER_SIZE) * np.sqrt(2 / 4)  # Heの初期値(ReLUのときはこれを使う)
W2 = np.random.randn(HIDDEN_LAYER_SIZE, 3) * np.sqrt(2 / HIDDEN_LAYER_SIZE)
b1 = np.zeros(HIDDEN_LAYER_SIZE)  # 初期値ゼロ ※ゼロから作るDeep Learningを見てこうしたので理由はわからない
b2 = np.zeros(3)

# ReLU関数
def relu(x):
    return np.maximum(x, 0)

# Softmax関数
def softmax(x):
    e = np.exp(x - np.max(x))
    if e.ndim == 1:
        return e / np.sum(e, axis=0)
    elif e.ndim == 2:
        return e / np.array([np.sum(e, axis=1)]).T
    else:
        raise ValueError

# 交差エントロピー誤差
def cross_entropy_error(y, t):
    if y.shape != t.shape:
        raise ValueError
    if y.ndim == 1:
        return - (t * np.log(y)).sum()
    elif y.ndim == 2:
        return - (t * np.log(y)).sum() / y.shape[0]
    else:
        raise ValueError

# 順伝搬
def forward(x):
    global W1, W2, b1, b2
    return softmax(np.dot(relu(np.dot(x, W1) + b1), W2) + b2)

# テストデータの結果
test_y = forward(test_x)
print((test_y.argmax(axis=1) == test_t.argmax(axis=1)).sum(), '/', 150 - TRAIN_DATA_SIZE)

# =>
35 / 100

# 学習ループ
for i in range(ITERS_NUM):
    # 順伝搬withデータ保存
    y1 = np.dot(train_x, W1) + b1
    y2 = relu(y1)
    train_y = softmax(np.dot(y2, W2) + b2)

    # 損失関数計算
    L = cross_entropy_error(train_y, train_t)

    if i % 100 == 0:
        print(L)

    # 勾配計算
    # 計算グラフで求めた式を使用
    a1 = (train_y - train_t) / TRAIN_DATA_SIZE
    b2_gradient = a1.sum(axis=0)
    W2_gradient = np.dot(y2.T, a1)
    a2 = np.dot(a1, W2.T)
    a2[y1 <= 0.0] = 0
    b1_gradient = a2.sum(axis=0)
    W1_gradient = np.dot(train_x.T, a2)

    # パラメータ更新
    W1 = W1 - LEARNING_RATE * W1_gradient
    W2 = W2 - LEARNING_RATE * W2_gradient
    b1 = b1 - LEARNING_RATE * b1_gradient
    b2 = b2 - LEARNING_RATE * b2_gradient

# =>
7.67570464895
0.393484233191
0.282570757345
0.197404306772
0.131109443642
0.0944027334525
0.069999080593
0.0396633772518
0.0309149715653
0.0261644638179

# 最終訓練データのL値
L = cross_entropy_error(forward(train_x), train_t)
print(L)

# テストデータの結果、正解率

test_y = forward(test_x)
print((test_y.argmax(axis=1) == test_t.argmax(axis=1)).sum(), '/', 150 - TRAIN_DATA_SIZE)
0.022632216217

# =>
97 / 100
広告を非表示にする

Python 手書き文字mnistに触ってみる(その2)

◆Scikit learnの8x8digitを触ってみる @ 2017-5-14

# Scikit learnではじめる機械学習 p.223@Pythonの教科書
# Scikit learnは予めダウンロード      2017-5-14

from sklearn import datasets
# sklのデータセット読込み
digits = datasets.load_digits()

# imageプロパティ、、、画像のピクセルデータ
print(digits.images[15])
# targetプロパティ、、、ラベル情報
print('正解ラベル -', digits.target[15])

# とりあえず1つ選ぶ これを下で描画
selecteddata = digits.images[5]


# 描画コード、cm ??
# plt.imshow(対象データ、形状、cmap、インターポレーション)

from matplotlib import pyplot as plt, cm

plt.imshow(selecteddata.reshape(8,8), cmap=cm.gray_r, interpolation='nearest')
plt.show()

[[ 0. 5. 12. 13. 16. 16. 2. 0.]
[ 0. 11. 16. 15. 8. 4. 0. 0.]
[ 0. 8. 14. 11. 1. 0. 0. 0.]
[ 0. 8. 16. 16. 14. 0. 0. 0.]
[ 0. 1. 6. 6. 16. 0. 0. 0.]
[ 0. 0. 0. 5. 16. 3. 0. 0.]
[ 0. 1. 5. 15. 13. 0. 0. 0.]
[ 0. 4. 15. 16. 2. 0. 0. 0.]]
正解ラベル - 5
f:id:oikakerublog:20170514190511p:plain

広告を非表示にする

Python ど基本(その2)

◆関数の基本
(1)かけ算をする関数

def mul(a,b):
    '''かけ算の関数''' # docstring
    return a * b

print(mul(3,4)) 

=> 12

(2)円の面積を計算する関数

#関数の基本と引数、リターン
def circle(radius):
    
    result = radius * radius * 3.14
    
    return result

circle(10)

# circle関数の引数に10を代入
# circle(10)まで読むと即計算、314.0をoutする。

=> 314.0

広告を非表示にする

Python Matplotlibに慣れる(その2)

◆単純な1次関数をグラフに表示
・y=2x+50

# 数式をグラフしてみる
import numpy as np
import matplotlib.pylab as plt

#式を定義

def formura(x):
    
    return 2*x + 50

x = np.arange(-10.0, 10.0, 1.0) #マイナス10からプラス10まで1刻み
y = formura(x)

plt.plot(x,y)
plt.show()

f:id:oikakerublog:20170514171623p:plain

arctanのグラフ

# インライン表示の宣言
%matplotlib inline

import numpy as np
import matplotlib.pyplot as plt
x = np.arange(-10, 10, 0.1)
y = np.arctan(x)
plt.plot(x, y)

f:id:oikakerublog:20170518145440p:plain

広告を非表示にする

TensorFlow 触りはじめ

◆tensorflow動作テスト用のプログラム

(1)”Hello World!”を表示させる

import tensorflow as tf

hello = tf.constant('hello World!')
sess = tf.Session()

print(sess.run(hello))

(2)単純な行列計算をするプログラム

# XとYの積を求めるプログラム
import tensorflow as tf

X = tf.constant([[3.,3.]]) 
Y = tf.constant([[2.],[2.]])

# XとYの積を計算するノードを作成
node = tf.matmul(X, Y)

# 実行する
sess = tf.Session()
result = sess.run(node)

print(result) # [[12.]]

(3)mnistデータからランダムに10個取り出し、表示する

# tensorflowでmnistデータをさわる、10個ランダム抽出、表示
import numpy as np
import matplotlib.pyplot as plt
from tensorflow.examples.tutorials.mnist import input_data

mnist = input_data.read_data_sets("/tmp/data/", one_hot=True)

# 10個のデータを取り出す、変数mnistのメソッド
images, labels = mnist.train.next_batch(10)

# 1つ目のデータ内容を表示、ラベル&中身
print(labels[0])
print(images[0])

#  取り出した10個を画像として表示
fig = plt.figure(figsize=(8,4))
for c, (image, label) in enumerate(zip(images, labels)):
    subplot = fig.add_subplot(2,5,c+1)
    subplot.set_xticks([])
    subplot.set_yticks([])
    subplot.set_title('%d' % np.argmax(label))
    subplot.imshow(image.reshape((28,28)), vmin=0,vmax=1, cmap=plt.cm.gray_r, interpolation="nearest")
plt.show()

# Extracting /tmp/data/train-images-idx3-ubyte.gz
# Extracting /tmp/data/train-labels-idx1-ubyte.gz
# Extracting /tmp/data/t10k-images-idx3-ubyte.gz
# Extracting /tmp/data/t10k-labels-idx1-ubyte.gz
# [ 0.  0.  0.  0.  0.  0.  1.  0.  0.  0.]
# [ 0.          0.          0.          0.          0.          0.          0.

f:id:oikakerublog:20170505223703p:plain

・”imshow”メソッド・・・画像を表示
・”cmap=plt.cm.gray_r”・・・グレースケールで表示
・”vmin””vmax”・・・濃度の最大値/最小値、濃淡を適切に調整
・”interpolation="nearest"”・・・画像を滑らかに表示する機能を無効化

(4)Tensorflowでmnistのトレーニング、正解&不正解のサンプルを表示

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
from tensorflow.examples.tutorials.mnist import input_data

np.random.seed(20160604) 
mnist = input_data.read_data_sets("temp/data",one_hot=True)

# ある領域に属する確率を計算する数式の実装
x = tf.placeholder(tf.float32, [None, 784])

w = tf.Variable(tf.zeros([784,10]))
w0 = tf.Variable(tf.zeros([10]))

f = tf.matmul(x, w) + w0
p = tf.nn.softmax(f)

# 誤差関数
t = tf.placeholder(tf.float32,[None, 10])
loss = -tf.reduce_sum(t * tf.log(p))
train_step = tf.train.AdamOptimizer().minimize(loss)
# 正解率の関係式
correct_prediction = tf.equal(tf.argmax(p, 1), tf.argmax(t, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

# 正解率の関係式
correct_prediction = tf.equal(tf.argmax(p, 1), tf.argmax(t, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

# 勾配効果法、2000回、誤差関数、正解率
i = 0
for _ in range (2000):
    i += 1
    batch_xs, batch_ts = mnist.train.next_batch(100)
    sess.run(train_step, feed_dict={x: batch_xs, t: batch_ts})
    if i % 100 == 0:
        loss_val, acc_val = sess.run([loss,accuracy], feed_dict={x:mnist.test.images, t:mnist.test.labels})
        print('Step: %d, Loss: %f, Accuracy: %f' % (i, loss_val, acc_val))
# 正解した文字と不正解だった文字のサンプルを表示
images, labels = mnist.test.images, mnist.test.labels
p_val = sess.run(p, feed_dict={x:images, t: labels})

fig = plt.figure(figsize=(8,15))

for i in range(10):
    c = 1
    for (image, label, pred) in zip(images, labels, p_val):
        prediction, actual = np.argmax(pred), np.argmax(label)
        if prediction != i:
            continue
        if (c < 4 and i == actual) or (c >=4 and i != actual):
            subplot = fig.add_subplot(10,6,i*6+c)
            subplot.set_xticks([])
            subplot.set_yticks([])
            subplot.set_title('%d / %d' % (prediction, actual))
            subplot.imshow(image.reshape((28,28)), vmin=0,vmax=1, cmap=plt.cm.gray_r, interpolation="nearest")
            c += 1
            if  c >6:
                break
plt.show()

f:id:oikakerublog:20170506130905p:plain

(5)ニューラルネットワークによる手書き文字認識

# 20170512 マイナビtf本、単相ニューラルネットワークの構造、113ページから
# 勾配降下法を使った学習で97%くらいまで識別力上げる。ソフトマックスだけでは92%程度。
# [MSL-01] 必要なモジュールをインポートして、乱数のシードを設定。再現性乱数。

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
from tensorflow.examples.tutorials.mnist import input_data
In [7]:
# 隠れ層のパラメータを乱数で初期化
np.random.seed(20160612)
tf.set_random_seed(20160612)
In [8]:
# [MSL-02] MNISTのデータセットを用意、 ダウンロード始まる
mnist = input_data.read_data_sets("/tmp/data/", one_hot=True)
Successfully downloaded train-images-idx3-ubyte.gz 9912422 bytes.
Extracting /tmp/data/train-images-idx3-ubyte.gz
Successfully downloaded train-labels-idx1-ubyte.gz 28881 bytes.
Extracting /tmp/data/train-labels-idx1-ubyte.gz
Successfully downloaded t10k-images-idx3-ubyte.gz 1648877 bytes.
Extracting /tmp/data/t10k-images-idx3-ubyte.gz
Successfully downloaded t10k-labels-idx1-ubyte.gz 4542 bytes.
Extracting /tmp/data/t10k-labels-idx1-ubyte.gz
In [10]:
# [MSL-03] 単層ニューラルネットワークを用いた確率 p の計算式を用意

# 隠れ層のノード数
num_units = 1024

# xは入力層のデータに対するプレースホルダ
x = tf.placeholder(tf.float32, [None, 784])

# 変数、num_unitsの方は上の1024が入る
# truncatedはTensorを正規分布かつ標準偏差の2倍までのランダムな値で初期化
#  tf.zeros はゼロの配列をつくる
w1 = tf.Variable(tf.truncated_normal([784, num_units]))
b1 = tf.Variable(tf.zeros([num_units]))

# 隠れ層はReLU関数
hidden1 = tf.nn.relu(tf.matmul(x, w1) + b1)

# ソフトマックス、確率計算
w0 = tf.Variable(tf.zeros([num_units, 10]))
b0 = tf.Variable(tf.zeros([10]))
p = tf.nn.softmax(tf.matmul(hidden1, w0) + b0)
In [11]:
# [MSL-04] 誤差関数 loss、トレーニングアルゴリズム train_step、正解率 accuracy を定義
t = tf.placeholder(tf.float32, [None, 10])

# 要素の和、スカラー値を返す
loss = -tf.reduce_sum(t * tf.log(p))

# アダムオプティマイザ, argmaxは添字返す
train_step = tf.train.AdamOptimizer().minimize(loss)
correct_prediction = tf.equal(tf.argmax(p, 1), tf.argmax(t, 1))

# reduce meanは平均値で縮約
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
In [13]:
# [MSL-05] セッションを用意して、Variableを初期化
sess = tf.InteractiveSession()
sess.run(tf.global_variables_initializer())
In [14]:
# [MSL-06] パラメーターの最適化を2000回
#1回の処理はトレーニングセットから取り出した100個のデータ、勾配降下法
i = 0
for _ in range(2000):
    i += 1
    
    batch_xs, batch_ts = mnist.train.next_batch(100)
    sess.run(train_step, feed_dict={x: batch_xs, t: batch_ts})
    
    if i % 100 == 0:
        loss_val, acc_val = sess.run([loss, accuracy],
            feed_dict={x:mnist.test.images, t: mnist.test.labels})
        
        print ('Step: %d, Loss: %f, Accuracy: %f'
               % (i, loss_val, acc_val))
# [MSL-07] 最適化されたパラメーターを用いて、テストセットに対する予測を表示
images, labels = mnist.test.images, mnist.test.labels
p_val = sess.run(p, feed_dict={x:images, t: labels}) 

fig = plt.figure(figsize=(8,15))
for i in range(10):
    c = 1
    for (image, label, pred) in zip(images, labels, p_val):
        prediction, actual = np.argmax(pred), np.argmax(label)
        if prediction != i:
            continue
        if (c < 4 and i == actual) or (c >= 4 and i != actual):
            subplot = fig.add_subplot(10,6,i*6+c)
            subplot.set_xticks([])
            subplot.set_yticks([])
            subplot.set_title('%d / %d' % (prediction, actual))
            subplot.imshow(image.reshape((28,28)), vmin=0, vmax=1,
                           cmap=plt.cm.gray_r, interpolation="nearest")
            c += 1
            if c > 6:
                break
plt.show()

Step: 100, Loss: 2637.275391, Accuracy: 0.922400
Step: 200, Loss: 2196.073730, Accuracy: 0.934600
Step: 300, Loss: 1894.907593, Accuracy: 0.943000
Step: 400, Loss: 1874.442261, Accuracy: 0.942300
Step: 500, Loss: 1435.872070, Accuracy: 0.955700
Step: 600, Loss: 1302.952026, Accuracy: 0.960900
Step: 700, Loss: 1310.853516, Accuracy: 0.959800
Step: 800, Loss: 1230.490479, Accuracy: 0.962600
Step: 900, Loss: 1266.093140, Accuracy: 0.960800
Step: 1000, Loss: 1179.594116, Accuracy: 0.963500
Step: 1100, Loss: 1213.116699, Accuracy: 0.962700
Step: 1200, Loss: 1051.569458, Accuracy: 0.968900
Step: 1300, Loss: 1070.601318, Accuracy: 0.967900
Step: 1400, Loss: 1014.479492, Accuracy: 0.968400
Step: 1500, Loss: 1074.788818, Accuracy: 0.968700
Step: 1600, Loss: 1001.342285, Accuracy: 0.970600
Step: 1700, Loss: 944.826172, Accuracy: 0.973300
Step: 1800, Loss: 1006.114258, Accuracy: 0.969500
Step: 1900, Loss: 1133.716919, Accuracy: 0.966000
Step: 2000, Loss: 1004.364990, Accuracy: 0.970000

(6)畳み込みフィルタの写経、特徴抽出
『Tensorflowで学ぶディープラーニング本』の161ページ〜
・本はpython2.7で書かれているので少し修正、githubからデータセットを予めダウンロード
エンコーディングの指定をしないとエラーが出る

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
import pickle

with open('ORENIST.data', 'rb')  as file:
    images, labels = pickle.load(file, encoding='latin1')

・読み込んだデータの一部を表示

fig = plt.figure(figsize=(10,5))
for i in range(40):
    subplot = fig.add_subplot(4, 10, i+1)
    subplot.set_xticks([])
    subplot.set_yticks([])
    subplot.set_title('%d' % np.argmax(labels[i]))
    subplot.imshow(images[i]. reshape(28,28),vmin=0,vmax=1,cmap=plt.cm.gray_r, interpolation='nearest')
plt.show()

f:id:oikakerublog:20170506201414p:plain

◆mnistのトレーニングデータからランダムに10個抽出する(準備)
・np.random.choice(*,*)

mport sys, os
sys.path.append(os.pardir)
from dataset.mnist import load_mnist
import numpy as np

# y_trainはラベル0〜9、ワンホットにすることで正解の1つだけ1になる
(x_train, y_train), (x_test, y_test) = load_mnist(normalize=True, one_hot_label=True)
#トレーニングデータのm個のうち、10個をランダム抽出
batch_mask = np.random.choice(x_train.shape[0],10) 

print(batch_mask)
# [ 5439 34906 17859  4359 43756 16992 51724 55159 41009 44592]

◆メモ1
・mnistの分類アルゴリズムについて・・・数学的に言えば784次元のベクトルであり、784次元空間の1つの点(x1,x2,,,x784)に対応することになる。784次元は絵では示せないが、その空間を10個の領域に分割して、分類を行うという意味では、二次元平面の分類と類似。


◆メモ2(API、計算)
☞ tf.Session()・・・処理を実行するためのクラス
☞ with句・・・セッションを記述。
☞ fetch・・・グラフから演算結果を取り出す。
☞ tf.constant・・・定数。定数の行列要素を生成。
☞ input_data・・・外部データを読み込む関数(cf.mnist)
☞ placeholder・・・データが格納される予定地。
・Noneにしておくと可変サイズに対応可
☞ tf.assign・・・変数に値を代入。

◆TensorFlow
・グラフ(エッジ+ノード)という処理概念を使っている。
・グラフを実行するためには、sessionを作りrunメソッドをコール。
・約1000のAPIが公開。

◆インストール(mac
・公式ページを参考
・conda インストール(python 3.6)

◆参考サイト
・TF参考
TensorFlowで学ぶディープラーニング入門備忘録【第2章】 - ハードウェアエンジニアの備忘録

広告を非表示にする

Python 手書き文字mnistデータを触ってみる

◆mnistデータを用意

・トレーニングデータが60000(画像&ラベル)、テストデータが10000(画像&ラベル)

・ゼロから分かるディープラーニングgithubからダウンロード

f:id:oikakerublog:20170429153550p:plain

 

◆ 内容

t_train, t_train, x_test, t_test

 

◆さわりはじめ

(1)とりあえず”dataset.mnist”モジュールから”load_mnist”をインポート

import sys, os
sys.path.append(os.pardir) 
from dataset.mnist import load_mnist

(2)定義する

(x_train, t_train), (x_test, t_test) = load_mnist(flatten=True, normalize=False)

(3)テストデータの形状を確認

print(x_train.shape)

print(x_test.shape)

=>

(60000, 784)

(10000, 784)

 

◆”load_mnist”

・load_mnist(トレーニング画像, ラベル),(テスト画像, ラベル)の形式でmnistデータを返す。

・load_mnist(normalize=False, flatten=True, one_hot_label=Fals)のように引数設定。

 

◆画像の表示・・・PIL:python image libraryモジュールを使う
from PIL import Image

 

 

☞  ”トレーニング”の15番目を見てみる

print(x_train[15])  # mnistデータの”x_train”の15番目を表示 

f:id:oikakerublog:20170429195751p:plain

f:id:oikakerublog:20170429194243p:plain

 ※28x28になっていない、8ビット

 

# ”トレーニングデータラベル”の1番目を見てみる

print(t_train[15])

=>

7  #「7」とのこと

 

☞  28x28にする

image = x_train[15].reshape(28,28) #"reshape"で形を整える
print(image)

f:id:oikakerublog:20170429201203p:plain

  ※28x28になっているけどjupyternotebookで改行

 

☞ ゼロから学ぶDLの関数を使う

# 関数を定義
def img_show(img):
  pil_img = Image.fromarray(np.uint8(img))
  pil_img.show()

f:id:oikakerublog:20170429212140p:plain

f:id:oikakerublog:20170429212314p:plain

 

☞ とりあえず作業痕跡。。

(1)その1

 

f:id:oikakerublog:20170430192034p:plain

(2)その2

f:id:oikakerublog:20170430192238p:plain

◆触れたこと

☞ scikit-learn (サイキット・ラーン) ・・・機械学習ライブラリ

from sklearn.utils import shuffle
from sklearn.model_selection import train_test_split
from sklearn.metrics import f1_score
from sklearn.datasets import fetch_mldata

 

 fetch_mldata()・・・scikit-learnの関数、webからmnistデータをもってくる。

例)
mnist = fetch_mldata('MNIST original')

shuffle / random_state=**

split

could not read bytes

 ・中途半端なデータが残っているせいか。scikit_learn_data/mldataのフォルダごと削除して再度やり直し。

◆参考

Pythonマニュアル

https://docs.python.jp/3/tutorial/index.html

☞ scikit-learn

http://scikit-learn.org/stable/tutorial/machine_learning_map/

☞ 参考

http://tawara.hatenablog.com/entry/2016/11/06/DeepLearningFromZero-04

https://openbook4.me/sections/1452

 

広告を非表示にする

Python ど基本

 

◆import

from モジュール名 import 属性1, 属性2…

(1)親ディレクトリにあるファイルをインポートする

import sys,os
sys.path.append(os.pardir)

#このあとに例えば。。

import abc #abc.pyをインポート

 

Memo:

・os.pardirは親ディレクトリを表す文字列定数

・sys.pathはファイルを検索するパスを示す文字列のリスト。

→ sys.pathにインポート対象のディレクトリを含めることで、適当なディレクトリのファイルでもインポート可となる。

 

◆print

・python3では「関数」(構文ではなく。。)

print('abc')    ※python2,3で互換性

print(***.shape)・・・形状を表示する

print(x_train[15].shape) #トレーニング用データの15番目のシェイプ

=>

(784,)

 

◆”for”文

(1) リスト、要素1つずつ表示

list = [ 'Nasu', 'Tomato', 'Kyuri' ]
for x in list :
         print(x)

=>

Nasu
Tomato
Kyuri

 

(2)1つ飛ばし

for x in list[1:] :

         print(x)

=>

Tomato
Kyuri

 

◆”range”

 

◆掛け算(九九)

[[x * y for y in range(1,10)] for x in range(1,10)]

 

◆return

・関数の戻り値

 

Python 2系と3系の切替え

(1)コマンド

source activate python2

source deactivate

 

 

 

広告を非表示にする

Python Matplotlibに慣れる

◆グラフのプロット

(1)cosカーブ

x = np.arange(-2*3.14, 2*3.14, 0.1)
y = np.cos(x)
plt.plot(x, y)
plt.show()

f:id:oikakerublog:20170422155357p:plain

(2)折れ線グラフ

y1 = [0, 2, 1]
y2 = [0, 3, 4]

plt.plot(y1) # x軸を与えなければインデックスが使われる
plt.plot(y2)
plt.show() # 重ねて表示される

f:id:oikakerublog:20170422155710p:plain

 

(3)折れ線・散布図 -xとyの相関-

x = [3, 4.5, 5, 6]
y = [0, 2, 1, 3]

# 折れ線
plt.plot(x, y)
plt.show()

# scatter plot
plt.plot(x, y, 'o')
plt.show()

f:id:oikakerublog:20170422160008p:plain   f:id:oikakerublog:20170422160025p:plain

 

(3)乱数、ヒストグラム

# ガウス分布
r = np.random.normal(0, 10, 10000) # 数字
plt.hist(r, bins=100)
plt.show()

f:id:oikakerublog:20170422160547p:plain

 

◆参考

http://www.turbare.net/transl/scipy-lecture-notes/intro/matplotlib/matplotlib.html

http://bicycle1885.hatenablog.com/entry/2014/02/14/023734

http://matplotlib.org/api/pyplot_api.html#matplotlib.pyplot.plot

広告を非表示にする

Memo 用語&単語 etc

・broadcasting… 形状の違う配列どうしを計算。

・category表現…[0, 1, 2, 1, 0, 2]

・one-hot 表現[ 1., 0., 0.] 要素1つが1で他が全て0

 

・リスト…要素のシーケンス、挿入&削除ができる、ミュータブル

a=[1,2,3]
print(a)

=>

[1, 2, 3]

・タプル…イミュータブル、変更不可

a=(1,2,3)
print(a)

=>

(1, 2, 3)

 

パーセプトロン…重み設定の作業が人手。活性化関数がステップ関数。@魚本

ニューラルネットワークニューロンのつながり方はパーセプトロンと何ら変わりなし。多層で、シグモイド関数などの滑らかな活性化関数を使用するネットワーク。@魚本

 ・活性化関数…入力信号の総和がどのように活性化(発火)するかを決める役割りを果すもの。@魚本

・正規化(normalization)…データをある決まった範囲に変換する処理@魚本

 ・損失関数(loss function)…「ニューラルネットワークの学習では、最適なパラメータ(重みとバイアス)を探索する際に、損失関数の値ができるだけ小さくなるようなパラメータを探します。」2乗和誤差、交差エントロピー誤差などを用いる。「できるだけ小さな損失関数の場所を探すために、パラメータの微分(正確には勾配)を計算し、その微分の値を手がかりにパラメータの値を徐々に更新していきます。」@魚本

・2乗和誤差…「ニューラルネットワークの出力と正解となる教師データの各要素の差の2乗を計算し、その総和を求めます。」@魚本

偏微分…「…ある場所の傾きを求めます。ただし、…変数をひとつに絞り、他の変数はある値い固定します。」@魚本 

勾配…「すべての変数の偏微分をベクトルとしてまとめたもの」@魚本

勾配法…「勾配をうまく利用して関数の最小値(または、できるだけ小さな値)を探そう、というのが勾配法です。」@魚本

学習率(learning rate)…「1回の学習で、どれだけ学習すべきか、どれだけパラメータを更新するか、ということを決めるのが学習率です。」@魚本

ハイパーパラメータ…人の手によって設定されるパラメータ

誤差逆伝播…「局所的な微分」の伝達@魚本

広告を非表示にする

Python Numpyに慣れる100エクササイズ

◆ベクトルを作る・いじる

☞ ”array” ・・・要素指定で配列を生成する

 print(np.array([[1, 2, 3], [4, 5, 6]]))

=>

[[1 2 3]
[4 5 6]]

 

☞ ”arange”・・・連番の配列を作る

print(np.arange(5))  # start = 0 (default), end = 5
print(np.arange(1,5))  # start = 1, end = 5
print(np.arange(1,5,0.5))  # start = 1, end = 5, slice = 0.5

=>

[0 1 2 3 4]
[1 2 3 4]
[ 1. 1.5 2. 2.5 3. 3.5 4. 4.5]

☞ ”flatten”・・・一次元化

W = np.array([[1, 2, 3], [4, 5, 6]])
print(W)
print(W.flatten())

=>

[[1 2 3]
[4 5 6]]
[1 2 3 4 5 6]

 

☞ ”reshape”・・・行列のかたちを変更

print(np.arange(48).reshape(8, 6))

=>

f:id:oikakerublog:20170425001509p:plain

A = np.arange(24).reshape(2,3,4) #2つの行列に分ける
print(A)

=>

[[[ 0 1 2 3]
[ 4 5 6 7]
[ 8 9 10 11]]

[[12 13 14 15]
[16 17 18 19]
[20 21 22 23]]]

 

☞ ”shape”・・・配列の値の数を得る

(1) 3x2行列.shape → (3,2)

(2)3x2行列.shape [0]→ 行の数 この例では3

ex:

X = np.arange(12).reshape(3,4)
print(X)

=>

[[ 0 1 2 3]
[ 4 5 6 7]
[ 8 9 10 11]]

ex:

print(X.shape)
print(X.shape[0])

=>

(3, 4)
3

ex:

b = np.array([2,4,6,8])

print(b.shape) 

=>

(4,)

 

”zeros”・・・全部0の配列を作る (cf. 全部1なら”ones”)

Z1 = np.zeros(5) #一次元

Z2 = np.zeros*1 #2行3列のように形状指定もOK
print(Z1)

print(Z2)

=>

[ 0. 0. 0. 0. 0.]
[[ 0. 0. 0.]
[ 0. 0. 0.]]

 

・参考)4つ目が1

Z = np.zeros(10)
Z[4] = 1
print(Z)

=>

[ 0. 0. 0. 0. 1. 0. 0. 0. 0. 0.]

 

☞  ”np.random.choice()”・・・ランダム

・指定された数字の中からランダムに好きな数を取り出す

np.random.choice(100,3) #0〜99のうちランダムに3つ数字を抽出

=>

array([89, 41, 92])

◆ ”def”・・・関数を定義

def add(x, y):
print x + y

add(3, 5)

=> 8

 

◆ ”numpy.newaxis”・・・縦配置

(1)ヨコ→タテ

array = np.arange(5)
print (array[:, np.newaxis])

=>

 [[0]
[1]
[2]
[3]
[4]]

(2)九九表を作る

m = np.array([1,2,3,4,5,6,7,8,9])
n = np.array([1,2,3,4,5,6,7,8,9])
print(m[:, np.newaxis]) # m配列を縦に
print(m[:, np.newaxis]*n) # それにn配列を掛け算していく

f:id:oikakerublog:20170424233738p:plain

☞ その7・・・エレメントをリバースする

Z = np.arange(15)
Z = Z[::-1]
print(Z)

=>

[14 13 12 11 10 9 8 7 6 5 4 3 2 1 0]

 

☞ その8・・・3x3のマトリクス

Z = np.arange(9).reshape(3,3)
print(Z)

=>

[[0 1 2]
[3 4 5]
[6 7 8]]

 

☞ その9・・・ある行列からindexをさがす

nz = np.nonzero([1,2,0,0,4,0])
print(nz)

=>

(array([0, 1, 4], dtype=int64),)

 

☞ その10・・・identity matrix 単位行列

Z = np.eye(3)
print(Z)

=>

[[ 1. 0. 0.]
[ 0. 1. 0.]
[ 0. 0. 1.]]

 

☞ その11・・・3x3x3のランダム行列の作成

Z = np.random.random*2
print(Z)

=>

[[[ 0.86816012 0.54928482 0.10620469]
[ 0.56253858 0.42498644 0.38111299]
[ 0.46583937 0.06876381 0.47205835]]

[[ 0.48659812 0.53796306 0.83180752]
[ 0.54321802 0.2645361 0.6461197 ]
[ 0.69551154 0.60727098 0.36739499]]

[[ 0.31582316 0.86979075 0.77204474]
[ 0.93540842 0.18592936 0.17472491]
[ 0.87547108 0.59652846 0.87853689]]]

 

☞ その12・・・3x3のランダム行列を作り、その中の要素の最大値/最小値を抽出

Z = np.random.random*3
Zmin, Zmax = Z.min(), Z.max()
print(Z)
print(Zmin, Zmax)

=>

[[ 0.92771297 0.99119487 0.33149293]
[ 0.48005022 0.61086498 0.19062979]
[ 0.05214626 0.61618909 0.08295882]]
0.0521462614894 0.991194872459

 

☞ その13・・・要素の平均値(mean value)を出す

Z = np.random.random(3)
m = Z.mean()
print(Z)
print(m)

=>

[ 0.43252845 0.86545314 0.8868291 ]
0.728270233139

 

☞ その16・・・対角の1つ下の行列を作る、1~4、diagonal

Z = np.diag(1+np.arange(4),k=-1)
print(Z)

=>

[[0 0 0 0 0]
[1 0 0 0 0]
[0 2 0 0 0]
[0 0 3 0 0]
[0 0 0 4 0]]

 

☞ その17・・・チェックボードパターンの行列

Z = np.zeros*4
print(Z)

=>

[[0 1 0 1]
[1 0 1 0]
[0 1 0 1]
[1 0 1 0]]

 

☞ その20・・・Normalize(最大が1&最小が0になる)

Z = np.random.random*5
Zmax, Zmin = Z.max(), Z.min()
Z = (Z - Zmin)/(Zmax - Zmin)
print(Z)

=>

[[ 0.91425657 0.07881159 1. ]
[ 0.63918169 0.58862944 0.43357481]
[ 0.4049732 0.1090024 0. ]]

 

☞ その21・・・Create a custom dtype that describes a color as four unisgned bytes

 

☞ その22・・・Multiply a 5x3 matrix by a 3x2 matrix (real matrix product)

 

☞ その23・・・1~10のうち3~8をnegateする

Z = np.arange(11)
Z[(3 < Z) & (Z <= 8)] *= -1
print(Z)

=>[ 0 1 2 3 -4 -5 -6 -7 -8 9 10]

 

☞ その24・・・Consider an integer vector Z, which of these expressions are legal

 

☞ その27・・・How to round away from zero a float array ?

Z = np.random.uniform(-10,+10,10)
print (np.trunc(Z + np.copysign(0.5, Z)))

=>

[ -8. 4. 6. -3. 1. 4. 10. 2. -7. -8.]

 

☞ その28・・・整数部の抽出、やり方イロイロ

# 1~5のランダムな数を5つ持つ行列
Z = np.random.uniform(1,5,5)
print (Z)


# 整数の抽出
print (Z - Z%1)
print (np.floor(Z))
print (np.ceil(Z)-1)
print (Z.astype(int))
print (np.trunc(Z))

=>

[ 3.5029238 4.47885352 1.91640941 1.43928684 4.46256647]
[ 3. 4. 1. 1. 4.]
[ 3. 4. 1. 1. 4.]
[ 3. 4. 1. 1. 4.]
[3 4 1 1 4]
[ 3. 4. 1. 1. 4.]

 

☞ その29・・・5x5 matrix with row values ranging from 0 to 4

Z = np.zeros*6
Z += np.arange(5)
print(Z)

=>

[[ 0. 1. 2. 3. 4.]
[ 0. 1. 2. 3. 4.]
[ 0. 1. 2. 3. 4.]
[ 0. 1. 2. 3. 4.]
[ 0. 1. 2. 3. 4.]]

 

☞ その30・・・Consider a generator function that generates 10 integers and use it to build an array 

 

◆行列&ベクトルに関する計算 

 ☞ スカラー演算

W = np.array([[1, 2, 3], [4, 5, 6]])
x = np.array([7, 8, 9])

print(W * 2) #要素を2倍
print(-x)   #要素にマイナス

=>

[[ 2 4 6]
[ 8 10 12]]
[-7 -8 -9]

 

☞ 行列を計算する際の方向 ”axis”

f:id:oikakerublog:20170422140552j:plain

 

W = np.array([[1, 2, 3], [4, 5, 6]])
print(W.sum())

print(W.sum(axis=0))

print(W.sum(axis=1))

=>

21
[5 7 9]
[ 6 15]

 

◆行列の積 ”matmul”

(1)行列とベクトル

A = np.array([[2,3,4], [3,4,5]]) #行列
y = np.array([1,2,3]) #ベクトル
print(A)
print(y)
print(np.matmul(A, y))
=>

[[2 3 4]
[3 4 5]]
[1 2 3]
[20 26]  #積の答え

 

(2)行列と行列

A = np.array([[2,3,4], [3,4,5]]) #行列
B = np.array([[2,3], [3,4],[4,5]]) #行列
print(A)
print(B)
print(np.matmul(A, B))

=>

[[2 3 4]
[3 4 5]]
[[2 3]
[3 4]
[4 5]]
[[29 38] #積の答え
[38 50]]

 

print(np.matmul(W, W.T))
print(np.matmul(W.T, W))

 

 ◆”dot”積

・行やベクトルしか関係しない計算であればmatmalとdotは差ナシ

A = np.array([[2,3,4], [3,4,5]])
B = np.array([[2,3], [3,4],[4,5]])
print(np.dot(A, B))

=> 

[[29 38] #積の答え
[38 50]]

 

 

 

 

 

 

 

 

 

 

*1:2,3

*2:3,3,3

*3:3,3

*4:4,4),dtype=int)
Z[1::2,::2] = 1
Z[::2,1::2] = 1
print(Z)

=>

[[0 1 0 1]
[1 0 1 0]
[0 1 0 1]
[1 0 1 0]]

 

☞ その18・・・Consider a (6,7,8) shape array, what is the index (x,y,z) of the 100th element?

print(np.unravel_index(100,(6,7,8)))

=>

(1, 5, 4)

 

☞ その19・・・tileファンクションを使ってチェックボード

Z = np.tile( np.array([[0,1],[1,0]]), (2,2

*5:3,3

*6:5,5

広告を非表示にする

TensorFlow(その1)

◆MNISTデータのダウンロード(jupyter)

☞ INTERFACE(2017年3月号の67ページ~写経)

・次のコードでデータダウンロード

from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)

 

f:id:oikakerublog:20170413125429j:plain

 

・4つのファイルがダウンロードされる。

 

◆画像データの中身 

 INTERFACE(2017年3月号の67ページ~)

(1)画像データの中身確認

mnist.train.images[0]

f:id:oikakerublog:20170414123629j:plain

 

(2)その他

・ラベルデータ

mnist.train.labels[0]

・データの数の確認

mnist.train.num_examples

 

◆ソフトマックス関数

f:id:oikakerublog:20170414125501j:plain

 

(2017.4.13.)

広告を非表示にする