end0tknr's kipple - web写経開発

太宰府天満宮の狛犬って、妙にカワイイ

blender 2.93 で、1125.5mm * 4 = 900mm ピッチの Grid表示

以下の通りかと思います スケール = 0.1125 (画面は、少数第3位までしか表示されません) 垂直方向のグリッド表示も必要なら、座標軸=Zもチェック

Unity ML-Agents による はじめての強化学習

「Unity ML-Agents 実践ゲームプログラミング v1.1対応版」の 2章の写経です。 今回、この書籍より新しい 「ML-Agents Release19 + unity 2021.3 + python3.8 on windows 11」 を使用している為、書籍に記載されるsample codeと異なる点があります。 create …

Pillow for python による Affine変換 (拡大縮小,移動,回転,せん断)

Affine層とSoftmax-with-Loss層の計算グラフとnumpy for python実装 - end0tknr's kipple - web写経開発 上記のentryでは、ニューラルネットワークのアフィン層を使用していますが、 今回は、画像処理のAffine変換。 どうやら、Affine変換とは、ニューラルネ…

Pillow & numpy for python による画像処理

メモ。詳細は、python script内のコメントをご覧ください # coding: utf-8 from PIL import Image import numpy as np def main(): img_file_path = "./marble.png" img = Image.open(img_file_path) change_color_mode( img ) # カラー/モノクロモード変換 …

ML-Agents Release19 + unity 2021.3 + python3.8 on windows 11 の環境作成

【ML-Agents Release 17 環境構築 2021.5 -Windows】【強化学習でAIを避難させる】 #2 -Unity ML-Agents - Qiita 上記urlを参考に ML-Agents Release19 + unity 2021.3 + python3.8 の環境を作成します。 ※ 2022/9時点で、最新のpythonは3.10ですが、 mlagen…

TortoiseGitで、branchを指定した clone

$ git clone --branch release_12 https://github.com/Unity-Technologies/ml-agents.git ↑このコマンドラインと同様に、トータスgitで、cloneするには、↓こう

texにおける総和と総積

総和 ( Summation ) 総乗 ( Multiplication ) Π(パイ)を、総積と誤って読んでいました

線形代数 振り返り - 交換法則、結合法則、分配法則、指数法則

https://oguemon.com/study/linear-algebra/matrix-notice/ 上記urlの写経です 一覧 交換法則 結合法則 分配法則 指数法則 一覧 |法則名 |和|積|指数| |交換 |○|△| - | |結合 |○|○| - | |分配 |○|○| - | |指数 |-|-| ○ | 交換法則 和の場合、成立します…

線形代数 振り返り - 線形代数とは

http://www.math.kanagawa-u.ac.jp/mine/linear_alg/linear_alg_2017_02_28.pdf 上記pdfの p.8~からの写経 数学三大分野 用語 説明 代数学 四則演算の技法を高める学問 解析学 微分,積分,複素数等、極限,収束を扱う 幾何学 空間図形を扱う 微分積分 用語 説…

線形代数を振り返り

pythonによる deep learning のコードを スラスラとは、書けない。 そもそも、線形代数をかなり忘れている気がしますので、 線形代数を振り返ってみます。 線形代数の教科書は、様々な大学がpdfとして公開していますが、 私の場合、何となく、以下の神奈川大…

機械学習のロードマップ SVG版

筑波大学の機械学習講座がyoutubeで公開されていますが、 その中で、紹介されている機械学習のロードマップが分かりやすかったので、 SVG (inkscape) で写経 www.youtube.com

mnistのデータを numpy と pillow for python で pngへ変換

# coding: utf-8 from PIL import Image import sys, os import urllib.request import gzip import numpy as np def main(): mymnist = MyMnist() (x_train, t_train, x_test, t_test) = mymnist.load_mnist() i = 0 while i < 10: img = Image.fromarray(n…

DeepFloorPlan for python3 & tensorflow2

Re: Python3.6.10でDeepFloorPlanを動かしてみた - end0tknr's kipple - web写経開発 以前のentryで、一旦、諦めかけましたが 既に存在し、Google Colaboratory や data も公開されているので、 そのまま試すことができました。 https://github.com/zcemycl/…

numpy for python による ディープラーニング

deep-learning-from-scratch/train_deepnet.py at master · oreilly-japan/deep-learning-from-scratch · GitHub 「ゼロから作るDeep Learning ① (Pythonで学ぶディープラーニングの理論と実装)」 の 8章 sample codeの写経です。 python scriptは以下の通り…

numpy for python による CNN (Convolutional Neural Network)

「ゼロから作るDeep Learning ① (Pythonで学ぶディープラーニングの理論と実装)」 p.229~233 の写経です。 ここまでで理解が深まった気がしますが、 様々、ありすぎて、理解できていない部分もあると思います。 # coding: utf-8 import sys, os import nump…

ハイパーパラメータの最適化

deep-learning-from-scratch/ch06 at master · oreilly-japan/deep-learning-from-scratch · GitHub 「ゼロから作るDeep Learning ① (Pythonで学ぶディープラーニングの理論と実装)」 p.197~202 の写経です。 ハイパーパラメータとは? 各層のニューロン数 …

Dropout による過学習の軽減

deep-learning-from-scratch/ch06 at master · oreilly-japan/deep-learning-from-scratch · GitHub 「ゼロから作るDeep Learning ① (Pythonで学ぶディープラーニングの理論と実装)」 p.193~195 の写経です。 先程の Weight decay (荷重減衰)とは別に Dropo…

Weight decay (荷重減衰)による過学習の軽減(正則化)

deep-learning-from-scratch/ch06 at master · oreilly-japan/deep-learning-from-scratch · GitHub 「ゼロから作るDeep Learning ① (Pythonで学ぶディープラーニングの理論と実装)」 p.193~195 の写経です。 過学習の主な原因 パラメータを大量に持ち、表…

Batch Normalizationによるアクティベーション分布の広がり調整

先程のentryでは、 重み初期値が広がりが持つようXavierやHeを使用していますが Batch Normalizationという手法を追加することでも、 アクティベーション分布の広がりを調整できるようです。 尚、アクティベーションとは、Affine層による処理を指します。 Af…

ディープラーニングにおける XavierとHeによる重み初期値の適正化

deep-learning-from-scratch/ch06 at master · oreilly-japan/deep-learning-from-scratch · GitHub 「ゼロから作るDeep Learning ① (Pythonで学ぶディープラーニングの理論と実装)」 p.177~186 の写経です。 p.178によれば、過学習を抑える為、重みの初期…

numpy for python によるニューラルネットワーク学習 (誤差逆伝播法版)

GitHub - oreilly-japan/deep-learning-from-scratch: 『ゼロから作る Deep Learning』(O'Reilly Japan, 2016) 「ゼロから作るDeep Learning ① (Pythonで学ぶディープラーニングの理論と実装)」 p.156~163 の写経です。 以前、以下のentryでは、勾配計算に…

Affine層とSoftmax-with-Loss層の計算グラフとnumpy for python実装

github.com 「ゼロから作るDeep Learning ① (Pythonで学ぶディープラーニングの理論と実装)」 p.147~154の写経として、以下の朱書き部分を計算グラフ化します。 目次 Affineレイヤ Softmax-with-Lossレイヤ Affine ReLU ・ ・ ・ ・ Affine Softmax input …

Sigmoid活性化関数の計算グラフと、微分

「ゼロから作るDeep Learning ① (Pythonで学ぶディープラーニングの理論と実装)」 p.143~146の写経です。 github.com Sigmoid層のpython実装 # coding: utf-8 import numpy as np def main(): sigmoid = Sigmoid() x = np.array( [[1.0, -0.5], [-2.0, 3.0]…

Relu活性化関数の計算グラフと、微分

「ゼロから作るDeep Learning ① (Pythonで学ぶディープラーニングの理論と実装)」 p.141~142の写経です。 github.com Relu層のpython実装 # coding: utf-8 import numpy as np def main(): relu = Relu() x = np.array( [[1.0, -0.5], [-2.0, 3.0]] ) # 準…

ニューラルネットワークにおける誤差逆伝播法を計算グラフと合成関数の微分で理解する

「ゼロから作るDeep Learning ① (Pythonで学ぶディープラーニングの理論と実装)」 p.129~132の写経です。 基本は、上流からの値と偏微分の乗算 応用例? 合成関数での逆電波 基本は、上流からの値と偏微分の乗算 まず、を計算グラフで表すと、下図の通りです…

ニューラルネットワークにおける誤差逆伝播法

キカガクによる以下のurlが分かりやすいと思います。 ニューラルネットワークの理論(逆伝播) - KIKAGAKU

numpy for python によるニューラルネットワーク学習

GitHub - oreilly-japan/deep-learning-from-scratch: 『ゼロから作る Deep Learning』(O'Reilly Japan, 2016) 「ゼロから作るDeep Learning ① (Pythonで学ぶディープラーニングの理論と実装)」 p.112~121 の写経です。 また、以下のキカガクのページも分か…

ニューラルネットワークにおける損失関数と勾配(偏微分)

GitHub - oreilly-japan/deep-learning-from-scratch: 『ゼロから作る Deep Learning』(O'Reilly Japan, 2016) 「ゼロから作るDeep Learning ① (Pythonで学ぶディープラーニングの理論と実装)」 p.89~108 の写経です。 目次 損失関数としての 交差エントロ…

numpy for python によるニューラルネットワーク実装と、予測

GitHub - oreilly-japan/deep-learning-from-scratch: 『ゼロから作る Deep Learning』(O'Reilly Japan, 2016) 「ゼロから作るDeep Learning ① (Pythonで学ぶディープラーニングの理論と実装)」 p.64~65の写経です。 「学習済の為、重みやバイアスは確定済…

numpy for python による活性化関数 ( STEP, SIGMOID, ReLU, tanh )

GitHub - oreilly-japan/deep-learning-from-scratch: 『ゼロから作る Deep Learning』(O'Reilly Japan, 2016) 「ゼロから作るDeep Learning ① (Pythonで学ぶディープラーニングの理論と実装)」 p.44~52の写経です。 行列を引数として扱う為、numpyを利用し…