まだタイトルない

アウトプット用です

パソコンのパーツを変えたので機械学習とFFのベンチマークを実施

こんにちは

パソコンの故障からパーツ交換をしたので、新しい構成の紹介と何個か実験してみようと思います。

パソコンの構成

部品
マザーボード ASUS ROG Strix B350-F Gaming ASUS TUF GAMING B550-PLUS
CPU Ryzen7 1700 Ryzen5 3600
GPU MSI GeForce GTX 1070 -
モリー Corsair DDR4-2666 (8GB×2) -
SSD SAMSUNG 960 EVO M.2(500GB) -
HDD TOSHIBA(3TB) -
電源 Corsair RM650x -

CPUをパワーアップさせて、マザボもそれに合わせただけなのですが ドスパラのCPU比較ページを見ると、性能目安は1526から1874と22.8%アップ、コア数が減ってクロック数は増えました。

メモリの増設とか、HDDをSSDにするとかそもそもHDDバックアップ何もとってないのでそこらへんはもう少し投資したほうがいいかもしれないです。

おまけ

部品 製品名
ケース CoolerMaster CM 690 III
スピーカー FOSTEX PM0.3
オーディオインターフェース UR22C

実験

ローカルパソコンのリソースで機械学習をしたとき、kaggleの環境とどれくらいの差があるのか知りたかったので軽い実験をした

参考にした記事

blog.amedama.jp

使用したコード

import pandas as pd
import numpy as np
import time

from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error

import lightgbm as lgb

# データセットを読み込む
data = datasets.fetch_california_housing()
X, y = data.data, data.target

start_time = time.time()

# 訓練データとテストデータに分割する
# デフォルトは75%が訓練用、25%がテスト用
X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=1)

# データセット作成
train_data = lgb.Dataset(X_train, y_train)
eval_data  = lgb.Dataset(X_test, y_test, reference=train_data)

# LightGBM のハイパーパラメータ
lgbm_params = {
    'boosting_type': 'dart',
    'objective': 'regression',
    'metric': 'rmse',
    'n_estimators': 1000,
    }

# モデル作成
model = lgb.train(lgbm_params,
                  train_data,
                  valid_sets=eval_data,
                  verbose_eval=100,)

# テストデータを予測する
y_pred = model.predict(X_test, num_iteration=model.best_iteration)

# RMSE を計算する
mse = mean_squared_error(y_test, y_pred)
rmse = np.sqrt(mse)
print(rmse)

print(' %0.2f sec' % ((time.time() - start_time)))

Kaggle notebook

[100]    valid_0's rmse: 0.569448
[200]   valid_0's rmse: 0.498488
[300]   valid_0's rmse: 0.474754
[400]   valid_0's rmse: 0.458885
[500]   valid_0's rmse: 0.450415
[600]   valid_0's rmse: 0.453372
[700]   valid_0's rmse: 0.448081
[800]   valid_0's rmse: 0.447571
[900]   valid_0's rmse: 0.444087
[1000]  valid_0's rmse: 0.443904
0.4439036760667306
 18.35 sec

ローカル

[100]    valid_0's rmse: 0.569448
[200]   valid_0's rmse: 0.498488
[300]   valid_0's rmse: 0.474754
[400]   valid_0's rmse: 0.458885
[500]   valid_0's rmse: 0.450415
[600]   valid_0's rmse: 0.453372
[700]   valid_0's rmse: 0.448081
[800]   valid_0's rmse: 0.447571
[900]   valid_0's rmse: 0.444087
[1000]  valid_0's rmse: 0.443904
0.4439036760667306
 5.64 sec

だいぶ早い。活用していけるかもしれない。
GPUを使った深層学習はやり方すら知らないレベルなので、できるようになったら改めて実験してみたいです。

ベンチマークテスト

面白そうだったのでゲームのベンチマークもやってみました

FF14

ここにあります

jp.finalfantasyxiv.com

f:id:teyoblog:20200719142228p:plain
FF14ベンチマーク結果

"非常に快適"って言われると嬉しいですね。自分は紅蓮?までしかやってないのですが、ストーリーが好きなのでまた"来年"続きのストーリーを見に行きたいです。

FF15

ここにあります。ベンチマークあるんですね。

benchmark.finalfantasyxv.com

f:id:teyoblog:20200719142539p:plain
FF15ベンチマーク結果

こっちは"快適"12000以上が非常に快適ということでまだまだ上を目指せるということですね(目指さないけど

使用感

写真の編集ソフトで色々値をいじったときの描画への反映が早くなりました。
写真の編集ってグラボ使ってないのか・・・?という疑問が残ります。

今回パーツ交換前後のスペック比較はできてないので面白みにはかけましたが、ある程度力のあるマシンであることは再認できたので良かったです。
あとはリソースを使いこなす力を身につけていきたいと思います。