こんにちは
パソコンの故障からパーツ交換をしたので、新しい構成の紹介と何個か実験してみようと思います。
パソコンの構成
部品 | 旧 | 新 |
---|---|---|
マザーボード | ASUS ROG Strix B350-F Gaming | ASUS TUF GAMING B550-PLUS |
CPU | Ryzen7 1700 | Ryzen5 3600 |
GPU | MSI GeForce GTX 1070 | - |
メモリー | Corsair DDR4-2666 (8GB×2) | - |
SSD | SAMSUNG 960 EVO M.2(500GB) | - |
HDD | TOSHIBA(3TB) | - |
電源 | Corsair RM650x | - |
CPUをパワーアップさせて、マザボもそれに合わせただけなのですが ドスパラのCPU比較ページを見ると、性能目安は1526から1874と22.8%アップ、コア数が減ってクロック数は増えました。
メモリの増設とか、HDDをSSDにするとかそもそもHDDバックアップ何もとってないのでそこらへんはもう少し投資したほうがいいかもしれないです。
おまけ
部品 | 製品名 |
---|---|
ケース | CoolerMaster CM 690 III |
スピーカー | FOSTEX PM0.3 |
オーディオインターフェース | UR22C |
実験
ローカルパソコンのリソースで機械学習をしたとき、kaggleの環境とどれくらいの差があるのか知りたかったので軽い実験をした
参考にした記事
使用したコード
import pandas as pd import numpy as np import time from sklearn import datasets from sklearn.model_selection import train_test_split from sklearn.metrics import mean_squared_error import lightgbm as lgb # データセットを読み込む data = datasets.fetch_california_housing() X, y = data.data, data.target start_time = time.time() # 訓練データとテストデータに分割する # デフォルトは75%が訓練用、25%がテスト用 X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=1) # データセット作成 train_data = lgb.Dataset(X_train, y_train) eval_data = lgb.Dataset(X_test, y_test, reference=train_data) # LightGBM のハイパーパラメータ lgbm_params = { 'boosting_type': 'dart', 'objective': 'regression', 'metric': 'rmse', 'n_estimators': 1000, } # モデル作成 model = lgb.train(lgbm_params, train_data, valid_sets=eval_data, verbose_eval=100,) # テストデータを予測する y_pred = model.predict(X_test, num_iteration=model.best_iteration) # RMSE を計算する mse = mean_squared_error(y_test, y_pred) rmse = np.sqrt(mse) print(rmse) print(' %0.2f sec' % ((time.time() - start_time)))
Kaggle notebook
[100] valid_0's rmse: 0.569448 [200] valid_0's rmse: 0.498488 [300] valid_0's rmse: 0.474754 [400] valid_0's rmse: 0.458885 [500] valid_0's rmse: 0.450415 [600] valid_0's rmse: 0.453372 [700] valid_0's rmse: 0.448081 [800] valid_0's rmse: 0.447571 [900] valid_0's rmse: 0.444087 [1000] valid_0's rmse: 0.443904 0.4439036760667306 18.35 sec
ローカル
[100] valid_0's rmse: 0.569448 [200] valid_0's rmse: 0.498488 [300] valid_0's rmse: 0.474754 [400] valid_0's rmse: 0.458885 [500] valid_0's rmse: 0.450415 [600] valid_0's rmse: 0.453372 [700] valid_0's rmse: 0.448081 [800] valid_0's rmse: 0.447571 [900] valid_0's rmse: 0.444087 [1000] valid_0's rmse: 0.443904 0.4439036760667306 5.64 sec
だいぶ早い。活用していけるかもしれない。
GPUを使った深層学習はやり方すら知らないレベルなので、できるようになったら改めて実験してみたいです。
ベンチマークテスト
面白そうだったのでゲームのベンチマークもやってみました
FF14
ここにあります
"非常に快適"って言われると嬉しいですね。自分は紅蓮?までしかやってないのですが、ストーリーが好きなのでまた"来年"続きのストーリーを見に行きたいです。
FF15
ここにあります。ベンチマークあるんですね。
こっちは"快適"12000以上が非常に快適ということでまだまだ上を目指せるということですね(目指さないけど
使用感
写真の編集ソフトで色々値をいじったときの描画への反映が早くなりました。
写真の編集ってグラボ使ってないのか・・・?という疑問が残ります。
今回パーツ交換前後のスペック比較はできてないので面白みにはかけましたが、ある程度力のあるマシンであることは再認できたので良かったです。
あとはリソースを使いこなす力を身につけていきたいと思います。