拓生 香山
Followers: 0 Following: 0
Statistiche
5 Domande
0 Risposte
RANK
34.856
of 289.975
REPUTAZIONE
1
CONTRIBUTI
5 Domande
0 Risposte
ACCETTAZIONE DELLE RISPOSTE
80.0%
VOTI RICEVUTI
1
RANK
of 144.365
CONTRIBUTI
0 Problemi
0 Soluzioni
PUNTEGGIO
0
NUMERO DI BADGE
0
CONTRIBUTI
0 Post
CONTRIBUTI
0 Pubblico Canali
VALUTAZIONE MEDIA
CONTRIBUTI
0 Punti principali
NUMERO MEDIO DI LIKE
Feeds
Domanda
学習済みAgentの再学習
いつもお世話になっております。 現在、DDQNを使用し、強化学習で解析を行っているのですが、 学習済みagentを再度学習を行うことはできますでしょうか。 ちなみに学習済みagentを再度学習させることが転移学習もしくはファインチューニングという考え...
oltre un anno fa | 1 risposta | 0
1
rispostaDomanda
強化学習のメモリ不足の解消法
お世話になっております。 現在、simulinkを用いて強化学習の解析を流しております。 エピソード数を現在は500episodeに設定しております。 以前、200episodeで解析を流していた際は、このようなエラーは出ていませんでしたが、...
oltre un anno fa | 1 risposta | 1
1
rispostaDomanda
【緊急】強化学習の際のmemoryブロックのステップ遅れについて
お世話になっております。 memoryブロックのステップ遅れについて質問があります。 現在、MATLAB/Simulinkを通じて強化学習を行っています。 agentブロックからactionを受け渡す際に以下のようなエラーが発生します。 -----...
oltre 2 anni fa | 1 risposta | 0
1
rispostaDomanda
ワークスペースのデータを1ステップごとに受け渡す方法(強化学習)
いつもお世話になっております。 以前、回帰学習器で作成した予測モデルを環境として,Simulinkを用いて強化学習を行おうとしています。 予測モデル(環境)の入力: 強化学習の行動 action 外乱(ワークスペースにある気象庁のデータ)4項目...
oltre 2 anni fa | 0 risposte | 0
0
risposteDomanda
回帰学習器で作成した予測モデルを強化学習の環境とする方法
お世話になっております。 以前、回帰学習器で予測モデルを作成しました。 予測モデルの入力値には強化学習の行動(+外乱など)とし、出力値には次のステップの状態値としています。 そこで強化学習の環境として予測モデルを用いることは可能でしょうか。 ...
oltre 2 anni fa | 1 risposta | 0