研究者業績

吉本 潤一郎

ヨシモト ジュンイチロウ  (Junichiro Yoshimoto)

基本情報

所属
藤田医科大学 医学部 医学科 教授
株式会社国際電気通信基礎技術研究所 脳情報通信総合研究所 客員研究員
奈良先端科学技術大学院大学 先端科学技術研究科情報科学領域 客員教授
学位
博士(工学)(2002年9月 奈良先端科学技術大学院大学)

J-GLOBAL ID
200901094345074980
researchmap会員ID
1000301373

受賞

 7

論文

 95
  • Kosuke Yoshida, Junichiro Yoshimoto, Kenji Doya
    BMC BIOINFORMATICS 18 2017年2月  査読有り
  • GUTIERREZ Carlos Enrique, YOSHIMOTO Junichiro, DOYA Kenji
    INCF Japan Node International Workshop Advances in Neuroinformatics Ⅳ 45 2017年1月  
  • Taku Nagai, Junichiro Yoshimoto, Takayuki Kannon, Keisuke Kuroda, Kozo Kaibuchi
    Trends in pharmacological sciences 37(10) 858-871 2016年10月  査読有り招待有り
    Dopamine signaling in the brain is a complex phenomenon that strongly contributes to emotional behaviors. Medium spiny neurons (MSNs) play a major role in dopamine signaling through dopamine D1 receptors (D1Rs) or dopamine D2 receptors (D2Rs) in the striatum. cAMP/protein kinase A (PKA) regulates phosphorylation signals downstream of D1Rs, which affects the excitability of MSNs, leading to reward-associated emotional expression and memory formation. A combination of phosphoproteomic approaches and the curated KANPHOS database can be used to elucidate the physiological and pathophysiological functions of dopamine signaling and other monoamines. Emerging evidence from these techniques suggests that the Rap1 pathway plays a crucial role in the excitability of MSNs, leading to the expression of emotional behaviors.
  • Alan S. R. Fermin, Takehiko Yoshida, Junichiro Yoshimoto, Makoto Ito, Saori C. Tanaka, Kenji Doya
    SCIENTIFIC REPORTS 6 2016年8月  査読有り
  • Shigeyuki Oba, Ken Nakae, Yuji Ikegaya, Shunsuke Aki, Junichiro Yoshimoto, Shin Ishii
    BMC NEUROSCIENCE 17 2016年5月  査読有り
  • Taku Nagai, Shinichi Nakamuta, Keisuke Kuroda, Sakura Nakauchi, Tomoki Nishioka, Tetsuya Takano, Xinjian Zhang, Daisuke Tsuboi, Yasuhiro Funahashi, Takashi Nakano, Junichiro Yoshimoto, Kenta Kobayashi, Motokazu Uchigashima, Masahiko Watanabe, Masami Miura, Akinori Nishi, Kazuto Kobayashi, Kiyofumi Yamada, Mutsuki Amano, Kozo Kaibuchi
    NEURON 89(3) 550-565 2016年2月  査読有り
    Dopamine (DA) type 1 receptor (D1R) signaling in the striatum presumably regulates neuronal excitability and reward-related behaviors through PKA. However, whether and how D1Rs and PKA regulate neuronal excitability and behavior remain largely unknown. Here, we developed a phosphoproteomic analysis method to identify known and novel PKA substrates downstream of the D1R and obtained more than 100 candidate substrates, including Rap1 GEF (Rasgrp2). We found that PKA phosphorylation of Rasgrp2 activated its guanine nucleotide-exchange activity on Rap1. Cocaine exposure activated Rap1 in the nucleus accumbens in mice. The expression of constitutively active PKA or Rap1 in accumbal D1R-expressing medium spiny neurons (D1R-MSNs) enhanced neuronal firing rates and behavioral responses to cocaine exposure through MAPK. Knockout of Rap1 in the accumbal D1R-MSNs was sufficient to decrease these phenotypes. These findings demonstrate a novel DA-PKA-Rap1-MAPK intracellular signaling mechanism in D1R-MSNs that increases neuronal excitability to enhance reward-related behaviors.
  • Clark Kendrick Go, Bryan Lao, Junichiro Yoshimoto, Kazushi Ikeda
    2016 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS (IJCNN) 3833-3836 2016年  査読有り
  • Moren J, Igarashi J, Yoshimoto J, Doya K
    BMC neuroscience 2015年12月  査読有り
  • Kosuke Yoshida, Yu Shimizu, Junichiro Yoshimoto, Shigeru Toki, Go Okada, Masahiro Takamura, Yasumasa Okamoto, Shigeto Yamawaki, Kenji Doya
    2015 IEEE International Conference on Bioinformatics and Biomedicine (BIBM) 2015年11月  
  • Yu Shimizu, Junichiro Yoshimoto, Shigeru Toki, Masahiro Takamura, Shinpei Yoshimura, Yasumasa Okamoto, Shigeto Yamawaki, Kenji Doya
    PLOS ONE 10(5) 2015年5月  査読有り
  • Takashi Nakano, Makoto Otsuka, Junichiro Yoshimoto, Kenji Doya
    PLOS ONE 10(3) 2015年3月  査読有り
    A theoretical framework of reinforcement learning plays an important role in understanding action selection in animals. Spiking neural networks provide a theoretically grounded means to test computational hypotheses on neurally plausible algorithms of reinforcement learning through numerical simulation. However, most of these models cannot handle observations which are noisy, or occurred in the past, even though these are inevitable and constraining features of learning in real environments. This class of problem is formally known as partially observable reinforcement learning (PORL) problems. It provides a generalization of reinforcement learning to partially observable domains. In addition, observations in the real world tend to be rich and high-dimensional. In this work, we use a spiking neural network model to approximate the free energy of a restricted Boltzmann machine and apply it to the solution of PORL problems with high-dimensional observations. Our spiking network model solves maze tasks with perceptually ambiguous high-dimensional observations without knowledge of the true environment. An extended model with working memory also solves history-dependent tasks. The way spiking neural networks handle PORL problems may provide a glimpse into the underlying laws of neural information processing which can only be discovered through such a top-down approach.
  • Carlos E. Gutierrez, Kenji Doya, Junichiro Yoshimoto
    2015 INTERNATIONAL CONFERENCE ON INTELLIGENT INFORMATICS AND BIOMEDICAL SCIENCES (ICIIBMS) 309-312 2015年  査読有り
  • JeongHun Baek, Shigeyuki Oba, Junichiro Yoshimoto, Kenji Doya, Shin Ishii
    NEURAL INFORMATION PROCESSING, PT III 9491 583-591 2015年  査読有り
  • Takashi Nakano, Junichiro Yoshimoto, Kenji Doya
    Frontiers in Computational Neuroscience 7 119 2013年9月13日  査読有り
  • Junichiro Yoshimoto, Masa-Aki Sato, Shin Ishii
    Intelligent Automation and Soft Computing 17(1) 71-94 2011年  査読有り筆頭著者
  • Tetsuro Morimura, Eiji Uchibe, Junichiro Yoshimoto, Jan Peters, Kenji Doya
    NEURAL COMPUTATION 22(2) 342-376 2010年2月  査読有り
  • Takashi Nakano, Tomokazu Doi, Junichiro Yoshimoto, Kenji Doya
    PLOS COMPUTATIONAL BIOLOGY 6(2) e1000670 2010年2月  査読有り
  • Makoto Otsuka, Junichiro Yoshimoto, Kenji Doya
    Proceedings of the 18th European Symposium on Artificial Neural Networks - Computational Intelligence and Machine Learning, ESANN 2010 541-546 2010年  
  • Alan Fermin, Takehiko Yoshida, Makoto Ito, Junichiro Yoshimoto, Kenji Doya
    JOURNAL OF MOTOR BEHAVIOR 42(6) 371-379 2010年  査読有り
  • Tetsuro Morimura, Eiji Uchibe, Junichiro Yoshimoto, Kenji Doya
    Advances in Neural Information Processing Systems 22 2009年12月  査読有り
  • Tetsuro Morimurat, Eiji Uchibe, Junichiro Yoshimoto, Kenji Doya
    Advances in Neural Information Processing Systems 22 - Proceedings of the 2009 Conference 1312-1320 2009年  
  • Takashi Nakano, Junichiro Yoshimoto, Jeff Wickens, Kenji Doya
    ARTIFICIAL NEURAL NETWORKS - ICANN 2009, PT I 5768(PART 1) 249-+ 2009年  査読有り
  • Makoto Otsuka, Junichiro Yoshimoto, Kenji Doya
    NEURAL NETWORK WORLD 19(5) 597-610 2009年  査読有り
  • 森村 哲郎, 内部 英治, 吉本 潤一郎, 銅谷 賢治
    電子情報通信学会論文誌. D, 情報・システム 91(6) 1515-1527 2008年6月  
    一般に統計モデルや学習機械のパラメータの空間は,その出力の変化に関してユークリッドではなくリーマン空間としての性質をもち,その最急こう配方向は従来のこう配である出力の偏微分と必ずしも一致しない.この問題に対してAmariは自然こう配法を提案し,Kakadeがマルコフ決定過程の最適化手法の一つである方策こう配強化学習法に自然こう配を適用した.自然こう配方向はリーマン構造を規定するリーマン計量のもと定まるので,その選択は重要な問題となる.しかしながら,Kakadeの用いたリーマン計量行列は方策のパラメータ摂動による行動の確率分布変化だけを考慮した計量行列であり,同様に方策の影響を受けるはずの状態の確率分布変化に関しては無視していた.そこで本論文では,状態の確率分布も考慮した新しいリーマン計量を提案し,その計量に基づく新しい自然方策こう配を導出する.更に,この自然方策こう配は方策パラメータにより規定される基底関数をもつ線形関数近似器で即時報酬を近似した際に学習されるパラメータに一致することを証明する.また様々な状態数のマルコフ決定問題に適用した数値実験より,特に状態数が多い場合に従来法に比べ提案法は有効に働くことを示す.
  • Makoto Otsuka, Junichiro Yoshimoto, Kenji Doya
    ARTIFICIAL NEURAL NETWORKS - ICANN 2008, PT I 5163 377-386 2008年  査読有り
  • Junichiro Yoshimoto, Kenji Doya
    NEURAL INFORMATION PROCESSING, PART I 4984 614-624 2008年  査読有り
  • Tetsuro Morimura, Eiji Uchibe, Junichiro Yoshimoto, Kenji Doya
    MACHINE LEARNING AND KNOWLEDGE DISCOVERY IN DATABASES, PART II, PROCEEDINGS 5212 82-97 2008年  査読有り
  • Junichiro Hirayama, Junichiro Yoshimoto, Shin Ishii
    NEUROCOMPUTING 69(16-18) 1954-1961 2006年10月  査読有り
  • Tokita, Y, Nakamura, Y, Yoshimoto, J, Ishii, S
    Proceedings of the 11th international symposium on Artificial Life and Robotics (GS22-3) 2006年  査読有り
  • 行縄 直人, 吉本 潤一郎, 大羽 成征, 石井 信
    情報処理学会論文誌. 数理モデル化と応用 46(10) 57-65 2005年6月15日  査読有り
    遺伝子発現ダイナミクスの解析のために, 状態空間モデルに基づく解析法が提案されている.従来の解析法では, 状態変数のダイナミクスを仮定せず, また, システムノイズと観測ノイズを無視したモデルを仮定していたため, 状態空間に含まれるノイズ成分を状態変数として誤検出する可能性がある.本研究では, ノイズプロセスに白色ガウシアンを仮定した線形ダイナミカルシステムモデルを考え, 変分ベイズ法による推定とモデル選択を行う.本手法を出芽酵母細胞周期に関する公開データセットに適用したところ, 従来手法で選択されたモデルと比較し, よりシンプルでもっともらしいモデルが選択された.また, この結果得られたモデルパラメータは, 生物学的な考察とよく一致した.人工データへの適用も行い, ノイズを含む時系列データに対する有効性が示された.
  • 西村 政哉, 吉本 潤一郎, 時田 陽一, 中村 泰, 石井 信
    電子情報通信学会論文誌. A, 基礎・境界 88(5) 646-657 2005年5月1日  査読有り
    アクロボットは2リンク2関節からなる劣駆動マニピュレータであり, その制御設計は困難な非線形問題であることが知られている.本研究では, 制御理論及び機械学習の分野で得られた知見を統合することにより, 実アクロボットに対する適応的制御設計法を提案する.提案手法では, まず, システム同定法によって近似されたシステム方程式に基づいて部分問題を解くための制御器を複数個設計する.そして, 各制御器を適用すべき部分状態空間が強化学習法によって適応的に決定される.提案手法を実装したところ, 実アクロボットの振上げ・安定化制御を成功することができた.
  • Junichiro Yoshimoto, Masaya Nishimura, Yoichi Tokita, Shin Ishii
    Artificial Life and Robotics 9(2) 67-71 2005年5月  査読有り筆頭著者
  • Magono, M, Yoshimoto, J, Ishii, S, Doya, K
    Proceedings of the 2005 International Symposium on Nonlinear Theory and its Applications 401-404 2005年  査読有り
  • Junichiro Hirayama, Junichiro Yoshimoto, Shin Ishii
    Neural networks 17(10) 1391-400 2004年12月  査読有り
  • Yukinawa, N, Yoshimoto, J, Oba, S, Ishii, S
    Proceedings of the 2004 International Symposium on Nonlinear Theory and its Applications 577-580 2004年  査読有り
  • Junichiro Yoshimoto, Shin Ishii
    2004 IEEE International Joint Conference on Neural Networks (IEEE Cat. No.04CH37541) 3 1817-1822 2004年  査読有り
  • Kanemoto, K, Yoshimoto, J, Ishii, S
    Proceedings of the 9th International Symposium on Artificial Life and Robotics 1 329-332 2004年  査読有り
  • 吉本 潤一郎, 石井 信, 佐藤 雅昭
    システム制御情報学会論文誌 16(5) 209-217 2003年5月15日  査読有り筆頭著者
    In this paper, we propose a new reinforcement learning (RL) method for dynamical systems that have continuous state and action spaces. Our RL method has an architecture like the actorcritic model. The critic tries to approximate the Q-function, and the actor tries to approximate a stochastic soft-max policy dependent on the Q-function. An on-line EM algorithm is used to train the critic and the actor. We apply this method to two control problems. Computer simulations in two tasks show that our method is able to acquire good control after a few learning trials.
  • Junichiro Yoshimoto, Shin Ishii, Masa-aki Sato
    Artificial Neural Networks and Neural Information Processing — ICANN/ICONIP 2003 123-131 2003年  査読有り筆頭著者
  • Junichiro Yoshimoto, Shin Ishii, Masa-aki Sato
    Artificial Neural Networks — ICANN 2002 661-666 2002年8月  査読有り筆頭著者
  • S Ishii, W Yoshida, J Yoshimoto
    NEURAL NETWORKS 15(4-6) 665-687 2002年6月  査読有り
  • Yoshimoto, J., Ishii, S., Sato, M.-A.
    Systems and Computers in Japan 32(5) 2001年  
  • 吉本 潤一郎, 石井 信, 佐藤 雅昭
    電子情報通信学会論文誌. D-2, 情報・システム 2-パターン処理 83(3) 1024-1033 2000年3月25日  査読有り筆頭著者
    acrobotは2リンク2関節からなるロボットで, 第2関節のみにアクチュエータが存在する.acrobotは非線形なダイナミックスをもち, 状態変数及び制御変数の空間がともに連続であるために, 強化学習によってこの制御を獲得することは難しい課題の一つである.本論文では, acrobotをバランスする制御に強化学習を応用する.我々の強化学習法はactor-criticアーキテクチャを用いて学習が行われる.actorは現在の状態に対して制御信号を出力し, criticは将来を通して得られる報酬の累積(期待報酬)を予測する.actorとcriticはともに正規化ガウス関数ネットワークによって近似され, オンラインEMアルゴリズムを用いて学習が行われる.また, criticの学習を促進させるための新たな手法を導入する.本手法が少ない試行回数から良い制御を獲得できることを計算機シミュレーションの結果により示す.
  • Junichiro Yoshimoto, Shin Ishii, Masa-aki Sato
    Proceedings of the IEEE-INNS-ENNS International Joint Conference on Neural Networks. IJCNN 2000. Neural Computing: New Challenges and Perspectives for the New Millennium 2000年  査読有り筆頭著者
  • Junichiro Yoshimoto, Shin Ishii, Masa aki Sato
    Proceedings of the IEEE International Conference on Systems, Man and Cybernetics 5 1999年  

MISC

 72

書籍等出版物

 4

講演・口頭発表等

 7

担当経験のある科目(授業)

 9

共同研究・競争的資金等の研究課題

 7

社会貢献活動

 5