Yuma Ichikawa, Ph.D.

プロフィール画像

Affiliation: Fujitsu Limited (Principal Researcher), RIKEN AIP (Project Researcher)

Ph.D. @The University of Tokyo (Hukushima Lab)
Google Scholar, Open Review, LinkedIn, Github, Speaker Deck.

Contact

E-mail(Fujitsu Limited):ichikawa.yuma@fujitsu.com
E-mail(RIKEN AIP):yuma.ichikawa@a.riken.jp

基盤モデルの圧縮(主にLLM量子化: 関連リンク)やTransformerとは一味違う新規LLM開発関連リンク)を一緒に研究したい方を応募しています. いつでもカジュアル面談 or 1on1します! 気軽に連絡してください.

We’re looking for researchers to advance foundation-model compression (primarily quantization; related link) and to build next-generation, non-Transformer LLMs (related link). Interested? Contact me.

Research Topics

  • Statistical Mechanics: Information Statistical Mechanics, Spin Glass, Phase Transition, Markov Chain Monte Carlo.
  • Learning Theory: High-Dimensional Statics, Learning Dynamics.
  • Combinatorial  Optimization: Learning for Optimization, Heuristics, Simulated Annealing.
  • Learge Language Model (LLM): Architecture, Compression, Quantization, Pruning.

Publications

2026

  1. Akira Sakai, Sign Lock-In: Randomly Initialized Weight Signs Persist and Bottleneck Sub-Bit Model Compression, arXiv:2602.17063, [Link]
  2. Yuma Ichikawa, Thermal Min-Max Games: Unifying Bounded Rationality and Typical-Case Equilibrium, arXiv:2602.14858, [Link]

2025

  1. Yuma Ichikawa, Yoshihiko Fujisawa, Yudai Fujimoto, Akira Sakai, Katsuki Fujisawa, More Than Bits: Multi-Envelope Double Binary Factorization for Extreme Quantization, arXiv:2512.24545, [Link]
  2. Yuma Ichikawa, Naoya Takagi, Takumi Nakagawa, Yuzi Kanazawa, Akira Sakai, PHOTON: Hierarchical Autoregressive Modeling for Lightspeed and Memory-Efficient Language Generation, arXiv:2512.20687, [Link]
  3. Yuma Ichikawa, Yudai Fujimoto, Akira Sakai, LPCD: Unified Framework from Layer-Wise to Submodule Quantization, arXiv:2512.01546, [Link].
  4. Yuma Ichikawa, Shuhei Kashiwamura, Ayaka Sakata, High-Dimensional Learning Dynamics of Quantized Models with Straight-Through Estimator, arXiv:2510.10693, [Link].
  5. Yamato Arai, Yuma Ichikawa, Quantization Error Propagation: Revisiting Layer-Wise Post-Training Quantization, arXiv:2504.09629 (NeurIPS2025 Accepted), [Link].

2024

  1. Yuma Ichikawa, Ryosuke Yano, Large Multimodal AI and Its Application to Disaster Field, Mathematical Sciences Practice Research Letter, LMSR 2024-4, [Link].
  2. Yuichi Ishida, Yuma Ichikawa, Aki Dote, Toshiyuki Miyazawa, Koji Hukushima, Ratio Divergence Learning Using Target Energy in Restricted Boltzmann Machines: Beyond Kullback–Leibler Divergence Learning, Phys. Rev. E 112, 045306, [Link].
  3. Yuma Ichikawa, Koji Hukushima, Statistical Mechanics of Min-Max Problems, Transactions on Machine Learning Research (TMLR), 2835-8856, [Link], [BOSSの解説記事].
  4. Yuma Ichikawa, Yamato Arai, Optimization by Parallel Quasi-Quantum Annealing with Gradient-Based Sampling, The Thirteenth International Conference on Learning Representations (ICLR2025), [Link], [Project Page].
  5. Nobuo Namura, Yuma Ichikawa, Training-Free Time-Series Anomaly Detection: Leveraging Image Foundation Models, arXiv:2408.14756, [Link].
  6. Yuma Ichikawa, Hiroaki Iwashita, Continuous Parallel Relaxation for Finding Diverse Solutions in Combinatorial Optimization Problems, Transactions on Machine Learning Research (TMLR), 2853-8856, [Link], [Project Page].

2023

  1. Yamato Arai, Yuma Ichikawa and Koji Hukushima, Adaptive Flip Graph Algorithm for Matrix Multiplication, International Symposium on Symbolic and Algebraic Computation (ISSAC2024), [Link], [Project Page], [BOSSの解説記事].
  2. Yuma Ichikawa and Koji Hukushima, High-dimensional Asymptotics of VAEs: Threshold of Posterior Collapse and Dataset-size Dependence of Rate-Distortion Curve, Journal of Statistical Mechanics: Theory and Experiment,
    IOP Publishing, 7, 073402 (2025), [Link], [Project Page], [BOSSの解説記事].
  3. Yuma Ichikawa, Controlling Continuous Relaxation for Combinatorial Optimization, Thirty-eighth Conference on Neural Information Processing Systems (NeurIPS2024), [Link], [Project Page].
  4. Yuma Ichikawa and Koji Hukushima, Learning Dynamics in Linear VAE: Posterior Collapse Threshold, Superfluous Latent Space Pitfalls, and Speedup with KL Annealing, The 27th International Conference on Artificial Intelligence and Statistics (AISTATS2024), [Link], [BOSSの解説記事].

2022

  1. Yuma Ichikawa and Koji Hukushima, Statistical-mechanical Study of Deep Boltzmann Machine Given Weight Parameters after Training by Singular Value Decomposition, Journal of the Physical Society of Japan, 91, 114001 (2022), [Link] [BOSSの解説記事].
  2. Yuma Ichikawa, Akira Nakagawa, Hiromoto Masayuki and Yuhei Umeda, Toward Unlimited Self-Learning MCMC with Parallel Adaptive Annealing, arXiv:2211.14024, [Link].

Presentations & Talksおよび国内会議の参加情報は以下を参照してください. 

Presentations & TalksInternational Conferences (Except for ML Conference Papers) 2025 ...

Invited Talks

2026

  1. 市川佑馬, LF AI & Data Japan Regional User Group, 1bit LLM量子化のオープンソース化について, 2026/01.
  2. 市川佑馬, 東京大学大学院情報理工学研究科コンピュータ科学専攻第四回産学交流会, 超効率化への挑戦: LLM 1bit量子化のロードマップ, 2026/01.

2025

  1. 市川佑馬, エッジで動く基盤モデル: 極低ビット量子化ワークフロー, 実環境インタラクション講演, 2025/11/11.
  2. 市川佑馬, 生成AI量子化技術, 京大情報学研究科先端技術講演会, 富士通の先端AI技術研究, 京都大学吉田キャンパス, 2025/10/24.
  3. 市川佑馬, 超効率化への挑戦: LLM 1bit量子化のロードマップ, NLPコロキウム, 2025/10/22, [Slide].
  4. 市川佑馬, 数理最適化技術紹介(Neurips, ICLRの内容), Jij Inc, 2025/07.

2024

  1. 市川佑馬, 強化学習を応用した最適化ソルバーの限界と教師なし学習による大規模最適化ソルバーの開発, 富山数理ワークショップ2024, 富山大学, 五福キャンパス, 2024/02.
  2. 市川佑馬, 変分オートエンコーダの統計力学的解析, 情報統計力学とその周辺, 東京大学, 駒場Iキャンパス, 2024/04.

2023

  1. 市川佑馬, 機械学習を応用した組み合わせ最適化ソルバーの限界と可能性, 融合の場2023深層学習がもたらすブレイクスルーと可能性(創発的研究支援事業), 早稲田大学西早稲田キャンパス, 2023/09.

Awards

  1. 東京大学一高記念賞, 表現学習の統計力学: 機械学習における低次元表現の獲得と利点(Statistical Mechanics of Representation Learning: Acquisition and Advantage of Low-Dimensional Representations in Machine Learning), 2025/03.
  2. 日本物理学会学生優秀発表賞, レプリカ法による変分オートエンコーダの学習ダイナミクスにおける最適解への到達可能性 (Optimal-solution reachability in the learning dynamics of variational autoencoders using replica method), 2024/04.
  3. 東京大学大学院総合文化研究科広域科学専攻奨励賞, 学習を反映した重みパラメータを持つ深層ボルツマンマシンの統計力学的解析, 2021/03.
  4. Best Presentation Award for Graduation Research(卒業研究優秀発表賞), van Hove理論を用いたスピングラス緩和過程の解析, 2020/03.

Press Releases & News Articles

 

  1. 富士通がLLMの量子化ソフトを公開へ、1ビット化しても性能を9割保持, 日経XTECH, 2026/01/09.
  2. 「手挙げ制度」で1万3000人が大異動 新卒5年目の部長級誕生 人事改革、業態変化促す, 日経ビジネス, 2025/11/28.
  3. 【対談】AI分野の国際学会NeurIPS2025に採択!若手研究者が語る、次世代AI研究, 富士通 広報note, 2025/11/20.
  4. 「働きながら博士進学」に道 富士通や島津製作所、新領域のコア人材に,  日経新聞, 2025/9/25.
  5. 飛躍なるか民間博士3 「働きながら進学」に道, 日経新聞, 2025/9/25.
  6. AIの軽量化・省電力を実現する生成AI再構成技術を開発し、富士通の大規模言語モデル「Takane」を強化, 2025年9月8日, 富士通株式会社, 以下関連ニュース:
    (1): 富士通、生成AIの省電力化技術を開発 GPU使用枚数は4分の1へ, 日本経済新聞, 2025/09/19.
    (2): “1ビット量子化”で精度を約9割維持 富士通が独自のLLM軽量化・省電力技術, ASCII, 2025/9/10.
    (3): 富士通、LLMの軽量化技術を発表 1ビット量子化でも約9割の精度を維持 3倍に高速化も, ITmedia AI, 2025/9/8.
    (4): 富士通、1ビット量子化によるAIの軽量化・省電力化──「生成AI再構成技術」で用途特化型LLM「Takane」を強化, Ledge.ai, 2025/9/12.
    (5): 富士通、LLMの軽量化・省電力を実現するAI軽量化技術を開発 自社LLM「Takane」の強化に活用へ, クラウドWatch, 2025/9/9.
  7. 【一日密着】博士人材の新たな未来!富士通研究員の一日(卓越社会人制度説明のためのキャスト出演), 2025/02.
  8. NeurIPS2024に参加・発表しました #1 ~GPUを用いた次世代組み合わせ最適化ソルバー~, Fujitsu Tech Blog, 2025/01.

2024年以降は以下を参照してください. 

Press Releases & News Articles 「手挙げ制度」で1万3000人が大異動 新卒5年目の部長級誕生 人事改革、業態変化促す, 日経ビジネス, 2025/...

Grant

  1. 東京大学情報理工領域知識創成教育研究プログラム 基礎課程取得
  2. 東京大学情報理工領域知識創成教育研究プログラム 応用課程取得
  3. 東京大学国際卓越大学院数物フロンティア国際卓越大学院

Reviewer

NeurIPS, ICLR, ICML, AISTATS, ….etc.

X(Twitter)

 

Click My Twitter Home Page