Yuma Ichikawa
Yuma
Yuma Ichikawa, Ph.D.
Affiliation: Fujitsu Limited (Principal Researcher), RIKEN AIP (Project Researcher)
Ph.D. @The University of Tokyo (Hukushima Lab)
Google Scholar, Open Review, LinkedIn, Github, Speaker Deck.
Contact
E-mail(Fujitsu Limited):ichikawa.yuma@fujitsu.com
E-mail(RIKEN AIP):yuma.ichikawa@a.riken.jp
基盤モデルの圧縮(主にLLM量子化: 関連リンク)やTransformerとは一味違う新規LLM開発(関連リンク)を一緒に研究したい方を応募しています. いつでもカジュアル面談 or 1on1します! 気軽に連絡してください.
We’re looking for researchers to advance foundation-model compression (primarily quantization; related link) and to build next-generation, non-Transformer LLMs (related link). Interested? Contact me.
Research Topics
- Statistical Mechanics: Information Statistical Mechanics, Spin Glass, Phase Transition, Markov Chain Monte Carlo.
- Learning Theory: High-Dimensional Statics, Learning Dynamics.
- Combinatorial Optimization: Learning for Optimization, Heuristics, Simulated Annealing.
- Learge Language Model (LLM): Architecture, Compression, Quantization, Pruning.
Publications
2026
- Akira Sakai, Sign Lock-In: Randomly Initialized Weight Signs Persist and Bottleneck Sub-Bit Model Compression, arXiv:2602.17063, [Link]
- Yuma Ichikawa, Thermal Min-Max Games: Unifying Bounded Rationality and Typical-Case Equilibrium, arXiv:2602.14858, [Link]
2025
- Yuma Ichikawa, Yoshihiko Fujisawa, Yudai Fujimoto, Akira Sakai, Katsuki Fujisawa, More Than Bits: Multi-Envelope Double Binary Factorization for Extreme Quantization, arXiv:2512.24545, [Link]
- Yuma Ichikawa, Naoya Takagi, Takumi Nakagawa, Yuzi Kanazawa, Akira Sakai, PHOTON: Hierarchical Autoregressive Modeling for Lightspeed and Memory-Efficient Language Generation, arXiv:2512.20687, [Link]
- Yuma Ichikawa, Yudai Fujimoto, Akira Sakai, LPCD: Unified Framework from Layer-Wise to Submodule Quantization, arXiv:2512.01546, [Link].
- Yuma Ichikawa, Shuhei Kashiwamura, Ayaka Sakata, High-Dimensional Learning Dynamics of Quantized Models with Straight-Through Estimator, arXiv:2510.10693, [Link].
- Yamato Arai, Yuma Ichikawa, Quantization Error Propagation: Revisiting Layer-Wise Post-Training Quantization, arXiv:2504.09629 (NeurIPS2025 Accepted), [Link].
2024
- Yuma Ichikawa, Ryosuke Yano, Large Multimodal AI and Its Application to Disaster Field, Mathematical Sciences Practice Research Letter, LMSR 2024-4, [Link].
- Yuichi Ishida, Yuma Ichikawa, Aki Dote, Toshiyuki Miyazawa, Koji Hukushima, Ratio Divergence Learning Using Target Energy in Restricted Boltzmann Machines: Beyond Kullback–Leibler Divergence Learning, Phys. Rev. E 112, 045306, [Link].
- Yuma Ichikawa, Koji Hukushima, Statistical Mechanics of Min-Max Problems, Transactions on Machine Learning Research (TMLR), 2835-8856, [Link], [BOSSの解説記事].
- Yuma Ichikawa, Yamato Arai, Optimization by Parallel Quasi-Quantum Annealing with Gradient-Based Sampling, The Thirteenth International Conference on Learning Representations (ICLR2025), [Link], [Project Page].
- Nobuo Namura, Yuma Ichikawa, Training-Free Time-Series Anomaly Detection: Leveraging Image Foundation Models, arXiv:2408.14756, [Link].
- Yuma Ichikawa, Hiroaki Iwashita, Continuous Parallel Relaxation for Finding Diverse Solutions in Combinatorial Optimization Problems, Transactions on Machine Learning Research (TMLR), 2853-8856, [Link], [Project Page].
2023
- Yamato Arai, Yuma Ichikawa and Koji Hukushima, Adaptive Flip Graph Algorithm for Matrix Multiplication, International Symposium on Symbolic and Algebraic Computation (ISSAC2024), [Link], [Project Page], [BOSSの解説記事].
- Yuma Ichikawa and Koji Hukushima, High-dimensional Asymptotics of VAEs: Threshold of Posterior Collapse and Dataset-size Dependence of Rate-Distortion Curve, Journal of Statistical Mechanics: Theory and Experiment,
- Yuma Ichikawa, Controlling Continuous Relaxation for Combinatorial Optimization, Thirty-eighth Conference on Neural Information Processing Systems (NeurIPS2024), [Link], [Project Page].
- Yuma Ichikawa and Koji Hukushima, Learning Dynamics in Linear VAE: Posterior Collapse Threshold, Superfluous Latent Space Pitfalls, and Speedup with KL Annealing, The 27th International Conference on Artificial Intelligence and Statistics (AISTATS2024), [Link], [BOSSの解説記事].
2022
- Yuma Ichikawa and Koji Hukushima, Statistical-mechanical Study of Deep Boltzmann Machine Given Weight Parameters after Training by Singular Value Decomposition, Journal of the Physical Society of Japan, 91, 114001 (2022), [Link] [BOSSの解説記事].
- Yuma Ichikawa, Akira Nakagawa, Hiromoto Masayuki and Yuhei Umeda, Toward Unlimited Self-Learning MCMC with Parallel Adaptive Annealing, arXiv:2211.14024, [Link].
Presentations & Talksおよび国内会議の参加情報は以下を参照してください.

Presentations & TalksInternational Conferences (Except for ML Conference Papers)
2025
...
Invited Talks
2026
- 市川佑馬, LF AI & Data Japan Regional User Group, 1bit LLM量子化のオープンソース化について, 2026/01.
- 市川佑馬, 東京大学大学院情報理工学研究科コンピュータ科学専攻第四回産学交流会, 超効率化への挑戦: LLM 1bit量子化のロードマップ, 2026/01.
2025
- 市川佑馬, エッジで動く基盤モデル: 極低ビット量子化ワークフロー, 実環境インタラクション講演, 2025/11/11.
- 市川佑馬, 生成AI量子化技術, 京大情報学研究科先端技術講演会, 富士通の先端AI技術研究, 京都大学吉田キャンパス, 2025/10/24.
- 市川佑馬, 超効率化への挑戦: LLM 1bit量子化のロードマップ, NLPコロキウム, 2025/10/22, [Slide].
- 市川佑馬, 数理最適化技術紹介(Neurips, ICLRの内容), Jij Inc, 2025/07.
2024
- 市川佑馬, 強化学習を応用した最適化ソルバーの限界と教師なし学習による大規模最適化ソルバーの開発, 富山数理ワークショップ2024, 富山大学, 五福キャンパス, 2024/02.
- 市川佑馬, 変分オートエンコーダの統計力学的解析, 情報統計力学とその周辺, 東京大学, 駒場Iキャンパス, 2024/04.
2023
- 市川佑馬, 機械学習を応用した組み合わせ最適化ソルバーの限界と可能性, 融合の場2023深層学習がもたらすブレイクスルーと可能性(創発的研究支援事業), 早稲田大学西早稲田キャンパス, 2023/09.
Awards
- 東京大学一高記念賞, 表現学習の統計力学: 機械学習における低次元表現の獲得と利点(Statistical Mechanics of Representation Learning: Acquisition and Advantage of Low-Dimensional Representations in Machine Learning), 2025/03.
- 日本物理学会学生優秀発表賞, レプリカ法による変分オートエンコーダの学習ダイナミクスにおける最適解への到達可能性 (Optimal-solution reachability in the learning dynamics of variational autoencoders using replica method), 2024/04.
- 東京大学大学院総合文化研究科広域科学専攻奨励賞, 学習を反映した重みパラメータを持つ深層ボルツマンマシンの統計力学的解析, 2021/03.
- Best Presentation Award for Graduation Research(卒業研究優秀発表賞), van Hove理論を用いたスピングラス緩和過程の解析, 2020/03.
Press Releases & News Articles
引用: 日経ビジネス2024年10月号
- 富士通がLLMの量子化ソフトを公開へ、1ビット化しても性能を9割保持, 日経XTECH, 2026/01/09.
- 「手挙げ制度」で1万3000人が大異動 新卒5年目の部長級誕生 人事改革、業態変化促す, 日経ビジネス, 2025/11/28.
- 【対談】AI分野の国際学会NeurIPS2025に採択!若手研究者が語る、次世代AI研究, 富士通 広報note, 2025/11/20.
- 「働きながら博士進学」に道 富士通や島津製作所、新領域のコア人材に, 日経新聞, 2025/9/25.
- 飛躍なるか民間博士3 「働きながら進学」に道, 日経新聞, 2025/9/25.
- AIの軽量化・省電力を実現する生成AI再構成技術を開発し、富士通の大規模言語モデル「Takane」を強化, 2025年9月8日, 富士通株式会社, 以下関連ニュース:
(1): 富士通、生成AIの省電力化技術を開発 GPU使用枚数は4分の1へ, 日本経済新聞, 2025/09/19.
(2): “1ビット量子化”で精度を約9割維持 富士通が独自のLLM軽量化・省電力技術, ASCII, 2025/9/10.
(3): 富士通、LLMの軽量化技術を発表 1ビット量子化でも約9割の精度を維持 3倍に高速化も, ITmedia AI, 2025/9/8.
(4): 富士通、1ビット量子化によるAIの軽量化・省電力化──「生成AI再構成技術」で用途特化型LLM「Takane」を強化, Ledge.ai, 2025/9/12.
(5): 富士通、LLMの軽量化・省電力を実現するAI軽量化技術を開発 自社LLM「Takane」の強化に活用へ, クラウドWatch, 2025/9/9. - 【一日密着】博士人材の新たな未来!富士通研究員の一日(卓越社会人制度説明のためのキャスト出演), 2025/02.
- NeurIPS2024に参加・発表しました #1 ~GPUを用いた次世代組み合わせ最適化ソルバー~, Fujitsu Tech Blog, 2025/01.
2024年以降は以下を参照してください.

Press Releases & News Articles
「手挙げ制度」で1万3000人が大異動 新卒5年目の部長級誕生 人事改革、業態変化促す, 日経ビジネス, 2025/...
Grant
Reviewer
NeurIPS, ICLR, ICML, AISTATS, ….etc.
X(Twitter)