top of page
FreeAI


「AI時代の経営塾」2601【新春特別企画】、1月20日開催
2026年初回は新春特別企画として全員参加型のセミナーを実施します。 テーマは「2026年、AI ×『自分はどう変わるか』」。 講師の海老根智仁、清水亮、川崎裕一を交えて参加者全員で討論をしていくスタイルで実施します。 <日時> 2026年1月20日(火)19時~21時 <場所> オドラナ(旧katana)オフィス六本木 セミナールーム(8階) 〒106-0032 東京都港区六本木2丁目2-6 福吉町ビル <タイムテーブル> 18時50分:開場 = 19時00分~21時00分:全員参加型討論会/テーマ:2026年、AI ×『自分はどう変わるか』 講師:海老根智仁、清水亮、川崎裕一 ※ドリンク、軽食のみのご提供となります。 = <受講料> 30,000円(税込) ※過去実施のセミナーを受講された方は特別料金となります。 ※飲食費を含みます ※限定10名様 ※当日はセミナー会場受付にて、スタッフにチケット申し込み時のお名前をお伝えください。 == ※講師、内容は変更になる場合がございます。 ※AIデータセット作成のための映像撮影
Tetsuya Yoshimi
6 日前読了時間: 1分


Unsloth+Dockerでgpt-ossをA100で動かしたベンチマーク/M3 Ultraと比較
gpt-ossは非常に高性能かつ安定したモデルで、特にBlackwell世代では高速に動作することで知られています。これはFP4、つまり4ビット浮動小数点を使っている効果が大きいと言えます。 FreeAIの継之助のサブモジュールに組み込んだMac Studio 512GBでも、FP4は対応していて、最新のDGX Spark (GB10)に比べても3倍以上の速度で動作します。 この時代になると、さすがにAmpare世代のGPUである継之助には苦しくなってきます。しかし、それでもgpt-ossのような高性能なモデルを高速に動かしたいというニーズは常にあります。 そうした悩みに見事答えてくれたのが、UnslothがDockerとともにリリースした新しいDocker modelというコマンドです。 このコマンドを使うとHuggingFace上にあるUnslothの量子化モデルを手軽に非Blackwell環境で試すことができます。 実際に実行した時に感じた注意事項は以下の通り ・CUDA 12.9以降対応 ・複数GPUある場合は、自動的に複数のGPUに分散
Ryo Shimizu
11月19日読了時間: 9分


「AI時代の経営塾」2511、11月13日開催
11月は「CFO」にフォーカスします。 生成AIが人々の働き方を変えると言われている現代。果たして経営はどのように変わっていくのか?世界初の経営指導AIの開発を目指すFree AI社は、豊富な経営経験を持つ講師を集め、AIに学習させることを目的としてこれまでの経営のあり方を総括し、これからのAI時代の新しい経営学の構築を目指します。このイベントは、AIに経営を教えるための授業を人間のビジネスリーダーにシェアし、議論の質を高めるためにごく少人数向けに公開するものです。 <日時> 2025年11月13日(木)17時00分~ <場所> オドラナ(旧katana)オフィス六本木 セミナールーム(8階) 〒106-0032 東京都港区六本木2丁目2-6 福吉町ビル <タイムテーブル> 16時50分:開場 = 17時00分~17時40分:「CFOに振り回されない経営とは」前編 講師:小栗幹生 <休憩:5分> 17時45分~18時15分:議論① 講師: 小栗幹生、海老根智仁(オンライン)、清水亮
Tetsuya Yoshimi
10月28日読了時間: 2分


「AI時代の経営塾」2510、10月16日開催
10月は二本立てとなります。 生成AIが人々の働き方を変えると言われている現代。果たして経営はどのように変わっていくのか?世界初の経営指導AIの開発を目指すFree AI社は、豊富な経営経験を持つ講師を集め、AIに学習させることを目的としてこれまでの経営のあり方を総括し、...
Tetsuya Yoshimi
10月9日読了時間: 2分


SINQによるgpt-ossの再量子化
Huaweiが開発したSINQという手法は、従来のHuggingFaceモデルを任意に再量子化できるという特徴を持っている。 非常に手軽に量子化できるため、有用性がかなり高い方法だと思うが、実際に量子化する上でいくつか問題になった落とし穴をメモしておく。...
Ryo Shimizu
10月9日読了時間: 3分


自分のデータでLLMをファインチューニングする
前回は、日本語版Wikipediaをあらかじめデータ化したものを用いてLlama-3.1-8Bのファインチューニングをしていました。 次に、自分の独自データでファインチューニングしたいと思います。 幸い、僕の手元には過去12年にわたって書いてきたコラムのデータがあります。こ...
Ryo Shimizu
9月24日読了時間: 6分


NeMoでLLMをファインチューニングする
インコンテキストラーニング(ICL)だけでは一般的な知識を獲得するのは困難であるという論文が出た( https://arxiv.org/pdf/2509.10414 ) 一方で、gpt-ossなどの小さくとも実用的に使えるLLMが登場してきたことで、LLMのファインチュー...
Ryo Shimizu
9月21日読了時間: 7分


「AI時代の経営塾」2505、5月15日開催
5月のテーマは「失敗を科学する」です。 生成AIが人々の働き方を変えると言われている現代。果たして経営はどのように変わっていくのか?世界初の経営指導AIの開発を目指すFree AI社は、豊富な経営経験を持つ講師を集め、AIに学習させることを目的としてこれまでの経営のあり方...
Tetsuya Yoshimi
4月14日読了時間: 2分


MacStudio 512GBでLlama4 MLXを動かす
MacStudio 512GBでLlama4を動かすMLXが出ていたので試してみました。 しかし、色々ハマりどころがあるので、いますぐ試してみたい人向けです。 ちなみに環境としてはPython3.12で、Anaconda。mlxのパッケージはこんな感じ % pip...
Ryo Shimizu
4月8日読了時間: 4分


Llama4 ScoutをA100 80GBx8マシンで動かす
ついにMetaから1000万トークン対応のLlama4がリリースされました。 公式には日本語はサポートしてないらしいんですが、日本語が使えないわけがなく、実際に使えています。 ただ、どの説明もH100やH200が前提なので、A100しか入ってない継之助ではLlama4は実行...
Ryo Shimizu
4月8日読了時間: 4分


MacStudio 512GBで書籍を要約する
当社の共同創業者の一人である清水亮の著書「 検索から生成へ 」をMacStudio 512GB上で動作するDeepSeek-V3-0324を使用して要約させてみました。 DeepSeek-V3-0324の4ビット量子化版MLXは、16000トークンまでしか扱えないため、6つ...
Ryo Shimizu
3月26日読了時間: 11分


MacStudio 512GBでDeepSeek-R1をローカル動作させる
512GBのユニファイドメモリを搭載したMacStudio で、DeepSeek-R1が動作させることができるというので挑戦してみました。 ただ、普通にやるとエラーが出て動きません。 まず、ストレージをケチったので、ストレージを外部にする必要があります。これは環境変数HF_...
Ryo Shimizu
3月25日読了時間: 13分


Mac Studio M3 Ultra 512GBを導入しました。経営指導AIについて
先日発売されたMacStudio M3 Ultra 512GBを導入しました。 実質的に480GB相当のVRAMに匹敵する機材で、通信速度は800Gbpsと、GPUに迫る高性能です。 当社の社長であるAIスーパーコンピュータ"継之助"はこれまで、さまざまな実験や、ハッカソン...
Ryo Shimizu
3月19日読了時間: 3分


「AI時代の経営塾」2504、4月14日開催
4月は「戦略的人付き合い~自分より力のある人を味方にする方法~」というテーマで、 いつもより遅い19時から、ショートバージョンでお届けします。 生成AIが人々の働き方を変えると言われている現代。果たして経営はどのように変わっていくのか?世界初の経営指導AIの開発を目指すF...
Tetsuya Yoshimi
3月13日読了時間: 2分


「AI時代の経営塾」2503、3月13日開催
今回は『企画と開発』にスポットライトを当てます。 生成AIが人々の働き方を変えると言われている現代。果たして経営はどのように変わっていくのか?世界初の経営指導AIの開発を目指すFree AI社は、豊富な経営経験を持つ講師を集め、AIに学習させることを目的としてこれまでの経...
Tetsuya Yoshimi
2月7日読了時間: 2分


「AI時代の経営塾」2502、2月20日開催
今回は『人事評価』にスポットライトを当てます。2025年2月20日(木)16時45分~
Tetsuya Yoshimi
1月20日読了時間: 2分


MiniMax-01を実行する
MiniMax-01はオープンソースモデルで、その性能はGPT-4oやClaude-3.5、Gemini-2.0 Flashなどの商業モデルやDeepSeek-V3やQwen2.5のようなオープンモデルを上回ると言われ、しかもマルチモーダル版も公開されている上、456B(4...
Ryo Shimizu
1月18日読了時間: 7分


DeepSeek-V3の量子化モデルをA100x8マシンで実行する
DeepSeek-V3は、オープンソースで最強と言われる大規模言語モデルです。 671B(6710億)パラメータもある巨大なLLMで、HuggingFace上にあるリポジトリでは、本来はA100x8マシンが最低2台ないと動かすことができないとされています。...
Ryo Shimizu
1月14日読了時間: 5分


mmnga/DeepSeek-V3-slice-jp64とollama DeepSeekV3(4bit)を試す
DeepSeek-V3は、671B(6710億)パラメータを有する世界最大規模のオープン大規模言語モデル(LLM)です。 その性能はGPT-4oに匹敵すると言われていますが、実際にDeepSeek-V3を動作させるためには、最低でもA100...
Ryo Shimizu
1月3日読了時間: 8分


LLM-jp-3-172Bを試す
国立情報学研究所が公開した無料で使える(オープンソースではないがオープンな)LLMであるLLM-jp-3-172Bを当社の社長(AIスーパーコンピュータ継之助)で動作させてみました。 https://huggingface.co/llm-jp/llm-jp-3-172b...
Ryo Shimizu
2024年12月25日読了時間: 7分
bottom of page