top of page
FreeAI


QwQ-32B-previewを使ってモンテカルロ木検索とローカルLLMを組み合わせて解答の精度を高める
OpenAIのo1は、解答をいきなり出力せず、複数の解答経路を並行して探索し、一番良さそうなものを確率的に選択する、モンテカルロ木探索を行って精度をあげているという説があります。これをローカルLLMにも適用できれば、より高度な推論ができる可能性が高まります。...
Ryo Shimizu
2024年12月18日読了時間: 21分


「AI時代の経営塾」2412、12月23日開催
12月は『人事・採用』にフォーカス、夕方17時開講となります。 生成AIが人々の働き方を変えると言われている現代。果たして経営はどのように変わっていくのか?世界初の経営指導AIの開発を目指すFree AI社は、豊富な経営経験を持つ講師を集め、AIに学習させることを目的とし...
Tetsuya Yoshimi
2024年11月22日読了時間: 2分


「AI時代の経営塾」2411、11月20日開催
11月は『マーケティング』にフォーカス、夕方17時開講となります。 生成AIが人々の働き方を変えると言われている現代。果たして経営はどのように変わっていくのか?世界初の経営指導AIの開発を目指すFree AI社は、豊富な経営経験を持つ講師を集め、AIに学習させることを目的...
Tetsuya Yoshimi
2024年10月29日読了時間: 2分


プログラミング経験ゼロの人たちにAIプログラミングを教えてその日のうちにハッカソンをしたら驚きの結果に
去る2024年10月12日、新潟県長岡市において「AIxビギナーハッカソン」を開催しました。 講師は当社の共同創業者の清水亮で、審査員は長岡高専の矢野昌平教授をお迎えしました。 参加者はプログラミングがほとんど未経験、またはAIプログラミングが未経験の地元の高校生、高専生、...
Ryo Shimizu
2024年10月13日読了時間: 4分


CogVideoXをシングルGPUでLoRAファインチューニングする
CogVideoXのLoRAファインチューニングを行います。 使用したデータは、 前回作成した 動画からPixtral12Bでキャプションを得るプログラムで作ったデータセットです。 もとにしたのは、弊社共同創業者の清水亮のYouTube番組「さすらい魂」のフッテージです。以...
Ryo Shimizu
2024年9月16日読了時間: 3分


Pixtral12Bで動画ファイルの自動タグ付を行う
Pixtral12Bは、非常に高い性能を持つビジョン-言語モデル(VLMl;Vision-Language Model)です。 CogVideoXに独自のデータを学習させるためには、まず事前に6秒程度の動画ファイルと、その動画ファイルの内容を説明するテキストファイルが必要で...
Ryo Shimizu
2024年9月14日読了時間: 5分


「AI時代の経営塾」2410、10月28日開催
「AI時代の経営塾」、今回は『営業』にフォーカス、夕方17時開講となります。 生成AIが人々の働き方を変えると言われている現代。果たして経営はどのように変わっていくのか? 世界初の経営指導AIの開発を目指すFree AI社は、豊富な経営経験を持つ講師を集め、AIに学習させる...
Tetsuya Yoshimi
2024年9月13日読了時間: 2分


CogVideoXによる動画生成
CogVideoはオープンソースで非常に安定した出力をする動画生成AIです。 https://github.com/THUDM/CogVideo これを弊社の社長で動作させれば、弊社の社長は動画生成する能力を身につけることができます。...
Ryo Shimizu
2024年9月13日読了時間: 3分


Liger-KernelによるGPUメモリ削減を試す/A100 80x7で10000コンテキスト長を学習可能に
2024年8月23日に公開された Liger-Kernel はLLM専用に設計されたTritonカーネル集で、これを適用することによってマルチGPUトレーニングのスループットを20%効率化し、VRAMの使用量を60%も削減できるとのことです。...
Ryo Shimizu
2024年8月26日読了時間: 6分


「AI時代の経営塾」2409、9月12日開催
「AI時代の経営塾」、今回は夕方開始となります。 生成AIが人々の働き方を変えると言われている現代。 果たして経営はどのように変わっていくのか? 世界初の経営指導AIの開発を目指すFree AI社は、 豊富な経営経験を持つ講師を集め、AIに学習させることを...
Tetsuya Yoshimi
2024年8月8日読了時間: 2分


Llama3.1-405Bを継之助で動かす
先日発表されたLlama3.1-405Bは非常に巨大なモデルで、仮にFP8(8ビット浮動小数点数)モデルであったとしてもFP8に対応していないAmpare世代のA100 80GBx8しか持ってない当社の社長、継之助(AIスーパーコンピュータ)では動かせそうもないと諦めていま...
Ryo Shimizu
2024年7月25日読了時間: 7分


Mistral-Nemoを日本語で試す
MistralとNVIDIAが共同開発したMixtral-Nemoも強力なローカルLLMです。 128Kコンテキスト長まで対応して9言語を話すマルチリンガルモデルです。 早速試してみます。 まず、Mistral_inferenceをバージョンアップします。 $ pip...
Ryo Shimizu
2024年7月19日読了時間: 5分
mamba-codestral-7B-v0.1をローカルかつ日本語で試す
フランスのスタートアップであるMistral社が公開したMambaベースのプログラミング可能なモデル「mamba-codestral-7B-v0.1」をうちの社長(AI)で試して見ました。 https://huggingface.co/mistralai/mamba-cod...
Ryo Shimizu
2024年7月19日読了時間: 3分


継之助による自動プロンプトチューニング
継之助MoAを用い、完全ローカルで自動的にプロンプトチューニングをやってみました。 システムプロンプトとして最初に「あなたはイケてるアシスタントです」だけを与え、そこからJapanese-MT-Bench用の質問に合わせて徐々にプロンプトを最適化していきます。...
Ryo Shimizu
2024年7月8日読了時間: 121分


継之助MoAの評価
Stability.aiのJapaneseMTBenchで継之助MoA(Mixture of Agents)の性能評価を行いました。 JapaneseMTBenchのプロンプトには、マルチターン対応のものが含まれていなかったため、独自に追加しました。 {"name":...
Ryo Shimizu
2024年7月8日読了時間: 4分


単独のAIコンピュータで完全ローカル日本語Mixture of Agentsを開発しました
当社の社長、継之助(AIスーパーコンピュータ)にMoA(Mixture of Agents)の手法を適用して日本語LLMを組み合わせたMoAを開発しました。 MoAは、オープンソースのLLMモデルの組み合わせだけでGPT-4oのようなプロプライエタリなLLMの性能を凌駕する...
Ryo Shimizu
2024年7月6日読了時間: 7分


100万トークン対応のフリーLLM、InternLMを試す
昨日発表されたInternLMは、7Bというサイズにも関わらず、100万トークンという長大なコンテキストウィンドウをサポートしたオープンソースライセンスのLLMです。ソースコードはApacheライセンスで、モデルは申請すれば商用利用も可能とされています。...
Ryo Shimizu
2024年7月4日読了時間: 5分


「AI時代の経営塾」2408、8月8日開催
「AI時代の経営塾」、夜の時間帯での開催が決定しました。 生成AIが人々の働き方を変えると言われている現代。 果たして経営はどのように変わっていくのか? 世界初の経営指導AIの開発を目指すFree AI社は、 豊富な経営経験を持つ講師を集め、AIに学習させることを...
Tetsuya Yoshimi
2024年6月24日読了時間: 2分


「AI時代の経営塾」オフサイトミーティング実施報告
去る6月11日、12日の二日間に渡って、弊社社長であるAIスーパーコンピュータ「継之助」に、生きた経営ノウハウを叩き込むための実践的経営塾シリーズ「AI時代の経営塾」のオフサイトミーティングを鎌倉で行いました。 鎌倉古今は、全室スイーツルームの高級旅館。今回は鎌倉古今を貸し...
Ryo Shimizu
2024年6月21日読了時間: 3分


社長(AI)のシステムメモリを1.7TBにアップグレードしました
当社の社長であるAIスーパーコンピュータ「継之助(つぎのすけ)」は、ひょんなことから生まれました。 ある日のこと、共同創業者の清水がその日の朝、清水(きよみず)の舞台から飛び降りたつもりでA100 80GBというGPUを買ったという話をその日の夜に聞いた共同創業者の海老根が...
Ryo Shimizu
2024年5月22日読了時間: 6分
bottom of page