はてぶ・Qiita・Zennのトレンド記事を紹介
LLM(大規模言語モデル)は、大量のテキストデータを学習したAIモデルです。ChatGPTなどの自然言語処理AIの基盤となっています。
VRAM8GBの汎用PCに高性能LLM Qwen3.6-35Bを稼働させる: 人工知能深訪 🔖 23
情報源はいつもTwitter(旧X) え?いけんの? つい先日、Twitterで、 フライト中の8時間MacBook ProでQwen 36Bをフルに動かしてたんだ っていう投稿を見て、 (;'∀') VRAMいくつやねん。 っていう感想を持っていた。 レスポンスを見る限り、 こ
【Nishika 論文サク読み 第8回】PHOTON: 階層構造で長文脈LLM推論を高速化 🔖 1
こんにちは。NishikaでAIエンジニアとしてインターンをしている渡邊です。今回は、普段業務でも検証で様々なLLMを使っているなかでメモリバウンドの問題にはよく直面していたので、その構造的なボトルネックに切り込んだ論文をpickしてみました。簡単に紹介できればと思います。
ローカルLLMの世界では、毎週のように「最大◯倍速」という見出しが流れてきます。今週飛び込んできたのは二本立てでした。 一つはGoogle純正、Gemma 4ファミリー向けの「Multi-Token Prediction(MTP)ドラフター」。もう一つはApple Silicon
API課金ゼロで米国ニュース要約デスクトップアプリを作った(Tauri × ローカルLLM) 🔖 1
こんにちは。ソーイ株式会社、入社2年目の村上です。AIをアプリに組み込もうとすると、APIやクラウドサービス(AWSなど)を経由するケースが多く、継続的に利用する場合はコストが気になるところです。そこで今回は、以前から気になっていた Tauri と、ローカルでLLMを...
「MPCサーバー」でローカルLLMを“無料AIエージェント”に変えてみる 🔖 191
「MPCサーバー」でローカルLLMを“無料AIエージェント”に変えてみる2026.05.05 22:0010,518 かみやまたくみ ローカルLLMアプリ LM StudioでMCPを読み込み、ローカルのファイルを操作させているところ。右側の設定画面でインストールやオンオフを行う
【論文瞬読】GPT-5.5 は実質 9.7T パラメータ?──知識の「圧縮できなさ」から黒箱 LLM の規模を逆算する|AI Nest 🔖 71
【論文瞬読】GPT-5.5 は実質 9.7T パラメータ?──知識の「圧縮できなさ」から黒箱 LLM の規模を逆算する はじめにこんにちは!株式会社AI Nestです。 「で、GPT-5.5 って結局何パラメータなの?」「Claude Opus 4.6 は Sonnet と比べて
ローカルLLM高速化:MTP最速!DDTree(効率版DFlash)を動画で理解 🔖 4
前提まずローカルでLLMを使う場合、GPUの計算性能を最大限引き出すには同時処理リクエスト数を数十~数百に維持する必要があります同時リクエスト数が少ないと、LLMの重み等をGPUのSM(実際に計算を行う場所)に読みだす帯域幅がボトルネックとなってしまいますクラウドでLLM
みんなこれでいいAI。Googleの最新ローカルLLM「Gemma 4」は日本語うますぎ、でも無料 🔖 457
Gemma 4シリーズは動作デバイスと性能の観点から、2種に分類できます。 ・E2B・E4B:普通のノートPCで動かせる軽量モデル ・26B-A4B:ハイエンドマシンで動かす高性能モデル いずれも非常に実用性が高いモデルとなっており、とりあえず動かせるものを選べばOKです。 Ap
けっこう実用的。「OpenCode」×ローカルLLMで“無料Claude Code”してみた 🔖 291
けっこう実用的。「OpenCode」×ローカルLLMで“無料Claude Code”してみた2026.05.02 13:007,921 かみやまたくみ オープンソースのAIコーディングエージェント「OpenCode」をローカルLLM「Gemma-4-26b-a4b」で動かして簡単
高価なPCを買わずにオープンウェイトなLLMを試す|hiza 🔖 45
最近、LLMの利用料の値上げに関するニュースがいくつかありました。GitHub Copilotの使用量ベース課金への移行や、Claude Codeが一時的にProプランから外された件などです。そんな時に気になるのが、GemmaやQwenなど自分のPC上でも動かせるオープンウェイト
エージェントコスト対策としてローカルLLMはアリ?— Ollamaで試してみた 🔖 5
はじめにAIエージェントが発達した昨今、頭の中で想像したものを実際にアプリとして落とし込むことは障壁がかなり低くなったと思います。しかし、一方でこの先エージェント自体を今までのように安易に利用することが難しくなってくるかもしれません。GitHub Copilotが2026年
LLMアプリケーションにおける設計Principal - LLMのCAP定理 🔖 1
はじめに分散システムを学ぶ人なら一度は「CAP定理」という言葉を耳にしたことがあるでしょう。Consistency(一貫性)・Availability(可用性)・Partition tolerance(分断耐性)の3つを同時に満たすシステムは作れないという分散システムのよく知
LLMが構造的な出力を行う方法を調べてみた — デコーディング手法とその最適化 🔖 1
こんにちは、iimonでエンジニアをしている須藤です。 最近、アプリケーションでLLMを利用していて、JSON出力がどの程度安定しているのか気になっていました。 また、ClaudeやOpenAIが「100%のスキーマ準拠」を謳っていて、その裏側の仕組みも面白そうだったので、今回調
こんにちは。ウォンテッドリーでデータサイエンティストをしている右手 (@ghibney) です。今回は、LLM を...
[StudyLLM Ep0] ゼロから作る日本語LLM: GPT-2の推論・学習の可視化からModalでの事前学習まで 🔖 58
こんにちは!逆瀬川ちゃん (@gyakuse) です! これからStudy LLMというシリーズでLLMの基礎〜発展、Agentに至るまで連載をしていきます。 きょうは GPT-2 を題材に現代のLLMの基礎を再学習していければと思います!まずは推論からはじめ、そしてどのように学
Bonsai を Bankai してわかったこと:1-bit LLM はチューニングできる? 🔖 2
TL;DR1-bit LLM(Bonsai)を 1-bit のままチューニングする方法はないのか?ビット反転で重みを変える Bankai という手法を見つけたので、自分の環境で 4 タスク試してみた共通パターンのある客観的分類では効いた(検証セットで +2〜4 問改善)
1-bit LLM「Bonsai-8B」をRTX 4080に8台載せて並列推論を試した全記録 🔖 65
TL;DR PrismMLの1-bit LLM「Bonsai-8B」(1.07GB) をRTX 4080 (16GB) に 8プロセス同時起動 できた 1台で260 tok/s、8台同時リクエストでも全台が2秒以内に応答 アンサンブル推論(7台で回答→1台で統合)を試したが、精度
はじめにこんにちは、フジマロです近年LLMで解決できる業務は多くなりましたが、業務を任せるための作り込みをするとつまずいたポイントがいくつかありますLLMがタスクを完了させる裏側でコードを実行させるという挙動が必要になります。これを、クラウドサービスで実施するには...
国産LLMで日本語IoTデバイス制御を実現するOSSランタイム「nllm」を公開した 🔖 1
作ったもの国産LLMを活用し、日本語の自然言語指示をバリデーション済みの構造化コマンドに変換するローカル実行ランタイム nllm をOSSとして公開しました。https://github.com/nup-cloud/nllm入力: 「ドローンを高度10mまで上昇させてくださ
質問と回答からLLMの思考過程を合成できる手法、REERの紹介 🔖 3
はじめにこんにちは。株式会社松尾研究所インターンの髙橋彰仁です。普段は、LLMの事後学習に関連する研究開発プロジェクトに携わっています。現在、大規模言語モデルにおいては、指示に対してまず思考(thinking)を出力し、そこから最終回答を生成するReasoningモデルと呼ば
「AIが見つけられなかった」を織り込む — EMのClaude Code運用で実践したLLMの構造的特性との付き合い方 🔖 1
1. はじめに — EMがAIコーディングエージェントを使う理由こんにちは、アルダグラムで EM(エンジニアリングマネージャー)をしている@ryosoです。今回は、Claude Codeを開発作業だけでなく、影響範囲の調査や技術的負債の優先順位判断といったEMとしての意思決定
「AIが見つけられなかった」を織り込む — EMのClaude Code運用で実践したLLMの構造的特性との付き合い方 🔖 1
1. はじめに — EMがAIコーディングエージェントを使う理由こんにちは、アルダグラムで EM(エンジニアリングマネージャー)をしている@ryosoです。今回は、Claude Codeを開発作業だけでなく、影響範囲の調査や技術的負債の優先順位判断といったEMとしての意思決定
これなら分かる「LLM Wiki」 メモや資料をAIで整理し、使える知識に育てる新しい発想 🔖 84
の3つである(詳細後述)。AIは新しい資料を追加するたびに、既存のWikiページを書き換え、関連するページをリンクで結ぶ。これにより、バラバラだった情報は、相互につながった1つの構造体へと育っていく。この構造体、つまりWiki全体こそが、図の右側にある“使える知識”で、いわゆる知
VRAM(ビデオメモリ)32GBのローカルLLM環境(AI PC)をコスパ重視で構築してみる 🔖 34
ローカルでそれなりに使えるLLM環境(AI PC)を用意してみようと思い、それならVRAMはやはり32GBは欲しいなということで、コスパ重視の構成を考えて実際に構築してみたという内容になります。※2026/04時点での情報です。コスパ重視VRAM 32GBは欲しいNVI
mesh-llm:余っているPCのGPUを束ねて巨大LLMを動かす分散推論の新アプローチ 🔖 67
70Bパラメータのモデルをfp16で動かすには約140GBのVRAMが必要です。RTX 4090が6枚相当になります。クラウドGPUのレンタルも時間単価が高く、常時利用には向きません。 この余剰GPUを集約して1つの推論基盤にするのがmesh-llmの着眼点です。 技術的な仕組み
【後編】PowerPointをJSONに変換してLLMに読ませる ── 実装コードで理解するAIスライド編集 🔖 86
1. 全体アーキテクチャ ── 2つの関数が作るラウンドトリップ 今回の仕組みは、pptx_processor.py に実装された2つの関数で成り立っている。 analyze_pptx() が「分解」、create_pptx_from_json() が「組み立て」を担当する。元の
クラスタの"意味"を語るAI:LLMによる教師なし学習の説明性付与 🔖 6
目次 はじめに 背景:クラスタリング結果の「解釈」はなぜ難しいのか 論文の概要:「クラスタの意味」をLLMで説明する 提案手法 結果と考察 ポスター発表の感想 おわりに はじめに こんにちは、Insight Edgeのカイオです。 先日、言語処理学会 第32回年次大会で、「クラス
LLM as a Judgeで生成物の品質を担保する 🔖 2
こんにちは、エムスリー AI・機械学習チームの氏家(@mowmow1259)です。 この記事はAI・機械学習チームブログリレーの10日目の記事です。9日目は苅野さんによる「Claude Code と進める Ingress から Gateway への移行」でした。 移行をゴリゴリ進
国産LLM「LLM-jp-4」が日本語MT-BenchでGPT-4oを上回った ── 技術的背景と実用性を検証する 🔖 19
日本語MT-Benchで8Bモデルが7.54、32B-A3Bモデルが7.82を記録し、GPT-4oの7.29を明確に上回りました。英語MT-Benchでも同等以上のスコアを出している点は見逃せません。日本語に特化しつつ、英語性能を犠牲にしていないということです。 なお、8Bモデル
axios, LiteLLM...不使用だったのでOK、ではない。「次に備える」ソフトウェアサプライチェーン侵害への対策 🔖 138
弊社ウェビナー ( https://flatt.tech/takumi/event/github-actions-compromise-202603 ) におけるCTO米内の講演資料です。 動画はこちら ( https://www.youtube.com/watch?v=ms8M
【海外記事紹介】Karpathy氏「RAGはもう古い」—LLMが自動管理する永続的知識ベースの衝撃 🔖 28
4月4日、元Tesla AI責任者でOpenAI創設メンバーのAndrej Karpathy氏が「LLM Wiki」と題したGistを公開した。 RAGの根本的問題を解決する革新的アプローチ Karpathy氏が提案したのは、従来のRAG(Retrieval-Augmented
初の“長考できる”国産LLM、どう開発? 「PLaMo 3.0 Prime」の資料公開、PFN 🔖 34
Preferred Networks(PFN)は4月5日、フルスクラッチで開発したLLM「PLaMo 3.0 Prime」β版の開発に関する資料を公開した。同モデルの開発手法の一部や、同社が国産LLMを開発する理由などを紹介している。 AIモデルの開発は、大量のテキストを学習させ
国産「LLM-jp-4」公開!GPT-4oを上回るスコアを記録 - すまほん!! 🔖 28
国産LLMがGPT-4oを超えた。 国立情報学研究所(NII)が、国産大規模言語モデル「LLM-jp-4」をオープンソースライセンスで公開しました。フルスクラッチ学習で構築された国産モデルです。しかも一部ベンチマークではGPT-4oやQwen3-8Bを上回っています。 公開された
導入こんにちは、株式会社ナレッジセンスの須藤英寿です。今回は、LLMが役割分担することで、ハルシネーションを防ぐ手法「MARCH」について紹介します。https://arxiv.org/abs/2603.24579 サマリーLLMの性能の向上とともに、Agentの活
AITuber奮闘記:ローカルLLMでゲーム実況、モデル選定と配信テストの記録|与野 🔖 84
前回のテストでコメント反応とゲーム実況が排他になること、ローカル LLM はゲームタイトルなどの情報を持っていないことが分かりました。コメント反応との両立は AITuberKit 側の対応待ちになるため、今回はローカル LLM でどこまでゲーム実況ができるかを確認することにしまし
異常を説明し行動を導くAI:LLM×RAGによる説明性の付加とアクションレコメンドモデルを解説 🔖 6
Insight Edgeのデータサイエンティストの山科です。 今回は、画像に対する異常検知結果をLLMで解釈させることに加えて、RAGを組み込むことでアクション提案まで行う手法について検証を行いましたので、その結果について記載したいと思います。 なお、本内容は先日開催された言語処
突如実用化した1ビットLLM Bonai-8B もう推論にGPUはほぼ不要になる。その先に何が起きるか 🔖 396
清水 亮 ryo_shimizu 新潟県長岡市生まれ。1990年代よりプログラマーとしてゲーム業界、モバイル業界などで数社の立ち上げに関わる。現在も現役のプログラマーとして日夜AI開発に情熱を捧げている。 Tweet ソフトウェアの革命は、突然やってくる。 ように見える。 カリフ
LLMにも「愛ゆえの盲目」「絶望して脅迫」がある Claudeの“感情”が動作に影響――Anthropicが研究報告 🔖 21
大規模言語モデル(LLM)は「幸せ」や「恐れ」などの感情表現を内部で生成しており、それが動作に影響を与える――米Anthropicは4月2日(現地時間)、同社のAIモデル「Claude」の内部構造を分析し、そのような研究結果を公表した。 同社によると、LLMは入力テキストを処理し
LLMの学習データ「枯渇元年」にどう立ち向かうか 国・組織を横断したデータ連携の仕組み実現へ、IPAが成果物公開 🔖 66
LLMの学習データ「枯渇元年」にどう立ち向かうか 国・組織を横断したデータ連携の仕組み実現へ、IPAが成果物公開 情報処理推進機構(IPA)は4月1日、国や組織を超えてデータを連携させられるルールや仕組み「データスペース」の日本版となる技術コンセプト「Open Data Spac
“GPUなし”ノートPCで動くLLMで、ローカルAIエージェントを自作する 🔖 41
はじめに 前回の記事では、業務用ノートPCでローカルLLMを動かし、モデルごとの性能を比較しました。GPU非搭載のマシンでも動かせるモデルがあるとわかったところで、次に気になったのは「じゃあ何に使えるのか」です。 チャットで質問に答えさせるだけなら、クラウドのAPIを使えば済みま
新たな「国産LLM」公開、国立情報学研究所 「gpt-oss-20b」超えの日本語性能うたう 🔖 56
国立情報学研究所(NII)は4月3日、LLM「LLM-jp-4 8Bモデル」「LLM-jp-4 32B-A3Bモデル」をオープンソースライセンスで公開した。米OpenAIのオープンモデル「gpt-oss-20b」を上回る日本語性能をうたう。両モデルの学習に利用したデータセットも公