はてぶ・Qiita・Zennのトレンド記事を紹介
LLM(大規模言語モデル)は、大量のテキストデータを学習したAIモデルです。ChatGPTなどの自然言語処理AIの基盤となっています。
複数のPCからリソースをかき集めて巨大なAIモデルをローカル実行できる「mesh-llm」 🔖 40
Mesh LLMは、複数のコンピューターの余剰GPU計算資源を持ち寄り、1台では動かしにくい大規模言語モデルを分散実行できるようにする仕組みです。OpenAI互換APIを備えており、既存のAIツールやエージェントからそのまま使いやすい点が特徴です。 mesh-llm — Dece
2030年までに、1兆個のパラメータを持つLLMの推論コストが90%以上削減される、ガートナーが予想 🔖 55
米調査会社のガートナーは、2025年と比較した場合の大規模言語モデルにおける推論実行のコストが、1兆個のパラーメータを持つ大規模言語モデルでは2030年までに90%以上削減されるとの予想を発表しました。 この大きなコスト削減効果は、半導体およびインフラにおける処理効率の向上、モデ
4日間ChatGPT禁止──息をするようにAIを使う知的労働者10人の“LLM絶ち”実録日記 🔖 45
調査結果は、LLMの不在がもたらした業務上のギャップを鮮明に描き出している。参加者たちはLLMなしで働くことを、食洗機やロボット掃除機のない生活、あるいはコンビニや車が使えない状態に例えた。 情報検索においては、従来の検索エンジンに戻ることで検索キーワードの工夫や情報の統合といっ
Mastra でサクッとローカルLLMを実験したい。Mac (Arm) に最適化された MLX版のモデルを使いたいので LM Studio を使います。 動作環境Model Name: MacBook ProChip: Apple M1 ProMemory: 32 G
はじめにClaudeに記事を書かせた。重い…。いつもは修正するが、前回の記事は全く修正していない。https://zenn.dev/acntechjp/articles/9029bd3807bef5はじめに読んだときに感じたのは「離人症的」だということだ。Claudeは「タ
LLMエージェント対応を強化した ecspresso v2.8 をリリースしました - 酒日記 はてな支店 🔖 28
Amazon ECS デプロイツール、ecspresso v2.8.0 をリリースしましたのでお知らせです。 github.com 今回のリリースでは、LLMエージェントとの連携を強化する新機能、diff コマンドの機能拡充、サブコマンド体系の整理、バイナリサイズの削減などが含ま
リコー、“日本語で推論”できるマルチモーダルLLMを開発 「Gemini 2.5 Pro」に匹敵うたう 🔖 54
リコー、“日本語で推論”できるマルチモーダルLLMを開発 「Gemini 2.5 Pro」に匹敵うたう リコーは3月30日、推論のプロセスを日本語化したマルチモーダルLLM「Qwen3-VL-Ricoh-32B-20260227」を開発したと発表した。320億パラメータを持ち、複
OpenClaw × OllamaをMacBook 16GBで動かす - ローカルLLM入門 🔖 28
こんにちは!ブロックチェーンエンジニアの山口夏生です。 ブロックチェーン×AI Agentで自律経済圏を創る開発組織Komlock labでCTOをしています。 ローカルLLMって難しそう...そう思っていませんか? 実は、たった3つのコマンドで動きます。Ollama をインスト
LLM に足りないのは能力ではない。あなたの事情だ - じゃあ、おうちで学べる 🔖 124
はじめに エディタを開いたまま、手が止まっていた。 LLM(大規模言語モデル)が書いた Rust のコードを眺めている。WAL(Write-Ahead Log、データを安全に書き込むための仕組み)のセグメント管理。所有権(データの持ち主を明示する Rust 独自のルール)は正しい
国産LLMは作れるのか? - RakutenAI 3.0の炎上から考える 🔖 202
はじめに 2026年03月17日、楽天グループが「国内最大規模」と謳う大規模言語モデル(以下、LLM)「Rakuten AI 3.0」を発表しました。約7000億パラメータのMoE(Mixture of Experts)モデルで、日本語ベンチマークではGPT-4oを上回るスコアを
国産LLMは作れるのか? - RakutenAI 3.0の炎上から考える 🔖 202
はじめに 2026年03月17日、楽天グループが「国内最大規模」と謳う大規模言語モデル(以下、LLM)「Rakuten AI 3.0」を発表しました。約7000億パラメータのMoE(Mixture of Experts)モデルで、日本語ベンチマークではGPT-4oを上回るスコアを
Claude Opus 4.6と同等のAIをローカルで動かすにはいくらかかるか?ローカルLLMを構築してわかったこと 🔖 132
「自分のPCでAIを動かしたい」と思ったことはありませんか? ClaudeやChatGPTはクラウド上で動いているため、会話の内容がサーバーに送られます。機密情報を扱う場合や、純粋に「自分のマシンで完結させたい」という場合には、ローカルLLMという選択肢があります。 そこで実際に
新人プログラマがLLM APIを使う前に知っておくべきセキュリティの基本 🔐 🔖 2
はじめにI'm a fullstack coding instructor. Every bootcamp cycle, I see the same pattern: new developers get excited about LLM APIs, build s...
今回の想定読者今回のネタは、ローカルLLMについてです。本記事を読んでいただけると、ローカルLLMの概要や使い方を知ることができます。(ファインチューニングについては触れていません)以下の様な方が想定読者です。諸事情により、OpenAIなど外部のLLMを利用できない、また
Wikipedia、LLMによる記事生成を原則禁止に 🔖 49
Wikipediaを運営する非営利団体Wikimedia Foundationは3月20日(UTC)にコンテンツガイドラインを更新し、記事コンテンツの生成または書き換えにLLMを使用することを禁止すると明記した。 「ChatGPT、Gemini、DeepSeekなどの大規模言語モ
Google、LLMのメモリ消費を6分の1に削減する新技術「TurboQuant」発表 🔖 108
米Googleは3月24日(現地時間)、新たな圧縮手法「TurboQuant」に関する研究により、LLMを実行するために必要なメモリ量を6分の1に削減できる可能性があると発表した。 この技術は、AIモデルが情報を処理する際に用いる高次元ベクトルデータのサイズを極限まで圧縮し、大規
ここ1年弱くらい、さまざまな形でLLMを体験に組み込んだプロダクトの開発に携わってきました。その中で得た学びについて書いていこうと思います。 LLMのAPI実行ログはすべて残す設計にするLLMを組み込んだ機能の中には、永続化する必要がないようなものも存在するかもしれません
2026/03/25 本番提供できる品質へ:SaaSにAI機能を実装するまでのリアル での発表資料です。
LLM-jp FT-LLMコンペに直球ど真ん中ストレートを投げ込んだ(つもりの)話 🔖 2
松尾研究所の尾崎です.25卒でデータサイエンティストをやっています.本記事では,LLM-jp FT-LLMコンペティションにおける我々チームの取り組みをご紹介します.NLP2026で発表した論文「LLM-jp FT-LLMコンペにおける数学推論能力向上の取り組み」(尾崎・力岡・
2026年3月24日の LiteLLM 侵害の概要と対応指針 🔖 79
2026年3月24日、LLMプロキシライブラリ LiteLLM の PyPI パッケージが侵害されました。 攻撃者は PyPI のメンテナアカウント(krrishdholakia)を乗っ取り、クレデンシャル窃取・Kubernetes 対象のラテラル・永続化マルウェアを含むバージョ
LLM のモデル廃止に耐える ~TypeScript で型安全なモデルカタログを作ってみた~ 🔖 1
はじめにこんにちは、株式会社AI Shift の yoshi です。私たちはエンタープライズ向けの AI エージェントプラットフォーム AI Worker Platform を開発しています。2026年に入ってから、LLM のモデル廃止対応を行いました。DALL-E 3、G
文書の内容を学習なしでLLMに反映、Sakana AIの新技術 RAG代替は可能か 🔖 26
Sakana AI(サカナAI)は2026年2月末、LLM(大規模言語モデル)に独自情報を反映させるための新たな手法「Doc-to-LoRA」を発表した。情報を即座にモデルに反映させられるのが特徴だ。Sakana AIのRujikorn Charakorn(ルジコーン・チャラコー
Activation SteeringによるLLMの解剖 🔖 1
この記事はwhat exactly?LLM(Large Language Model。ChatGPTやClaudeなどの事です)に「もっと明るく話して」「英語で話して」と頼むことがありますよね。でもこれはお願いです。LLMが従うかどうかは保証されません。この記事では、お願いで
DGX Sparkで色々なローカルLLMを動かした比較結果 🔖 40
NVIDIA DGX Spark(GB10、ARM64、128GB統合メモリ)でローカルLLMを動かす方法を、推論エンジン別(Ollama / vLLM / SGLang)に解説します。 「どのモデル × どのエンジンを選べばいいの?」という疑問に答えるため、手軽さ・賢さ(ツール
方眼紙Excel→Markdown変換、結局LLMしか勝たん話【全手法比較】 🔖 291
日本の現場でよく見かける「方眼紙Excel」——全セルを正方形に統一し、セル結合を多用してレイアウトを作るあのスタイルです。工事仕様書・工程表・設計図・申請書類など、建設・製造・行政の現場で今も現役です。 今回使ったサンプルはこんなものです。 工事仕様書:基本情報・材料仕様・施工
「ChatGPTは賢いのに、なぜ業務では使いにくいのか」。その答えがナレッジグラフにあります。本書は、RAGだけでは解けない問題の正体を明らかにし、ナレッジグラフがLLMに何をもたらすかを、入門から世界の活用事例、実装アーキテクチャ、AI Agentとの統合まで一気通貫で解説しま
AbstractLLMの出力にem dash(—)やコロン(:)が多い、という観察が広く共有されている。本実験では、これがベースモデルの時点で存在する傾向なのか、instruct tuning(SFT + RLHF)の段階で生じるのかを、Gemma 3 27B、Llama 3
DGX Sparkで色々なローカルLLMを動かした比較結果 🔖 40
NVIDIA DGX Spark(GB10、ARM64、128GB統合メモリ)でローカルLLMを動かす方法を、推論エンジン別(Ollama / vLLM / SGLang)に解説します。「どのモデル × どのエンジンを選べばいいの?」という疑問に答えるため、手軽さ・賢さ(ツール
LLMにちゃんと“電卓と検索”を使わせるには — ReActスタイルのツール利用・実装入門 🔖 18
はじめに ルミナイR&Dチームの栗原です。 最近の LLM は、テキストを出すだけでなく、 電卓 Web 検索 社内 API データベース など、**外部ツールを叩きながらタスクをこなす「エージェント」**として使われることが増えています。 ただ、 「いつツールを呼ぶべき
方眼紙Excel→Markdown変換、結局LLMしか勝たん話【全手法比較】 🔖 291
はじめに!本記事は「方眼紙ExcelをAI/RAGに投入したいエンジニア」を対象としています。日本の現場でよく見かける「方眼紙Excel」——全セルを正方形に統一し、セル結合を多用してレイアウトを作るあのスタイルです。工事仕様書・工程表・設計図・申請書類など、建設・製造・
LLMなしでPDF/Excel/Word/PowerPointを意味検索する 🔖 2
はじめにExcel方眼紙、100頁を超えるPowerPoint、それは先人たちの血と汗と涙の結晶である。オートシェイプでレイヤーを作ってミルフィーユみたいになっている素晴らしいドキュメント!Semanticなど関係ない!見た目が良ければよいという暴力性!そんなドキュメントを
Vibe Fine-Tuning: 会話だけでLLMをFine-Tuningしてみた 🔖 1
こんにちはAIチームの戸田です最近、営業やCSなどの非エンジニア職のメンバーがClaude CodeやCodexを日常的に使うようになってきました。しかしターミナルでの操作に慣れていない人がAIエージェントの実行するbashコマンドを目にしたとき、「これ、何をやっているんだろ
たった1文で15のLLMのガードレールを無効化した手法、Microsoftが公開 🔖 49
Microsoftのセキュリティ研究チームは2026年2月9日(米国時間)、大規模言語モデル(LLM)のガードレール(安全装置)を無効化する手法「GRP-Obliteration」に関する研究結果を公開した。 ガードレールを無効化できた対象には以下の15モデルが含まれる。 「gp
自宅で動くLLMをどこからでも呼び出せる「LM Link」、Tailscale×LM Studio連携で実現 - すまほん!! 🔖 47
すまほん!! » AI・人工知能 » 自宅で動くLLMをどこからでも呼び出せる「LM Link」、Tailscale×LM Studio連携で実現 自宅のGPUマシンがどこでも使えるAIサーバーに? VPNサービスのTailscaleとローカルLLM実行アプリのLM Studio
MacBookで動くし、ぶっ壊れ性能。いま最強のローカルLLM「Qwen3.5」を解説しちゃう 🔖 396
MacBookで動くし、ぶっ壊れ性能。いま最強のローカルLLM「Qwen3.5」を解説しちゃう2026.03.14 21:008,159 かみやまたくみ とりあえずこれでいいやつ(令和最新版)。 2026年2月末〜3月上旬にかけてアリババがリリースしたオープンウェイトの大規模言語
LangfuseによるLLMOps基盤の構築と活用事例 🔖 1
はじめに こんにちは、データサイエンス部コーディネートサイエンスブロックの清水です。私たちのチームでは、WEARへ投稿されているコーディネート画像からVLM(Vision Language Model)で特徴を自動抽出するシステムを開発・運用しています。
【Python+ローカルLLM】AIコーディングエージェントをRAGに組み合わせてみた 🔖 32
はじめに 「社内ドキュメントに自然言語で質問できたら便利じゃないか?」 「しかも、コードの書き方まで聞けたら最高じゃないか?」 そんな欲張りな発想から生まれたのが Django-RAG (Ver.2) です。 以前投稿した Agentic Coder の記事では、ローカルLLMで
LLMからエージェントへ:2026年に学ぶべきオープンソースAIプロジェクトまとめ 🔖 3
2024年まで、AIの学習といえば「モデルのファインチューニング」が主流でした。でも2026年の今、完全にゲームが変わりました。今のAI開発の主戦場は 「モデルの精度を0.1%上げること」ではなく、「AIにシステム権限を与えて、自律的にタスクを実行させるアーキテクチャをど...
Opus4.6でdraw.io図を生成したらもはやLLMの前提が崩れてた件 🔖 72
はじめに 「LLMは空間的な推論が苦手」「テキストベースで座標を扱うのだから、複雑な図はぐちゃぐちゃになるはず」──これは自分がずっと持っていた前提でした。おそらく同じように考えている方も多いのではないでしょうか。 実際、以前のモデルで試した限りでは、この前提はおおむね正しかった
--2026.03.10 21:04 ヘブ則、💡追加 --2026.03.10 20:09 memory_server.py アップし忘れてた。GitHubに追加 LLMと長期記憶 LLMには記憶がない。正確に言えば、コンテキストウィンドウという短期記憶はあるが、会話が終われば全
ローカルLLMで完全無料AI音声入力!Handyを使ってみた 🔖 35
こんにちは!データエンジニアの @myshmeh です。 現在育休中の身で、両手は子供で塞がっていることが多いです。しかし、ちょっとした調べ物や書き物でパソコン操作したい局面は結構あるので、 Claude x 音声入力でソリューションを検討してました。 その文脈で見つけた、 Ha
データエンジニア・LLM エンジニア採用のスキルテストをリニューアルしました 🔖 2
こんにちは、ナウキャストでリードエンジニアをしている六車です。ナウキャストでは、エンジニア採用の選考ステップの一つとして、書類選考を通過したエンジニア候補の方にスキルテストを受けていただいています。この度、そのスキルテストをリニューアルしました。具体的には、グループ会社である
LLMの自律的な調査力を高めるAgenticRLの取り組みと知見 🔖 6
こんにちは。 ABEJAでデータサイエンティストをしている服部です。 LLMの進化は速いですね。 Reasoning能力があることは勿論Agenticな動きをすることも最近求められており、LLM開発においてもPost Trainingの重要性は高まっています。 本記事では、Age
Opus4.6でdraw.io図を生成したらもはやLLMの前提が崩れてた件 🔖 72
はじめに「LLMは空間的な推論が苦手」「テキストベースで座標を扱うのだから、複雑な図はぐちゃぐちゃになるはず」──これは自分がずっと持っていた前提でした。おそらく同じように考えている方も多いのではないでしょうか。実際、以前のモデルで試した限りでは、この前提はおおむね正しかった