はてぶ・Qiita・Zennのトレンド記事を紹介
LLM(大規模言語モデル)は、大量のテキストデータを学習したAIモデルです。ChatGPTなどの自然言語処理AIの基盤となっています。
LLMによる文単位抽出を高速・安価に行う- fast-bunkaiの活用 🔖 27
モチベーション 長い文章を読むのは全く億劫だ。 頼むから知りたいところだけピンポイントに読ませてくれ。ファスト教養万歳! そんな、働いていると本も読めなくなる[1]私たちの嘆きを解決してくれるのがLLMです。 文書の中から自分が必要としている文章のみをLLMに抽出してもらえば良い
LLMに渡す前に関連しない文を削除するモデル OpenProvence を公開 - A Day in the Life 🔖 96
昨今、LLMが回答するための「良い知識」を作るために、検索を行い情報を集め、さらに足りない知識を補うために多方面のさまざまな検索クエリを作り検索結果から必要な情報だけを抽出したり…といったことを、再起的に行っています。AI Agent、DeepResearch、Context E
LLMによる文単位抽出を高速・安価に行う- fast-bunkaiの活用 🔖 27
モチベーション長い文章を読むのは全く億劫だ。頼むから知りたいところだけピンポイントに読ませてくれ。ファスト教養万歳!そんな、働いていると本も読めなくなる[1]私たちの嘆きを解決してくれるのがLLMです。文書の中から自分が必要としている文章のみをLLMに抽出してもらえば良い
LLMによる文単位抽出を高速・安価に行う- fast-bunkaiの活用 🔖 27
モチベーション長い文章を読むのは全く億劫だ。頼むから知りたいところだけピンポイントに読ませてくれ。ファスト教養万歳!そんな、働いていると本も読めなくなる[1]私たちの嘆きを解決してくれるのがLLMです。文書の中から自分が必要としている文章のみをLLMに抽出してもらえば良い
DGX Sparkと「nanochat」でゼロから丸一日学習させてLLMを自作してみた 🔖 37
nanochatとは OpenAI共同設立者、元テスラディレクターであり。バイブコーディング・コンテキストエンジニアリングといった言葉を生み出したAndrej Karpathy氏が公開したソフトウェアです。 なんと、ChatGPTのような対話可能なLLMを、規模こそ違えど約100
Evaliteによるlocal nativeなLLM evals実行環境 🔖 3
こちらはLayerX AI エージェントブログリレー34日目の記事です。 こんにちは、CEO室でAI Agent開発のPdMをやっているKenta Watanabeです。 先日の記事に続いてeval関連の話題になります。 AIエージェントやLLMを使ったサービス開発をされている方
LLMのキモい算術 - ジョイジョイジョイ 🔖 358
LLMは「226-68=」のようなプロンプトを与えると「158」と計算してくれますが、この計算は我々が想像するよりも奇妙な方法で行っていることを紹介します [Nikankin+ICLR 2025]。 まずは前提条件を確認します。思考の連鎖は使わず、「226-68=」のようなプロン
DGX Sparkと「nanochat」でゼロから丸一日学習させてLLMを自作してみた 🔖 37
nanochatとはOpenAI共同設立者、元テスラディレクターであり。バイブコーディング・コンテキストエンジニアリングといった言葉を生み出したAndrej Karpathy氏が公開したソフトウェアです。https://github.com/karpathy/nanochat
統一的プロンプトの終焉:もはやllmモデルに互換性はありません 🔖 247
統一的プロンプトの終焉:もはやllmモデルに互換性はありませんWhy LLM models are no longer interchangeableの意訳です。 開発者やプロダクトビルダーにとって、この数年間はLLMがアプリケーション開発を導いてきました。プロダクトを改善したい
プレイブックに基づく契約書レビューにおけるLLMの性能検証 🔖 1
こんにちは、株式会社LegalOn TechnologiesのAIセクションチームです。LegalOn Technologiesでは、日本の法務分野における自然言語処理(NLP)のための包括的なベンチマークデータセット、LegalRikaiを作成しています。LegalRikaiは
日本語で使いやすい。おすすめのローカルLLM3選 🔖 187
日本語で使いやすい。おすすめのローカルLLM3選2025.10.25 21:008,373 かみやまたくみ ローカルLLMとは、ざっくり言ってしまうと「無料で公開されている大規模言語モデル」のことで、自分のPCにダウンロード・専用ソフトで読み込んで使います。ChatGPTのような
ここが変だよLLMコーディングエージェント(Codex) 🔖 103
はじめに 最近LLMコーディングエージェント(主にCodex)tipsを書きましたが、やっぱりLLMコーディングエージェントは、頼りにしすぎてはいけない、重要なところは自分で書こうという思いが強まってきています。 どういうとこが変なのかをまとめることで、なぜそう感じるのかを説明し
ここが変だよLLMコーディングエージェント(Codex) 🔖 103
はじめに最近LLMコーディングエージェント(主にCodex)tipsを書きましたが、やっぱりLLMコーディングエージェントは頼りにしすぎてはいけない、重要なところは自分で書こうという思いが強まってきています。どういうとこが変なのかをまとめることで、なぜそう感じるのかを説明した
LLMの責務を最小化する設計 — Claude Codeの中身は50代のベテランエンジニアかもしれない件 🔖 6
TL;DR本記事は、著者自身の振り返りとClaude Codeの分析を通して得た気づきを共有するものです。要点は下記です:Deep Learning時代のEnd-to-End学習の成功体験が、汎用LLM時代では逆に足かせになっているのではないか汎用性が高すぎるLLMには、
LLM回答精度検証でテストデータやテストケースケースをAIに作ってもらう - $shibayu36->blog; 🔖 31
RAGでのデータ整形(改行・インデント)がLLMの回答精度に与える影響を検証したでは、ダミーのテストデータやテストケースを色々作っている。実はこのデータはAIと壁打ちしながら作ったので、やり方を共有する。 ダミーのテストデータを作る まずslack-explorer-mcpのメッ
真の無料ChatGPT。ローカルLLM「gpt-oss-20b」の動かし方を徹底解説 🔖 243
真の無料ChatGPT。ローカルLLM「gpt-oss-20b」の動かし方を徹底解説2025.10.19 08:00 かみやまたくみ 2025年8月にOpenAIが公開したオープンウェイト言語モデル(≒ローカルLLM)「gpt-oss-20b」。優秀で利用価値が高いAIモデルのひ
Ryzen AI Max+ 395 で LLM 推論速度を比較 🔖 32
はじめに AMD Ryzen AI Max+ 395 を搭載した EVO-X2 で、gpt-oss:20b を CPU/GPU/NPU で動作させて処理速度を比較します。 測定環境 プロセッサ: AMD Ryzen AI Max+ 395(16コア) OS: Windows 11
RAGでのデータ整形(改行・インデント)がLLMの回答精度に与える影響を検証した - $shibayu36->blog; 🔖 121
slack-explorer-mcpでは、該当メッセージのpermalink URLをレスポンスで返さずに、利用側のAI Agentで組み立ててもらっている。なぜなら、permalinkをメッセージごとに返してしまうとトークン消費量が非常に多くなってしまうからだ。permalin
Ryzen AI Max+ 395 で LLM 推論速度を比較 🔖 32
はじめにAMD Ryzen AI Max+ 395 を搭載した EVO-X2 で、gpt-oss:20b を CPU/GPU/NPU で動作させて処理速度を比較します。!本記事は Claude Code の生成結果をベースに編集しました。 測定環境プロセッサ:
実サービスへの搭載に向けたLLM AgentとMeta Agentの研究開発 🔖 20
はじめに こんにちは、ELYZA Labチームの佐藤 (@shoetsu_sato)です。最近のLabチームの取り組みの1つとして行ってきたLLMエージェント開発の概要とELYZAにおける研究開発の内容について紹介します。 大規模言語モデル(LLM)は単なる対話システムを超えて「
第883回 Minisforum AI X1 PROでLLMを高速に動作させる | gihyo.jp 🔖 41
今回はベアボーンのMinisforum AI X1 PROにUbuntu 24.04.3をインストールし、さらにROCm 6.4.4とllama.cppを組み合わせてLLMを高速に動作させます。 ミニPCでLLM 筆者はこれまで、主にディスクリートGPU(グラフィックボード、以下
「LLM搭載プロダクトの品質保証の模索と学び」の発表まとめと補足 🔖 1
こんにちは!レバレッジ推進ユニットでQAエンジニアをやっているark265です。今回はQA Test Talk Vol.5で同じユニットのgonkmが発表した「LLM搭載プロダクトの品質保証の模索と学び」の発表内容のまとめと内容の補足を書いていこうと思います。 発表資料 レバレッ
実サービスへの搭載に向けたLLM AgentとMeta Agentの研究開発 🔖 20
はじめにこんにちは、ELYZA Labチームの佐藤 (@shoetsu_sato)です。最近のLabチームの取り組みの1つとして行ってきたLLMエージェント開発の概要とELYZAにおける研究開発の内容について紹介します。大規模言語モデル(LLM)は単なる対話システムを超えて「
LLMのコーディングエージェントを効率よく使うために 🔖 58
前提 私が現在使っているLLMコーディングエージェントは下記です。 Codex(proプラン $200) Cursor(proプラン $20) Gemini(workspace Business) 1年前にclineを使いはじめ、今年の春ごろにmaxプランでClaude Code
Huawei、LLMの精度を保持したまま最大70%メモリ削減できる新手法を発表──コンシューマーGPUでの高精度生成AI実行も視野に | Ledge.ai 🔖 85
Top > 学術&研究 > Huawei、LLMの精度を保持したまま最大70%メモリ削減できる新手法を発表──コンシューマーGPUでの高精度生成AI実行も視野に
LLM×強化学習の新しいパラダイム: Agentic RLの研究紹介 🔖 41
はじめに 本記事では、LLM研究で注目を集めるエージェント型強化学習(Agentic Reinforcement Learning、Agentic RL)のサーベイ論文 「The Landscape of Agentic Reinforcement Learning for LL
ライオン、独自LLMを内製へ 社内の“暗黙知”を学習、AWSが協力 🔖 53
生活用品大手のライオンは10月8日、自社の研究開発データで追加学習した独自の大規模言語モデル(LLM)の開発に着手したと発表した。アマゾンウェブサービスジャパンの協力を受けながら内製する。 自社の長年の経験から培われた知見や暗黙知をLLMに反映。過去の知見を踏まえた具体的なアドバ
google/LangExtract解剖- LLMで抽出した項目の文書内位置特定ロジックを深堀る 🔖 3
!本稿は2025/10/04時点のLangExtractのソースコードを元に記述しています。 google/LangExtractとはhttps://github.com/google/langextractLangExtractは2025年7月にGoogleが発表し
google/LangExtract解剖- LLMで抽出した項目の文書内位置特定ロジックを深堀る 🔖 3
!本稿は2025/10/04時点のLangExtractのソースコードを元に記述しています。 google/LangExtractとはhttps://github.com/google/langextractLangExtractは2025年7月にGoogleが発表し
はじめに タイトルは聞きなれないかもしれないが、「DSPyは、宣言型自己改善型Python(Declarative Self-improving Python)の略」とのことであるのでこのようにした。 実際、触ってみて、なるほど確かに、と思う部分があったので「宣言的」の部分に着目
2022年末のOpenAI GPT公開以降、LLMをソフトウェアに組み込む流れが広がる中で、2023年6月のFunction callingの登場は画期的でした。これは出力形式をJSONで定義し、LLMの応答を構造化できる仕組みで、現在はStructured Outputとして発
M5Stack LLM8850 モジュールを Raspberry Pi 5 で動かしてみた(LLM編) 🔖 4
Maker Faire Tokyo 2025 の スイッチサイエンス さんのブースで、QLK(急に LLM8850モジュールが 来たので)M5Stack LLM8850 についてM5Stack LLM8850 は、AXERA社 の AX8850 チップを搭載した...
“今いちばん使うAI”は国産ローカルLLM。「PLaMo翻訳」で言語の壁が粉々に 🔖 348
“今いちばん使うAI”は国産ローカルLLM。「PLaMo翻訳」で言語の壁が粉々に2025.10.03 13:00 かみやまたくみ 最優のAIのひとつだと思います。 英語から日本語への翻訳に特化したローカルLLM「PLaMo翻訳(plamo-2-translate)」。バケモノじみ
思考過程のキャッシュでLLMの推論コストを最大60%抑える 🔖 1
導入こんにちは、株式会社ナレッジセンスの須藤英寿です。今回は、推論過程をキャッシュし利用することで、思考リソースを大幅に減らす手法RoTについて紹介します。https://arxiv.org/pdf/2509.21743 サマリーLLMはReasoningという、反
LLM のアテンションと外挿 - ジョイジョイジョイ 🔖 181
LLM の注意機構には色んな機能があることが分かっています。注意機構を分析することで、なぜ LLM は文脈内学習や思考の連鎖に成功し、ひいてはなぜ LLM が外挿に成功することがあるのかについての理解が得られます。本稿ではさまざまな種類の注意機構を観察することでこの問題をひも解き
こんにちは。 先日、Azure-Samples 上に infra-support-copilot というレポジトリを公開しました。 今回は、このレポジトリで実装しているツールについて解説をしていきます (2025 / 9 / 26 現在時点の内容です) 。 1. はじめに - 課
【書評】 実践LLMアプリケーション開発 ―プロトタイプを脱却し、実用的な実装に迫るための包括的な手引き|s-miyawaki 🔖 76
こちらの書籍ですが、ありがたいことに監訳の金本さん(@kkatsuyoshi)からご献本いただきました!金本さんとは『AI王〜クイズAI日本一決定戦』というイベントでお世話になったことがあり、金本さんが参加者、私が運営委員という感じの関係です。 AI王 は ChatGPT が登場
ローカルLLMを使ってRAGシステムを組み最新の論文を追いやすくする試み 🔖 52
arXivには1日あたり全体では800件ほどの論文が投稿されます。Quantum Physicsカテゴリだけでも50~100件ほどです。これだけの量を自力で追うのは現実的ではないでしょう。そこで、投稿論文をLLMで要約してRAGのナレッジベースに蓄積し、全体の動向を把握しやすくす
世界初!日本企業がGPUを不要とする生成AI (LLM) の開発に成功。/2025年10月10日の都内イベントで先行発表 🔖 67
世界初!日本企業がGPUを不要とする生成AI (LLM) の開発に成功。/2025年10月10日の都内イベントで先行発表IYP社は、GPUを必要とせず従来型LLMと同様に動作する、ビジネスに最も適したエージェントAI/SLMの開発に成功しました※1。この成果は、10月10日のNe
LLMを駆使したSlackbotによる例外アラート調査・分析の自動化 - ZOZO TECH BLOG 🔖 64
はじめに こんにちは、ZOZOMO部OMOブロックの宮澤です。普段は「ZOZOMO」のブランド実店舗の在庫確認・在庫取り置きという機能の開発と保守を担当しています。 本記事では、LLMを駆使したSlackbotを活用して、アプリケーション例外のアラート調査・分析を自動化した試みに
ローカルでのLLM実行を支援する「Docker Model Runner」一般提供開始 🔖 25
4月のベータ版公開以降、短期間で機能が急速に進化し、信頼できる成熟度と安定性に達し、正式リリースに至った。 DMRは、Docker CLIコマンドとツールを使用して、Docker Hub(OCI準拠)やHuggingFaceから直接LLMをプル・実行・配布できる。Docker D
LLMを駆使したSlackbotによる例外アラート調査・分析の自動化 🔖 64
はじめに こんにちは、ZOZOMO部OMOブロックの宮澤です。普段は「ZOZOMO」のブランド実店舗の在庫確認・在庫取り置きという機能の開発と保守を担当しています。 本記事では、LLMを駆使したSlackbotを活用して、アプリケーション例外のアラート調査・分析を自動化した試みに
LLMをゲームプレイで評価するLMGame-Benchを紹介 🔖 2
こんにちは、松尾研究所の奥村です。LLMの性能向上により、従来のNLPタスクだけではなく、より複雑な推論が求められるタスクでの活用が注目されています。特にゲームプレイは、画面の理解や記憶、複雑な意思決定などが要求されるため、LLMの能力を総合的に評価する有効な手段として期待され
LLMへの指示が得意な人は脳の働きが違う──「プロンプト力」がfMRI研究で初めて科学的に確認される | Ledge.ai 🔖 139
サインインした状態で「いいね」を押すと、マイページの 「いいね履歴」に一覧として保存されていくので、 再度読みたくなった時や、あとでじっくり読みたいときに便利です。
はじめに こんにちは、レバレジーズテクノロジー戦略室でAIエンジニアをしている安藤です。 今回は最近社内で急速に導入が進んでいるLLMの精度評価の仕組みの構築について記載します。 現状、この分野は知見も少ないので我々も手探り状態ではありますが何か参考になれば嬉しいです。 背景 &
様々なコンテキスト長における LLM の Self-Attention の Query と Key の分析 🔖 3
ABEJAでデータサイエンティストをしている藤原です。 今回は LLM のロングコンテキスト言語処理(Long-context language modeling; LCLM)に関連するブログになります。近年の LLM ではオープン・クローズド問わずより長大なコンテキストを正確に