はてぶ・Qiita・Zennのトレンド記事を紹介
論文タイトル:Generative AI for Cel-Animation: A Surveyリンク:https://arxiv.org/abs/2501.06250※ 本ページの図は特筆がない限り全て本論文から引用しています。 はじめに2025/7/28、Gene
タイトル:Packing Input Frame Context in Next-Frame Prediction Models for Video GenerationArXivリンク:https://arxiv.org/pdf/2504.12626※ 本ページの図は特筆が
タイトル:PharmAgents: Building a Virtual Pharma with Large Language Model Agentshttps://arxiv.org/pdf/2503.22164※ 本ページの図は特筆がない限り全て本論文から引用しています
タイトル:PharmaGPT: Domain-Specific Large Language Models for Bio-Pharmaceutical and Chemistryhttps://arxiv.org/abs/2406.18045執筆者:EQUESエンジニア 武
近年、大規模言語モデル(LLM)に対比されるする形で小規模言語モデル(Small language model, SLM)が注目を浴びつつあります。今回はSLMを自作するためのアプローチを複数紹介します。なお、本記事では作成したモデルの評価実験は扱いません。 SLMとは具体
本記事では、IgakuQA(Kasai et al., 2023)をカスタマイズし、ローカルLLMに対応したコードを作成・公開した件について説明をします。早速リポジトリを確認したい方は以下リンクをご確認ください。https://github.com/EQUES-Inc/Iga