COLING2025の参加報告

こんにちは、SB Intuitions株式会社の高山隼矢, 大萩雅也です。1月19-24日にアラブ首長国連邦(UAE)のアブダビで開催された、自然言語処理における代表的な国際会議の一つであるCOLING 2025にて発表を行いました。 本記事ではCOLINGに参加して感じたことや気…

日本語 LLM の安全性境界テスト

R&D 本部 Responsible AI チームの黒澤です。Responsible AI チームでは、チーム名にある通り「責任のある AI」を目指し、特に大規模言語モデル (LLM) の倫理観や安全性を向上させるための取り組みを行なっています。 本記事では、言語処理学会第31回年次大…

Sarashina2-Vision-8B, 14Bの性能評価

概要 SB Intuitionsでは、日本語や日本の文化・慣習に強い大規模視覚言語モデル(Vision-Language Model; VLM)の開発を進めており、2025年3月にオープンな日本語向けVLMであるSarashina2-Vision-8B, 14Bをリリースしました。 本記事ではVLM評価チームが行っ…

Sarashina2-Vision: 日本語特化の大規模視覚言語モデルの公開

概要 SB Intuitionsでは、日本語や日本の文化・慣習に強い大規模視覚言語モデル(Vision-Language Model; VLM)の開発を進めており、2025年3月に弊社の日本語大規模言語モデル(Large Language Model; LLM)のSarashina2をベースに開発したVLMであるSarashin…

バックトラッキングを活用したマルチエージェントシステムによる複数制約充足プランニング

はじめに こんにちは、東北大学修士2年の守屋彰二と申します。この度、SB Intuitions株式会社 R&D本部 Foundation dev部 Dialogチームにて、インターンシップに参加させていただきました。 本記事では、インターン中に取り組んだ「マルチエージェントによる…

Sarashina2.2-Instruct:コンパクトかつ性能の高い日本語Instructモデル

概要 Tuningチームの清野舜、小林滉河、馬越雅人、入亮介です。 SB Intuitionsでは日本語に特化した大規模言語モデル(Large Language Model; LLM)の開発に取り組んでおり、これまでにSarashina1、Sarashina2シリーズや国内最大規模のMoEモデルを公開してい…

Sarashina2.2:数学・コーディングタスクの性能を向上させた日本語言語モデル

概要 Pretrainingチームの高瀬翔と李凌寒です。 弊チームでは日本語能力に主眼を置いた大規模言語モデルの構築に取り組んでおり、Sarashina2-70BやSarashina2.1-1Bのように、いくつか事前学習モデルも公開してきました。 これまで公開したモデルは日本の知識…