1
/
5

博報堂テクノロジーズ、日本語特化の視覚と言語を組み合わせた事前学習モデルを開発―画像検索において、英語モデルを上回る検索精度を実現―

博報堂テクノロジーズ、日本語特化の視覚と言語を組み合わせた事前学習モデルを開発

株式会社博報堂テクノロジーズ(東京都港区、代表者:米谷修)は、日本語に特化した画像とテキストの理解を深めるための視覚言語事前学習モデルを開発し、このたびHugging Face上で無償公開(ただし非商用に限る)したことをお知らせします。このモデルは、画像検索、テキストからの画像生成、画像のタグ付け、画像に対する質問応答など、多岐にわたる応用が可能です。


【研究・開発の背景と貢献】

多くの視覚言語事前学習(Vision-Language Pre-training; VLP)技術は、英語中心の開発により、日本語データへの対応が不十分でした。博報堂テクノロジーズは、画像エンコーダの改良と訓練データ量の増加、言語エンコーダの能力強化を通じ、日本語特化VLPモデルを開発。このモデルにより、例えば「桜の花が満開の公園」など具体的なシーンを日本語で検索した際、関連度の高い画像を正確に見つけ出すことが可能になります。


【今後の展望】

今回のモデル公開により、研究コミュニティやAI技術の開発者に対し、より高度な日本語の視覚言語理解の基盤を提供します。博報堂テクノロジーズは、今後も継続的な技術革新を通じて、研究コミュニティへの貢献を強化していく予定です。


【詳細情報】

開発したVLPモデルの技術的詳細や応用例については、博報堂テクノロジーズの公式Hugging Faceページを通じて提供します。興味のある研究者や開発者は、以下のリンクからアクセスし、モデルの使用や研究への応用が可能です。


Hugging Face:

Japanese CLIP ViT-H/14 (Base)

Japanese CLIP ViT-H/14 (Deeper)

Japanese CLIP ViT-H/14 (Wider)*
* 検索精度最高のモデル、推奨モデル

【関連情報】

・言語処理学会第30回年次大会(NLP2024)
・登壇テーマ:日本語特化の視覚と言語を組み合わせた事前学習モデルの開発 Developing Vision-Language Pre-Trained Models for Japanese
・登壇者:王直, 細野健人, 石塚湖太, 奥田悠太, 川上孝介
・所属:博報堂テクノロジーズ プロダクト開発センター


【NVIDIA GTC 2024】

・登壇テーマ:日本語特化の視覚と言語を組み合わせた事前学習(VLP)モデルの開発
・登壇者:王直
・所属:博報堂テクノロジーズ プロダクト開発センター


・開発部署:プロダクト開発センター

博報堂テクノロジーズのプロダクト開発センターは、AI技術の研究開発をリードし、エンジン部分からアプリケーションに至るまでの開発をフルスクラッチで手がけています。このセンターは、広告業界に限らず、多様な分野に革新的なソリューションを提供することを目指しています。


株式会社博報堂テクノロジーズでは一緒に働く仲間を募集しています
今週のランキング
株式会社博報堂テクノロジーズからお誘い
この話題に共感したら、メンバーと話してみませんか?