🚀 LLaVA-1.5 is out! Achieving SoTA on 11 benchmarks, with simple mods to original LLaVA! Utilizes merely 1.2M public data, trains in ~1 day on a single 8-A100 node, and surpasses methods that use billion-scale data. 🔗https://t.co/y0kG0WZBVa 🧵1/5 pic.twitter.com/kMz0LTk63R — Haotian Liu (@imhaotian) October 6, 2023 LLaVA-1.5は、今まで公開されているV&Lモデルの中で、初めて以下のスクリーンショットからそれぞれのキャラの順位を正しく答えることができました。 「ウマ娘」
![論文紹介: LLaVA-1.5 (Improved Baselines with Visual Instruction Tuning)|Sakusakumura](https://cdn-ak-scissors.b.st-hatena.com/image/square/5fac63d1f136f01fec34efc914d79bfa6b8a392f/height=288;version=1;width=512/https%3A%2F%2Ffanyv88.com%3A443%2Fhttps%2Fassets.st-note.com%2Fproduction%2Fuploads%2Fimages%2F118264822%2Frectangle_large_type_2_f8ffb2ea23295cde882c6cf6c07d1200.png%3Ffit%3Dbounds%26quality%3D85%26width%3D1280)