Wir stellen vor: Jacob 24b, das Flagschiff-Sprachmodell im Stil von "Leichter Sprache"; neu, vielseitig und mehr als ausreichend fรผr alles, was unsere Zielgruppe benรถtigt.
Es basiert auf Mistral Small 3.2 und wurde mit Hilfe von LoRA-Fine-Tuning auf unserem synthetischen Datensatz von Gesprรคchen trainiert.
Das Modell...
- hat 24 Milliarden Parameter (davon ~92 Mio. als LoRA)
- ist in 16-Bit-Prรคzision verfรผgbar
- kann sowohl Text als auch Bilder verarbeiten (Multimodal)
- kann Tools aufrufen (Tool-Use), um externe Aufgaben zu erledigen
- nutzt das Mistral-Chat-Template
- ist optimiert fรผr die Erzeugung von leicht verstรคndlichem Text im Stil von "Leichter Sprache"
Aufbau des Repositories
Dieses Repository enthรคlt Jacob-24b in zwei verschiedenen Formaten:
- als merged 16-bit-Modell
- als puren LoRA-Adapter
Trainingsdetails
Trainiert wurde das Modell fรผr ca. 40 Minuten auf einer einzelnen NVIDIA RTX PRO 6000-GPU mit 96 GB VRAM.
Der genutzte Datensatz ist eine interne, synthetische Sammlung an Konversationen mit nach Qualitรคt gefilterten und der Leichten Sprache stark angenรคherten Texten. Es umfasst รผber 1k+ sich der Leichten Sprache annรคhernde Gesprรคche.
- Downloads last month
- 343
Hardware compatibility
Log In
to view the estimation
Model tree for jacob-ml/jacob-24b
Base model
mistralai/Mistral-Small-3.1-24B-Base-2503