Offene Gemma-Modelle
Eine Familie leichter, hochmoderner offener Modelle, die auf derselben Forschung und Technologie basieren, die auch für die Erstellung der Gemini-Modelle verwendet wurde
Jetzt neu:
Gemma 2
Gemma 2 wurde für eine überragende Leistung und unübertroffene Effizienz neu entwickelt und optimiert für blitzschnelle Inferenzen auf verschiedener Hardware.
5 Aufnahme
MMLU
Der MMLU-Benchmark ist ein Test, mit dem das Wissen und die Problemlösungsfähigkeiten gemessen werden, die Large Language Models während des Vortrainings erwerben.
25 Aufnahme
ARC-C
Der ARC-c-Benchmark ist eine spezifischere Teilmenge des ARC-e-Datasets, die nur Fragen enthält, die von gängigen Algorithmen („Retrieval-Base“ und „Co-Vorkommen“) falsch beantwortet wurden.
5-Shot
GSM8K
Mit dem GSM8K-Benchmark wird die Fähigkeit eines Sprachmodells getestet, Mathematikaufgaben auf der Grundschulebene zu lösen, die häufig mehrere Schritte der Argumentation erfordern.
3-5-Shot
AGIEval
Der AGIEval-Benchmark testet die allgemeine Intelligenz eines Sprachmodells anhand von Fragen, die aus realen Prüfungen zur Bewertung der menschlichen geistigen Fähigkeiten abgeleitet wurden.
3-Shot, CoT
BBH
Der BBH-Benchmark (BIG-Bench Hard) konzentriert sich auf Aufgaben, die über die Fähigkeiten der aktuellen Sprachmodelle hinausgehen, und testet ihre Grenzen in verschiedenen Bereichen der Argumentation und des Verständnisses.
3-Shot, F1
DROP
DROP ist ein Leseverständnis-Benchmark, der diskretes Denken über Absätze hinweg erfordert.
5-Shot
Winogrande
Mit dem Winogrande-Benchmark wird die Fähigkeit eines Sprachmodells getestet, mehrdeutige Lückenfüllungsaufgaben mit binären Optionen zu lösen, die allgemeines gesundes Menschenverstand erfordern.
10-shot
HellaSwag
Der HellaSwag-Benchmark fordert die Fähigkeit eines Sprachmodells, gesunde Schlussfolgerungen zu verstehen und anzuwenden, indem das logische Ende einer Geschichte ausgewählt wird.
4-Shot
MATH
MATH prüft die Fähigkeit eines Sprachmodells, komplexe mathematische Textaufgaben zu lösen, die Schlussfolgerungen, mehrstufige Problemlösungen und das Verständnis mathematischer Konzepte erfordern.
0-Shot
ARC-e
Der ARC-e-Benchmark testet die Fähigkeiten eines Sprachmodells bei der Beantwortung fortgeschrittener Fragen mit echten Multiple-Choice-Fragen aus der Grundschule.
0-shot
PIQA
Der PIQA-Benchmark testet die Fähigkeit eines Language Models, physikalisches Allgemeinwissen zu verstehen und anzuwenden, indem es Fragen zu alltäglichen physischen Interaktionen beantwortet.
0-shot
SIQA
Der SIQA-Benchmark bewertet das Verständnis eines Sprachmodells für soziale Interaktionen und sozialen gesunden Menschenverstand, indem Fragen zu den Handlungen von Menschen und ihren sozialen Auswirkungen gestellt werden.
0-Shot
Boolq
Mit dem BoolQ-Benchmark wird die Fähigkeit eines Sprachmodells getestet, natürlich vorkommende Ja/Nein-Fragen zu beantworten. So wird die Fähigkeit des Modells getestet, in der Praxis Aufgaben zur natürlichen Sprachinference auszuführen.
5 Aufnahme
TriviaQA
Der TriviaQA-Benchmark testet das Leseverständnis mithilfe von Dreifach-Fragen/Antworten/Beweisen.
5-Shot
NQ
Der NQ-Benchmark (Natürliche Fragen) testet die Fähigkeit eines Sprachmodells, Antworten in ganzen Wikipedia-Artikeln zu finden und zu verstehen, und simuliert dabei reale Szenarien für die Beantwortung von Fragen.
pass@1
HumanEval
Der HumanEval-Benchmark testet die Codegenerierungsfähigkeiten eines Sprachmodells, indem er bewertet, ob seine Lösungen funktionale Unit-Tests für Programmierprobleme bestehen.
3-Shot
MBPP
Der MBPP-Benchmark testet die Fähigkeit eines Sprachmodells, grundlegende Python-Programmierprobleme zu lösen, und konzentriert sich dabei auf grundlegende Programmierkonzepte und die Verwendung von Standardbibliotheken.
100 %
75 %
50 %
25 %
0 %
100 %
75 %
50 %
25 %
0 %
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7B
LLAMA 3
8 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27B
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7B
LLAMA 3
8 Mrd.
Gemma 1
7B
Gemma 2
9 Mrd.
Gemma 2
27B
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7B
LLAMA 3
8 Mrd.
Gemma 1
7B
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7B
LLAMA 3
8 Mrd.
Gemma 1
7B
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
LLAMA 3
8 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7B
LLAMA 3
8 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27B
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7B
LLAMA 3
8 Mrd.
Gemma 1
7B
Gemma 2
9 Mrd.
Gemma 2
27B
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7B
LLAMA 3
8 Mrd.
Gemma 1
7B
Gemma 2
9 Mrd.
Gemma 2
27B
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7B
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27B
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7B
Gemma 1
7B
Gemma 2
9 Mrd.
Gemma 2
27B
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
Gemma 1
7B
Gemma 2
9 Mrd.
Gemma 2
27B
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7B
Gemma 1
7B
Gemma 2
9 Mrd.
Gemma 2
27B
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7B
Gemma 1
7B
Gemma 2
9 Mrd.
Gemma 2
27B
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7B
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27B
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
Gemma 1
7B
Gemma 2
9 Mrd.
Gemma 2
27B
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7B
Gemma 1
7B
Gemma 2
9 Mrd.
Gemma 2
27B
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7B
Gemma 1
7B
Gemma 2
9 Mrd.
Gemma 2
27B
*Dies sind die Benchmarks für die vorab trainierten Modelle. Details zur Leistung mit anderen Methoden finden Sie im technischen Bericht.
Gemma-Modellfamilie
Tools kennenlernen
Kurzanleitungen für Entwickler
Kurzanleitungen für Partner
Gemma Cookbook
Hier finden Sie eine Sammlung praktischer Rezepte und Beispiele, die die Leistungsfähigkeit und Vielseitigkeit von Gemma für Aufgaben wie Bildunterschriften mit PaliGemma, Codegenerierung mit CodeGemma und das Erstellen von Chatbots mit optimierten Gemma-Modellen zeigen.
Verantwortungsbewusste KI-Entwicklung
Verantwortung durch Design
Sie sind auf sorgfältig ausgewählten Daten vortrainiert und zusätzlich auf Sicherheit optimiert. So können Sie mit Gemma-Modellen eine sichere und verantwortungsvolle KI entwickeln.
Solide und transparente Bewertung
Umfassende Bewertungen und transparente Berichte zeigen die Modellbeschränkungen auf, damit für jeden Anwendungsfall ein verantwortungsbewusster Ansatz gewählt werden kann.
Für eine verantwortungsbewusste Entwicklung
Das Toolkit für verantwortungsbewusste generative KI unterstützt Entwickler dabei, Best Practices für die verantwortungsbewusste Anwendung von KI zu entwickeln und umzusetzen.
Für Google Cloud optimiert
Mit Gemma-Modellen in Google Cloud können Sie das Modell mit den vollständig verwalteten Tools von Vertex AI oder der selbst verwalteten Option von GKE an Ihre spezifischen Anforderungen anpassen und in einer flexiblen und kosteneffizienten KI-optimierten Infrastruktur bereitstellen.
Beschleunigung der akademischen Forschung mit Google Cloud-Guthaben
Die Bewerbungsfrist für das Programm für akademische Forschung ist vor Kurzem abgelaufen. Wir haben Google Cloud-Guthaben an Forscher vergeben, die mithilfe von Gemma-Modellen die Grenzen der Wissenschaft erweitern. Wir sind gespannt auf die bahnbrechende Forschung, die sich aus dieser Initiative ergibt.
Community beitreten
In der Community für ML-Modelle können Sie sich mit anderen austauschen, Neues entdecken und Ihr Wissen teilen.