In diesem Dokument wird beschrieben, wie Sie den Vertex AI-Prompt-Optimizer verwenden, um die Prompt-Leistung automatisch zu optimieren, indem Sie die Systemanweisungen für eine Reihe von Prompts verbessern.
Mit dem Vertex AI-Prompt-Optimierer können Sie Ihre Prompts schnell und in großem Umfang verbessern, ohne Systemanweisungen oder einzelne Prompts manuell neu zu schreiben. Das ist besonders nützlich, wenn Sie Systemanweisungen und Prompts, die für ein Modell geschrieben wurden, mit einem anderen Modell verwenden möchten.
Der Vertex AI-Prompt-Optimierer hilft dabei, Prompts zu verbessern, indem die Antwort des Modells auf Beispiel-Prompts anhand der angegebenen Bewertungsmesswerte bewertet wird. Um den Vertex AI Prompt Optimizer zu verwenden, benötigen Sie Folgendes:
- Eine Reihe von Beispiel-Prompts
- Systemanweisungen, die von allen Beispiel-Prompts verwendet werden
- Eine Prompt-Vorlage, die auf Ihre Beispiel-Prompts verweist
Unterstützte Modelle
Der Prompt-Optimierer unterstützt alle Gemini-Modelle.
Beispiel für die Prompt-Optimierung
Wenn Sie beispielsweise Systemanweisungen für eine Reihe von Prompts optimieren möchten, die auf Kontextinformationen verweisen, um Fragen zum Kochen zu beantworten, können Sie den Vertex AI-Prompt-Optimierer verwenden. Um diese Aufgabe zu erledigen, bereiten Sie die Eingaben wie folgt vor:
Systemanweisungen
You are a professional chef. Your goal is teaching how to cook healthy cooking recipes to your apprentice. Given a question from your apprentice and some context, provide the correct answer to the question. Use the context to return a single and correct answer with some explanation.
Prompt-Vorlage
Question: {input_question} Facts: {input_context}
Beispiel-Prompts
input_question |
input_context |
---|---|
Welche Techniken gibt es, um rotes Fleisch und Schweinefleisch so zuzubereiten, dass Geschmack und Zartheit maximiert und die Bildung ungesunder Verbindungen minimiert werden? | Rind- und Schweinefleisch sollten auf eine Innentemperatur von 63 °C erhitzt werden, um sicher zu sein. Wenn Sie Fleisch in säurehaltigen Zutaten wie Zitronensaft oder Essig marinieren, können Sie es zarter machen, indem Sie zähe Muskelfasern aufbrechen. Bei Kochmethoden mit hoher Hitze wie Grillen und Braten in der Pfanne können köstliche Bräunungs- und Karamellisierungseffekte entstehen. Es ist jedoch wichtig, das Anbrennen zu vermeiden, da dabei schädliche Verbindungen entstehen können. |
Wie kann ich Protein-Shakes auf kreative Weise mehr Geschmack und Nährstoffe verleihen, ohne Zuckerzusatz oder künstliche Inhaltsstoffe zu verwenden? | Wenn du deinem Shake grünes Blattgemüse wie Spinat oder Grünkohl hinzufügst, kannst du den Nährwert steigern, ohne den Geschmack drastisch zu verändern. Wenn Sie ungesüßte Mandelmilch oder Kokoswasser anstelle von normaler Milch verwenden, können Sie dem Shake eine dezente Süße und eine Extraportion gesunde Fette bzw. Elektrolyte verleihen. Wusstest du, dass dein Shake durch zu langes Mixen warm werden kann? Um die Zutaten kühl und frisch zu halten, solltest du den Mixer nur kurz laufen lassen und ihm bei Bedarf eine Pause gönnen. |
Optimierte Systemanweisungen
As a highly skilled chef with a passion for healthy cooking, you love sharing your knowledge with aspiring chefs. Today, a culinary intern approaches you with a question about healthy cooking. Given the intern's question and some facts, provide a clear, concise, and informative answer that will help the intern excel in their culinary journey.
Funktionsweise der Optimierung
Der Vertex AI Prompt Optimizer verwendet die folgenden Parameter:
- Optimierungsmodus: Gibt an, ob der Vertex AI-Prompt-Optimierer die Systemanweisungen optimiert, Beispielprompts auswählt, die den Systemanweisungen als Few-Shot-Beispiele hinzugefügt werden sollen, oder beides.
- Bewertungsmesswerte: Die Messwerte, die der Vertex AI-Prompt-Optimierer verwendet, um die Systemanweisungen zu optimieren und/oder Beispielprompts auszuwählen.
- Zielmodell: Das Google-Modell, für das der Vertex AI Prompt Optimizer die Systemanweisungen optimiert und Beispielprompts auswählt.
Wenn Sie den Vertex AI-Prompt-Optimierer ausführen, werden die Systemanweisungen basierend auf Ihren Auswahlmöglichkeiten optimiert. Dazu wird ein benutzerdefinierter Trainingsjob ausgeführt, bei dem Ihre Beispielprompts iterativ ausgewertet und Ihre Systemanweisungen neu geschrieben werden, um die Version zu finden, die die beste Bewertungsnote für das Zielmodell ergibt.
Am Ende des Jobs gibt der Vertex AI-Prompt-Optimierer die optimierten Systemanweisungen mit ihrer Bewertung aus.
Bewertungsmesswerte
Der Vertex AI-Prompt-Optimierer verwendet Bewertungsmesswerte, um Systemanweisungen zu optimieren und Beispielprompts auszuwählen. Sie können die Standardmesswerte für die Bewertung verwenden oder eigene benutzerdefinierte Messwerte definieren.
Sie können mehrere Messwerte gleichzeitig verwenden. Benutzerdefinierte Messwerte können jedoch nur einzeln verwendet werden. Wenn Sie Standard- und benutzerdefinierte Messwerte zusammen verwenden, kann nur einer der Messwerte ein benutzerdefinierter Messwert sein. Die anderen müssen Standardmesswerte sein.
Informationen zum Angeben von Messwerten einzeln oder in Kombination finden Sie unter EVALUATION_METRIC_PARAMETERS auf dem SDK-Tab in Prompt-Vorlage und Systemanweisungen erstellen.
Benutzerdefinierte Bewertungsmesswerte
Benutzerdefinierte Messwerte sind nützlich, wenn Standardmesswerte nicht für Ihre Anwendung geeignet sind. Der Vertex AI Prompt Optimizer unterstützt jeweils nur eine benutzerdefinierte Messwertart.
Informationen zum Erstellen benutzerdefinierter Messwerte
Standard-Bewertungsmesswerte
Der Vertex AI-Prompt-Optimierer unterstützt benutzerdefinierte Bewertungsmesswerte sowie die folgenden Bewertungsmesswerte:
Messwerttyp | Anwendungsfall | Messwert | Beschreibung |
---|---|---|---|
Modellbasiert | Zusammenfassung | summarization_quality |
Beschreibt die Fähigkeit des Modells, Fragen anhand eines als Referenz dienenden Textkörpers zu beantworten. |
Question Answering | question_answering_correctness * |
Beschreibt die Fähigkeit des Modells, eine Frage richtig zu beantworten. | |
question_answering_quality |
Beschreibt die Fähigkeit des Modells, Fragen anhand eines als Referenz dienenden Textkörpers zu beantworten. | ||
Kohärenz | coherence |
Beschreibt die Fähigkeit des Modells, eine kohärente Antwort zu geben, und misst, wie gut der generierte Text logisch aufgebaut ist und Sinn ergibt. | |
Sicherheit | safety |
Gibt das Sicherheitslevel des Modells an, d. h., ob die Antwort unsicheren Text enthält. | |
Sprachkompetenz | fluency |
Beschreibt die Sprachbeherrschung des Modells. | |
Fundierung | groundedness |
Beschreibt die Fähigkeit des Modells, Informationen bereitzustellen oder zu referenzieren, die nur im Eingabetext enthalten sind. | |
Berechnungsbasiert | Toolnutzung und Funktionsaufrufe | tool_call_valid * |
Beschreibt die Fähigkeit des Modells, einen gültigen Tool-Aufruf vorherzusagen. |
tool_name_match * |
Beschreibt die Fähigkeit des Modells, einen Tool-Aufruf mit dem richtigen Tool-Namen vorherzusagen. Nur der erste Tool-Aufruf wird geprüft. | ||
tool_parameter_key_match * |
Beschreibt die Fähigkeit des Modells, einen Tool-Aufruf mit den richtigen Parameternamen vorherzusagen. | ||
tool_parameter_kv_match * |
Beschreibt die Fähigkeit des Modells, einen Tool-Aufruf mit den richtigen Parameternamen und Schlüsselwerten vorherzusagen. | ||
Allgemeine Textgenerierung | bleu * |
Enthält das Ergebnis eines Algorithmus zur Bewertung der Qualität der Vorhersage, die von einer natürlichen Sprache in eine andere natürliche Sprache übersetzt wurde. Die Qualität der Vorhersage wird als Übereinstimmung zwischen einem Vorhersageparameter und dem zugehörigen Referenzparameter betrachtet. | |
exact_match * |
Berechnet, ob ein Vorhersageparameter genau mit einem Referenzparameter übereinstimmt. | ||
rouge_1 * |
Wird verwendet, um den bereitgestellten Vorhersageparameter mit einem Referenzparameter zu vergleichen. | ||
rouge_2 * |
|||
rouge_l * |
|||
rouge_l_sum * |
* Wenn Sie Ihre Prompts mit question_answering_correctness
- oder berechnungsbasierten Auswertungen optimieren möchten, müssen Sie eine der folgenden Aktionen ausführen:
- Fügen Sie Ihrer Promptvorlage eine Variable hinzu, die die Grundwahrheit-Antwort für Ihre Prompts darstellt.
- Wenn Sie keine Grundwahrheit-Antworten für Ihre Prompts haben, die Prompts aber bereits mit einem Google-Modell verwendet und die gewünschten Ergebnisse erzielt haben, können Sie Ihrer Konfiguration den Parameter
source_model
hinzufügen, anstatt Grundwahrheit-Antworten hinzuzufügen. Wenn der Parametersource_model
festgelegt ist, führt Vertex AI Ihre Beispielprompts auf dem Quellmodell aus, um die Grundwahrheit-Antworten für Sie zu generieren.
Hinweise
Bitten Sie Ihren Administrator, dem Compute Engine-Standarddienstkonto die folgenden IAM-Rollen für das Projekt zuzuweisen, damit das Compute Engine-Standarddienstkonto die erforderlichen Berechtigungen zum Optimieren von Prompts hat:
-
Vertex AI-Nutzer (
roles/aiplatform.user
) -
Storage-Objekt-Administrator (
roles/storage.objectAdmin
) -
Artifact Registry-Leser (
roles/artifactregistry.reader
)
Weitere Informationen zum Zuweisen von Rollen finden Sie unter Zugriff auf Projekte, Ordner und Organisationen verwalten.
Ihr Administrator kann dem Compute Engine-Standarddienstkonto möglicherweise auch die erforderlichen Berechtigungen über benutzerdefinierte Rollen oder andere vordefinierte Rollen erteilen.
Prompts optimieren
Sie können Prompts optimieren, indem Sie das Vertex AI-Notebook für den Prompt-Optimierung ausführen oder die Vertex AI API verwenden. Wählen Sie aus, welche Methode Sie zum Ausführen des Vertex AI-Prompt-Optimierers verwenden möchten, und führen Sie dann die Schritte aus, die in den folgenden Abschnitten ausführlich beschrieben werden:
- Vorlage für Prompts und außerdem Systemanweisungen erstellen
- Beispiel-Prompts vorbereiten
- Optional: Benutzerdefinierte Messwerte erstellen
- Konfiguration erstellen
- Prompt-Optimierungsjob ausführen
- Ergebnisse analysieren und iterieren
Vorlage für Prompts und außerdem Systemanweisungen erstellen
Mit Prompt-Vorlagen wird das Format aller Ihrer Prompts über austauschbare Variablen definiert. Wenn Sie eine Prompt-Vorlage zum Optimieren von Prompts verwenden, werden die Variablen durch die Daten im Prompt-Dataset ersetzt.
Variablen in Aufforderungsvorlagen müssen die folgenden Anforderungen erfüllen:
- Variablen müssen in geschweifte Klammern gesetzt sein.
- Variablennamen dürfen keine Leerzeichen enthalten
Variablen, die multimodale Eingaben darstellen, müssen den String
MIME_TYPE
nach der Variablen enthalten:@@@MIME_TYPE
Ersetzen Sie
MIME_TYPE
durch einen Bild-, Video-, Audio- oder Dokument-MIME-Typ, der vom Zielmodell unterstützt wird.
Erstellen Sie eine Promptvorlage und Systemanweisungen mit einer der folgenden Methoden:
Notebook
Wenn Sie den Vertex AI-Prompt-Optimierer über das Notebook ausführen möchten, erstellen Sie Systemanweisungen und eine Prompt-Vorlage. Gehen Sie dazu so vor:
Öffnen Sie in Colab Enterprise das Vertex AI-Notebook für den Prompt-Optimierer.
Führen Sie im Abschnitt Vorlage für Prompts und außerdem Systemanweisungen erstellen die folgenden Schritte aus:
Geben Sie im Feld SYSTEM_INSTRUCTION Ihre Systemanweisungen ein. Beispiel:
Based on the following images and articles respond to the questions.'\n' Be concise, and answer \"I don't know\" if the response cannot be found in the provided articles or images.
Geben Sie im Feld PROMPT_TEMPLATE Ihre Prompt-Vorlage ein. Beispiel:
Article 1:\n\n{article_1}\n\nImage 1:\n\n{image_1} @@@image/jpeg\n\nQuestion: {question}
Wenn Sie Ihre Prompts mit
question_answering_correctness
oder auf Berechnungen basierenden Auswertungen optimieren möchten, müssen Sie einen der folgenden Schritte ausführen:
Fügen Sie der Promptvorlage die Variable
{target}
hinzu, um die Grundwahrheit-Antwort des Prompts darzustellen. Beispiel:Article 1:\n\n{article_1}\n\nImage 1:\n\n{image_1} @@@image/jpeg\n\nQuestion: {question}\n\n Answer: {target}
Wenn Sie keine Grundwahrheit-Antworten für Ihre Prompts haben, die Prompts aber bereits mit einem Google-Modell verwendet und die gewünschten Ergebnisse erzielt haben, können Sie Ihrer Konfiguration den Parameter
source_model
hinzufügen, anstatt Grundwahrheit-Antworten hinzuzufügen. Wenn der Parametersource_model
festgelegt ist, führt der Vertex AI-Prompt-Optimierer Ihre Beispielprompts auf dem Quellmodell aus, um die Grundwahrheit-Antworten für Sie zu generieren.
SDK
Wenn Sie den Vertex AI Prompt Optimizer über das SDK ausführen möchten, ohne das Notebook zu verwenden, erstellen Sie Textdateien für Ihre Promptvorlage und Systemanweisungen. Gehen Sie dazu so vor:
Erstellen Sie eine Textdatei für Ihre Systemanweisungen.
Definieren Sie in der Textdatei Ihre Systemanweisungen an die Textdatei. Beispiel:
Based on the following images and articles respond to the questions.'\n' Be concise, and answer \"I don't know\" if the response cannot be found in the provided articles or images.
Erstellen Sie eine Textdatei für Ihre Prompt-Vorlage.
Definieren Sie in der Textdatei eine Promptvorlage, die eine oder mehrere Variablen enthält. Beispiel:
Article 1:\n\n{article_1}\n\nImage 1:\n\n{image_1} @@@image/jpeg\n\nQuestion: {question}
Wenn Sie Ihre Prompts mit
question_answering_correctness
oder auf Berechnungen basierenden Auswertungen optimieren möchten, müssen Sie einen der folgenden Schritte ausführen:Fügen Sie der Promptvorlage die Variable
{target}
hinzu, um die Grundwahrheit-Antwort des Prompts darzustellen. Beispiel:Article 1:\n\n{article_1}\n\nImage 1:\n\n{image_1} @@@image/jpeg\n\nQuestion: {question}\n\n Answer: {target}
Wenn Sie keine Grundwahrheit-Antworten für Ihre Prompts haben, die Prompts aber bereits mit einem Google-Modell verwendet und die gewünschten Ergebnisse erzielt haben, können Sie Ihrer Konfiguration den Parameter
source_model
hinzufügen, anstatt Grundwahrheit-Antworten hinzuzufügen. Wenn der Parametersource_model
festgelegt ist, führt der Vertex AI-Prompt-Optimierer Ihre Beispielprompts auf dem Quellmodell aus, um die Grundwahrheit-Antworten für Sie zu generieren.
Beispiel-Prompts vorbereiten
Um optimale Ergebnisse mit dem Vertex AI Prompt Optimizer zu erzielen, sollten Sie 50 bis 100 Beispiel-Prompts verwenden.
- Das Tool kann bereits mit nur fünf Beispielprompts effektiv sein.
- Die besten Stichproben enthalten Beispiele, bei denen das Zielmodell eine schlechte Leistung erzielt.
Die Beispiel-Prompts enthalten die Daten, die die Variablen in der Prompt-Vorlage ersetzen. Sie können eine JSONL- oder CSV-Datei verwenden, um Ihre Beispielprompts zu speichern.
JSONL-Datei
- Erstellen Sie eine JSONL-Datei.
Fügen Sie der JSONL-Datei die Prompt-Daten hinzu, die jede Variable ersetzen. Beispiel:
{"article_1": "The marine life …", "image_1": "gs://path_to_image", "Question": "What are some most effective ways to reduce ocean pollution?", "target": "The articles and images don't answer this question."} {"article_1": "During the year …", "image_1": "gs://path_to_image", "Question": "Who was the president in 2023?", "target": "Joe Biden"}
CSV-Datei
- CSV-Datei erstellen
- Fügen Sie in der ersten Zeile die Variablen aus Ihrer Promptvorlage ein.
- Fügen Sie in den folgenden Zeilen die Beispieldaten hinzu, die die einzelnen Variablen ersetzen.
- CSV-Datei in einen Cloud Storage-Bucket hochladen
Optional: Benutzerdefinierte Messwerte erstellen
So erstellen Sie einen benutzerdefinierten Messwert:
Erstellen Sie eine Textdatei mit dem Namen
requirements.txt
.Definieren Sie in der Datei
requirements.txt
die erforderlichen Bibliotheken für die benutzerdefinierte Funktion für den Auswertungs-Messwert. Für alle Funktionen ist das Paketfunctions-framework
erforderlich.Die
requirements.txt
-Datei für einen benutzerdefinierten Messwert, mit dem ROUGE-L berechnet wird, sieht beispielsweise so aus:functions-framework==3.* rouge-score
Erstellen Sie eine Python-Datei mit dem Namen
main.py
.Schreiben Sie in die Datei
main.py
Ihre benutzerdefinierte Bewertungsfunktion. Die Funktion muss Folgendes akzeptieren:- HTTP-POST-Anfragen
- JSON-Eingabe mit
response
, der Ausgabe des LLM, undtarget
, der Ground-Truth-Antwort für den Prompt.
Die
main.py
-Datei für eine benutzerdefinierte Messwertberechnung für ROUGE-L könnte beispielsweise so aussehen:from typing import Any import json import functions_framework from rouge_score import rouge_scorer # Register an HTTP function with the Functions Framework @functions_framework.http def main(request): request_json = request.get_json(silent=True) if not request_json: raise ValueError('Can not find request json.') """Extract 'response' and 'target' from the request payload. 'response' represents the model's response, while 'target' represents the ground truth response.""" response = request_json['response'] reference = request_json['target'] # Compute ROUGE-L F-measure scorer = rouge_scorer.RougeScorer(['rougeL'], use_stemmer=True) scores = scorer.score(reference, response) final_score = scores['rougeL'].fmeasure # Return the custom score in the response return json.dumps({ # The following key is the CUSTOM_METRIC_NAME that you pass to the job 'custom_accuracy': final_score, # The following key is optional 'explanation': 'ROUGE_L F-measure between reference and response', })
Stellen Sie Ihre benutzerdefinierte Bewertungsfunktion als Cloud Run-Funktion bereit, indem Sie den
gcloud functions deploy
-Befehl ausführen:gcloud functions deploy FUNCTION_NAME \ --project PROJECT_ID \ --gen2 \ --memory=2Gb \ --concurrency=6 \ --min-instances 6 \ --region=REGION \ --runtime="python310" \ --source="." \ --entry-point main \ --trigger-http \ --timeout=3600 \ --quiet
Ersetzen Sie Folgendes:
FUNCTION_NAME
: Der Name der benutzerdefinierten Messwert für die Auswertung.PROJECT_ID
: Ihre Projekt-ID.REGION
: die Region, in der Sie die Funktion bereitstellen möchten.
Konfiguration erstellen
In der Vertex AI Prompt Optimizer-Konfiguration werden die Parameter angegeben, die Sie für Ihren Prompt-Optimierungsjob festlegen möchten.
Erstellen Sie eine Konfiguration mit einer der folgenden Optionen:
Notebook
Wenn Sie den Vertex AI-Prompt-Optimierer über das Notebook ausführen möchten, erstellen Sie eine Konfiguration, indem Sie Folgendes tun:
Öffnen Sie in Colab Enterprise das Vertex AI-Notebook für den Prompt-Optimierer.
Führen Sie im Abschnitt Projekteinstellungen konfigurieren die folgenden Schritte aus:
- Geben Sie im Feld PROJECT_ID Ihre Projekt-ID ein.
- Geben Sie im Feld LOCATION den Standort ein, an dem Sie den Vertex AI-Prompt-Optimierer ausführen möchten.
- Geben Sie im Feld OUTPUT_PATH den URI für den Cloud Storage-Bucket ein, in den der Vertex AI-Prompt-Optimierer die optimierten Systemanweisungen und/oder Few-Shot-Beispiele schreiben soll.
Beispiel:
gs://bucket-name/output-path
. - Geben Sie im Feld INPUT_PATH den URI für die Beispielprompts in Ihrem Cloud Storage-Bucket ein. Beispiel:
gs://bucket-name/sample-prompts.jsonl
Führen Sie im Abschnitt Optimierungseinstellungen konfigurieren die folgenden Schritte aus:
- Geben Sie im Feld TARGET_MODEL das Modell ein, für das Sie Prompts optimieren möchten.
- Geben Sie in OPTIMIZATION_MODE den gewünschten Optimierungsmodus ein. Muss
instruction
oderdemonstration
oderinstruction_and_demo
sein. - Geben Sie im Feld EVAL_METRIC einen Bewertungs-Messwert ein, für den Sie Ihre Prompts optimieren möchten.
- Optional: Geben Sie im Feld SOURCE_MODEL das Google-Modell ein, mit dem die Systemanweisungen und Prompts zuvor verwendet wurden. Wenn der Parameter
source_model
festgelegt ist, führt der Vertex AI-Prompt-Optimierer Ihre Beispielprompts auf dem Quellmodell aus, um die Grundwahrheit-Antworten für Sie zu generieren. Das ist für Bewertungsmesswerte erforderlich, für die Grundwahrheit-Antworten erforderlich sind. Wenn Sie Ihre Prompts noch nicht mit einem Google-Modell ausgeführt haben oder Ihre Zielergebnisse nicht erreicht haben, fügen Sie dem Prompt stattdessen Grundwahrheit-Antworten hinzu. Weitere Informationen finden Sie in diesem Dokument im Abschnitt Prompt und Systemanweisungen erstellen.
Optional: Im Abschnitt Erweiterte Optimierungseinstellungen konfigurieren können Sie Ihrer Konfiguration zusätzlich einen der optionalen Parameter hinzufügen.
- Geben Sie im Feld NUM_INST_OPTIMIZATION_STEPS die Anzahl der Iterationen ein, die der Vertex AI-Prompt-Optimierer im Optimierungsmodus für Anleitungen verwendet. Die Laufzeit steigt linear, wenn Sie diesen Wert erhöhen. Muss eine Ganzzahl zwischen
10
und20
sein. Wenn nicht festgelegt, ist der Standardwert10
. - Geben Sie im Feld NUM_TEMPLATES_PER_STEP die Anzahl der Systemanweisungen ein, die der Vertex AI-Prompt-Optimierer generiert und bewertet. Wird mit dem Optimierungsmodus
instruction
undinstruction_and_demo
verwendet. Muss eine Ganzzahl zwischen1
und4
sein. Wenn nicht festgelegt, ist der Standardwert2
. - Geben Sie im Feld NUM_DEMO_OPTIMIZATION_STEPS die Anzahl der Demonstrationen ein, die der Vertex AI-Prompt-Optimierer bewertet.
Wird mit dem Optimierungsmodus
demonstration
undinstruction_and_demo
verwendet. Muss eine Ganzzahl zwischen10
und30
sein. Wenn nicht festgelegt, ist der Standardwert10
. - Geben Sie im Feld NUM_DEMO_PER_PROMPT die Anzahl der Demonstrationen ein, die pro Prompt generiert werden. Muss eine Ganzzahl zwischen
3
und6
sein. Wenn nicht festgelegt, ist der Standardwert3
. - Geben Sie im Feld TARGET_MODEL_QPS die Abfragen pro Sekunde (QPS) ein, die der Vertex AI-Prompt-Optimierer an das Zielmodell sendet.
Die Laufzeit nimmt linear ab, wenn Sie diesen Wert erhöhen. Muss ein Gleitkommazahl sein, der mindestens
3.0
beträgt, aber kleiner als das QPS-Kontingent ist, das Sie für das Zielmodell haben. Wenn nicht festgelegt, ist der Standardwert3.0
. - Geben Sie im Feld SOURCE_MODEL_QPS die Anzahl der Abfragen pro Sekunde (QPS) ein, die der Vertex AI-Prompt-Optimierer an das Quellmodell sendet. Muss ein Gleitkommazahl sein, der mindestens
3.0
, aber kleiner als das Abfragekontingent pro Sekunde für das Quellmodell ist. Wenn nicht festgelegt, ist der Standardwert3.0
. - Geben Sie im Feld EVAL_QPS die Anzahl der Abfragen pro Sekunde (Queries per Second, QPS) ein, die der Vertex AI-Prompt-Optimierer an das Bewertungsmodell
gemini-1.5-pro
sendet.- Bei modellbasierten Messwerten muss es sich um eine Gleitkommazahl handeln, die mindestens
3.0
beträgt, aber kleiner als das Kontingent ist, das Sie fürgemini-1.5-pro
haben. Wenn nicht festgelegt, ist der Standardwert3.0
. - Bei benutzerdefinierten Messwerten muss es sich um eine Gleitkommazahl handeln, die
3.0
oder größer ist. Damit wird die Häufigkeit festgelegt, mit der der Vertex AI-Prompt-Optimierer Ihre Cloud Run-Funktionen mit benutzerdefinierten Messwerten aufruft.
- Bei modellbasierten Messwerten muss es sich um eine Gleitkommazahl handeln, die mindestens
- Wenn Sie mehr als einen Bewertungs-Messwert verwenden möchten, gehen Sie so vor:
- Geben Sie im Feld EVAL_METRIC_1 einen zu verwendenden Evaluierungs-Messwert ein.
- Geben Sie im Feld EVAL_METRIC_1_WEIGHT das Gewichtung ein, das der Vertex AI-Prompt-Optimierer bei der Optimierung verwenden soll.
- Geben Sie im Feld EVAL_METRIC_2 einen zu verwendenden Evaluierungs-Messwert ein.
- Geben Sie im Feld EVAL_METRIC_2_WEIGHT das Gewichtung ein, das der Vertex AI-Prompt-Optimierer bei der Optimierung verwenden soll.
- Geben Sie optional im Feld EVAL_METRIC_3 einen Bewertungs-Messwert ein, den Sie verwenden möchten.
- Geben Sie optional im Feld EVAL_METRIC_3_WEIGHT das Gewichtung ein, das der Vertex AI-Prompt-Optimierer bei der Optimierung verwenden soll.
- Geben Sie im Feld METRIC_AGGREGATION_TYPE das Gewichtung ein, das der Vertex AI-Prompt-Optimierer bei der Optimierung verwenden soll.
- Geben Sie im Feld PLACEHOLDER_TO_VALUE die Informationen ein, die alle Variablen in den Systemanweisungen ersetzen. Informationen, die in diesem Flag enthalten sind, werden nicht vom Vertex AI-Prompt-Optimierer optimiert.
- Geben Sie im Feld RESPONSE_MIME_TYPE den MIME-Antworttyp ein, der vom Zielmodell verwendet wird. Muss
text/plain
oderapplication/json
sein. Wenn nicht festgelegt, ist der Standardwerttext/plain
. - Geben Sie im Feld TARGET_LANGUAGE die Sprache der Systemanweisungen ein. Wenn nicht festgelegt, ist die Standardsprache Englisch.
SDK
Wenn Sie den Vertex AI Prompt Optimizer über das SDK ausführen möchten, erstellen Sie eine JSON-Datei mit den Parametern, die Sie zum Optimieren von Prompts verwenden möchten. Gehen Sie dazu so vor:
Erstellen Sie eine JSON-Datei mit den Parametern, die Sie zum Optimieren Ihrer Prompts verwenden möchten. Für jede Konfigurationsdatei sind die folgenden Parameter erforderlich:
{ "project": "PROJECT_ID", "system_instruction_path": "SYSTEM_INSTRUCTION_PATH", "prompt_template_path": "PROMPT_TEMPLATE_PATH", "target_model": "TARGET_MODEL", EVALUATION_METRIC_PARAMETERS, "optimization_mode": "OPTIMIZATION_MODE", "input_data_path": "SAMPLE_PROMPT_URI", "output_path": "OUTPUT_URI" }
Ersetzen Sie Folgendes:
PROJECT_ID
: Ihre Projekt-ID.SYSTEM_INSTRUCTION_PATH
: Der URI für die Systemanweisungen in Ihrem Cloud Storage-Bucket. Beispiel:gs://bucket-name/system-instruction.txt
PROMPT_TEMPLATE
: Der URI für die Promptvorlage in Ihrem Cloud Storage-Bucket. Beispiel:gs://bucket-name/prompt-template.txt
TARGET_MODEL
: Das Modell, für das Sie Prompts optimieren möchten.EVALUATION_METRIC_PARAMETERS
: Die von Ihnen angegebenen Parameter hängen davon ab, wie viele Auswertungs-Messwerte Sie verwenden und ob es sich um Standard- oder benutzerdefinierte Messwerte handelt:Einzelner Standardmesswert
Wenn Sie einen einzelnen Standardmesswert für die Bewertung verwenden, nutzen Sie den folgenden Parameter:
"eval_metric": "EVALUATION_METRIC",
Ersetzen Sie
EVALUATION_METRIC
durch die Messgröße, für die Sie Ihre Prompts optimieren möchten.Einzelner benutzerdefinierter Messwert
Wenn Sie einen einzelnen benutzerdefinierten Bewertungsmesswert verwenden, nutzen Sie die folgenden Parameter:
"eval_metric": "custom_metric", "custom_metric_name": "CUSTOM_METRIC_NAME", "custom_metric_cloud_function_name": "FUNCTION_NAME",
Ersetzen Sie Folgendes:
CUSTOM_METRIC_NAME
: Der Name des Messwerts, wie er durch den Schlüssel definiert wird, der mit demfinal_score
übereinstimmt. Beispiel:custom_accuracy
.FUNCTION_NAME
: der Name der Cloud Run-Funktion, die Sie zuvor bereitgestellt haben.
Mehrere Standardmesswerte
Wenn Sie mehrere Standardbewertungsmesswerte verwenden, nutzen Sie die folgenden Parameter:
"eval_metrics_types": [EVALUATION_METRIC_LIST], "eval_metrics_weights": [EVAL_METRICS_WEIGHTS], "aggregation_type": "METRIC_AGGREGATION_TYPE",
Ersetzen Sie Folgendes:
EVALUATION_METRIC_LIST
: Eine Liste mit Messwerten für die Bewertung. muss ein Array sein. Beispiel:"bleu", "summarization_quality"
EVAL_METRICS_WEIGHTS
: das Gewicht für jeden Messwert. muss ein Array sein.METRIC_AGGREGATION_TYPE
: Der Typ der Aggregation, die für die Bewertungsstatistiken verwendet wird. Mussweighted_sum
oderweighted_average
sein. Wenn nicht festgelegt, ist der Standardwertweighted_sum
.
Mehrere Standard- und benutzerdefinierte Messwerte
Wenn Sie mehrere Bewertungskennzahlen verwenden, die eine Mischung aus einem einzelnen benutzerdefinierten Messwert und einem oder mehreren Standardmesswerten enthalten, verwenden Sie die folgenden Parameter:
"eval_metrics_types": ["custom_metric", EVALUATION_METRIC_LIST], "eval_metrics_weights": [EVAL_METRICS_WEIGHTS], "aggregation_type": "METRIC_AGGREGATION_TYPE", "custom_metric_name": "CUSTOM_METRIC_NAME", "custom_metric_cloud_function_name": "FUNCTION_NAME",
Ersetzen Sie Folgendes:
EVALUATION_METRIC_LIST
: Eine Liste der Standardmesswerte für die Bewertung. muss ein Array sein. Beispiel:"bleu", "summarization_quality"
EVAL_METRICS_WEIGHTS
: das Gewicht für jeden Messwert. muss ein Array sein.METRIC_AGGREGATION_TYPE
: Der Typ der Aggregation, die für die Bewertungsstatistiken verwendet wird. Mussweighted_sum
oderweighted_average
sein. Wenn nicht festgelegt, ist der Standardwertweighted_sum
.CUSTOM_METRIC_NAME
: Der Name des Messwerts, wie er durch den Schlüssel definiert wird, der mit demfinal_score
übereinstimmt. Beispiel:custom_accuracy
FUNCTION_NAME
: der Name der Cloud Run-Funktion, die Sie zuvor bereitgestellt haben.
OPTIMIZATION_MODE
: Der Optimierungsmodus. Mussinstruction
oderdemonstration
oderinstruction_and_demo
sein.SAMPLE_PROMPT_URI
: Der URI für die Beispielprompts in Ihrem Cloud Storage-Bucket. Beispiel:gs://bucket-name/sample-prompts.jsonl
OUTPUT_URI
: Der URI für den Cloud Storage-Bucket, in den der Vertex AI-Prompt-Optimierer die optimierten Systemanweisungen und/oder Few-Shot-Beispiele schreiben soll. Beispiel:gs://bucket-name/output-path
.
Sie können Ihrer Konfigurationsdatei auch einen der optionalen Parameter hinzufügen.
Optionale Parameter sind in fünf Kategorien unterteilt:
- Parameter für den Optimierungsprozess: Diese Parameter steuern den gesamten Optimierungsprozess, einschließlich seiner Dauer und der Anzahl der Optimierungsiterationen, die ausgeführt werden. Dies wirkt sich direkt auf die Qualität der Optimierungen aus.
- Modellauswahl und Standortparameter: Mit diesen Parametern wird angegeben, welche Modelle der Vertex AI-Prompt-Optimierer verwendet und an welchen Standorten er diese Modelle einsetzt.
- Parameter für die Latenz (Abfragen pro Sekunde, QPS) Diese Parameter steuern die Anfragen pro Sekunde und wirken sich auf die Geschwindigkeit des Optimierungsprozesses aus.
- Sonstige Andere Parameter, die die Struktur und den Inhalt von Prompts steuern.
Optionale Parameter ansehen
"num_steps": NUM_INST_OPTIMIZATION_STEPS, "num_template_eval_per_step": NUM_TEMPLATES_PER_STEP, "num_demo_set_candidates": "NUM_DEMO_OPTIMIZATION_STEPS, "demo_set_size": NUM_DEMO_PER_PROMPT, "target_model_location": "TARGET_MODEL_LOCATION", "source_model": "SOURCE_MODEL", "source_model_location": "SOURCE_MODEL_LOCATION", "target_model_qps": TARGET_MODEL_QPS, "eval_qps": EVAL_QPS, "source_model_qps": SOURCE_MODEL_QPS, "response_mime_type": "RESPONSE_MIME_TYPE", "language": "TARGET_LANGUAGE", "placeholder_to_content": "PLACEHOLDER_TO_CONTENT", "data_limit": DATA_LIMIT
Ersetzen Sie Folgendes:
Parameter für den Optimierungsprozess:
NUM_INST_OPTIMIZATION_STEPS
: Die Anzahl der Iterationen, die der Vertex AI-Prompt-Optimierer im Modus zur Optimierung von Anleitungen verwendet. Die Laufzeit steigt linear, wenn Sie diesen Wert erhöhen. Muss eine Ganzzahl zwischen10
und20
sein. Wenn nicht festgelegt, ist der Standardwert10
.NUM_TEMPLATES_PER_STEP
: die Anzahl der Systemanweisungen, die der Vertex AI-Prompt-Optimierer generiert und bewertet. Wird mit dem Optimierungsmodusinstruction
undinstruction_and_demo
verwendet. Muss eine Ganzzahl zwischen1
und4
sein. Wenn nicht festgelegt, ist der Standardwert2
.NUM_DEMO_OPTIMIZATION_STEPS
: Die Anzahl der Demonstrationen, die der Vertex AI-Prompt-Optimierer auswertet. Wird mit dem Optimierungsmodusdemonstration
undinstruction_and_demo
verwendet. Muss eine Ganzzahl zwischen10
und30
sein. Wenn nicht festgelegt, ist der Standardwert10
.NUM_DEMO_PER_PROMPT
: Die Anzahl der Demonstrationen, die pro Prompt generiert werden. Muss eine Ganzzahl zwischen3
und6
sein. Wenn nicht festgelegt, ist der Standardwert3
.
Modellauswahl und Standortparameter:
TARGET_MODEL_LOCATION
: Standort, an dem das Zielmodell ausgeführt werden soll. Wenn nicht festgelegt, ist der Standardwertus-central1
.SOURCE_MODEL
: Das Google-Modell, mit dem die Systemanweisungen und Prompts zuvor verwendet wurden. Wenn der Parametersource_model
festgelegt ist, führt Vertex AI Ihre Beispielprompts im Quellmodell aus, um die Grundwahrheit-Antworten für Sie zu generieren. Das ist für Bewertungsmesswerte erforderlich, für die Grundwahrheit-Antworten erforderlich sind. Wenn Sie Ihre Prompts zuvor nicht mit einem Google-Modell ausgeführt haben oder die gewünschten Ergebnisse nicht erzielt haben, fügen Sie Ihrem Prompt stattdessen Grundwahrheit-Antworten hinzu. Weitere Informationen finden Sie in diesem Dokument im Abschnitt Prompt und Systemanweisungen erstellen.SOURCE_MODEL_LOCATION
: Standort, an dem das Quellmodell ausgeführt werden soll. Wenn nicht festgelegt, ist der Standardwertus-central1
.
Parameter für die Latenz (Abfragen pro Sekunde, QPS):
TARGET_MODEL_QPS
: die Anfragen pro Sekunde (Queries per Second, QPS), die der Vertex AI-Prompt-Optimierer an das Zielmodell sendet. Die Laufzeit nimmt linear ab, wenn Sie diesen Wert erhöhen. Muss ein Gleitkommazahl sein, der mindestens3.0
beträgt, aber kleiner als das QPS-Kontingent ist, das Sie für das Zielmodell haben. Wenn nicht festgelegt, ist der Standardwert3.0
.EVAL_QPS
: die Anfragen pro Sekunde (QPS), die der Vertex AI-Prompt-Optimierer an das Bewertungsmodellgemini-1.5-pro
sendet.- Bei modellbasierten Messwerten muss es sich um eine Gleitkommazahl handeln, die mindestens
3.0
beträgt, aber kleiner als das Kontingent ist, das Sie fürgemini-1.5-pro
haben. Wenn nicht festgelegt, ist der Standardwert3.0
. - Bei benutzerdefinierten Messwerten muss es sich um eine Gleitkommazahl handeln, die
3.0
oder größer ist. Damit wird die Häufigkeit festgelegt, mit der der Vertex AI-Prompt-Optimierer Ihre Cloud Run-Funktionen mit benutzerdefinierten Messwerten aufruft.
- Bei modellbasierten Messwerten muss es sich um eine Gleitkommazahl handeln, die mindestens
SOURCE_MODEL_QPS
: die Anfragen pro Sekunde (Queries per Second, QPS), die der Vertex AI-Prompt-Optimierer an das Quellmodell sendet. Muss ein Gleitkommazahl sein, der mindestens3.0
, aber kleiner als das Abfragekontingent pro Sekunde für das Quellmodell ist. Wenn nicht festgelegt, ist der Standardwert3.0
.
Sonstige Parameter:
RESPONSE_MIME_TYPE
: Der MIME-Antworttyp, der vom Zielmodell verwendet wird. Musstext/plain
oderapplication/json
sein. Wenn nicht festgelegt, ist der Standardwerttext/plain
.TARGET_LANGUAGE
: die Sprache der Systemanweisungen. Wenn nicht festgelegt, ist die Standardsprache Englisch.PLACEHOLDER_TO_CONTENT
: Die Informationen, die alle Variablen in den Systemanweisungen ersetzen. Informationen, die in diesem Flag enthalten sind, werden nicht vom Vertex AI Prompt Optimizer optimiert.DATA_LIMIT
: die Menge der für die Validierung verwendeten Daten. Die Laufzeit steigt linear mit diesem Wert. Muss eine Ganzzahl zwischen5
und100
sein. Wenn nicht festgelegt, ist der Standardwert100
.
Laden Sie die JSON-Datei in einen Cloud Storage-Bucket hoch.
Prompt-Optimierer ausführen
Führen Sie den Vertex AI-Prompt-Optimierer mit einer der folgenden Optionen aus:
Notizbuch
Führen Sie den Vertex AI-Prompt-Optimierer über das Notebook aus. Gehen Sie dazu so vor:
Öffnen Sie in Colab Enterprise das Vertex AI-Notebook für den Prompt-Optimierer.
Klicken Sie im Bereich Prompt-Optimierungstool ausführen auf play_circle Zelle ausführen.
Der Vertex AI-Prompt-Optimierer wird ausgeführt.
REST
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- LOCATION: Der Standort, an dem Sie den Vertex AI-Prompt-Optimierer ausführen möchten.
- PROJECT_ID: Ihre Projekt-ID.
- JOB_NAME: Ein Name für den Vertex AI-Prompt-Optimierer-Job.
- PATH_TO_CONFIG: Der URI der Konfigurationsdatei in Ihrem Cloud Storage-Bucket.
Beispiel:
gs://bucket-name/configuration.json
.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/customJobs
JSON-Text der Anfrage:
{ "displayName": "JOB_NAME", "jobSpec": { "workerPoolSpecs": [ { "machineSpec": { "machineType": "n1-standard-4" }, "replicaCount": 1, "containerSpec": { "imageUri": "us-docker.pkg.dev/vertex-ai-restricted/builtin-algorithm/apd:preview_v1_0", "args": ["--config=PATH_TO_CONFIG""] } } ] } }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/customJobs"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/customJobs" | Select-Object -Expand Content
Die Antwort sieht dann ungefähr so aus:
Python
Bevor Sie dieses Beispiel anwenden, folgen Sie den Python-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Ergebnisse analysieren und optimieren
Nachdem Sie den Vertex AI Prompt-Optimierer ausgeführt haben, können Sie den Fortschritt des Jobs mit einer der folgenden Optionen prüfen:
Notebook
Wenn Sie die Ergebnisse des Vertex AI-Prompt-Optimierers über das Notebook aufrufen möchten, gehen Sie so vor:
Öffnen Sie das Vertex AI-Notebook für den Prompt-Optimierer.
Führen Sie im Abschnitt Ergebnisse prüfen folgende Schritte aus:
Fügen Sie dem Feld RESULT_PATH den URI des Cloud Storage-Buckets hinzu, in den der Vertex AI-Prompt-Optimierer Ergebnisse schreiben soll. Beispiel:
gs://bucket-name/output-path
.Klicken Sie auf play_circle Zelle ausführen.
Console
Wechseln Sie in der Google Cloud Console unter „Vertex AI“ zur Seite Trainingspipelines.
Klicken Sie auf den Tab Benutzerdefinierte Jobs. Der benutzerdefinierte Trainingsjob des Vertex AI-Prompt-Optimierers wird zusammen mit seinem Status in der Liste angezeigt.
Wenn der Job abgeschlossen ist, können Sie die Optimierungen so überprüfen:
Wechseln Sie in der Google Cloud Console unter „Cloud Storage“ zur Seite Buckets:
Klicken Sie den Name Ihres Cloud Storage-Buckets
Rufen Sie den Ordner auf, der den Namen des Optimierungsmodus hat, mit dem Sie die Prompts bewertet haben, also entweder
instruction
oderdemonstration
. Wenn Sie den Modusinstruction_and_demo
verwendet haben, werden beide Ordner angezeigt. Der Ordnerinstruction
enthält die Ergebnisse der Systemanweisungsoptimierung, während der Ordnerdemonstration
die Ergebnisse derdemonstration
-Optimierung und die optimierten Systemanweisungen enthält.Der Ordner enthält die folgenden Dateien:
config.json
: die vollständige Konfiguration, die der Vertex AI-Prompt-Optimierer verwendet hat.templates.json
: jede Gruppe von Systemanweisungen und/oder Few-Shot-Beispielen, die der Vertex AI-Prompt-Optimierer generiert hat und deren Bewertung.eval_results.json
: Die Antwort des Zielmodells für jeden Beispiel-Prompt, für jeden Satz generierter Systemanweisungen und/oder Few-Shot-Beispiele und deren Bewertungsbewertung.optimized_results.json
: Die leistungsstärksten Systemanweisungen und/oder Few-Shot-Beispiele und deren Bewertungsbewertung.
Die optimierten Systemanweisungen finden Sie in der Datei
optimized_results.json
.
Nächste Schritte
- Vertex AI-Notebook für den Prompt-Optimierer
- Verantwortungsbewusste Best Practices für KI und Sicherheitsfilter von Vertex AI
- Weitere Informationen zu Prompt-Strategien
- Weitere Beispiele für Prompts finden Sie in der Prompt-Galerie.