Kürzlich haben wir die Kompatibilität der Gemini API verbessert und unterstützen nun umfassendere Function Calls sowie API-Kompatibilität:
-
chat/completions-
messages-
content -
role- "system" (=>
system_instruction) - "user"
- "assistant"
- "tool"
- "system" (=>
-
tool_calls
-
-
model -
frequency_penalty -
logit_bias -
logprobs -
top_logprobs -
max_tokens,max_completion_tokens -
n(candidateCount<8, nicht für Streaming) -
presence_penalty -
reasoning_effort -
response_format- "json_object"
- "json_schema" (eine ausgewählte Teilmenge eines OpenAPI 3.0 Schema-Objekts)
- "text"
-
seed -
stop: string|array (stopSequences[1,5]) -
stream -
stream_options-
include_usage
-
-
temperature(0.0..2.0 für OpenAI, aber Gemini unterstützt bis unendlich) -
top_p -
tools -
tool_choice -
parallel_tool_calls(ist in Gemini immer aktiv) -
extra_body
-
Detailliertere Beispiele und Dokumentation werden nachträglich ergänzt und veröffentlicht.