跳轉到

Documentation des services de traduction

Options avancées > Documentation des services de traduction (current)


Visualiser les services de traduction disponibles via la Ligne de commande

Vous pouvez confirmer les services de traduction disponibles et leur utilisation en affichant le message d'aide dans la ligne de commande.

pdf2zh_next -h

À la fin du message d'aide, vous pouvez visualiser des informations détaillées sur les différents services de traduction.


Caution

Le contenu suivant a été préparé pour la version 1.x de pdf2zh et n'a pas encore été mis à jour pour la version 2.x. Par conséquent, les informations peuvent être obsolètes.

Ce message d'avertissement sera supprimé une fois que le contenu de l'article sera aligné avec la nouvelle version.

Traduire avec différents services

Nous avons fourni un tableau détaillé sur les variables d'environnement requises pour chaque service de traduction. Assurez-vous de les configurer avant d'utiliser le service correspondant.

Traducteur Service Variables d'environnement Valeurs par défaut Notes
Google (Par défaut) google Aucune N/A Aucune
Bing bing None N/A None
DeepL deepl DEEPL_AUTH_KEY [Your Key] Voir DeepL
DeepLX deeplx DEEPLX_ENDPOINT https://api.deepl.com/translate Voir DeepLX
Ollama ollama OLLAMA_HOST, OLLAMA_MODEL http://127.0.0.1:11434, gemma2 Voir Ollama
Xinference xinference XINFERENCE_HOST, XINFERENCE_MODEL http://127.0.0.1:9997, gemma-2-it Voir Xinference
OpenAI openai OPENAI_BASE_URL, OPENAI_API_KEY, OPENAI_MODEL https://api.openai.com/v1, [Votre clé], gpt-4o-mini Voir OpenAI
AzureOpenAI azure-openai AZURE_OPENAI_BASE_URL, AZURE_OPENAI_API_KEY, AZURE_OPENAI_MODEL [Your Endpoint], [Your Key], gpt-4o-mini Voir Azure OpenAI
Zhipu zhipu ZHIPU_API_KEY, ZHIPU_MODEL [Your Key], glm-4-flash Voir Zhipu
ModelScope ModelScope MODELSCOPE_API_KEY, MODELSCOPE_MODEL [Your Key], Qwen/Qwen2.5-Coder-32B-Instruct Voir ModelScope
Silicon silicon SILICON_API_KEY, SILICON_MODEL [Your Key], Qwen/Qwen2.5-7B-Instruct Voir SiliconCloud
Gemini gemini GEMINI_API_KEY, GEMINI_MODEL [Your Key], gemini-1.5-flash Voir Gemini
Azure azure AZURE_ENDPOINT, AZURE_API_KEY https://api.translator.azure.cn, [Your Key] Voir Azure
Tencent tencent TENCENTCLOUD_SECRET_ID, TENCENTCLOUD_SECRET_KEY [Your ID], [Your Key] Voir Tencent
Dify dify DIFY_API_URL, DIFY_API_KEY [Your DIFY URL], [Your Key] Voir Dify,Trois variables, lang_out, lang_in et text, doivent être définies dans l'entrée du workflow de Dify.
AnythingLLM anythingllm AnythingLLM_URL, AnythingLLM_APIKEY [Your AnythingLLM URL], [Your Key] Voir anything-llm
Argos Translate argos Voir argos-translate
Grok grok GORK_API_KEY, GORK_MODEL [Your GORK_API_KEY], grok-2-1212 Voir Grok
Groq groq GROQ_API_KEY, GROQ_MODEL [Your GROQ_API_KEY], llama-3-3-70b-versatile Voir Groq
DeepSeek deepseek DEEPSEEK_API_KEY, DEEPSEEK_MODEL [Your DEEPSEEK_API_KEY], deepseek-chat Voir DeepSeek
OpenAI-Liked openailiked OPENAILIKED_BASE_URL, OPENAILIKED_API_KEY, OPENAILIKED_MODEL url, [Your Key], model name None
Ali Qwen Translation qwen-mt ALI_MODEL, ALI_API_KEY, ALI_DOMAINS qwen-mt-turbo, [Your Key], scientific paper Le chinois traditionnel n'est pas encore supporté, il sera traduit en chinois simplifié. Plus d'informations sur Qwen MT

Pour les grands modèles de langage compatibles avec l'API OpenAI mais non listés dans le tableau ci-dessus, vous pouvez définir des variables d'environnement en utilisant la même méthode décrite pour OpenAI dans le tableau.

Utilisez -s service ou -s service:model pour spécifier le service :

pdf2zh_next example.pdf -s openai:gpt-4o-mini

Ou spécifiez le modèle avec des variables d'environnement :

set OPENAI_MODEL=gpt-4o-mini
pdf2zh_next example.pdf -s openai

Pour les utilisateurs de PowerShell :

$env:OPENAI_MODEL = gpt-4o-mini
pdf2zh_next example.pdf -s openai
Une partie du contenu de cette page a été traduite par GPT et peut contenir des erreurs.