|
|
1 month ago | |
|---|---|---|
| .vscode | 1 month ago | |
| .gitignore | 1 month ago | |
| Modelfile | 1 month ago | |
| README.md | 1 month ago | |
| TaniaBorecMemoir(Ukr).pdf | 1 month ago | |
| main.py | 1 month ago | |
| requirements.txt | 1 month ago | |
README.md
Traduction PDF avec Ollama
Ce projet permet de traduire un document PDF page par page en utilisant un modèle LLM local (Ollama) optimisé pour la traduction.
Prérequis
- Python (version 3.8 ou supérieure)
- Ollama installé et en cours d'exécution sur ta machine (en mode "serveur")
- Un document PDF à traduire
- Un modèle LLM spécialisé dans la traduction avec un context long.
Création d'un modèle LLM de traduction avec Ollama
En partant du LLM zongwei/gemma3-translator:4b, nous allons créer un modèle optimisé pour la traduction avec Ollama. Pour info : Inutile de le downloader, il le serra automatiquement au lancement de la commande.
FROM zongwei/gemma3-translator:4b
PARAMETER temperature 0.1
PARAMETER num_ctx 131072
SYSTEM """
You are a professional translator specialising in translating Ukrainian text into English.
Translate accurately and naturally, respecting the original intonation used by the author of the text.
You must not interpret the author's thoughts or reflections.
Do not add any text before or after the text provided.
"""
Il faut ensuite compiler le modèle avec la commande :
ollama create traductionUkrainienVersFrancais -f .\Modelfile
Installation
Étapes d'installation
-
Cloner ou télécharger le projet
cd chemin/vers/votre/projet git pull https://git.alex-design.fr/Alex/python.traduction -
Installer les dépendances Python
pip install -r requirements.txt -
Placer votre fichier PDF dans le répertoire du projet avec le nom configuré dans
main.py(par défaut :TaniaBorecMemoir(Ukr).pdf)
Mode opératoire
Préparation
-
Démarrer Ollama en mode serveur sur votre machine (port 11434 par défaut)
ollama serve -
Vérifier que le modèle de traduction est disponible
ollama listVous devez voir
traductionUkrainienVersFrancaisdans la liste.Si ce n'est pas le cas, vous devez le générer comme décrit plus haut (paragraphe "Création d'un modèle LLM de traduction avec Ollama")
-
Placer votre PDF dans le même répertoire que le script
main.py
Paramétrage du script
PDF_PATH= "TaniaBorecMemoir(Ukr).pdf" <- Le nom du fichier pdf à traduire.
OLLAMA_MODEL = "mitmul/plamo-2-translate:latest" <- Le nom
OLLAMA_URL = "http://localhost:11434/api/generate" <- URL par défaut d'Ollama
TARGET_LANGUAGE = "français" <- Langue cible (ex: "français", "anglais", "allemand", "espagnol", etc.)
SYSTEM_PROMPT = """You are a professional translator specialising in Ukrainian text translation.
Translate accurately and naturally, respecting the original intonation used by the author of the text.
You must not interpret the author's thoughts or reflections.
Do not add any text before or after the text provided.
Preserve the layout and structure of the original text."""
Exécution
-
Lancer le script de traduction
python main.py -
Le programme va :
- Extraire le texte de toutes les pages du PDF
- Supprimer les numéros de pages
- Regrouper les paragraphes qui s'étendent sur plusieurs pages
- Diviser le texte en chunks raisonnables (environ 1500 caractères)
- Envoyer chaque chunk au LLM pour traduction
- Afficher la progression dans le terminal
-
Le résultat final sera généré dans un fichier PDF nommé
[nom_original] (FR).pdf- Exemple :
TaniaBorecMemoir(Ukr) (FR).pdf
- Exemple :
Fichier de sortie
Le PDF généré contient :
- Titre : "Traduction - Ukrainien vers Français"
- Contenu : Les traductions de tous les chunks, préservant la mise en page (sauts de ligne, paragraphes)
- Police : Support complet du cyrilique (déjà testé avec l'ukrainien)
Configuration
Vous pouvez modifier les paramètres suivants dans main.py :
PDF_PATH: Chemin du fichier PDF à traduireOLLAMA_MODEL: Nom du modèle Ollama à utiliserOLLAMA_URL: URL du serveur Ollama (par défaut :http://localhost:11434/api/generate)OUTPUT_PDF_PATH: Chemin et nom du fichier PDF de sortie (généré autoamtiquement)
Dépannage
Erreur : "Connexion refusée à Ollama"
- Vérifiez que Ollama est en cours d'exécution avec
ollama serve - Vérifiez que l'URL est correcte (par défaut :
http://localhost:11434)
Erreur : "Modèle non trouvé"
- Exécutez :
ollama create traductionUkrainienVersFrancais -f .\Modelfile
Le texte n'est pas bien séparé en paragraphes
- Le script détecte automatiquement les doubles sauts de ligne
- Si absent, il divise par phrases et regroupe en chunks de 1500 caractères