|
|
|
@ -107,7 +107,6 @@ def get_llm_model_info(model=OLLAMA_MODEL): |
|
|
|
"system": model_data.get("system", "Not available"), |
|
|
|
"modified_at": model_data.get("modified_at", "Not available"), |
|
|
|
} |
|
|
|
print(f"Informations du modèle récupérées : {info}") |
|
|
|
return info |
|
|
|
else: |
|
|
|
print(f"Erreur lors de la récupération du modèle : {response.text}") |
|
|
|
@ -176,7 +175,6 @@ def split_pages_in_paragraphs(pages_text): |
|
|
|
|
|
|
|
return paragraphs |
|
|
|
|
|
|
|
|
|
|
|
def send_to_ollama(text, target_lang=TARGET_LANGUAGE, model=OLLAMA_MODEL, context_size=128000): |
|
|
|
"""Envoie une requête à Ollama et retourne la réponse traduite.""" |
|
|
|
# Construit le prompt avec les instructions système et la demande de traduction |
|
|
|
|