| @@ -107,7 +107,6 @@ def get_llm_model_info(model=OLLAMA_MODEL): | |||
| "system": model_data.get("system", "Not available"), | |||
| "modified_at": model_data.get("modified_at", "Not available"), | |||
| } | |||
| print(f"Informations du modèle récupérées : {info}") | |||
| return info | |||
| else: | |||
| print(f"Erreur lors de la récupération du modèle : {response.text}") | |||
| @@ -176,7 +175,6 @@ def split_pages_in_paragraphs(pages_text): | |||
| return paragraphs | |||
| def send_to_ollama(text, target_lang=TARGET_LANGUAGE, model=OLLAMA_MODEL, context_size=128000): | |||
| """Envoie une requête à Ollama et retourne la réponse traduite.""" | |||
| # Construit le prompt avec les instructions système et la demande de traduction | |||