| "system": model_data.get("system", "Not available"), | "system": model_data.get("system", "Not available"), | ||||
| "modified_at": model_data.get("modified_at", "Not available"), | "modified_at": model_data.get("modified_at", "Not available"), | ||||
| } | } | ||||
| print(f"Informations du modèle récupérées : {info}") | |||||
| return info | return info | ||||
| else: | else: | ||||
| print(f"Erreur lors de la récupération du modèle : {response.text}") | print(f"Erreur lors de la récupération du modèle : {response.text}") | ||||
| return paragraphs | return paragraphs | ||||
| def send_to_ollama(text, target_lang=TARGET_LANGUAGE, model=OLLAMA_MODEL, context_size=128000): | def send_to_ollama(text, target_lang=TARGET_LANGUAGE, model=OLLAMA_MODEL, context_size=128000): | ||||
| """Envoie une requête à Ollama et retourne la réponse traduite.""" | """Envoie une requête à Ollama et retourne la réponse traduite.""" | ||||
| # Construit le prompt avec les instructions système et la demande de traduction | # Construit le prompt avec les instructions système et la demande de traduction |