| 12345678910111213141516171819202122232425262728293031323334353637383940414243444546 |
- @echo off
- setlocal
-
- set OLLAMA_PORT=11434
- set OLLAMA_HOST=localhost
-
- REM Récupérer le répertoire courant
- set CURRENT_DIR=%cd%
-
- REM Chemin vers l'environnement virtuel Python (relatif au répertoire courant)
- set VENV_PATH=%CURRENT_DIR%\venv
-
- REM Chemin vers votre script principal (relatif au répertoire courant)
- set MAIN_SCRIPT_PATH=%CURRENT_DIR%\Traduction\main.py
-
- REM Activer l'environnement virtuel Python
- call %VENV_PATH%\Scripts\activate.bat
-
- REM Lancer la compilation du modèle LLM pour Ollama
- echo Compilation du modèle LLM pour Ollama
- ollama create traductionUkrainienVersFrancais -f .\Traduction\Modelfile
-
- :: 1. Vérifie si le processus ollama.exe est en cours d'exécution
- tasklist | find "ollama.exe" >nul
- if %ERRORLEVEL% equ 0 (
- echo [OK] Le processus Ollama est bien en cours d'execution.
- ) else (
- echo [ERREUR] Ollama n'est pas lancé.
- pause
- exit /b 1
- )
-
- :: 2. Vérifie si le port 11434 est ouvert en local
- echo Verification du port %OLLAMA_PORT% sur %OLLAMA_HOST%...
- powershell -Command "$tcp = New-Object System.Net.Sockets.TcpClient; $connect = $tcp.ConnectAsync('%OLLAMA_HOST%', %OLLAMA_PORT%); $connect.Wait(1000); if ($tcp.Connected) { echo 'Port %OLLAMA_PORT% ouvert en local.'; $tcp.Close() } else { echo 'Port %OLLAMA_PORT% non accessible en local.'; exit 1 }"
- if %ERRORLEVEL% neq 0 (
- echo [ERREUR] Le port %OLLAMA_PORT% n'est pas accessible en local.
- pause
- exit /b 1
- )
-
- REM Exécuter le script principal
- echo Lancement du script principal de traduction
- python %MAIN_SCRIPT_PATH%
-
- endlocal
|