| @@ -0,0 +1,44 @@ | |||
| @echo off | |||
| setlocal | |||
| set OLLAMA_PORT=11434 | |||
| set OLLAMA_HOST=localhost | |||
| REM Récupérer le répertoire courant | |||
| set CURRENT_DIR=%cd% | |||
| REM Chemin vers l'environnement virtuel Python (relatif au répertoire courant) | |||
| set VENV_PATH=%CURRENT_DIR%\venv | |||
| REM Chemin vers votre script principal (relatif au répertoire courant) | |||
| set MAIN_SCRIPT_PATH=%CURRENT_DIR%\main.py | |||
| REM Activer l'environnement virtuel Python | |||
| call %VENV_PATH%\Scripts\activate.bat | |||
| REM Lancer la compilation du modèle LLM pour Ollama | |||
| ollama create traductionUkrainienVersFrancais -f .\Modelfile | |||
| :: 1. Vérifie si le processus ollama.exe est en cours d'exécution | |||
| tasklist | find "ollama.exe" >nul | |||
| if %ERRORLEVEL% equ 0 ( | |||
| echo [OK] Le processus Ollama est en cours d'exécution. | |||
| ) else ( | |||
| echo [ERREUR] Ollama n'est pas lancé. | |||
| pause | |||
| exit /b 1 | |||
| ) | |||
| :: 2. Vérifie si le port 11434 est ouvert en local | |||
| echo Verification du port %OLLAMA_PORT% sur %OLLAMA_HOST%... | |||
| powershell -Command "$tcp = New-Object System.Net.Sockets.TcpClient; $connect = $tcp.ConnectAsync('%OLLAMA_HOST%', %OLLAMA_PORT%); $connect.Wait(1000); if ($tcp.Connected) { echo 'Port %OLLAMA_PORT% ouvert en local.'; $tcp.Close() } else { echo 'Port %OLLAMA_PORT% non accessible en local.'; exit 1 }" | |||
| if %ERRORLEVEL% neq 0 ( | |||
| echo [ERREUR] Le port %OLLAMA_PORT% n'est pas accessible en local. | |||
| pause | |||
| exit /b 1 | |||
| ) | |||
| REM Exécuter le script principal | |||
| python %MAIN_SCRIPT_PATH% | |||
| endlocal | |||