diff --git a/run.bat b/run.bat new file mode 100644 index 0000000..7d42324 --- /dev/null +++ b/run.bat @@ -0,0 +1,44 @@ +@echo off +setlocal + +set OLLAMA_PORT=11434 +set OLLAMA_HOST=localhost + +REM Récupérer le répertoire courant +set CURRENT_DIR=%cd% + +REM Chemin vers l'environnement virtuel Python (relatif au répertoire courant) +set VENV_PATH=%CURRENT_DIR%\venv + +REM Chemin vers votre script principal (relatif au répertoire courant) +set MAIN_SCRIPT_PATH=%CURRENT_DIR%\main.py + +REM Activer l'environnement virtuel Python +call %VENV_PATH%\Scripts\activate.bat + +REM Lancer la compilation du modèle LLM pour Ollama +ollama create traductionUkrainienVersFrancais -f .\Modelfile + +:: 1. Vérifie si le processus ollama.exe est en cours d'exécution +tasklist | find "ollama.exe" >nul +if %ERRORLEVEL% equ 0 ( + echo [OK] Le processus Ollama est en cours d'exécution. +) else ( + echo [ERREUR] Ollama n'est pas lancé. + pause + exit /b 1 +) + +:: 2. Vérifie si le port 11434 est ouvert en local +echo Verification du port %OLLAMA_PORT% sur %OLLAMA_HOST%... +powershell -Command "$tcp = New-Object System.Net.Sockets.TcpClient; $connect = $tcp.ConnectAsync('%OLLAMA_HOST%', %OLLAMA_PORT%); $connect.Wait(1000); if ($tcp.Connected) { echo 'Port %OLLAMA_PORT% ouvert en local.'; $tcp.Close() } else { echo 'Port %OLLAMA_PORT% non accessible en local.'; exit 1 }" +if %ERRORLEVEL% neq 0 ( + echo [ERREUR] Le port %OLLAMA_PORT% n'est pas accessible en local. + pause + exit /b 1 +) + +REM Exécuter le script principal +python %MAIN_SCRIPT_PATH% + +endlocal \ No newline at end of file