| @@ -111,3 +111,36 @@ Il faut ensuite copier ce prompt dans le fichier ModelFile. | |||
| Executer le script ```python mergeLora.py``` | |||
| ### Conversion en GGUF | |||
| En étant à la racine du projet (et toujorus dans le venv), cloner le projet llama.cpp | |||
| ```bash | |||
| git clone https://github.com/ggerganov/llama.cpp | |||
| cd llama.cpp | |||
| pip install -r requirements.txt | |||
| ``` | |||
| Et lancer la commande (/!\ ca prend eviron 10 minutes): | |||
| ```bash | |||
| python convert_hf_to_gguf.py ../Finetunning/qwen2.5-7b-uk-fr-merged --outfile qwen2.5-7b-uk-fr.gguf --outtype q8_0 | |||
| ``` | |||
| Vérification : | |||
| ```bash | |||
| ./main -m qwen2.5-7b-uk-fr.gguf -p "Translate into French: Привіт світ" | |||
| ``` | |||
| Pour que ce nouveau modèle soit exploitable par ollama, il faut TODO | |||
| ## Utilisation du modèle fine-tunné pour la traduction | |||
| Créer un Modelfile : | |||
| ``` | |||
| FROM ./qwen2.5-7b-uk-fr.gguf | |||
| PARAMETER temperature 0.1 | |||
| PARAMETER top_p 0.95 | |||
| PARAMETER num_ctx 4096 | |||
| SYSTEM """ | |||
| You are a professional Ukrainian to French translator. | |||
| Produce faithful, literal translations. | |||
| """ | |||
| ``` | |||