Déployer un serveur IA local sur Debian ou Ubuntu
Publie le 11 mars 2026 Par admindupasse

Déployer un serveur IA local sur Debian ou Ubuntu

Installer une intelligence artificielle sur son propre serveur change completement la logique d’usage. Vous gardez la maitrise de vos donnees, vous ne dependez pas d’un service externe pour chaque requete, et vous construisez un environnement technique beaucoup plus propre pour tester, apprendre ou travailler.

Sur Debian ou Ubuntu, il est aujourd’hui possible de deployer un serveur IA local sans passer des heures en configuration. En combinant Ollama pour executer les modeles et Open WebUI pour l’interface web, vous obtenez une solution simple, moderne et exploitable depuis votre reseau local.

Pourquoi heberger votre IA en local ?

Le principal avantage, c’est le controle. Vos prompts, vos tests, vos usages et vos echanges ne transitent pas par une plateforme tierce. Pour un labo personnel, un serveur de developpement ou un environnement plus confidentiel, c’est souvent une meilleure base qu’un service cloud grand public.

  • vos donnees restent sur votre infrastructure
  • vos requetes ne partent pas chez un acteur externe
  • vous choisissez les modeles que vous voulez executer
  • vous pouvez y acceder depuis plusieurs machines de votre LAN
  • vous gardez une pile technique simple a maintenir

Ce qu’il vous faut avant de commencer

  • un serveur Debian ou Ubuntu
  • un utilisateur avec les droits sudo
  • une connexion Internet pour telecharger les composants
  • un minimum de ressources machine, surtout si vous comptez charger de gros modeles

Verifier les droits de votre utilisateur

Sur Debian, l’utilisateur standard n’est pas toujours pret pour Docker. Si necessaire, passez en super-utilisateur :

sudo su -

Ajoutez ensuite votre utilisateur au groupe Docker :

usermod -aG docker NOM_UTILISATEUR

Remplacez NOM_UTILISATEUR par votre vrai nom d’utilisateur, puis quittez la session root :

exit

Deconnectez-vous puis reconnectez-vous pour appliquer le changement.

Installer Ollama

Ollama permet d’executer des modeles localement avec une installation rapide. Pour l’installer :

curl -fsSL https://ollama.com/install.sh | sh

Telechargez ensuite un premier modele pour valider le fonctionnement. Par exemple :

ollama pull llama3.2

Testez le modele :

ollama run llama3.2

Si l’invite Ollama apparait, tout est en place. Pour quitter :

/bye

Autoriser les connexions distantes a Ollama

Par defaut, Ollama ecoute localement. Pour le rendre accessible depuis une autre machine du reseau local, modifiez son service systemd :

sudo nano /etc/systemd/system/ollama.service

Dans la section [Service], ajoutez :

Environment="OLLAMA_HOST=0.0.0.0:11434"

Rechargez systemd puis redemarrez Ollama :

sudo systemctl daemon-reload
sudo systemctl restart ollama

A partir de ce moment, Ollama repondra sur l’adresse IP du serveur, via le port 11434.

Installer Docker sur Ubuntu ou Debian

Pour disposer d’une interface web propre, nous allons deployer Open WebUI avec Docker.

Commencez par installer les prerequis et la cle du depot Docker :

sudo apt-get update
sudo apt-get install ca-certificates curl -y
sudo install -m 0755 -d /etc/apt/keyrings
sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.asc
sudo chmod a+r /etc/apt/keyrings/docker.asc

Ajoutez ensuite le depot officiel Docker :

echo "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] https://download.docker.com/linux/ubuntu $(. /etc/os-release && echo "${UBUNTU_CODENAME:-$VERSION_CODENAME}") stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
sudo apt-get update

Installez Docker :

sudo apt-get install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin git -y

Verifiez ensuite que tout fonctionne :

docker ps -a

Si la commande retourne une liste vide sans erreur, Docker est operationnel.

Deployer Open WebUI

Open WebUI apporte une interface web moderne pour discuter avec vos modeles sans rester dans le terminal. Lancez le conteneur avec :

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

Si le port 3000 est deja utilise sur votre serveur, remplacez-le par un autre port disponible.

Patientez quelques instants, puis controlez l’etat du conteneur :

docker ps -a

Quand le statut passe a healthy, l’interface est prete.

Acceder a l’interface web

Depuis votre navigateur, ouvrez :

http://IP_DU_SERVEUR:3000

Remplacez IP_DU_SERVEUR par l’adresse IP locale de votre machine. Lors du premier acces, creez votre compte administrateur.

Connecter Open WebUI a Ollama

Une fois dans l’interface, il faut indiquer a Open WebUI ou joindre votre moteur local. Utilisez l’adresse suivante :

http://IP_DU_SERVEUR:11434

Vous pourrez alors selectionner le modele telecharge avec Ollama et lancer vos premiers prompts depuis le navigateur.

Ce que vous obtenez au final

  • un serveur IA local accessible sur votre reseau
  • un backend Ollama pour executer les modeles
  • une interface web simple avec Open WebUI
  • un environnement plus prive pour tester et travailler
  • une base technique evolutive pour votre home lab

Conclusion

Deployer un serveur IA local sur Debian ou Ubuntu est aujourd’hui beaucoup plus simple qu’on ne l’imagine. Avec Ollama et Open WebUI, vous pouvez mettre en place en peu de temps une infrastructure locale efficace, propre et beaucoup plus maitrisable qu’un usage uniquement base sur des plateformes externes.

Si vous voulez construire un labo personnel serieux, apprendre a auto-heberger des outils modernes ou simplement garder vos usages IA sous controle, c’est une excellente base de depart.

Categories : Linux