Installer une intelligence artificielle sur son propre serveur change completement la logique d’usage. Vous gardez la maitrise de vos donnees, vous ne dependez pas d’un service externe pour chaque requete, et vous construisez un environnement technique beaucoup plus propre pour tester, apprendre ou travailler.
Sur Debian ou Ubuntu, il est aujourd’hui possible de deployer un serveur IA local sans passer des heures en configuration. En combinant Ollama pour executer les modeles et Open WebUI pour l’interface web, vous obtenez une solution simple, moderne et exploitable depuis votre reseau local.
Pourquoi heberger votre IA en local ?
Le principal avantage, c’est le controle. Vos prompts, vos tests, vos usages et vos echanges ne transitent pas par une plateforme tierce. Pour un labo personnel, un serveur de developpement ou un environnement plus confidentiel, c’est souvent une meilleure base qu’un service cloud grand public.
- vos donnees restent sur votre infrastructure
- vos requetes ne partent pas chez un acteur externe
- vous choisissez les modeles que vous voulez executer
- vous pouvez y acceder depuis plusieurs machines de votre LAN
- vous gardez une pile technique simple a maintenir
Ce qu’il vous faut avant de commencer
- un serveur Debian ou Ubuntu
- un utilisateur avec les droits
sudo - une connexion Internet pour telecharger les composants
- un minimum de ressources machine, surtout si vous comptez charger de gros modeles
Verifier les droits de votre utilisateur
Sur Debian, l’utilisateur standard n’est pas toujours pret pour Docker. Si necessaire, passez en super-utilisateur :
sudo su -
Ajoutez ensuite votre utilisateur au groupe Docker :
usermod -aG docker NOM_UTILISATEUR
Remplacez NOM_UTILISATEUR par votre vrai nom d’utilisateur, puis quittez la session root :
exit
Deconnectez-vous puis reconnectez-vous pour appliquer le changement.
Installer Ollama
Ollama permet d’executer des modeles localement avec une installation rapide. Pour l’installer :
curl -fsSL https://ollama.com/install.sh | sh
Telechargez ensuite un premier modele pour valider le fonctionnement. Par exemple :
ollama pull llama3.2
Testez le modele :
ollama run llama3.2
Si l’invite Ollama apparait, tout est en place. Pour quitter :
/bye
Autoriser les connexions distantes a Ollama
Par defaut, Ollama ecoute localement. Pour le rendre accessible depuis une autre machine du reseau local, modifiez son service systemd :
sudo nano /etc/systemd/system/ollama.service
Dans la section [Service], ajoutez :
Environment="OLLAMA_HOST=0.0.0.0:11434"
Rechargez systemd puis redemarrez Ollama :
sudo systemctl daemon-reload
sudo systemctl restart ollama
A partir de ce moment, Ollama repondra sur l’adresse IP du serveur, via le port 11434.
Installer Docker sur Ubuntu ou Debian
Pour disposer d’une interface web propre, nous allons deployer Open WebUI avec Docker.
Commencez par installer les prerequis et la cle du depot Docker :
sudo apt-get update
sudo apt-get install ca-certificates curl -y
sudo install -m 0755 -d /etc/apt/keyrings
sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.asc
sudo chmod a+r /etc/apt/keyrings/docker.asc
Ajoutez ensuite le depot officiel Docker :
echo "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] https://download.docker.com/linux/ubuntu $(. /etc/os-release && echo "${UBUNTU_CODENAME:-$VERSION_CODENAME}") stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
sudo apt-get update
Installez Docker :
sudo apt-get install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin git -y
Verifiez ensuite que tout fonctionne :
docker ps -a
Si la commande retourne une liste vide sans erreur, Docker est operationnel.
Deployer Open WebUI
Open WebUI apporte une interface web moderne pour discuter avec vos modeles sans rester dans le terminal. Lancez le conteneur avec :
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
Si le port 3000 est deja utilise sur votre serveur, remplacez-le par un autre port disponible.
Patientez quelques instants, puis controlez l’etat du conteneur :
docker ps -a
Quand le statut passe a healthy, l’interface est prete.
Acceder a l’interface web
Depuis votre navigateur, ouvrez :
http://IP_DU_SERVEUR:3000
Remplacez IP_DU_SERVEUR par l’adresse IP locale de votre machine. Lors du premier acces, creez votre compte administrateur.
Connecter Open WebUI a Ollama
Une fois dans l’interface, il faut indiquer a Open WebUI ou joindre votre moteur local. Utilisez l’adresse suivante :
http://IP_DU_SERVEUR:11434
Vous pourrez alors selectionner le modele telecharge avec Ollama et lancer vos premiers prompts depuis le navigateur.
Ce que vous obtenez au final
- un serveur IA local accessible sur votre reseau
- un backend Ollama pour executer les modeles
- une interface web simple avec Open WebUI
- un environnement plus prive pour tester et travailler
- une base technique evolutive pour votre home lab
Conclusion
Deployer un serveur IA local sur Debian ou Ubuntu est aujourd’hui beaucoup plus simple qu’on ne l’imagine. Avec Ollama et Open WebUI, vous pouvez mettre en place en peu de temps une infrastructure locale efficace, propre et beaucoup plus maitrisable qu’un usage uniquement base sur des plateformes externes.
Si vous voulez construire un labo personnel serieux, apprendre a auto-heberger des outils modernes ou simplement garder vos usages IA sous controle, c’est une excellente base de depart.