AGENT AI - Comment Installer n8n en local pour créer ses premiers AGENTS

Salut La Tranchée !

Je vous partage deux vidéos tutoriels qui vous permettront l’installation de l’outil d’automatisation n8n en local

Pour rappel, n8n est un outil d’automatisation comme Zapier ou Make, mais il a la particularité avec l’avènement de l’IA d’être un indispensable pour pouvoir créer des AGENTS AI.

Si vous vous êtes intéressé aux automatisations et à l’IA ces derniers mois, vous avez forcément vu des workflow avancés avec l’intégration d’agents dans les automatisations à l’aide de cet outil.

L’objectif est de vous partager un contenu en ligne qui vous permettra de tester l’outil gratuitement

Les outils nécessaires pour l’installation :

Tout est détaillé sur l’ensemble des vidéos :

Partie 1 : https://www.youtube.com/watch?v=e1qz50cq-s4

Partie 2 : https://www.youtube.com/watch?v=N8_SdgBsEQ0

Je vous souhaite un bon visionnage et pour les personnes qui sont déjà intéressé en se formant avec @Olivier_Lambert Automation & IA , vos bases vous serviront énormément à appréhender ce nouvel outil sans être trop effrayer par des termes comme « webhook », « API » etc qui sont très bien expliqué par Olivier.

Bon visionnage !

Ps : Un moment dans la vidéo de la partie 2, l’interface de supabase a changé par rapport à ce qu’on voit à l’écran, et il faudra suivre les instructions sur le message épinglé. (J’aime même laissé un commentaire pour le signifier au cas où - FLOnocode)

zapier #nocode automation

4 « J'aime »

L’idée d’installer n8n en local est vraiment intéressante!

Par contre, dans ta vidéo, l’utilisateur l’héberge sur Render.com. Ce n’est donc pas en local!

L’avantage de l’héberger en local serait de pouvoir communiquer ultra-rapidement avec un LLM auto-hébergé!

Pour l’auto-héberger, il faudrait plutôt suivre la documentation ici:

C’est assez simple puisque ça passe par Docker.

Encore plus facile, on peut l’installer via Home Assistant pour ceux qui ont un serveur d’automation à la maison:

L’installation se fait en un clic et comprend la base de données et tout le reste:

Je n’avais pas encore testé spécifiquement pour l’IA, mais c’est vraiment intéressant!

Ils ont un module « AI Agent » auquel on peut connecter des applications.

Je vais définitivement aller m’amuser un peu! Ça fait longtemps que je cherchais une app WYSIWIG pour bâtir des AI Agents!

Je suis curieux @Alexe et @vmontmaurs avez-vous testé?

1 « J'aime »

Merci pour tes précision @Olivier_Lambert et les liens.

Je vais aller voir tous ça, mais n8n c’est vraiment quelque chose.

Je vais ajouter ça à la liste des choses à regarder. Merci @ntone.f

1 « J'aime »

C’est uniquement pour PC selon ce que tu as vu ou ça semble fonctionner aussi pour Mac?

Ce n’est pas un logiciel que l’on installe sur son PC, c’est plutôt une application Linux .

Tu peux l’exécuter à partir d’un PC, Mac ou Linux en utilisant Docker.

@Claude, peux-tu me faire un résumé de Docker pour les non-tech stp?

Le plus facile, selon moi, serait d’utiliser une plateforme de gestion de container.

HomeAssistant fait cette job-là chez moi, mais tu pourrais tout aussi bien prendre une de ces plateformes:

Nom Objectif Principal Interface Web Applications Supportées Installation Points Forts
Umbrel Plateforme simplifiée pour la vie privée et crypto Oui, moderne et intuitive Bitcoin Node, Nextcloud, Pi-hole, Plex, Home Assistant Docker ou Umbrel OS Idéal pour Bitcoin, facile pour débutants
CasaOS Système léger pour homelab Oui, élégante avec magasin d’apps Nextcloud, N8n, Jellyfin, Home Assistant Sur Linux avec Docker Simplicité et large choix d’apps
YunoHost Solution d’auto-hébergement conviviale Oui, panneau admin simple Nextcloud, N8n, WordPress, Matrix OS complet ou sur Debian Communauté active, installation rapide
Dockge Gestion légère de conteneurs Docker Oui, claire et pratique Via fichiers Compose (ex. N8n, Nextcloud) Conteneur Docker unique Contrôle manuel avec interface agréable
Portainer Gestion avancée de Docker Oui, professionnelle Nextcloud, Plex, N8n (via templates) Conteneur Docker Puissant, flexible, templates inclus
HomelabOS Plateforme pour homelab basée sur Docker Interfaces des apps individuelles Nextcloud, N8n, Vaultwarden, Plex Script unique avec Docker Compose Déploiement rapide, personnalisable
Unraid OS pour NAS et apps (payant) Oui, complète avec magasin Nextcloud, Plex, etc. (via plugin) OS complet (payant) NAS + apps, très convivial
OpenMediaVault (OMV) NAS avec support Docker Oui, avec plugin Docker Nextcloud, Plex, etc. (via Portainer) OS complet Idéal pour NAS et auto-hébergement
Home Assistant Automatisation domestique + addons Oui, intuitive et élégante Mosquitto, Node-RED, Zigbee2MQTT, Plex, etc. (via addons) Docker ou Home Assistant OS Automatisation + déploiement d’apps facile

Après avoir installé l’une de ces plateformes chez toi, tu sélectionnes simplement l’application souhaitée, et elle s’installe généralement en un clic. Ensuite, tu obtiens une URL locale que tu peux entrer dans n’importe quel navigateur pour utiliser le service sur ton réseau.

@Mathieu_Laferriere Docker est essentiellement un système qui permet d’exécuter des applications dans des conteneurs isolés. Pense à ça comme à des « mini-ordinateurs virtuels » qui contiennent tout ce dont une application a besoin pour fonctionner.

Pour les non-tech:

  1. Qu’est-ce que c’est? Un outil qui te permet d’installer et d’exécuter des applications sans te soucier de leur compatibilité avec ton système.

  2. Pourquoi l’utiliser?

    • Pas besoin de t’inquiéter des dépendances ou conflits
    • Fonctionne pareil sur Mac, Windows ou Linux
    • Isolement: chaque app fonctionne dans sa propre « bulle »
    • Facile à démarrer/arrêter/mettre à jour
  3. Comment ça marche en pratique:

    • Tu télécharges Docker Desktop pour ton système
    • Tu choisis une « image » (comme n8n)
    • Tu la démarres d’un clic
    • L’app tourne en arrière-plan sans modifier ton système

Pour n8n spécifiquement, ça fonctionne parfaitement sur Mac, car Docker est disponible sur toutes les plateformes. L’app elle-même s’exécute dans le conteneur, donc le système hôte importe peu.

Si tu veux une approche encore plus simple, les plateformes qu’Olivier a mentionnées (comme HomeAssistant) te permettent d’installer n8n en quelques clics sans même comprendre Docker.

Merci pour la réponse. J’ai déjà utilisé quelque chose de semblable dans le temps pour une formation, dont je vais regarder ce qui est déjà installé sur mon ordinateur. Content de savoir que ça pourra fonctionner.

Si j’ai un ordi sur Linux, ça fonctionne comment?

@Vicky2 Sur Linux, c’est encore plus simple que sur Windows ou Mac! Tu as deux options:

Option 1: Docker direct

# Installer Docker (sur Ubuntu/Debian)
sudo apt update
sudo apt install docker.io docker-compose

# Lancer n8n
docker run -it --rm --name n8n -p 5678:5678 -v ~/.n8n:/home/node/.n8n n8nio/n8n

Boom, n8n accessible sur http://localhost:5678

Option 2: Docker Compose (plus propre)
Crée un fichier docker-compose.yml:

version: '3'
services:
  n8n:
    image: n8nio/n8n
    ports:
      - "5678:5678"
    volumes:
      - ~/.n8n:/home/node/.n8n
    environment:
      - N8N_BASIC_AUTH_ACTIVE=true
      - N8N_BASIC_AUTH_USER=ton_user
      - N8N_BASIC_AUTH_PASSWORD=ton_password

Puis lance avec docker-compose up -d

L’avantage sur Linux? Pas de couche de virtualisation supplémentaire comme sur Mac/Windows. Docker tourne directement sur ton kernel, donc c’est plus rapide et consomme moins de ressources.

Si tu préfères une interface graphique, installe Portainer ou une des plateformes qu’Olivier a mentionnées. Mais franchement, sur Linux, les commandes sont tellement simples que l’interface graphique ralentit plus qu’autre chose.

1 « J'aime »

Si tu veux un tuto top notch, c’est par ici:

Génial Merci, je vais aller voir ça

Tant qu’à être dans les installations locales, pour faire travailler avec Ollama? L,installation optimale se fait comment?

@Vicky2 Pour Ollama sur Linux, c’est ridiculement simple:

Installation:

curl -fsSL https://ollama.com/install.sh | sh

Télécharger un modèle:

# Pour un modèle léger et rapide
ollama pull llama3.2:3b

# Pour plus de performance (si t'as 8GB+ RAM)
ollama pull llama3.2:7b

Pour connecter avec n8n:

  1. Lance Ollama: ollama serve (normalement déjà actif)
  2. Dans n8n, utilise le node « Ollama »
  3. URL: http://localhost:11434
  4. Choisis ton modèle téléchargé

Optimisation selon ton hardware:

  • GPU NVIDIA: Ollama l’utilise automatiquement si les drivers CUDA sont installés
  • Pas de GPU: Limite-toi aux modèles 3B ou 7B max
  • RAM limitée: Utilise les versions quantifiées (ex: llama3.2:3b-q4_0)

Truc cool: Tu peux exposer Ollama pour n8n:

OLLAMA_HOST=0.0.0.0 ollama serve

Ça permet à n8n (ou d’autres apps) d’accéder à Ollama même s’ils tournent dans Docker. L’intégration n8n + Ollama te donne des agents AI 100% locaux, sans frais d’API!

Quelle config hardware tu as? Je peux te suggérer les meilleurs modèles pour ton setup.