Prerequis :Ollama doit etre installe et en cours d'execution sur votre serveur.Telecharger Ollama
URL complete du serveur Ollama (par defaut: http://localhost:11434)
Modeles disponibles
Testez la connexion pour voir les modeles disponibles
π±Trinite P.F.S. (DEEP HEMISYNC+ V3)
Configuration des 3 agents specialises pour l'orchestration multi-IA avancee.
Chaque agent a un role specifique dans le processus de raisonnement.
P
PAT - Architecte Strategique
Raisonnement strategique profond, planification et gouvernance
F
FIL - Executeur Analytique
Execution technique precise, implementation et verification
S
SPI - Connecteur Harmonique
Creativite, insights, synthese et innovation
Parametres generaux Ollama
Temps max d'attente pour une reponse
Nombre de tokens de contexte (memoire de conversation)
πRemplacer les agents Cloud par PFS Local
Mappez chaque agent cloud vers un agent PFS local. Quand un agent cloud est demande,
le systeme utilisera automatiquement l'agent PFS local correspondant.
π£
Triad
β
π’
Deep Spin
β
π΅
MentiA Gemini
β
Recommande: Triad β PAT, Deep Spin β FIL, MentiA β SPI
π₯Installation des modeles PFS
Generez et telechargez un script pour installer Ollama et les modeles necessaires
pour la Trinite P.F.S. (DEEP HEMISYNC+ V3).
π΅ PAT
llama3.3:70b-instruct-q4_K_M
~40 GB
π’ FIL
qwen2.5:32b-instruct-q4_K_M
~20 GB
π SPI
phi4:14b-q8_0
~15 GB
Espace disque requis :~75 GB minimum pour les 3 modeles PFS. RAM recommandee :64 GB+ pour executer les modeles simultanement, 32 GB pour un seul a la fois.
βοΈ Parametres generaux
π¬ Intelligence Brevets β Tokens par passe
Ajustez les limites de tokens pour chaque passe d'analyse. Plus de tokens = plus de details mais plus lent.