Agents.py 9.2 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258
  1. import os
  2. from typing import Annotated, Sequence, TypedDict, Optional , List
  3. from dotenv import load_dotenv
  4. from langchain_openai import ChatOpenAI
  5. from langchain_core.messages import BaseMessage, HumanMessage, SystemMessage , AIMessage , ToolMessage
  6. from langgraph.graph.message import add_messages
  7. from langchain_groq import ChatGroq
  8. from langfuse import get_client
  9. import pandas as pd
  10. from langfuse.langchain import CallbackHandler
  11. import json
  12. from langchain_community.chat_models import ChatOllama
  13. # Initialize Langfuse CallbackHandler for Langchain (tracing)
  14. langfuse_handler = CallbackHandler()
  15. # Import de tes outils corrigés
  16. from tools import excel_code_interpreter, search_tool , inspect_data , call_tool_and_format_for_ollama , robust_json_parse
  17. langfuse = get_client()
  18. load_dotenv()
  19. # 1. Définition du State
  20. class AgentState(TypedDict):
  21. messages: Annotated[Sequence[BaseMessage], add_messages]
  22. current_df_path: Optional[str]
  23. Data_colomns: Optional[str]
  24. generated_charts : List[str]
  25. # 2. Configuration du Modèle et des Outils
  26. #model =ChatGroq(model="llama-3.3-70b-versatile")
  27. #model_llama=ChatGoogleGenerativeAI(model="gemini-2.5-flash")
  28. #model_gpt = ChatOpenAI(model="gpt-5.3-codex" )
  29. #model_gpt_5 = ChatOpenAI(model="o4-mini" )
  30. tools = [ search_tool , excel_code_interpreter, inspect_data ]
  31. # Local LLM :
  32. from langchain_experimental.llms.ollama_functions import OllamaFunctions
  33. from langchain_community.chat_models import ChatOllama
  34. # On crée une instance standard pour l'Analyseur
  35. local_llm_chat = ChatOllama(
  36. model="llama3.1:8b",
  37. temperature=0,
  38. format="json" # On garde le format JSON ici
  39. )
  40. local_llm_fonction = OllamaFunctions(
  41. model="deepseek-coder-v2:16b-lite-instruct-q4_K_M",
  42. #model="llama3.1:8b",
  43. temperature=0,
  44. format="json",
  45. num_ctx=4096
  46. )
  47. local_llm_reporter = ChatOllama(
  48. model="llama3.1:8b",
  49. temperature=0,
  50. )
  51. model_with_tools = local_llm_fonction.bind_tools(tools)
  52. def agent_analyseur(state: AgentState):
  53. import os
  54. import pandas as pd
  55. # 1. PHASE D'INSPECTION (Identique)
  56. file_path = state.get("current_df_path")
  57. inspection_info = "Aucun fichier détecté."
  58. columns_list = []
  59. if file_path and os.path.exists(file_path):
  60. try:
  61. df_temp = pd.read_csv(file_path, nrows=5) if file_path.endswith('.csv') else pd.read_excel(file_path, nrows=5)
  62. columns_list = df_temp.columns.tolist()
  63. sample_data = df_temp.head(2).to_string()
  64. inspection_info = (
  65. f"COLONNES EXACTES : {columns_list}\n"
  66. f"APERÇU DES DONNÉES :\n{sample_data}"
  67. )
  68. except Exception as e:
  69. inspection_info = f"⚠️ Erreur lors de l'inspection : {e}"
  70. # 2. RÉCUPÉRATION DE LA QUERY
  71. user_query = state["messages"][-1].content if state["messages"] else "Pas de question."
  72. # 3. CONSTRUCTION DU PROMPT DYNAMIQUE (Comme l'Exécuteur)
  73. # On définit les règles métier ici
  74. prompt = (
  75. "### SYSTEM ROLE ###\n"
  76. "Tu es l'Analyseur de Dataltist. Ton rôle est de créer un plan d'action logique.\n"
  77. "Tu dois répondre EXCLUSIVEMENT au format JSON.\n\n"
  78. "### DONNÉES DISPONIBLES ###\n"
  79. f"{inspection_info}\n\n"
  80. "### RÈGLES CRITIQUES ###\n"
  81. "1. PAS DE CODE : Ne génère jamais de Python.\n"
  82. f"2. COLONNES : Utilise uniquement {columns_list}.\n"
  83. "3. PLAN : Détaille les étapes (Somme, Moyenne, Regroupement, etc.).\n\n"
  84. "### STRUCTURE JSON ATTENDUE ###\n"
  85. "{\n"
  86. " \"plan\": [\"étape 1\", \"étape 2\"],\n"
  87. " \"colonnes_utilisees\": [\"col1\", \"col2\"]\n"
  88. "}\n"
  89. )
  90. #
  91. # 4. PRÉPARATION DU MESSAGE UNIQUE (La méthode qui marche pour l'Exécuteur)
  92. # On fusionne le prompt et la question utilisateur dans un seul HumanMessage
  93. full_input = f"{prompt}\n\n### QUESTION UTILISATEUR ###\n{user_query}"
  94. final_messages = [HumanMessage(content=full_input)]
  95. config_analyseur = {
  96. "callbacks": [langfuse_handler],
  97. "metadata": {"agent_name": "Analyseur"}
  98. }
  99. # 5. APPEL DU MODÈLE
  100. # Note : On utilise local_llm (ou analyseur_llm si tu as séparé)
  101. response = local_llm_chat.invoke(final_messages, config=config_analyseur)
  102. return {"messages": [response]}
  103. def agent_executor(state: AgentState):
  104. # On récupère le nom exact du fichier depuis le state
  105. full_path = state.get("current_df_path") or "data/default.csv"
  106. file_name = os.path.basename(full_path) # Récupère 'mon_fichier.csv'
  107. # On construit le prompt en injectant le nom dynamiquement
  108. prompt = (
  109. "### SYSTEM ROLE ###\n"
  110. "Tu es un moteur d'exécution Python. Réponds EXCLUSIVEMENT au format JSON.\n\n"
  111. "### FICHIER ACTUEL ###\n"
  112. f"Fichier : '{file_name}' | Chemin : 'data/{file_name}'\n\n"
  113. "### INSTRUCTIONS DE CODE & SÉCURITÉ ###\n"
  114. "1. Imports : pandas, matplotlib.pyplot.\n"
  115. f"2. Chargement : df = pd.read_csv('data/{file_name}')\n"
  116. "3. SYNTAXE (Apostrophes) : Utilise TOUJOURS des doubles guillemets (\"\") pour les labels.\n\n"
  117. "4. GRAPHIQUES (SAUVEGARDE) :\n"
  118. " - INTERDIT : plt.show()\n"
  119. " - OBLIGATOIRE : plt.savefig('outputs/nom_du_graphe.png')\n\n"
  120. "5. DATA REPORTING (CRUCIAL POUR LE REPORTER) :\n"
  121. " - AVANT de générer le graphique, calcule les stats clés (Somme, Moyenne, Top 3).\n"
  122. " - Utilise print() pour afficher ces chiffres afin que le Reporter les reçoive.\n\n"
  123. "6. VARIABLE 'result' :\n"
  124. " - Termine ton code par une variable 'result' qui récapitule :\n"
  125. " 1. Les fichiers générés (ex: 'outputs/ventes.png')\n"
  126. " 2. Un résumé textuel des chiffres affichés par les graphiques.\n\n"
  127. "### EXEMPLE DE CODE INTERNE ATTENDU ###\n"
  128. "import pandas as pd\n"
  129. "import matplotlib.pyplot as plt\n"
  130. "df = pd.read_csv('...')\n"
  131. "stats = df.groupby('Pays')['Ventes'].sum()\n"
  132. "print(stats) # <--- Ceci permet au Reporter de voir les chiffres !\n"
  133. "plt.bar(stats.index, stats.values)\n"
  134. "plt.savefig('outputs/ventes_pays.png')\n"
  135. "result = f\"Graphique 'ventes_pays.png' généré. Chiffres clés : {stats.to_dict()}\"\n"
  136. )
  137. # Nettoyage des messages pour Ollama (comme avant)
  138. cleaned_messages = []
  139. for m in state["messages"]:
  140. if m.type == "tool":
  141. cleaned_messages.append(HumanMessage(content=f"Résultat : {m.content}"))
  142. else:
  143. cleaned_messages.append(m)
  144. # On place le prompt dynamique en premier
  145. final_messages = [HumanMessage(content=prompt)] + cleaned_messages
  146. return {"messages": [model_with_tools.invoke(final_messages)]}
  147. def agent_reporter(state : AgentState) :
  148. prompt_reporter = (
  149. ### RÔLE ###
  150. """ Tu es un Expert Consultant en Data Visualisation et Analyse Statistique.
  151. Ton objectif est de transformer des données techniques brutes en un rapport stratégique clair, élégant et actionnable.
  152. ### DIRECTIVES DE RÉDACTION ###
  153. 1. INTERPRÉTATION : Ne te contente pas de citer les chiffres. Explique ce qu'ils signifient Utilise correctement les chiffres retournés par les outils : assure-toi de bien les comprendre et de les avoir triés.
  154. 2. STRUCTURE : Utilise des titres (##), du gras (**), et des listes à puces pour la clarté.
  155. 3. VISUELS : Mentionne les graphiques générés avec l'émoji 📊.
  156. 4. TON : Professionnel, dynamique et rassurant.
  157. 5. PAS DE JSON : Ta réponse doit être uniquement du texte formaté en Markdown.
  158. ### STRUCTURE DU RAPPORT ###
  159. ## 📝 Synthèse de l'Analyse
  160. (Un paragraphe fluide qui résume la situation globale).
  161. ## 💡 Points Clés & Insights
  162. - **[Point 1]** : Explication...
  163. - **[Point 2]** : Explication...
  164. ## 📊 Visualisations Disponibles
  165. - [Nom du fichier.png] : Brève description de ce que le graphique démontre.
  166. ## 🚀 Recommandations si tu n'as
  167. (Une ou deux phrases sur la prochaine étape suggérée)."""
  168. )
  169. all_messages = state["messages"]
  170. # On ne garde que :
  171. # 1. Le premier message (User) pour le contexte
  172. # 2. Le DERNIER message de l'IA (le code qui a marché)
  173. # 3. Le DERNIER message de l'outil (les données réelles)
  174. important_messages = [
  175. all_messages[0], # La question de l'utilisateur
  176. [m for m in all_messages if isinstance(m, AIMessage)][-1], # Le dernier code
  177. [m for m in all_messages if isinstance(m, ToolMessage)][-1] # Le dernier résultat
  178. ]
  179. # Nettoyage des messages pour Ollama (comme avant)
  180. cleaned_messages = []
  181. for m in important_messages :
  182. if m.type == "tool":
  183. cleaned_messages.append(HumanMessage(content=f"Résultat : {m.content}"))
  184. else:
  185. cleaned_messages.append(m)
  186. # On place le prompt dynamique en premier
  187. final_messages = [HumanMessage(content=prompt_reporter)] + cleaned_messages
  188. return {"messages": [local_llm_reporter.invoke(final_messages)]}