tools.py 5.8 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183
  1. import os
  2. import pandas as pd
  3. from langchain_core.tools import tool
  4. from langchain_community.tools import DuckDuckGoSearchRun
  5. import matplotlib.pyplot as plt
  6. import seaborn as sns
  7. from langchain_core.messages import HumanMessage, AIMessage
  8. import matplotlib
  9. matplotlib.use('Agg') # Force Matplotlib à ne pas ouvrir de fenêtre graphique
  10. @tool
  11. def convert_csv_to_excel(csv_path: str):
  12. """Convertit un fichier CSV en Excel (.xlsx)."""
  13. if not os.path.exists(csv_path):
  14. return f"Désolé, je ne trouve pas le fichier '{csv_path}'. Vérifiez qu'il est bien présent dans le dossier du projet."
  15. try:
  16. df = pd.read_csv(csv_path)
  17. new_path = csv_path.replace(".csv", ".xlsx")
  18. df.to_excel(new_path, index=False)
  19. return f"Succès : Le fichier a été converti en {new_path}"
  20. except Exception as e:
  21. return f"Erreur lors de la lecture du CSV : {str(e)}"
  22. BASE_DIR = os.path.dirname(os.path.abspath(__file__))
  23. @tool
  24. def inspect_data(file_name: str):
  25. """
  26. Explore le fichier situé dans le dossier 'data/' pour retourner les colonnes et un aperçu.
  27. Passer uniquement le nom du fichier (ex: 'data.csv').
  28. """
  29. # 1. On nettoie le nom du fichier au cas où l'IA ajoute des guillemets
  30. clean_name = file_name.strip().replace("'", "").replace('"', "")
  31. # 2. On construit le chemin ABSOLU vers le dossier data
  32. # On suppose que ton script est à la racine du projet
  33. data_path = os.path.join(os.getcwd(), "data", clean_name)
  34. try:
  35. # 3. Vérification de l'existence du fichier
  36. if not os.path.exists(data_path):
  37. return f"Erreur : Le fichier '{clean_name}' est introuvable dans le dossier data/."
  38. # 4. Lecture selon l'extension (Note : correction de 'endiwith' en 'endswith')
  39. if data_path.lower().endswith(".csv"):
  40. df = pd.read_csv(data_path) # Utilisation de la variable data_path, PAS de la chaîne "file_path"
  41. elif data_path.lower().endswith((".xlsx", ".xls")):
  42. df = pd.read_excel(data_path)
  43. else:
  44. return "Format de fichier non supporté. Utilisez .csv ou .xlsx"
  45. # 5. Extraction des infos
  46. columns_names = df.columns.tolist()
  47. preview = df.head(3).to_string()
  48. return f"Colonnes trouvées : {columns_names}\n\nAperçu des données :\n{preview}"
  49. except Exception as e:
  50. return f"Erreur lors de l'inspection : {str(e)}"
  51. @tool
  52. def excel_code_interpreter(file_path: str, code: str):
  53. """Exécute du code Python sur le fichier (CSV ou Excel) chargé dans 'df'."""
  54. import warnings
  55. warnings.filterwarnings("ignore")
  56. # Nettoyage et construction du chemin (Ton code existant est bon ici)
  57. file_name = os.path.basename(file_path.strip().replace("'", "").replace('"', ""))
  58. data_folder_path = os.path.join(BASE_DIR, "data", file_name)
  59. root_path = os.path.join(BASE_DIR, file_name)
  60. if os.path.exists(data_folder_path):
  61. full_path = data_folder_path
  62. elif os.path.exists(root_path):
  63. full_path = root_path
  64. else:
  65. return f"ERREUR : Fichier '{file_name}' introuvable."
  66. try:
  67. # Lecture du fichier
  68. df = pd.read_csv(full_path) if file_name.endswith('.csv') else pd.read_excel(full_path)
  69. # SOLUTION : On utilise un seul dictionnaire pour simplifier
  70. # On passe les builtins réels du système pour autoriser les imports
  71. context = {
  72. "df": df,
  73. "pd": pd,
  74. "plt": plt,
  75. "os": os,
  76. "result": None,
  77. "__builtins__": __builtins__ # On donne accès aux fonctions natives
  78. }
  79. # On exécute dans le même dictionnaire pour globals et locals
  80. exec(code, context)
  81. return str(context.get("result", "Exécution terminée."))
  82. except Exception as e:
  83. return f"ERREUR PYTHON : {str(e)}"
  84. ddg = DuckDuckGoSearchRun()
  85. @tool
  86. def search_tool(query : str) :
  87. """Recherche sur le web. Limité pour économiser les tokens."""
  88. try:
  89. results = ddg.run(query)
  90. if not results:
  91. return "Aucun résultat trouvé."
  92. # 1. On nettoie les espaces superflus pour gagner des tokens
  93. clean_results = " ".join(results.split())
  94. # 2. On limite intelligemment (ex: 1200 chars pour plus de contexte)
  95. # Mais on s'assure de ne pas couper un mot au milieu
  96. limit = 1200
  97. if len(clean_results) <= limit:
  98. return clean_results
  99. return clean_results[:limit] + "... [Résultat tronqué pour économie]"
  100. except Exception as e:
  101. return f"Erreur lors de la recherche : {str(e)}"
  102. def call_tool_and_format_for_ollama(tool_output):
  103. """
  104. Cette fonction transforme la sortie brute de l'outil
  105. en un format que ton Llama 3.1 8B local peut comprendre.
  106. """
  107. # Au lieu de renvoyer un ToolMessage (qui fait planter Ollama)
  108. # On crée un message "Observation"
  109. observation_message = HumanMessage(
  110. content=f"OBSERVATION DE L'OUTIL :\n{tool_output}\n\nUtilise ces données pour continuer ton analyse."
  111. )
  112. return observation_message
  113. import re
  114. import json
  115. def robust_json_parse(text):
  116. try:
  117. cleaned = text.strip()
  118. # Extraction JSON
  119. match = re.search(r"\{.*\}", cleaned, re.DOTALL)
  120. if not match:
  121. raise ValueError("Aucun JSON détecté")
  122. json_str = match.group()
  123. # Parsing direct
  124. try:
  125. return json.loads(json_str)
  126. except json.JSONDecodeError:
  127. pass
  128. # Auto-fix
  129. json_str = json_str.replace("\n", " ")
  130. json_str = re.sub(r",\s*}", "}", json_str)
  131. json_str = re.sub(r",\s*]", "]", json_str)
  132. return json.loads(json_str)
  133. except Exception as e:
  134. raise ValueError(f"Parsing JSON échoué : {e}\nRAW:\n{text}")