Chat contextuel (Chat with code)
Conversation interactive alimentée par LLMs avec accès au contexte code indexé du projet. Permet poser des questions sur le code, générer analyses de bugs et obtenir réponses contextualisées.
Démarrer une conversation
Guide pas à pas pour lancer des échanges avec le chat contextuel : ouvrir l'onglet 'Chat with code', sélectionner le modèle AI adapté, rédiger votre message et l'envoyer. Inclut conseils sur le choix de modèle et le comportement du chat selon la configuration du projet.
Contexte code et RAG (Retrieval-Augmented Generation)
Explique comment le chat intègre automatiquement le contexte code indexé du projet via RAG pour enrichir les réponses : fonctionnement des recherches dans l'index, portée du contexte utilisé et bonnes pratiques pour obtenir des réponses pertinentes.
Historique, streaming et limites
Documentation sur l'historique de conversation, le streaming des réponses longues et les limites associées (taux, quotas et comportement selon modèle). Comprend comment naviguer dans l'historique et gérer les réponses en streaming.
Configuration & gestion : clés API et emails entrants
Regroupe la configuration nécessaire pour que le chat fonctionne : gestion des API keys, navigation vers l'aide associée, et gestion des emails entrants du projet (affichage et copie de l'adresse inbound pour envoyer des tickets).