CONVERSATIONAL LARGE LANGUAGE MODEL-BASED USER TENANT ORCHESTRATION
Systems and methods are provided for implementing conversational large language model ("LLM") or other AI/ML-based user tenant orchestration. A first prompt is generated based on natural language ("NL") input from a user. The first prompt is used by a first LLM or AI/ML system to...
Gespeichert in:
Hauptverfasser: | , , , , , |
---|---|
Format: | Patent |
Sprache: | eng ; fre |
Schlagworte: | |
Online-Zugang: | Volltext bestellen |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Zusammenfassung: | Systems and methods are provided for implementing conversational large language model ("LLM") or other AI/ML-based user tenant orchestration. A first prompt is generated based on natural language ("NL") input from a user. The first prompt is used by a first LLM or AI/ML system to generate a query to access data items that are stored in a portion of a multitenant data storage system, the portion being accessible by the user. Once accessed and received, the data items are input into a second prompt that is used by a second LLM or AI/ML system to return a set of functions with corresponding sets of arguments. The set of functions are executed according to the sets of arguments, and the results of the executed functions are used to generate a response to the NL input. The generated response is then caused to be presented to the user via a user interface.
Sont proposés des systèmes et des procédés servant à mettre en œuvre une orchestration de locataire d'utilisateur basée sur un grand modèle de langage (« LLM ») conversationnel ou un autre système IA/ML. Une première invite est générée sur la base d'une entrée en langage naturel (« NL ») provenant d'un utilisateur. La première invite est utilisée par un premier LLM ou système IA/ML pour générer une requête en vue d'accéder à des éléments de données qui sont stockés dans une partie d'un système de stockage de données à locataires multiples, la partie étant accessible par l'utilisateur. Une fois accédés et reçus, les éléments de données sont entrés dans une seconde invite qui est utilisée par un second LLM ou système IA/ML pour renvoyer un ensemble de fonctions avec des ensembles d'arguments correspondants. L'ensemble de fonctions est exécuté selon les ensembles d'arguments, et les résultats des fonctions exécutées sont utilisés pour générer une réponse à l'entrée NL. La réponse générée est ensuite amenée à être présentée à l'utilisateur par l'intermédiaire d'une interface utilisateur. |
---|