What’s new? Wir präsentieren Ihnen den Mindbreeze InSpire AI Chat



Im folgenden Blog-Beitrag stellen wir Ihnen den Mindbreeze InSpire AI Chat, die wichtigste Innovation der Mindbreeze InSpire Release 23.7, vor. Der Mindbreeze InSpire AI Chat ist lokal, als SaaS und in der Cloud für Mindbreeze Kunden ab sofort verfügbar.

Mindbreeze InSpire AI Chat

Mit dem Mindbreeze InSpire 23.7 Release bietet Mindbreeze InSpire eine neue Art der Informationsgewinnung an. Ähnlich wie ChatGPT, fasst der Mindbreeze InSpire AI Chat relevante Fakten in natürlicher Sprache zusammen. Anwender:innen erhalten durch eingeblendete Quellenangaben zusätzlichen Kontext und können so Antworten einfach und schnell nachvollziehen. 

 

 

 

Wie funktioniert der Mindbreeze InSpire AI Chat?

Die technologische Basis für den Mindbreeze InSpire AI Chat bildet eine Generative AI. Diese sammelt mittels Retrieval Augmented Generation (RAG) die notwendigen Fakten aus Mindbreeze InSpire. Unter Beachtung der Zugriffsrechte des Nutzers verarbeitet ein Large Language Model (LLM) die gesammelten Fakten und generiert daraus Antworten. Nachfolgend sehen Sie diesen Prozess in einer Grafik visuell dargestellt.

 

 

 

Dabei sichert eine breite Unterstützung von verschiedenen Konnektoren die Datenaktualität der Antworten. Eine individuelle Informationslandschaft, mithilfe von semantischen Verbindungen abgebildet, reichern bestehenden Informationen mit zusätzlichem Kontext an. Nutzer:innen erhalten so noch umfassendere Antworten. Die Datensicherheit ist durch verschiedene Authentisierungsmöglichkeiten jederzeit gewährleistet. 

Erstellung und Verwaltung der AI Chat Pipelines

Datenquellen, die im Mindbreeze Search Client konfiguriert sind, können nahtlos übernommen und sofort im Mindbreeze InSpire AI Chat verwendet werden. Mit wenigen Klicks erstellen Administrator:innen individuelle Modelle sowie Pipelines und steuern diese mithilfe von Einschränkungen und Feineinstellungen präzise. Auch das Hinzufügen oder das Ausschließen von Datenquellen ist möglich. 

 

 

Sie können Modelle auf unterschiedliche Abteilungen spezialisieren, wie im folgenden Screenshot zu sehen ist. Um ältere Modelle wiederzuverwenden, ist auch eine Versionierung möglich. 

 

 

So erzeugen Administratoren ganz einfach maßgeschneiderten Modelle für verschiedene Anwendungsfälle.

 

Detailinformationen zu unseren Neuerungen und Features finden Sie in unseren Release Notes.

Kontaktieren Sie unsere Experten für weitere Informationen.

Zuletzt erschienen

Linking Non Indexed Documents with Instant Semantic Context

Britney Chandler

Context and ChallengeOrganizations frequently need to act on information that has just arrived, a management report before a board meeting, a contract from a partner, or a project update that requires immediate decisions.

Future-Proofing Enterprise AI with Secure and Flexible Deployment Options

Britney Chandler

Enterprise AI initiatives depend on reliable access to organizational knowledge. However, connecting information across cloud services, internal systems, and legacy infrastructure requires a product that can balance two critical priorities: security and flexibility.