CHANGELOG ALBERT | AI 2.x
ALBERT | AI installieren Sie komfortabel über den Plugin Manager.
-
ALBERT | AI 2.1.14-2.7.6
Erstellt von ALBERT:
- Decorator 'Erstellt von ALBERT': Neuer agorum.cards-Decorator für alle Objekte mit dem Metadatum
agorum_ai_created_by_ai = true.Es wird ein grauer Chip/Tag Erstellt von ALBERT vor den bestehenden Tags in der Card-Darstellung angezeigt. - Neue Metadaten 'Created by AI': Zwei neue Metadatenfelder eingeführt, mit denen Objekte, die von ALBERT | AI Tools erstellt werden, automatisch gekennzeichnet werden:
agorum_ai_created_by_ai (Boolean):Kennzeichnet, ob ein Objekt durch einen KI-Agenten erstellt wurde.agorum_ai_chat_id (String):Speichert die Chat-ID (contextId) des KI-Chats, in dem das Objekt erstellt wurde.
- Siehe Dokumentation.
ALBERTs Chat:
- Rendering von Chat-Nachrichten komplett überarbeitet:
- Diverse Rendering-Probleme behoben
- Textmarkierung funktioniert nun auch während der Chat läuft
- Kein Flackern mehr bei Bildern im Chat
- Optimierte Ausgabe von Tool-Calls und Tool-Responses
- Performance-Optimierung: Große Chats werden nun deutlich performanter gerendert
- Debug-Modus komplett überarbeitet:
- Kompaktere Darstellung von Debug-Informationen, Tool-Calls und Tool-Responses
- Tool-Calls und Tool-Responses werden nun gruppiert dargestellt
- Tool-Responses werden nun als geparstes JSON angezeigt (statt als JSON-String)
- Statistiken werden kompakt dargestellt und sind bei Bedarf einblendbar
- System-Nachricht/Kontext wird kompakt dargestellt und ist bei Bedarf einblendbar
- Zustand von Show Code-Buttons wird gespeichert: Im Debug-Modus des Chats werden die Show Code-Toggle-Buttons nun in ihrem geöffneten/geschlossenen Zustand beibehalten. Beim erneuten Rendern der Nachrichten – etwa bei laufenden KI-Antworten, Chat-Wechsel oder Modus-Wechsel – bleiben zuvor geöffnete Code-Blöcke geöffnet und geschlossene geschlossen. Die Implementierung erfolgt analog zum bestehenden System für aufklappbare Debug-Boxen (expandedBoxStates).
- Scroll-Verhalten im Chat verbessert (Conversation-Block-Refactoring):
- Benutzernachrichten und zugehörige KI-Antworten werden nun in einem gemeinsamen Conversation-Block-Container zusammengefasst
- Jeder Conversation-Block besitzt eine Mindesthöhe, die ein stabiles und flüssiges Scrollen gewährleistet
- Der bisherige Spacer-Div-Ansatz wurde durch den neuen Conversation-Block-Ansatz ersetzt
- Visuelles Springen beim Erscheinen oder Verschwinden von Tool-Call-Boxen wurde behoben
- Stabileres Scroll-Verhalten bei laufenden KI-Antworten mit Tool-Aufrufen
- Zustand von aufklappbaren Boxen wird gespeichert: Im Chat werden aufklappbare Boxen (z. B. Tool-Calls, Debug-Informationen) nun in ihrem geöffneten/geschlossenen Zustand beibehalten. Beim erneuten Rendern der Nachrichten – etwa beim Wechsel zwischen Chats oder bei laufenden KI-Antworten – bleiben zuvor geöffnete Boxen geöffnet und geschlossene Boxen geschlossen.
- Infrastruktur für Screen Capture: Im Chat-Eingabebereich wurde die Infrastruktur für die Screen-Capture-Funktion integriert (Button, Broadcast-Kommunikation, Context Store). Die eigentliche Screen-Capture-Funktionalität wird durch das Plugin agorum.ai.agents bereitgestellt.
- Performance-Optimierung im Chat: Im Chat-Modus werden Debug-Inhalte (Tool-Call-Details, Tool-Response-Details, Debug-Info-Boxen) nicht mehr in das DOM gerendert. Da der Modus-Wechsel ohnehin ein vollständiges Neurendern auslöst, gehen keine Informationen verloren. Dies reduziert die DOM-Größe im Chat-Modus und verbessert die Rendering-Performance insbesondere bei Chats mit vielen Tool-Aufrufen.
- iFrame Event-Bridge für Chat-Widgets: Mouse- und Wheel-Events aus Widget-iFrames im Chat werden nun per postMessage an das äußere Dokument weitergeleitet und dort als synthetische DOM-Events auf dem iFrame-Element re-dispatcht. Dadurch funktionieren Scroll-Erkennung und ExtJS-Interaktionen (z. B. Fenster-Resize) korrekt, auch wenn die Maus über ein Chat-Widget bewegt wird.
- Bugfix appendHistory-Mechanismus: Beim Anhängen von Einträgen an die Chat-Historie (appendHistory) wurden die Tools nicht mitgeliefert. Dies führte dazu, dass die KI nach dem Anhängen stoppte und der Chat nicht mehr weiterlief. Betroffen war insbesondere das Lesen von Bildern über das Tool get_object_as_image, nach dessen Ausführung der Chat abbrach.
- Bugfix Chat-Wechsel (sendPrompt-Isolation): Beim Wechsel zwischen mehreren geöffneten Chats wurde das sendPrompt-Event an alle Chat-Instanzen gesendet, nicht nur an den aktiven Chat. Dies führte dazu, dass Nachrichten in falschen Chats ankamen. Das Event wird nun nur noch vom zugehörigen Chat-Panel verarbeitet.
- Bugfix Memory-Leaks beim Chat-Wechsel: Beim Wechsel zwischen Chats wurden Event-Listener, Intervalle, Timeouts und MutationObserver nicht aufgeräumt, was zu steigendem Speicherverbrauch und unerwartetem Verhalten führte. Es wurden destroy()-Methoden in den Modulen messages-browser-widgets.js, messages-browser-scroller.js und messages-browser-features.js implementiert, die beim Chat-Wechsel aufgerufen werden.
- Bugfix Focus-Patch Multi-Instanz-Sicherheit: Der HTMLElement.prototype.focus-Patch war nicht multi-instanz-sicher – beim Entfernen eines Chat-Panels wurde der Patch für alle Panels deaktiviert. Der Patch verwendet nun ein gemeinsames Set (window._agorum_ai_focus_panels), sodass mehrere Chat-Instanzen korrekt koexistieren können.
- Bugfix Tag-Suche in der Chat-Historie: Die Suche nach Tags mit Bindestrichen (z. B. #chat-widget-demo) lieferte keine Ergebnisse. Ursache waren zwei Probleme: Erstens wurden Solr-Sonderzeichen wie Bindestriche nicht escaped, zweitens wurde das tokenisierte Feld user_ag_tags verwendet, das Tags an Bindestrichen auftrennt. Die Suche verwendet nun das nicht-tokenisierte Feld user_ag_tags_ci und escaped Solr-Sonderzeichen korrekt.
KI-Voreinstellungen (Presets):
- Sticky Fallback-Modell: Wenn ein Fallback-Modell aktiviert wird, weil das primäre Modell nicht verfügbar ist, bleibt dieses Fallback-Modell nun über die Chat-Historie für alle nachfolgenden Aufrufe aktiv. Dadurch werden wiederholte Fehlversuche auf dem nicht verfügbaren Primärmodell vermieden. Erst wenn auch das Fallback-Modell fehlschlägt, wird die komplette Fallback-Kaskade erneut durchlaufen (siehe Dokumentation).
- Long Context für Anthropic: In den Einstellungen des Anthropic-Providers steht nun eine neue Checkbox Long Context (1M Tokens) zur Verfügung. Wenn aktiviert, wird der HTTP-Header
anthropic-beta: context-1m-2025-08-07gesendet, um das erweiterte Kontextfenster von 1 Million Tokens zu nutzen (Dokumentation). Hinweis: Bei Eingaben über 200.000 Tokens fallen höhere Kosten an. - Custom Parameters für KI-Voreinstellungen: In den erweiterten Einstellungen einer KI-Voreinstellung steht nun ein neues Feld "Custom Parameters" zur Verfügung. Dort kann beliebiges JSON eingetragen werden (z. B.
{"key": "value"}), das beim KI-Aufruf geparst und in die Request-Parameter übernommen wird. Benutzerdefinierte Parameter überschreiben dabei Standard-Parameter. Ungültiges JSON wird ignoriert und in der Konsole protokolliert (siehe Dokumentation)
Filterfunktionen für KI-Voreinstellungen:
- In der Suche nach KI-Voreinstellungen (Presets) steht nun ein umfangreicher Filter zur Verfügung, mit dem gezielt nach Voreinstellungen gesucht werden kann (siehe Dokumentation). Der Filter umfasst folgende Kriterien:
- Freitextsuche: Suche über Name und Anzeigename
- Provider und Modell: Filterung nach dem konfigurierten KI-Provider und Modell
- Fähigkeiten: Filterung nach unterstützten Fähigkeiten (Texte, Bilder, Tools, Code-Interpreter)
- Status: Filterung nach Aktiv, Im Chat verfügbar, Standard, Ausgelieferte Setups, Kein Projekt, Referenz-Setup, Modell-Setup
- Projekt: Filterung nach dem zugeordneten Konfigurationsprojekt
- Konfigurationsgruppe: Filterung nach der Konfigurationsgruppe
- Neue Metadaten für KI-Voreinstellungen: Auf den Preset-Objekten werden nun zusätzliche Metadaten gesetzt (Provider, Modell, Referenz-Status, Fähigkeiten, Projekt), die für die Filterung und Übersicht genutzt werden.
- Update-Script: Ein Update-Script aktualisiert alle bestehenden KI-Voreinstellungen mit den neuen Metadaten.
- Der Filterbereich wird nun standardmäßig geöffnet angezeigt, wenn ein Filter für die Suche konfiguriert ist.
KI-Anbieter (Provider):
- tool_choice-Unterstützung für Provider: Die Provider-Implementierungen für Anthropic (anthropic.js) und Gemini (gemini.js) konvertieren nun den standardisierten tool_choice: 'required'-Parameter korrekt in das jeweilige provider-spezifische Format (siehe Dokumentation):
- Anthropic:
'required'wird zu{type: 'any'} - Gemini:
'required'wird zutool_config: {function_calling_config: {mode: 'ANY'}}
- Anthropic:
KI-Handler:
- Usage-Protocol: Der Usage-Protocol-Handler ermittelt nun das tatsächlich verwendete Modell korrekt, auch wenn ein Fallback-Modell aktiv ist. Zuvor wurde immer das konfigurierte Primärmodell protokolliert. Zusätzlich werden nun auch die Preise des tatsächlich verwendeten Fallback-Modells für die Kostenberechnung herangezogen (siehe Dokumentation).
- History-Compaction Fehlerbehandlung verbessert: Der try/catch-Block im History-Compaction-Handler (history-compaction.js) wurde entfernt. Fehler bei der Komprimierung der Chat-Historie werden nun nicht mehr still verschluckt, sondern brechen den gesamten Chat-Aufruf ab. Zuvor konnte es zu einer Endlosschleife kommen, wenn die Komprimierung wiederholt fehlschlug, da der Chat ohne Komprimierung weiterlief und beim nächsten Aufruf erneut versuchte zu komprimieren. Zusätzlich wird nun ein expliziter Fehler geworfen, wenn die KI-Antwort ein error-Objekt enthält.
- Handler-Deduplizierung: Preset-Handler überschreiben nun globale Handler mit gleichem Namen, anstatt beide auszuführen.
Referenzbaum für KI-Konfigurationen:
- Neuer „Referenzen anzeigen“-Button in den Einstellungen von KI-Voreinstellungen, Handlern und Tools. Öffnet ein Popup mit einer Baumansicht aller Referenzbeziehungen (ausgehende und eingehende Referenzen) (siehe Dokumentation).
- Rekursive Tiefe mit Lazy Loading (veiled Nodes) für performante Darstellung auch bei komplexen Referenzketten
- Doppelklick auf einen Knoten öffnet die jeweilige Konfiguration direkt
- Unterstützt Presets, Handler, Tools, Tool-Gruppen und MCP-Tools
- Erkennung von zirkulären Referenzen
- Bugfix Referenzbaum – indirekte Tool-Referenzen über Tool-Gruppen: Im Referenzbaum für KI-Tools wurden Presets, die ein Tool nur indirekt über eine Tool-Gruppe referenzieren, nicht als eingehende Referenzen angezeigt. Der Referenzbaum zeigt nun zusätzlich eine Sektion „Enthalten in Tool-Gruppen“ mit den jeweiligen Tool-Gruppen an, und unter jeder Tool-Gruppe werden die Presets aufgeführt, die diese Gruppe verwenden (als indirekte Referenzen gekennzeichnet).
ALBERT | AI allgemein:- Tool-Calls werden nun parallel statt sequentiell ausgeführt. Dies betrifft sowohl den Chat (chat.js) als auch die synchrone Tool-Call-Verarbeitung (ai.js chatWithToolCalls). Bis zu 10 Tool-Aufrufe können nun gleichzeitig verarbeitet werden, was die Gesamtdauer bei mehreren Tool-Aufrufen erheblich reduziert.
- Pool-Bibliothek optimiert: Die Thread-Pool-Bibliothek (pool.js) wurde grundlegend überarbeitet:
- Thread-Synchronisation von monitor.wait()/notifyAll() auf Future.get(timeout)-Polling umgestellt für robustere Parallelverarbeitung
- Innere MiniPromise-Objekte durch direkten Callback-Ansatz ersetzt für geringeren Overhead
- Verbesserte Fehlerbehandlung mit korrektem Unwrapping von JavaScript-Exceptions aus Java ExecutionExceptions
- Neuer handlerLoop/customLoop-Mechanismus: Die Chat-Bibliothek (ai.js und chat.js) unterstützt nun einen neuen finishReason-Wert handlerLoop. Wenn ein KI-Handler im After-Hook result.finishReason = 'handlerLoop' setzt, wird die Chat-Schleife automatisch fortgesetzt – analog zu Tool-Calls, jedoch ohne dass ein Tool-Aufruf stattgefunden hat. Damit können Handler eigene Schleifen-Logik implementieren (z. B. für Agent-Mode). Zusätzlich wird customLoop als Alias unterstützt.
- Wenn über die Chat-Bibliothek (chat.js) ein Kontext beim Starten eines Chats mitgegeben wurde, wurde dieser zwar korrekt im Chat-Objekt gespeichert, jedoch nicht an die geöffnete Chat-Oberfläche propagiert. Der Kontext war erst nach erneutem Öffnen des Chats in den Einstellungen sichtbar. Ursache war ein fehlendes inputLastSaved-Update, wodurch die UI die Änderung nicht erkannte.
- Debug-Logging aus ai.js entfernt: Temporäre console.log-Ausgaben mit dem Präfix [DEBUG ai.js] in der Funktion chatWithToolCalls wurden bereinigt. Diese dienten zur Analyse der aiContextToolPrompt-Verarbeitung und sind nicht mehr erforderlich.
- Decorator 'Erstellt von ALBERT': Neuer agorum.cards-Decorator für alle Objekte mit dem Metadatum
-
ALBERT | AI 2.0.56-2.1.13
KI-Provider (KI-Anbieter):
- Neuer Kimi Provider: Unterstützung für Kimi (Moonshot AI) als neuen KI-Provider hinzugefügt ( siehe Dokumentation). Der Provider unterstützt das K2.5 Thinking Modell mit reasoning_content für erweiterte Reasoning-Fähigkeiten.
- Der ollama Provider wurde als 'veraltet' markiert. Stattdessen kann jetzt der ganz normale OpenAI-Treiber genutzt werden. Es muss lediglich die URL zum ollama-Server unter 'Erweiterte Einstellungen' eingetragen werden ( siehe Dokumentation).
KI-Voreinstellungen (Presets):
- KI-gestützte Preisermittlung:
- In den KI-Voreinstellungen kann die KI über den Button 'Preise über KI ermitteln' (mit Sparkles-Icon) automatisch nach aktuellen Token-Preisen für das ausgewählte Modell suchen. Die KI durchsucht das Internet nach offiziellen Preisseiten und extrahiert die Preise pro 1 Million Tokens. Im Bestätigungsdialog werden die gefundenen Preise zusammen mit einer Erklärung angezeigt, wie die Preise ermittelt wurden oder warum bestimmte Preise nicht gefunden werden konnten.
Voraussetzung: Das Preset agorum_ai_configuration_assistant muss eingerichtet sein und ein leistungsstarkes KI-Modell verwenden (z. B. Claude 4.5 Sonnet oder vergleichbar), um zuverlässig Preise aus dem Internet ermitteln zu können. Der Button ist nur aktiv, wenn ein Modell ausgewählt ist (nicht im Referenz-Modus) und auch ALBERT | AI Agents verwendet wird. - Preiskonfiguration für KI-Modelle: In den KI-Voreinstellungen können jetzt Token-Preise konfiguriert werden (Input-Tokens, Output-Tokens, Cache-Read, Cache-Write pro 1 Million Tokens sowie Tool-Aufrufe pro 1.000). Diese Preise dienen der Kostenberechnung und Anzeige im Debug-Modus.
- Siehe Dokumentation
- In den KI-Voreinstellungen kann die KI über den Button 'Preise über KI ermitteln' (mit Sparkles-Icon) automatisch nach aktuellen Token-Preisen für das ausgewählte Modell suchen. Die KI durchsucht das Internet nach offiziellen Preisseiten und extrahiert die Preise pro 1 Million Tokens. Im Bestätigungsdialog werden die gefundenen Preise zusammen mit einer Erklärung angezeigt, wie die Preise ermittelt wurden oder warum bestimmte Preise nicht gefunden werden konnten.
- Die Konfigurationen von Tools und Handlern in den KI-Voreinstellungen werden nun mit den Definitionen von referenzierten Konfigurationen gemischt anstatt überschrieben. Damit ist es nun möglich, weitere Tools/Handler in referenzierten KI-Voreinstellungen zu konfigurieren, die dann auch zur Verfügung stehen.
Ist dasselbe Tool in der eigentlichen Konfiguration und der Referenz vorhanden, dann gilt die Definition von der übergeordneten Konfiguration und nicht von der Referenz. Damit ist es nun möglich in den ausgelieferten *_base-Konfigurationen weitere Tools oder Handler zu konfigurieren, ohne dass diese überschrieben werden.
Beispiel bei "agorum_ai_agents_details_chat_base": Seither: preset_1 (tool1, tool2) -> Referenz auf -> preset_2 (tool3): Ergebnis nur tool1 und tool2 standen zur Verfügung Neu: preset_1 (tool1, tool2) -> Referenz auf -> preset_2 (tool3): Ergebnis tool1, tool2 und tool3 stehen jetzt zur Verfügung. - Neue Parameter
- Neuer Parameter Frequency Penalty (Wiederholungsstrafe) für KI-Modelle hinzugefügt. Dieser Parameter reduziert die Wiederholung von Wörtern und Phrasen in der generierten Antwort (Wertebereich 0-2).
- Neuer Parameter Random Seed (Zufalls-Seed) für KI-Modelle hinzugefügt. Dieser Parameter ermöglicht deterministische und reproduzierbare KI-Ausgaben durch Festlegung eines Startwerts für den Zufallsgenerator.
- Neuer Parameter Top-k für KI-Modelle hinzugefügt. Dieser Parameter beschränkt die Auswahl auf die k wahrscheinlichsten Wörter bei der Textgenerierung.
- Siehe Dokumentation
- Fehler behoben, wenn 'normale' Benutzer ein Preset anlegen wollten, kam eine Fehlermeldung.
KI-Handler:
- Einführung von KI-Handlern für den Datenzugriff vor und nach der Bearbeitung durch die KI.
- KI-Handler Konfiguration hinzugefügt, um KI-Handler individuell konfigurieren zu können.
- Standard-KI-Handler:
- AI Filter: KI-basierter Filter, der ein lokales LLM nutzen kann, um personenbezogene Daten zu identifizieren (siehe Dokumentation).
- Simple String Array Filter: Regex- und String-basierter Filter, um personenbezogene Daten zu identifizieren (siehe Dokumentation).
- AI Handler für die Pseudonymisierung von Daten mithilfe von CSV implementiert (siehe Dokumentation).
- agorum.ai.debug: Kann aktiviert werden, um in der Konsole ein- und ausgehende Nachrichten an und von der KI zu sehen (siehe Dokumentation).
- agorum.ai.protocol: Kann aktiviert werden, um die Antworten der KI sowie die komplette Historie im Workspace zu protokollieren (siehe Dokumentation). Gerade für im Hintergrund arbeitende KI-Agenten interessant.
- agorum.ai.history.compaction: Wenn dieser in der KI-Einstellung hinterlegt ist, wird die Historie automatisch bei einer Auslastung von 75% zusammengepackt. Somit ist es möglich, beliebig lange Konversationen zu führen, ohne wichtigen Kontext zu verlieren (siehe Dokumentation).
- Usage-Protocol-Handler (optional): Neuer globaler Handler usage-protocol zum Protokollieren von Nutzungsstatistiken. Dieser Handler sendet nach Abschluss eines Chats (ohne Tool-Aufrufe) Nutzungsdaten per HTTP POST an einen konfigurierbaren Endpunkt (siehe Dokumentation).
Hinweis: Dieser Handler ist standardmäßig NICHT aktiviert und erfordert ein zentrales agorum core pro System mit entsprechendem REST-Service zum Sammeln der Nutzungsprotokolle. Bei Interesse wenden Sie sich bitte an agorum.
- Globale KI-Handler: Unterstützung für globale KI-Handler hinzugefügt. Globale Handler werden in der MetaDB unter MAIN_MODULE_MANAGEMENT/customers/[projektname]/global-handlers/ registriert und laufen vor den preset-spezifischen Handlern. Die Sortierung erfolgt über das Namensschema [#]NNNN handler.name, wobei # den Handler deaktiviert und NNNN die Sortierreihenfolge bestimmt (siehe Dokumentation).
- Fuzzy Matching für die Pseudonymisierung von Daten implementiert, um auch ähnlich geschriebene Worte ausfiltern zu können.
- Neuer context Parameter für AI Handler before und after Hooks hinzugefügt - ermöglicht Datenaustausch zwischen before- und after-Hook innerhalb desselben Aufrufs
- KI-Handler aufgeräumt und typedef-Definitionen für die Parameter hinzugefügt.
ALBERT | AI Chat:
- Kontext, der über das Chat-Widget gesetzt wird, wird nun auch im Chat gespeichert. Dadurch können Chats, die beispielsweise über den ALBERT | AI Reiter im Detailfenster aufgerufen werden (Voraussetzung: ALBERT | AI Agents), auch außerhalb des Detailfensters in der normalen Chat-Ansicht weitergeführt werden. Der Chat merkt sich somit, von wo aus dieser aufgerufen worden ist.
- chatTitle Property zum Widget agorum.ai.chatMain hinzugefügt, um im Chat oben einen Titel in der Toolbar anzeigen zu lassen.
- Beim Laden eines Templates, ohne zuvor gespeicherten Kontext, wird nun der vorhandene Kontext im Chat nicht mehr entleert.
- Chat-Widget verbessert, sodass dieses auch funktioniert, wenn das Widget in einem Tab-Container eingebettet wird, der temporär nicht sichtbar ist.
- Fehler behoben, der seit 2.0.59 dazu führte, dass das Streaming im Chat nicht mehr funktionierte./li>
- Debug-Modus (Voraussetzung: ALBERT | AI Agents):
- Der Debug-Modus im Chat-Fenster kann nun auch aktiviert/deaktiviert werden, während der Chat läuft.
- Im Debug-Modus im Chat-Fenster wird nun der Code von Tool-Aufrufen standardmäßig ausgeblendet und kann bei Bedarf eingeblendet werden. Dadurch sind die jeweiligen Tool-Aufrufe übersichtlicher.
- Verbesserung der Statistikanzeige im Chat, sodass nun auch Sub-KI-Aufrufe mitgezählt werden.
- Ausgabe der Verbrauchswerte im Debug-Modus im Chat optisch verbessert.
- Preisanzeige im Debug-Modus: Im Debug-Modus des Chats wird nun der berechnete Gesamtpreis basierend auf den konfigurierten Token-Preisen angezeigt. Die Anzeige erscheint nur, wenn mindestens ein Preis im Preset konfiguriert ist.
- Siehe Dokumentation
ALBERT | AI allgemein:
- Abhängigkeit zu ALBERT | AI Operating System entfernt.
- Reasoning-Text-Unterstützung: Die Bibliothek lib/ai.js speichert nun auch reasoningText in der Chat-Historie, wenn dieser vom Provider zurückgegeben wird. Dies ermöglicht die Nachverfolgung von Reasoning-Prozessen bei Modellen, die diese Funktion unterstützen.
- Fehler behoben in der Statistik-Berechnung, wenn ein Titel erstellt wurde, oder die Historie komprimiert wurde.
- Filter-Handler Aufruf optimiert für Tool-Responses. Es werden nun einzelne Strings betrachtet und nicht mehr das komplette serialisierte JSON, damit implementierende Filter damit besser umgehen können.
- Standard-Templates (KI-Vorlagen) wurden verschoben nach agorum.ai/ai/templates
- Titel-Erstellung optimiert: Der System-Kontext wird nun nicht mehr mitgesendet, was dazu führt, dass weniger Tokens bei der Titelerstellung verbraucht werden. Zudem geht dies dadurch nun wesentlich schneller. Anhänge und Bilder werden nicht mehr übertragen, was die Erstellung noch weiter beschleunigt und weniger Tokens verbraucht.
- Zählung der Tokens verbessert: Es werden nun auch die Tokens, die zur Erstellung von Chat-Titeln verwendet werden, mitgezählt. Zudem wird jetzt auch zwischen cache_read und cache-write unterschieden.
-
ALBERT | AI 2.0.47-2.0.55
- Das Chat-Widget kann via id-property einen vorhandenen Chat öffnen.
- Das Chat-Widget besitzt nun ein weiteres property 'context'. Damit kann ein zusätzlicher Kontext an das Widget übergeben werden, welcher dann bei der nächsten KI-Anfrage mit angefügt wird.
- Das Errror-Handling für Tool-Calls wurde verbessert, wenn das Max-Token-Limit erreicht wurde.
- Das Standard Max-Token-Limit für Anthropic wurde von 8k auf 32k erhöht.
- Wir haben einen Fehler behoben, der dazu geführt hat, dass der Chat nicht fortgesetzt werden konnte, wenn während eines Tool-Calls 'Abbrechen' geklickt wurde.
- Durch die Verarbeitung von replaceHistory ist es möglich, über tool-Responses die bisherige Historie durch eine neue Historie zu ersetzen. Das wird etwa durch das Tool compact_context_history durchgeführt.
- Anzahl der gesamten toolCalls mit in die Statistik bei der Antwort der KI integriert.
- Der verbrauchte Kontext ist jetzt in der tokens-Statistik verfügbar. Diese steht sowohl in der Antwort der KI (über die Bibliothek) zur Verfügung als auch im debug-Modus des Chats (siehe Dokumentation). Die Variable heißt 'context'.
- Bei Neuanlage einer Vorlage ist der gewählte KI-Assistent nun im Standard angehakt.
- Neue Einstellung für KI-Modelle: Context Window (siehe Dokumentation). Damit kann man einstellen, wie viele Tokens die KI verarbeiten kann (Standard: 200.000).
- Im Chat wurde ein prozentualer Verbrauch eingefügt, der dem Benutzer anzeigt, wie viel Prozent des verfügbaren Context Window verbraucht sind (siehe Dokumentation).
- Unterstützung für Gemini 3 pro hinzugefügt.
- Wir haben die Zählung von Tokens verbessert: Es wird nun zwischen cache_read und cache_write unterschieden.
- Die Ausgabe der Verbrauchswerte im Debug-Modus im Chat wurde optisch verbessert.
- Der Debug-Modus im Chat-Fenster kann jetzt auch aktiviert/deaktiviert werden, während der Chat läuft (siehe Dokumentation).
- Im Debug-Modus im Chat-Fenster wird nun der Code von Tool-Aufrufen standardmäßig ausgeblendet; dieser kann bei Bedarf eingeblendet werden (siehe Dokumentation). Dadurch sind die jeweiligen Tool-Aufrufe übersichtlicher.
-
ALBERT | AI 2.0.46
- Das Chat-Icon wurde modernisiert.
-
ALBERT | AI 2.0.43-2.0.45
- Wir haben den REST-Service für externe Chat-Komponenten erweitert, sodass https://github.com/agorum/albert-ai-website-chat mit ALBERT | AI verwendet werden kann.
- Wir haben einen Button für die Gruppe eingefügt, damit diese direkt bearbeitet werden kann.
- Diverse Verbesserungen der toolCall-Aufrufe im Chat.
- Wir haben den Chat optisch verbessert:
- deutlichere Markierungen im Chat-Verlauf
- Entfernung der Hintergründe
- Einsparung von Rahmen im Eingabefeld
- Im Chat-Fenster gibt es einen Bearbeitungs-Button neben der Modellauswahl, mit dem das aktuell gewählte Sprachmodell bearbeitet werden kann. Der Button wird nur bei Vorliegen der Berechtigung zum Bearbeiten von Sprachmodellen angezeigt.
- Ein Fehler wurde behoben, durch den Informationen aus Chat-Anhängen im weiteren Chat-Verlauf verloren gehen konnten.
-
ALBERT | AI 2.0.41-2.0.42
- Fehler behoben in der Presets-Maske, die dazu führen konnten, dass Einstellungsmöglichkeiten verschwunden sind, je nachdem, wie mit der Maske gearbeitet wurde.
- Zirkuläre Referenzen werden nun abgefangen und führen nicht mehr zu einem Stackoverflow.
- Man kann bei Preset-Referenzen nun nicht mehr auf sich selbst verweisen.
- Fehler behoben: Wenn Anhänge an den Chat gegeben wurden, gingen die Informationen in einem zweiten Durchlauf verloren.
-
ALBERT | AI 2.0.40
- Es wurde eine potenzielle Race-Condition in den Loop-Tools behoben, die dazu führen konnte, dass der Loop-Prozess im Hintergrund startete, aber der Aufrufer gleich zurückkam.
-
ALBERT | AI 2.0.36-2.0.39
- Die Nutzungsstatistiken (Token-Zählung und Byte-Anzahl) werden nun für jeden einzelnen KI-Aufruf erfasst und als Gesamtsumme zusammengefasst. Diese Gesamtsumme wird zurückgeliefert und im Chat-Verlauf gespeichert. Bisher wurden nur die Werte des jeweils letzten Aufrufs berücksichtigt.
- Die gleichzeitige Nutzung mehrerer Werkzeuge (paralleles Tool-Calling) wurde für Gemini- und Anthropic-Modelle verbessert.
- Ein Fehler wurde behoben, der auftrat, wenn mehrere parallele Tool-Aufrufe etwas in die Historie injiziert haben. Dies konnte zu Folgeproblemen bei der Verarbeitung durch das KI-Modell führen. Der Fehler trat konkret beim parallelen Tool-Aufruf von get_object_as_image auf.
- Leere Kontextinformationen (auch solche, die nur einen Return-Befehl enthalten) werden nicht mehr an die KI übertragen, da einige KI-Anbieter mit solchen leeren Informationen nicht korrekt umgehen können.
-
ALBERT | AI 2.0.30-2.0.35
- Neuer LLM-Provider: 'OpenAI - response API'. Damit ist die Nutzung der moderneren response-API von OpenAI möglich. Somit können nun auch Modelle verwendet werden, die nur diese neue API unterstützen, wie etwa GPT5-codex.
- Neuer LLM-Provider: 'Azure OpenAI - response API'. Damit steht die neue reponse-API nun auch für Azure OpenAI Umgebungen zur Verfügung.
- Unterstützung der Funktion Code-Interpreter innerhalb der neuen response-API von OpenAI. Dadurch ist es möglich, Code auf einer OpenAI-Container Umgebung auszuführen. Anwendungsbeispiele sind die Erstellung von Dokumenten, wie PDF, Word, Excel, Powerpoint, ... Zudem kann Code ausgeführt werden.
- Fehler im Chat-Fenster behoben, bei dem der Kontext des Benutzers verloren gehen konnte, wenn während der Antwort der KI der Chat gewechselt wurde.
- Fehler in der Maske 'KI-Voreinstellungen' behoben, wenn die Maske nach dem Schließen noch einmal aufgerufen wurde, wenn ungespeicherte Änderungen vorhanden waren und man auf 'Abbrechen' geklickt hat.
- Fehler behoben im OpenAI-response-Provider: Toolaufrufe werden nun korrekt zugeordnet.
- Fehlerbehebung in parallelen Tool-Aufrufen von Anthropic-Modellen. Somit ist die Nutzung von Claude Sonnet 4.5 möglich.
-
ALBERT | AI 2.0.29
- Beim Filtern des KI-Assistenten ist der Fokus jetzt in das Eingabefeld gesetzt.
-
ALBERT | AI 2.0.28
- Filter für die Auswahl des KI-Assistenten im Chat eingebaut
-
ALBERT | AI 2.0.27
- Weiteren Platzhalter im Kontext eingefügt: Tool Knowledge Tree aufrufen.
-
ALBERT | AI 2.0.26
- Bessere Fehlerbehandlung, wenn ein Modell keine sinnvolle oder fehlerhafte Antwort liefert.
-
ALBERT | AI 2.0.25
- Links im Chat, die fett dargestellt werden, funktionieren nun auch.
-
ALBERT | AI 2.0.24
- Der Menüpunkt "Neuen KI-Titel generieren" ist jetzt nur noch verfügbar, wenn der Chat eine Historie besitzt.
- Es wurde ein Fehler behoben, wenn eine Notiz als Anhang an den Chat übergeben wurde.
- Notizobjekte können nun auch bzgl. ihres Inhalts durch ALBERT | AI genutzt werden.
- Kontextmenü "Mit ALBERTs Chat öffnen" funktioniert nun auch mit Ordner-Objekten.
-
ALBERT | AI 2.0.23
- Fehler in "Neuen KI-Titel generieren" behoben, wenn der Befehl auf einem neuen Chat aufgerufen wird.
-
ALBERT | AI 2.0.22
- In der KI-Voreinstellungs-Konfiguration wurde ein Beschreibungsfeld hinzugefügt, mit dem eine kurze Beschreibung hinterlegt werden kann für die jeweilige Konfiguration (inklusive eines KI-Assistenten für das Schreiben).
- Fehlende Übersetzungen wurden ergänzt im KI-Assistenten.
- Die Suche/Filterung nach Tags mit Umlauten im Tag-Namen funktioniert nun.
-
ALBERT | AI 2.0.21
- Beim Ändern des Namens einer KI-Voreinstellung wird nun nur noch der eigentliche Name ohne Projekt-Prefix angezeigt und auch nur dieser kann geändert werden. Das Projekt-Prefix wird automatisch wieder davorgehängt beim Speichern.
-
ALBERT | AI 2.0.20
- Erweiterung der Bibliothek für das Laden von Templates um die Rückgabe der UUID des Templates.
-
ALBERT | AI 2.0.19
- Abhängigkeit zu ALBERT | AI Operating System hinzugefügt.
-
ALBERT | AI 2.0.18
- Ungültige Sucheingaben in der Konfigurationsauswahl führen nun nicht mehr zu einer Fehlermeldung, sondern lediglich zu einem leeren Ergebnis.
- Bei fehlerhaften Presets wird nun im Chat ein Fehlerdialog geöffnet, bei dem die Konfiguration direkt bearbeitet werden kann.
- Plugin-Titel geändert
-
ALBERT | AI 2.0.17
- Die Editoren im Workflow-Knoten agorum.ai wurden angepasst, sodass dort nun auch der umfangreiche Editor zur Verfügung steht. [PLUGINS-378]
- Beim Laden eines Templates im Chat, wird nun korrekt die Willkommensnachricht ausgetauscht.
- Im Chat werden nun benutzerfreundliche Fehlermeldungen ausgegeben. [PLUGINS-365]
- Statistik im Chat erweitert um die Anzahl von Tool-Aufrufen
-
ALBERT | AI 2.0.16
- Die Berechtigungen des Workflow-Knotens agorum.ai.chat werden nun korrekt beachtet.
- Die Berechtigung der übergebenen Session in der ai-lib werden nun korrekt beachtet.
- Errors im Workflow-Knoten agorum.ai.chat werden nun standardmäßig in der Variable sys_acw_error gespeichert.
- Erweiterte Debug-Informationen mit in den Chat hinzugefügt für
- tokens
- timing
-
ALBERT | AI 2.0.15
- Erstes Release des neuen Plugins für die KI-Integration.
- Für die Dokumentation siehe ALBERT | AI Dokumentation.
- Dieses Plugin ersetzt das Plugin agorum core ai llm. Für Informationen zur Migration siehe agorum core ai llm migrieren.
- Voraussetzung: agorum core pro 11.10